Наблюдение за движениями лица человека часто начинается до того, как произносятся звуки. Слуховая система использует эти ранние визуальные сигналы для возбуждения слуховых нейронов до того, как будут услышаны звуки.
Интеграция визуальных и слуховых сигналов позволяет человеку получать более точную и эффективную речевую информацию, что значительно улучшает коммуникативные способности.
В недавнем исследовании ученые использовали данные фМРТ здоровых взрослых и внутричерепные записи с электродов, имплантированных пациентам с эпилепсией, во время выполнения задач по слуховому и визуальному восприятию речи.
Результаты показали, что слова, произносимые с губ, могли быть классифицированы в более ранние моменты времени по сравнению с услышанными словами. Это говорит о том, что чтение по губам может включать прогностический механизм, который облегчает обработку речи до того, как слуховая информация станет доступной.
Результаты подтверждают модель, в которой слуховая система объединяет нейронные распределения, вызванные услышанными словами и прочитанными по губам, для получения более точной оценки сказанного.
По мере снижения способности слышать люди все больше полагаются на визуальные сигналы, помогающие им понимать. Способность визуальной речи активировать и кодировать информацию в слуховой коре, по-видимому, является важнейшим компенсаторным механизмом.
Источник: Ganesan Karthik et al, Auditory cortex encodes lipreading information through spatially distributed activity, Current Biology (2024) | DOI: 10.1016/j.cub.2024.07.073.