Недавнее исследование показало сходство в обработке языка между мозгом и моделями ИИ, такими как GPT-2. Результаты указывают на то, что мозг, подобно системам ИИ, использует контекстно-зависимое пространство для понимания речи. Это открытие может изменить наше понимание нейронной обработки речи.
Глубокие языковые модели, такие как GPT-2, используют нейронные сети для создания многомерных векторных представлений (вложений), отражающих взаимосвязи между словами. Это позволяет моделям интерпретировать слова по-разному в зависимости от контекста, обеспечивая более тонкое понимание. Команда под руководством доктора Ариэля Гольдштейна из Еврейского университета в Иерусалиме изучала, может ли мозг использовать подобные методы.
Ученые записали нейронную активность в нижней лобной извилине, области мозга, отвечающей за обработку речи, у участников эксперимента во время прослушивания подкаста. Сопоставив каждое слово с «мозговым вложением», они обнаружили геометрические закономерности, аналогичные контекстным вложениям в глубоких языковых моделях. Эта общая геометрия позволила исследователям предсказать реакцию мозга на ранее не встречавшиеся слова, что свидетельствует о том, что мозг полагается на контекстные связи, а не на фиксированные значения слов, как в системах глубокого обучения.
Исследование демонстрирует, что мозг динамически обновляет представление о языке в зависимости от контекста, что бросает вызов традиционным психолингвистическим теориям, основанным на правилах. Работа доктора Голдштейна согласуется с недавними достижениями в области ИИ, открывая перспективы для моделей, вдохновленных ИИ, которые могут углубить наше понимание нейронных основ понимания языка.
Источник: Ariel Goldstein et al, Alignment of brain embeddings and artificial contextual embeddings in natural language points to common geometric patterns, Nature Communications (2024) | DOI: 10.1038/s41467-024-46631-y.