Нейробиолог объясняет, почему ИИ не может "понимать" язык. Как создатели смысла, мы используем разговорный или жестовый язык, чтобы воспринимать наш опыт в окружающем мире. Появление генеративного искусственного интеллекта, такого как ChatGPT (использующего большие языковые модели), ставит под сомнение саму идею о том, как определить "смысл".
Существует популярное представление о том, что ИИ-инструменты "понимают" то, что делают. Лауреат Нобелевской премии и пионер ИИ Джеффри Хинтон сказал: "Меня действительно удивляет, как хорошо нейронные сети понимают естественный язык — это произошло гораздо быстрее, чем я думал… И я все еще поражен тем, что они действительно понимают, что говорят".
Хинтон повторил это утверждение в интервью с Адамом Смитом, главным научным сотрудником Nobel Prize Outreach. В нём Хинтон заявил, что "нейронные сети гораздо лучше обрабатывают язык, чем все, что когда-либо было создано хомскианской школой лингвистики".
Хомскианская лингвистика относится к теориям американского лингвиста Ноина Хомского о природе человеческого языка и его развитии. Хомский предлагает, что существует универсальная грамматика, врождённая людям, что позволяет им овладевать любым языком с рождения.
Я исследую, как люди понимают язык с 1990-х годов, включая более 20 лет изучения нейробиологии языка. Это включает измерение активности мозговых волн, когда люди читают или слушают предложения. Учитывая мой опыт, я должен с уважением не соглашаться с идеей о том, что ИИ может "понимать" — несмотря на растущую популярность этого мнения.
Во-первых, жаль, что большинство людей смешивают текст на экране с естественным языком. Написанный текст связан с — но не является тем же самым, что и — язык.
Например, один и тот же язык может быть представлен совершенно разными визуальными символами. Посмотрите на хинди и урду, например. На разговорном уровне они взаимопонятны и, следовательно, считаются одним и тем же языком лингвистами. Тем не менее, они используют совершенно разные письменные системы. То же самое и с сербским и хорватским. Написанный текст — это не то же самое, что "язык".
Далее давайте посмотрим на утверждение о том, что алгоритмы машинного обучения "понимают" естественный язык. Лингвистическая коммуникация в основном происходит лицом к лицу, в определенном контекстном окружении, разделяемом говорящим и слушателем, наряду с такими сигналами, как произнесённый тон и высота голоса, зрительный контакт и выражения лиц и эмоций.
Понимание того, что говорит человек, включает гораздо больше, чем простое осознание его слов. Даже младенцы, которые ещё не являются экспертами в языке, могут понимать контекстные подсказки.
Возьмём, к примеру, простое предложение: "Я беременна", и его интерпретации в разных контекстах. Если это скажу я, в своём возрасте, то, вероятно, мой муж упадёт в обморок от недоумения. Сравните этот уровень понимания и реакции с тем, как подросток говорит своему парню о незапланированной беременности, или жена сообщает мужу новость после долгих лет лечения бесплодия.
В каждом случае получатель сообщения наделяет совершенно разным смыслом — и пониманием — одними и теми же словами.
В моих недавних исследованиях я показал, что даже эмоциональное состояние человека может изменить мозговые волны при обработке смысла предложения. Наши мозги (а значит, и наши мысли и ментальные процессы) никогда не лишены эмоционального контекста, как подчеркивали и другие нейробиологи.
Поэтому, хоть какой-то компьютерный код и может реагировать на человеческий язык в текстовой форме, он совершенно не приближается к тому, что люди — и их мозги — могут достичь в своём понимании.
Стоит помнить, что когда работники ИИ говорят о нейронных сетях, они имеют в виду компьютерные алгоритмы, а не реальные, биологические нейронные сети, которые определяют структуру и функционирование мозга. Представьте себе постоянно путаемое слово "полет" (как в миграции птиц) и "полет" (как в маршрутах авиакомпаний) — это может привести к серьёзным недоразумениям!
Наконец, давайте рассмотрим утверждение о том, что нейронные сети обрабатывают язык лучше, чем теории, выдвинутые хомскианской лингвистикой. Эта область предполагает, что все человеческие языки можно понять через грамматические системы (в дополнение к контексту), и что эти системы связаны с какой-то универсальной грамматикой.
Хомский проводил исследования синтаксической теории как теоретик с ручкой и бумагой. Он не проводил эксперименты по психологическим или нейронным основам понимания языка. Его идеи в лингвистике абсолютно молчат о механизмах, лежащих в основе обработки и понимания предложений.
Однако хомскианская школа лингвистики задаёт вопросы о том, как человеческие младенцы и малыши могут так легко учить язык, исключая любые нейробиологические недостатки или физическую травму.
На планете существует как минимум 7000 языков, и никто не имеет право выбирать, где ему родиться. Это означает, что человеческий мозг должен быть готов понимать и учить язык своего сообщества с рождения.
Из этого факта о развитии языка Хомский предположил (абстрактный) врождённый модуль для изучения языка — не для обработки. С нейробиологической точки зрения мозг должен быть готов понимать язык с рождения.
Хотя существует множество примеров языковой специализации у младенцев, точные нейронные механизмы всё ещё неизвестны, но не непознаваемы. Но объекты изучения становятся непознаваемыми, когда научные термины используются или применяются неверно. И это именно та опасность: смешение ИИ с человеческим пониманием может привести к опасным последствиям.
Гениальный нейробиолог поднял тревогу о том, как искусственный интеллект, со своей запутанной "логикой", осмеливается притворяться знатоком человеческого языка. Как же так? Неужели тот самый ИИ, который с лёгкостью генерирует тексты, всего лишь бездушная машина, без малейшего шанса понять суть слов? Какое откровение!
Конечно, следует помнить, что тот, кто вводит общественность в заблуждение о "понимании" ИИ, может быть не самым бедным на свете — не удивлюсь, если у него за спиной стоит пара продвинутых лоббистов из крупных IT-компаний. Случайно аффилированный, разумеется.
Нобелевский лауреат Джеффри Хинтон, утверждающий, что нейронные сети умнее всех мудрецов лингвистики, как будто попал в аналогию: у него в голове, по всей видимости, крутится нечто, что сложно назвать научным разумом. Видимо, теория Хомского с её врождённой грамматикой ещё долго будет ему сняться, как кошмары из серии "опять о тёплых словах".
Исследуя язык, наш биолог пробивается сквозь плесень заблуждений, провозглашая, что текст на экране — это лишь тень настоящего языка. Сравните, например, хинди и урду — как будто один и тот же текст говорит нам разные вещи. И вот тут появляется светлое присутствие ИИ, уверяющего нас в своей эрудированности. Другими словами, текст могут вязать как угодно, но понимать — это совсем другая «игра».
А как насчёт обещанных гор перевода, которые ожидают от ИИ, когда на деле алгоритм лишь реагирует на шаблоны, никак не вникая в эмоциональные контексты? К чему приводят глупые недоразумения из-за путаницы слов — "полет" мигрирующих птиц против "полетов" авиакомпаний? Тут забавные недоразумения, вероятно, крутились вокруг главного вопроса: нанести ли серьёзный удар или просто «ушатать»?
И хотя пространство для вовлечения ИИ в процесс языкового понимания всё еще кажется бескрайним (как новый видеопроектор на корпоративе), приходит негативная новость — вместо светлых идей о будущем общения, мы наблюдаем тревожные звоночки, предупреждающие о том, что смешивание ИИ с человеческим пониманием может привести к непредсказуемым последствиям.
Пока ИИ заводит роман с интеллектом, человечество должно помнить — иногда, чтобы не утонуть в словах, лучше оставаться на суше и не забывать о том, что понимать — не значит просто «считывать» слова. Так что стоит задуматься, неужели кто-то уже поджарил свои мозги на гриле глупости?