Итоги работы искусственного интеллекта Google вызывают больше недоверия, чем доверия. Например, вы недавно искали что-то в Google и увидели миленький логотип с бриллиантом над набором магически появившихся слов? Обзор ИИ Google сочетает языковые модели Google Gemini (которые генерируют ответы) с Retrieval-Augmented Generation, что извлекает соответствующую информацию.
На бумаге это должно было сделать невероятный продукт, поисковую систему Google, еще проще и быстрее в использовании.
Однако, поскольку создание этих резюме — это два этапа, могут возникнуть проблемы, когда возникает разрыв между извлечением и генерацией языка.
Хотя извлеченная информация может быть точной, ИИ иногда совершает ошибочные выводы и делает странные заключения при генерации резюме.
Это привело к нескольким известным ошибкам, например, когда в середине 2024 года он стал объектом насмешек интернета, рекомендовав клей в качестве средства, чтобы сыр не соскальзывал с вашей домашней пиццы. А еще была ситуация, когда он описал бег с ножницами как "кардио-тренировку, которая может улучшить частоту сердечных сокращений и требует концентрации и сосредоточенности".
События подобного рода побудили Лиз Рид, главу поиска Google, опубликовать статью под заголовком "О прошлом неделе", в которой она заявила, что эти примеры "подчеркнули некоторые специфические области, которые нам нужно было улучшить". Более того, она дипломатично обвинила "абсурдные запросы" и "сатирический контент".
Рид была как минимум частично права, ведь некоторые проблемные запросы были специально сфабрикованы, чтобы сделать ИИ глупым. Запрос "Сколько камней мне следует съесть?" не был распространенным до появления ИИ-обзоров, и после этого тоже не стал таким.
Тем не менее, спустя почти год после фиаско с пиццей и клеем, люди продолжают обманывать обзоры ИИ Google, заставляя его выдумывать информацию или "галлюцинировать" — это эвфемизм для лжи ИИ.
Многие обманчивые запросы, похоже, игнорируются на момент написания, но всего месяц назад сообщалось, что обзоры ИИ изобретают объяснения для выдуманных идиом, таких как "не можешь жениться на пицце" или "никогда не трогай ноутбук бассета".
Так что, ИИ часто ошибается, когда вы намеренно дразните его. Большая беда. Но что будет, когда настоящая проблема заставит ИИ галлюцинировать?
Хотя ИИ прекрасно работает, если все, кто им пользуется, проверяют, откуда он взял свою информацию, многие скорее всего, если не большинство, этого делать не будут.
И здесь кроется основная проблема. Как писатель, обзоры ИИ уже немного раздражают, потому что я хочу читать материалы, написанные человеком. Но даже исключив свой про-человеческий настрой, ИИ становится действительно проблематичным, если ему легко нельзя доверять. И это становится до абсурда опасным, ведь он стал практически повсеместным при поиске, и определенная доля пользователей будет принимать его информацию за чистую монету.
Я имею в виду, годы поиска подготовили нас всех к тому, чтобы доверять результатам на верхней строчке.
Как и многие, я иногда испытываю трудности с переменами. Мне не понравилось, когда Леброн ушел в Лейкерс, и я продолжал пользоваться MP3-плеером дольше, чем следовало бы.
Тем не менее, учитывая, что это теперь первое, что я вижу в Google чаще всего, обзоры на AI Google немного труднее игнорировать.
Я пробовал использовать его как Википедию — потенциально ненадежный, но хороший способ вспомнить забытое или изучить основы темы, которая не вызовет у меня проблем, если она не совсем точна.
Однако, даже по, казалось бы, простым запросам он может потерпеть колоссальный провал. Например, на прошлой неделе я смотрел фильм, и один парень действительно сильно походил на Лина-Мануэла Миранду (создателя мюзикла "Гамильтон"), так что я загуглил, есть ли у него братья.
Обзор ИИ сообщил мне, что "Да, Лин-Мануэль Миранда имеет двух младших братьев по имени Себастьян и Франсиско."
В течение нескольких минут я считал себя гением в распознавании людей… пока немного дальнейшего исследования не показало, что Себастьян и Франсиско на самом деле дети Миранды.
Хотя на тот момент я хотел дать ИИ шанс, я был уверен, что без проблем найду цитаты из "Звездных войн", чтобы помочь мне придумать заголовок.
К счастью, он дал мне именно то, что мне нужно. "Привет, там!" и "Это ловушка!", и даже процитировал "Нет, я твой отец" вместо слишком распространенного "Люк, я твой отец".
Однако вместе с этими законными цитатами он заявил, что Аниakin сказал "Если я уйду, я уйду с шумом" до своей трансформации в Дарта Вейдера.
Я был в шоке, как он мог быть так неправ… а потом начал ставить под сомнение себя. Я заставил себя думать, что я обязательно ошибаюсь. Я так неуверенно себя чувствовал, что трижды перепроверил существование этой цитаты и поделился ей с офисом - где она быстро (и правильно) была отвергнута как еще одно проявление безумия ИИ.
Этот небольшой момент сомнения по поводу чего-то такого глупого, как "Звездные войны", напугал меня. А что, если у меня не хватит знаний о теме, о которой я спрашиваю?
Исследование SE Ranking показывает, что обзоры ИИ Google избегают (или осторожно отвечают) на темы финансов, политики, здоровья и права. Это значит, что Google знает, что его ИИ еще не способен справляться с более серьезными запросами.
Но что произойдет, когда Google решит, что он улучшился до той степени, что может это сделать?
Если бы всех, кто использует Google, можно было бы доверять, чтобы перепроверять результаты ИИ или переходить по ссылкам на источники, предоставленным в обзорах, неточности не стали бы проблемой.
Но, пока есть более простой вариант — более беспрепятственный путь, люди, как правило, выбирают его.
Несмотря на то, что у нас сейчас больше информации на пальцах, чем когда-либо в истории человечества, в многих странах наши навыки грамотности и счета снижаются. Например, исследование 2022 года показало, что всего 48.5% американцев заявили, что прочитали хотя бы одну книгу за последние 12 месяцев.
Проблема не в технологии сама по себе. Как красиво утверждает доцент Грант Блашки, проблемы возникают в том, как мы используем технологию (и, в действительности, как нас направляют к её использованию).
Например, наблюдательное исследование ученых из канадского Университета Макгилла показало, что регулярное использование GPS может привести к ухудшении пространственной памяти — и к неспособности ориентироваться в пространстве без него. Я не могу быть единственным, кто использовал Google Maps, чтобы добраться куда-то и не имел ни малейшего понятия, как вернуться.
Нейробиология четко доказала, что борьба полезна для мозга. Теория когнитивной нагрузки утверждает, что вашему мозгу нужно размышлять о вещах, чтобы научиться. Трудно представить, что вы целый день паритесь с поиском допроса, читая резюме ИИ и затем заканчивая это на этом.
Я не обязуюсь никогда больше не использовать GPS, но, учитывая, что обзоры ИИ Google регулярно ненадежны, я избавился бы от обзоров ИИ, если бы мог. Но, к сожалению, на данный момент не существует такой возможности.
Даже ходы вроде добавления ругательства к вашему запросу больше не работают. (Хотя использование матерных слов все еще кажется работающим большую часть времени, это также приводит к более странным и, эээ, ‘взрослым’ результатам поиска, которые, вероятно, вам не нужны.)
Конечно, я все равно буду использовать Google — потому что это Google. Они не собираются отказываться от своих амбиций в отношении ИИ в ближайшее время, и хотя я мог бы мечтать о восстановлении возможности отказаться от ИИ-обзоров, может быть, лучше знать дьявола, которого вы знаете.
Сейчас единственная настоящая защита от дезинформации ИИ — это предпринять осознанные усилия не использовать её. Пусть AI делает заметки на ваших рабочих встречах или придумывает фразы для знакомств, но когда дело доходит до использования её в качестве источника информации, я буду прокручивать мимо нее и искать качественную статью, написанную человеком (или хотя бы проверенную) из верхних результатов — как я делал это практически всю свою жизнь.
Я ранее упоминал, что однажды эти инструменты ИИ могут действительно стать надежным источником информации. Они могут даже быть достаточно умными, чтобы взяться за политику. Но сегодня не этот день.
На самом деле, как сообщалось 5 мая в New York Times, по мере того как ИИ-инструменты Google и ChatGPT становятся мощнее, они также становятся все менее надежными — так что я не уверен, что когда-либо доверю им обобщение каких-либо политических программ кандидатов.
При тестировании уровня галлюцинаций этих "рассуждающих систем" уровень галлюцинаций составил шокирующие 79%. Амр Авадалла, генеральный директор Vectara — платформы ИИ-агентов и помощников для бизнеса — сказал прямо: "Несмотря на все наши усилия, они всегда будут галлюцинировать."
В то время как искусственный интеллект от Google обещает забавный и относительно полезный опыт, на самом деле он скорее напоминает безумного профессора, свалившегося с ума от избытка кофе. Все эти громкие заявления о том, как новейшие языковые модели Google Gemini способны пересобрать ваши запросы в такие же шедевры, вызывают больше сомнений, чем восхищения. Несмотря на красивую обертку с бриллиантами, под ней скрыта непрекращающаяся путаница, которая в конце концов превращает простое откровение в фарс.
Конечно, можно списать эти идиотские ошибки на недоразумения пользователей — вы же не могли действительно ожидать адекватных ответов на запросы вроде “Сколько камней мне следует съесть?” Напоминает участие людей в «смешанных единоборствах» со своим искусственным другом, который в итоге оказывается чьей-то игрушкой для запутанных шуток.
Лиз Рид, глава поиска Google, в своей недавней статье пытается усугубить проблему способов формулирования вопросов, вместо того чтобы признать, что проблема может быть не только в запросах, но и в самом ИИ. Размеры абсурда здесь просто громадные — от клейкой пиццы до бега с ножницами как кардио-тренировки — вот истинная суть мимолетного внимания, когда реальные ошибки запускают беспорядок в интернете.
Чем больше люди обманывают ИИ, тем больше он заигрывает с фантазиями — и о, как это весело! Но когда ваше поисковое приключение превратится в шутку на вечеринке, где главный аттракцион — это “галлюцинации” ИИ, становится немного грустно. Круто, что вы единолично сделали что-то, что требует не столько мозгов, сколько желания их не использовать.
Но ручей из жалоб на ИИ из недавних месяцев надежно заполняется новыми событиями — такими, как несуразные факты о Лина-Мануэле Миранде. Гармония работы от ключевого игрока поиск-гиганта в виде недоразумений прямого назначения приводит к парадоксам, вызывающим состояние тревоги и недоумения у пользователей. Вдруг люди начинают сомневаться в своих источниках и знаниях, потому что если ИИ делает такой глупый вывод, возможно, и ваше образование оказалось похоже на него?
Пока технология сама по себе уныло развивается, действительно стоит задуматься — когда ИИ сможет справляться с более серьезными запросами? Многообещающие отклики от Google, получается, просто заправлены жареными фразами и банальным игнорированием деталей. Но, ох, как профессионалы в области ИТ будут вращать хвостами и отвлекать нас новыми логотипами!
И даже если у вас в кармане невидимый компас от “умного” следящего девайса, большой вопрос остается — на кого вся эта механическая малосольная пародия работает? Пользователи идут по более легкому пути — это как минимальная версия "прокрастинации", где толковые статьи и свежая информация становятся дико сложными.
Так что распрощайтесь с надеждами на адекватный ИИ, когда каждый второй ваш запрос заставляет вас чувствовать себя глупым в один момент. Главное, снова начать доверять обыденным знаниям и читать исследования, а не полагаться на большее галлюцинирующее "чудо" от Google. Здесь, как и в жизни, лучше знать дьявола, которого вы знаете.