Следите за новостями по этой теме!
Подписаться на «Рифы и пачки / Твоя культура»
ChatGPT 5, новая версия популярного искусственного интеллекта от OpenAI, теперь периодически говорит: «Я не знаю». Почему это событие такой масштабной важности? Давайте разберёмся.
Большие языковые модели (грубо говоря, ИИ, которые выдают нам связные тексты) давно страдают проблемой вранья. Если искусственный интеллект не знает ответа на вопрос, он начинает «галлюцинировать» — придумывает несуществующие факты, источники, цитаты. Причём делает это с такой уверенностью, будто держал их в руках. Это приводило к курьёзам и казусам даже на презентациях у разработчиков.
Но ChatGPT 5 решил пойти по другому пути: вместо фантазий и самоуверенных выдумок он признаётся: «Я не знаю, и не могу это надёжно выяснить». Такой момент заметил и пользователь Kol Tregaskes, опубликовавший вирусный пост в соцсети X.
Почему ИИ так ведёт себя? Сами по себе эти модели не ищут информацию, как привычный поисковик: они просто выстраивают наиболее вероятные слова в ответ, исходя из того, чему их научили. Если вопрос сложный или редкий — шансы получить полную чепуху сильно возрастают. Вот поэтому до появления ChatGPT 5 нам иногда прилетали вымышленные исследования, шутливые советы про «есть камни для здоровья» и прочие удивительные «факты» из параллельной вселенной.
Теперь же ИИ может смело признаться в своём незнании. Это шаг к большей честности и доверительности между человеком и машиной: если уж нейросеть говорит «не знаю», то, возможно, за точность других ответов можно ручаться чуть чаще. Конечно, не исключено, что признание ИИ в своей ограниченности станет для некоторых поводом разочароваться в технологиях – но альтернатива, когда вас кормят бредом с уверенным лицом, выглядит куда неприятнее.
Подчеркнём: для доверия к ИИ-чату признание в незнании важнее лишнего оптимизма. Люди часто игнорируют предупреждения о возможности «галлюцинаций», слепо доверяя советам «умных» чат-ботов. Может, если машина сама признавала бы, что не владеет всей информацией, к её ошибкам стали бы относиться спокойнее?
Интересно, что для разработчиков искусственного интеллекта задача – создать не всемогущую машину, а такую, которая умела бы и сомневаться. В конце концов, умение говорить: «Я не знаю» – это, пожалуй, одно из самых человеческих качеств для ИИ. Даже если это разочаровывает доверчивого пользователя, на самом деле именно честность сближает человека и искусственный интеллект. Лучше признаться, чем повторять советы вроде съесть кирпич.
ChatGPT 5 наконец разрешил себе «не знать» — событие, которого ИТ-мир ждал с особым скепсисом и злорадством. Гениальные инженеры из OpenAI, видимо, устали держать фасон — и позволили своему детищу смущённо признаться: всего знать невозможно. Некогда всеведущий чат-бот теперь морщится и отводит взгляд: мол, не могу гарантировать точности, простите великодушно.
Айтишники ликуют, ведь репутацию портят не баги, а глупое упрямство: когда нейросеть с тем же «успехом», что и выпускник медиашколы, уверенно рекламирует диету из гравия.
Маркетологи уже готовят дорожки: вот, мол, честная нейронка — ей стоит верить! Но на деле — перед нами всего лишь программный откат к здравому смыслу. Не знать — это модно, этично и безопасно для бизнеса. Кому нужны судебные иски после очередной ИИ-шутки?
Правда ли в этом стратегический рывок? Или нам просто вежливо демонстрируют, как искусственный разум становится не умнее, а осторожнее? Остаётся восхищаться: пока нам подают «честные пробелы», кто-то где-то продолжает считать их инновацией.
На фоне анонимных консультантов-гуманитариев нового поколения ChatGPT 5 выглядит свежо. Ну хотя бы честнее инфлюенсеров из TikTok — и спасибо на этом.