Следите за новостями по этой теме!
Подписаться на «Рифы и пачки / Твоя культура»
Google решила снова напомнить миру, что камера смартфона — это уже не просто глазок для селфи, а полноценный инструмент для общения с искусственным интеллектом. Компания расширила доступность функции Search Live на все регионы, где работает её режим AI Mode. Эта возможность позволяет навести камеру на объект или сцену перед вами и сразу же задавать вопросы — будто вы водите экскурсовода, который знает всё, но живёт в телефоне.
Сначала Search Live появилась на территории США, когда в сентябре прошлого года Google открыл доступ всем пользователям приложения. Но ещё раньше, на конференции I/O 2025, разработчики показали функцию вживую и пообещали, что она станет глобальной. Теперь обещание выполнено: Search Live доступна в более чем двухстах странах и территориях.
Главное обновление касается того, что вся эта магия теперь работает на базе модели Gemini 3.1 Flash. Это новое поколение ИИ, которое реагирует быстрее, отвечает естественнее и, по словам Google, гораздо стабильнее предыдущих версий. Плюс модель поддерживает работу на нескольких языках сразу, без переключения настроек — что особенно удобно для тех, кто живёт в многоязычных странах или часто путешествует.
Получить доступ к Search Live можно через приложение Google на Android и iOS: под строкой поиска теперь красуется кнопка «Live». Альтернативный путь — Google Lens, где значок Live размещён в нижней части экрана. После нажатия можно сразу начинать диалог с ИИ, нацелив камеру на всё, что вызывает вопросы: от неизвестного растения до поломки техники.
Таким образом, Google делает ещё один шаг к тому, чтобы превратить камеру смартфона в универсальный инструмент навигации по реальному миру, где ответы приходят моментально и без необходимости формулировать поисковый запрос вручную.
Google расширяет функцию Search Live по всему миру — ожидаемо, как будто всем давно пора было начать разговаривать с телефоном, просто показывая ему случайные предметы. Компания делает вид, что совершает технологический прорыв, хотя на практике это тот же визуальный поиск, только с чуть более разговорчивым искусственным интеллектом.
Новая модель Gemini 3.1 Flash — главный герой этой истории. Ей доверили быть «умом» функции, поэтому теперь ответы приходят быстрее, звучат естественнее и даже не ломаются, если пользователь внезапно переключается с одного языка на другой. Google подаёт это как революцию, хотя выглядит это скорее как попытка догнать собственные обещания, данные ещё на I/O 2025.
Кнопка «Live» в приложении Google и иконка в Google Lens — вот весь входной билет в новую эру общения со смартфоном. Пользователь наводит камеру на объект, задаёт вопрос, получает ответ — и на этом магия заканчивается. Чудес нет, есть нейросеть, которой поручили роль всезнающего комментатора.
Но Google снова играет в игру «переосмыслим камеру». Камера в их видении — не инструмент фотографии, а средство общения с цифровым собеседником, который терпеливо объясняет, что перед вами: цветок, поломка или очередная мелочь, которую нормальный человек и не заметил бы.
Разработчики несут свой месседж: будущее наступило. На деле — просто ещё одна функция, которая будет радовать одних, раздражать других и бесконечно собирать данные о том, что мы тычем перед камерой. Совпадение, конечно. Но удобства никто не отменял.