
Google анонсировала набор AI-функций для Android под брендом Gemini Intelligence. Главный акцент — на агентных возможностях: ассистент сможет выполнять многошаговые задачи между приложениями, использовать контекст экрана и помогать пользователю не только искать информацию, но и совершать действия.
Один из примеров — перенос списка покупок из приложения заметок в корзину магазина. Пользователь сможет зажать кнопку питания, описать задачу, а Gemini использует содержимое экрана как контекст и выполнит цепочку действий. При этом финальные шаги, например оформление покупки, будут требовать подтверждения пользователя.
Google уже показывала похожие агентные сценарии на запуске Samsung Galaxy S26: заказ еды, вызов такси, поиск расписания в Gmail и подбор связанных материалов. Теперь такие возможности начнут появляться непосредственно в Android.
На Android также придёт функция auto-browse, ранее тестировавшаяся в экспериментальном режиме. Она позволяет Gemini самостоятельно просматривать сайты и выполнять задачи вроде записи на приём. В конце июня Gemini появится и в Chrome на Android: пользователь сможет задавать вопросы по открытой странице или просить краткое резюме содержимого.
Ещё одно обновление касается Gboard. В клавиатуре появится функция Rambler на базе Gemini. Она будет использовать мультимодальные возможности модели для диктовки: пользователь говорит в своём обычном стиле, а система расшифровывает речь, убирает слова-паразиты и форматирует текст.
Отдельный блок анонсов связан с виджетами. Google позволит создавать Android-виджеты по описанию на естественном языке. Например, пользователь сможет попросить Gemini сделать виджет, который каждую неделю предлагает три рецепта для meal prep с высоким содержанием белка. Сгенерированные элементы будут следовать дизайн-языку Material 3 Expressive.
Первые функции Gemini Intelligence появятся летом на новых устройствах Samsung Galaxy и Google Pixel. Позже Google планирует распространить их на другие Android-смартфоны.
Для Android это заметный сдвиг: AI-функции становятся не отдельным чат-ботом поверх системы, а частью пользовательского интерфейса. Ассистент получает доступ к контексту экрана, приложениям, браузеру, клавиатуре и виджетам — то есть постепенно превращается в слой управления действиями внутри мобильной ОС.
ссылка на оригинал статьи https://habr.com/ru/articles/1034582/