За неделю до Google I/O 2026 (19–20 мая) в интерфейсе Gemini обнаружилась неанонсированная видеомодель Omni. 2 мая пользователь X под ником @Thomas16937378 заметил в вкладке генерации видео строку «Start with an idea or try a template. Powered by Omni», после чего тему подхватил TestingCatalog. 11 мая упоминания Omni всплыли уже в мобильном приложении Gemini с описанием «Meet our new video model. Remix your videos, edit directly in chat, try a template, and more». Похоже на ограниченный A/B-тест перед анонсом на I/O.
Что известно по утечкам. Omni появляется рядом с внутренним кодовым именем «Toucan» — текущей видео-связкой Gemini, работающей поверх Veo 3.1. Метаданные интерфейса намекают, что Omni — это расширение или эволюция Veo, а не отдельная архитектура. Сам же TestingCatalog описывает три возможных трактовки: новое маркетинговое имя для того же Veo-конвейера; отдельная видеомодель в семействе Gemini рядом с Veo; либо настоящая омни-модель, генерирующая текст, изображения и видео в одном стеке, по аналогии с GPT-4o. По одному UI-стрингу различить эти варианты невозможно.
Что показали ранние сэмплы. Самый обсуждаемый пример — клип, где профессор выводит на доске тригонометрические тождества с пошаговым объяснением. Уравнения корректны, мимика и движение выглядят естественно — для AI-видео это нетривиально, поскольку требует не только визуальной когерентности, но и семантической точности. Ещё один пример — кинематографичная сцена с двумя мужчинами, едящими спагетти у моря. По оценке TestingCatalog, по чистой генерации Omni уступает ByteDance Seedance 2, лидеру публичных бенчмарков, но заметно сильнее в редактировании: удаление вотермарок, подмена объектов в кадре, переписывание сцены через чат. Этот паттерн повторяет траекторию Nano Banana — модель тоже стартовала со средними метриками генерации и топовыми по редактированию.
Лимиты и стоимость. Одновременно с Omni у пользователей появилась новая вкладка «usage» в настройках. По наблюдениям тестеров, генерация двух подробных видео съедала большую часть дневного лимита плана AI Pro — что согласуется с ранее замеченными планами Google ввести более жёсткие квоты и тариф AI Ultra Lite. Сообщается также о возможном существовании двух версий модели.
Контекст рынка. Конкуренция в видеогенерации в 2026 году плотная: Seedance 2.0 от ByteDance держит верх публичных бенчмарков, Runway Gen-4.5 ранее обгонял Veo 3 на Artificial Analysis, у Alibaba — Wan 2.7 с поддержкой 1080p и синхронизированного аудио. OpenAI, по комментариям 9to5Google, фактически свернула развитие Sora; Google же неоднократно повторял, что «video is here to stay». Параллельно утекают сведения о других проектах Google к I/O: версии Gemini 3.2 / 3.5 с акцентом на скорость, фича долгосрочной памяти под кодовым именем «Teamfood» и визуальная модель «Spark Robin».
Что важно сейчас. Официального подтверждения от Google нет. Но публичная UI-строка с продуктовым названием — стандартный паттерн staging-фазы перед запуском, и появление за неделю до I/O вряд ли совпадение. Если Omni окажется настоящей унифицированной омни-моделью с нативным видеовыходом, это будет первая такая в верхнем сегменте рынка. Если это ребрендинг Veo с улучшенным редактированием — тоже значимо для пользователей Gemini, но без архитектурного прорыва. Ответы — на стейдже Google I/O 19–20 мая.
ссылка на оригинал статьи https://habr.com/ru/articles/1034042/