
Tencent, Alibaba, DeepSeek AI, Kuaishou — эти компании выпускают модели одну за другой, заставляя западных конкурентов почесать головы. Китайские ИИ‑продукты сегодня покрывают всё: от создания объёмных научных статей до генерации мемных видеороликов, которые легко взорвут соцсети. Эти технологии уже привлекли внимание профессионалов, но их потенциал доступен и обычным пользователям.
Куда бежать, если вам срочно нужно оживить персонажа, создать фотосессию из одного‑единственного портрета или сделать прикольную гифку для поздравления? Hunyuan‑T1 с гибридным трансформером, Qwen-2.5 с миллионным контекстным окном, Talkie, который обошёл по популярности Character.ai, и Kling, монтирующий видео из нескольких картинок, — обо всём этом в статье!
Hunyuan-T1 (Tencent)
21 марта 2025 года Tencent представила Hunyuan‑T1. Новинка не только догоняет, но и обгоняет другие топовые нейросети (DeepSeek‑R1, GPT-4.5, o1) практически во всех категориях:

Как воспользоваться Hunyuan-T1

Модель Hunyuan‑T1 доступна на официальном сайте Tencent. Модель свободно общается на русском, однако рассуждения и системные сообщения иногда отображаются на китайском. Ещё один нюанс — Hunyuan‑T1 немультимодальна (то есть ни картинки, ни документы нельзя загрузить). Кстати, интерфейс доступен только на китайском, а возможность зарегистрироваться в системе отсутствует.
DeepSeek-v3, DeepSeek-R1 (DeepSeek AI)
В декабре 2024 года, а затем в январе 2025-го технологический ландшафт вздрогнул — DeepSeek AI представила сразу две мощнейшие модели: V3 и R1. Разработка DeepSeek, первая версия которой вышла в 2023-м, стала ответом на введённые США ограничения, когда Nvidia перестала поставлять в Китай графические чипы (подробнее об этом — в интервью с основателем Ляном Вэньфэном).
Что отличает V3 от R1?
DeepSeek‑V3 — классическая большая языковая модель, LLM, а DeepSeek‑R1 представляет собой LRM, то есть модель для рассуждений. Если первой подойдут более общие задачи, то вторая будет полезна в областях программирования, науки и других, где важно подумать дважды (буквально). Что по характеристикам: обе модели имеют 671 млрд параметров плюс дополнительные 14 млрд для параллельного предсказания токенов. Размер контекста стандартный на сегодняшний день — 128 000 токенов.
Что касается показателей в бенчмарках, то DeepSeek‑R1 вышла на один уровень с ChatGPT‑o1. Вместе они показывают класс в таких дисциплинах, как кодинг, математика, языковые задачи, и множестве других направлений:

У R1 хорошие возможности по обработке загруженных документов, однако нет функции генерации изображений, как у Grok, ChatGPT и Qwen.
Как работать с DeepSeek
Модели V3 и R1 доступны на официальном сайте, но — внимание — сервер там частенько забивается до отказа…

…поэтому приходится искать альтернативные способы.
Однако выход есть. Зарегистрируйтесь в агрегаторе нейросетей BotHub по этой специальной ссылке и получите приятный сюрприз — 100 000 токенов для доступа к V3, R1, Qwen и многим другим моделям без ВПН.
Давайте посмотрим, как DeepSeek‑R1 напишет скрипт на языке Python:

Ответ R1

Qwen-2.5, Qwen-QwQ-32B (Alibaba)
Если вы всё ещё ассоциируете Alibaba только с онлайн‑магазином, то пришло время переосмыслить стереотипы. В 2025 году эта китайская корпорация выстрелила в ещё одну технологическую вершину, представив свою мощнейшую ИИ‑модель — Qwen-2.5-Max, одну из мощнейших в Китае.
Линейка Qwen-2.5 включает в себя несколько моделей, такие как 2.5-Max, 2.5-Plus, 2.5-Turbo и 2.5-Coder-32B‑Instruct. Производительность 2.5-Max сравнима с DeepSeek‑v3, Llama-3.1*, ChatGPT-4o и Claude-3.5-Sonnet, а модели QwQ-32B — с DeepSeek‑r1 и ChatGPT‑o1-mini.


Эффективность QwQ-32B заслуживает отдельного внимания, ведь с её «скромными» по меркам ИИ 20% параметров от DeepSeek‑R1 она умудряется показывать выдающиеся результаты. Правда, остаётся вопрос: а как насчёт сложных практических задач, которые выходят за пределы стандартных бенчмарков? Время покажет. Тем не менее известно, что модели этой линейки прошли обучение на датасете объёмом в 20 трлн токенов, включающем научные статьи, программный код, мультиязычный контент и самые разные практические задачи.
Отдельные модели Qwen позволяют не только обрабатывать, но и генерировать изображения, а также короткие 5-секундные видео.
Как получить доступ к Qwen-2.5 и Qwen-QwQ-32B
Всё доступно на официальном сайте. С моделями можно общаться на русском языке, а также при желании переключить на русский и язык интерфейса.
Кстати, для анализа и обработки файлов не подойдёт QwQ-32B — хоть и рассуждающая, она немультимодальна; вместо этого для задач с текстовыми документами, изображениями, аудио или видео следует переключиться, скажем, на 2.5-Max или Qwen-2.5-VL-72B. Модели различаются объёмом «памяти»: 2.5-Plus и 2.5-Max держат в контексте до 128 000 токенов, а контекстное окно 2.5-Turbo — аж 1 000 000 токенов. И вопрос здесь даже не «Зачем столько?», а скорее «Как такое возможно?».

Ответ Qwen-QwQ-32B

Hailuo (MiniMax)
Hailuo — генеративная нейросеть, которая превращает текстовые описаний или изображения в короткие видеоролики. Сервис был запущен в 2023 году. Благодаря тому что он менее подвержен западным нормам регулирования, Hailuo позволяет генерировать видео на основе кадров из фильмов и фотографий известных персон.
Как пользоваться Hailuo
Чтобы начать путешествие в мир генерации видео, нужно перейти в соответствующий раздел платформы. Слева вы найдёте меню выбора режима, где скрываются два главных инструмента:
-
Режим «текст в видео» (вторая вкладка, Text to video) генерирует видеоролики из текстовых промтов, которые можно вводить на русском, английском и других языках — сервис мультиязычен.
-
В другом режиме, «картинка + текст в видео» (первая вкладка, Image to video), мультимодален, поэтому тут ещё интереснее: можно загрузить свою картинку и добавить в текстовом описании, что именно должно происходить. (Или оставить одну лишь картинку — Hailuo сам додумает, что с ней делать.) Здесь доступны пресеты: например, можно сделать так, чтобы персонажи на изображении вдруг начали плясать, играть на гитарах или вытворять ещё что‑то неожиданное. Чтобы активировать функцию, достаточно щёлкнуть кнопку с волшебной палочкой и выбрать шаблон:

Что ещё важно знать? Hailuo поддерживает две модели для работы с видео. Вторая из них, I2V-01-live, больше подходит для анимационных персонажей.
Разобраться в синтаксисе запросов лучше на реальных примерах — изучив видеоролики на главной странице: на ней собрана коллекция творений пользователей, многие из которых сопровождаются промтом, благодаря которому получилось видео. Здесь же можно воспользоваться и кнопкой Recreate, чтобы создать новое видео по тому же промту.

Как получить доступ к Hailuo
Воспользоваться нейросетевыми возможностями Hailuo можно на сайте, а также в Android‑приложении. После регистрации вас сразу порадуют щедрым подарком в виде 1000 токенов. Хватит примерно на 33 эксперимента с видео, но потратить их нужно за три дня, иначе они исчезнут, как снег в апрельское солнце. Хорошая новость: ежедневно пользователи получают ещё по 100 токенов. Для регистрации подойдут аккаунты Google или Apple.
Step-Video-T2V (StepFun)
Нейросеть компании StepFun, основанной в апреле 2023 года бывшим вице‑президентом Microsoft Цзянем Дасинем. Модель Step‑Video‑T2V появилась в феврале 2025 года. Те, кто уже попробовал модель, отмечают, что в ней, как в Hailuo, не имеется запретов на генерацию видеороликов со знаменитостями.
Step‑Video‑T2V — это доказательство того, что в сложное можно добавить простоту: интерфейс настолько интуитивно понятен, что разобраться сможет даже тот, кто впервые столкнулся с видеогенерацией. Всё, что нужно сделать, — это ввести текстовый промт и/или загрузить изображение (значок показан стрелкой на скриншоте, слева от неё — рандомизатор промта), после чего нажать кнопку генерации.

Step‑Video‑T2V генерирует видео длиной до 204 кадров, что приравнивается примерно к 8,5 секунды. Больше примеров работы вы найдёте на странице описания модели или в GitHub‑репозитории проекта.
Чтобы начать генерировать видео, сперва нужно зарегистрироваться на сайте. Интерфейс Step‑Video‑T2V только на китайском языке, поэтому вот несколько путеводных знаков, как это сделать:
➊ Сперва жмём кнопку регистрации/входа;
➋ Выбираем в списке вторую страну с кодом +7 (первая в списке Казахстан, вторая Россия) и пишем свой номер телефона;
➌ Жмём «Получить код», ждём сообщения в Telegram и ➍ вводим его;
➎ Ставим галочку и ➏ жмём кнопку входа.
Скриншоты с подсказками


PixVerse (AISphere)
Модель появилась в публичном доступе в январе 2024-го. Она генерирует видео длиною 5 либо 8 секунд (впоследствии можно расширить), а также умеет создавать звуковое сопровождение, причём это может быть не просто музыка и звуки, а даже речь с заранее заданным текстом. Такие штуки до сих пор редкость среди онлайн‑видеогенераторов.
На данный момент здесь три варианта моделей: v3, v3.5 и v4, которые отличаются качеством. Длина генерируемого ролика — 5 или 8 секунд (соответственно 30 или 60 кредитов).

Внизу окна можно переключаться между вкладками. На первой из них, Image or text, нейросеть PixVerse позволяет генерировать короткие видеоролики в трёх режимах: «текст в видео», «картинка в видео» и «текст + картинка в видео» (в зависимости от того, что вы указали). Промты поддерживают множество языков, в том числе русский и английский.
Для чего предназначены другие вкладки?
-
Transition — создать видеопереход между двумя указанными кадрами.
-
Sound — сгенерировать аудиосопровождение (можно использовать не только PixVerse‑видеоролики, но и загрузить свои).
-
Speech — здесь можно добавить речь к видеоролику, с включением липсинка (пример — стюардесса в видео выше). Поддерживается и русская речь, но голос довольно‑таки роботизированный — лучше загрузить готовое аудио (записанное или сгенерированное где‑то ещё).
-
Restyle — изменить стиль видео, выбрав шаблон или описав самому.
-
Extend — удлинить видеоролик («пиксверсовский» или свой).
-
Character — удобная функция, чтобы создать ролик с заранее подготовленным персонажем. Сперва нужно будет создать персонажа из рисунка или фото.
Сгенерированное видео созданных роликов можно вновь расширять на 5/8 секунд, создавая таким образом ролики большей длины, а также увеличить его ИИ‑масштабированием, максимум до 4K (3840×2160 пкс).
Зарегистрироваться в PixVerse можно как через Google, Apple, Discord, так и через имейл. В момент регистрации вы обнаружите 90 стартовых кредитов, а позже — ежедневный бонус в виде 30 кредитов (их хватит на одно 5-секундное видео или одно изменение стиля видео).
Как зайти в Pixverse
Pixverse доступна на официальном сайте и в виде приложений для Android и Apple. Веб‑сайт поддерживает русский язык, но в какой‑то момент вам может захотеться переключиться на оригинальный английский, так как в локализованных версиях не умещаются надписи. Особенно это касается кнопки Персонаж, которая в русском интерфейсе просто исчезает.
Kling (Kuaishou)
Kling — нейросеть для генерации изображений и видео, разработанная компанией Kuaishou. Сервис обрёл популярность в 2024 году, а в январе вышла обновлённая модель Kling 1.6, добавившая немало новых возможностей.

Готовьтесь: Kling — настоящий инструмент для креативных экспериментов. Вот что он умеет:
-
Генерировать видео в нескольких режимах: «текст в видео» (вкладка Text to Video), «картинка [+ текст] в видео», «первый кадр + последний кадр [+ текст] в видео» (вкладка Image to Video → Frames).
-
Генерировать по начальному или конечному кадру, а также по обоим одновременно.
-
Нейросеть не генерирует звуки, однако во вкладке Lip sync можно связать артикуляцией загруженные видео и речь или ввести речь в виде текста.
-
Делать виртуальную примерку одежды. Здесь потребуется загрузить фото человека, а также один‑два предмета одежды. Эта функция спрятана в разделе: ☰ → AI Images → AI Virtual Try‑On.
-
Создавать видео из нескольких картинок — от одной до четырёх (вкладка Image to Video → Elements). Можно загружать изображения одушевлённых и неодушевлённых объектов, затем обозначать в промте эти элементы.
К примеру, вот какую «сценку» удалось создать из этих четырёх изображений с промтом:

A cartoon kitten wearing a brown leather jacket and sunglasses, smiling at the camera on the stage.
Мультяшный котёнок в коричневой кожаной куртке и солнцезащитных очках улыбается в камеру, стоя на сцене.
Все детали исходников хорошо сохранены: от солнечных очков до фактуры куртки и структуры заднего фона.
Kling понимает множество языков, включая русский. Длина одного видео — 5 либо 10 секунд, затем можно расширять его вплоть до 180 секунд.
Как зайти в Kling
Начать пользоваться сервисом можно на официальном сайте или в мобильном приложении. В бесплатном тарифе предоставляется 166 токенов ежемесячно. Стоимость одной генерации зависит от выбранного режима — Standard или Professional, а также длительности фрагмента (5/10 с).
Talkie (Minimax)
Стартап Minimax, основанный экспертом в области ИИ Яном Цзюньцзе, известен прежде всего своим продуктом Talkie — чат‑ботом‑компаньоном, доступным пользователям по всему миру. Платформа предлагает широкий выбор виртуальных персонажей, включая знаменитостей и вымышленных героев, с которыми можно общаться для эмоциональной поддержки или развлечения. В 2024 году Talkie обошёл по количеству загрузок своего главного конкурента — платформу Character.ai. Общение в Talkie приближено к формату непринуждённых разговоров, наподобие мессенджеров или соцсетей.
Вишенка на торте: персонажи зачитывают свои реплики голосом (если автор конкретного персонажа добавил эту фичу, но чаще всего это так). Кстати, русский язык тоже поддерживается, правда, иногда стоит немного подтолкнуть вашего ИИ‑друга: отправить что‑то вроде «Пиши сообщения на русском», если ответные реплики поступают на ином языке.
Как пользоваться Talkie
Talkie доступен в веб‑версии или в приложениях для Android и Apple. Для регистрации понадобится аккаунт в Google, Apple или TikTok. А вот небольшой лайфхак — обменяться несколькими сообщениями с персонажем можно даже без регистрации.
После входа вас ждёт огромный список персонажей, и пользователи часто создают новых: к примеру, здесь можно поделиться секретами с Чаки, попробовать ответить на загадочные вопросы учительницы или узнать, что происходит на болоте у Шрека. А если же в какой‑то момент возникнет желание создать в Talkie своего персонажа, то сделать это проще, чем может показаться.

Как создать своего персонажа в Talkie
Для начала жмём кнопку Create a Talkie.

Откроется экран создания персонажа. Процесс достаточно интуитивен: указываем ➊ имя, ➋ пол, ➌ предысторию персонажа, а также черты характера, какие‑либо взаимоотношения с другими персонажами (при наличии таковых) и т. д., ➍ его приветственную реплику, ➎ информационный текст в начале диалога (он отобразится над первой репликой), ➐ загружаем портрет, ➑ подбираем голос (или синтезируем новый на основе загруженных аудио с речью). Ну а в поле ➒ можно будет протестировать полученного персонажа, как только все необходимые поля, отмеченные *, будут заполнены. Также в ➏ можно добавить персонажу умение рисовать изображения по запросу пользователя.
SeaArt (SeaArt Inc.)
SeaArt предлагает множество функций: от генерации изображений и видео до стилизации в разные художественные стили, удаления и замены фона. А ещё здесь можно оживить картинки тысячей и одним способом.
Однако если мы говорим об освоении, то тут понадобится вся любознательность, потому что SeaArt стоит наряду с самыми функционально насыщенными платформами: здесь даже можно создавать свои интерактивные приложения или тренировать модели на личных датасетах.

Как пользоваться SeaArt
Зарегистрироваться на SeaArt можно множеством способов, включая имейл. Для удобства сервис доступен не только в веб‑версии, но и через приложения для Android и Apple. Приступить к творчеству можно с базового набора инструментов:
-
Генерация изображений. Перейдите через кнопку Create → Create Image. Здесь всё довольно стандартно: задайте текстовый промт, пропорции картинки — и вперёд.
-
Генерация видео. Видео создаётся во вкладке AI Video (стандартная модель по этой ссылке). Вы можете задать длину ролика, на выбор 5 или 10 секунд, и загрузить изображение — его первый кадр.
Ключевая особенность SeaArt — это модели, создаваемые самими пользователями, а не только встроенные решения. Это открывает фантастические возможности для поиска нишевых генераторов, от мультипликационных фильтров до инструментов для более специфических задач.
Начать поиски можно в разделе AI Apps. Здесь находятся преобразователи «изображение в видео» (i2v) и «изображение в изображение(я)» (i2i) на все случаи жизни: разрезание объектов в стиле cake everything (i2v), лего‑фильтр (i2i), видеогенератор поцелуев из фото с двумя персонажами (i2v), стилизация фото под разные мультяшные стили (1, 2) (i2i) и даже обратно в реальность (i2i), создание ИИ‑фотосессий — достаточно лишь портрета (1, 2, 3, 4, 5) (i2i)… И многое другое.


Это было путешествие на хрупкой грани между настоящим и будущим, мы прошлись по холмам и оврагам китайского ИИ‑ландшафта, где модели пишут, рисуют, создают видео, иногда — запутывают интерфейсом с иероглифами. Видеогенераторы пока не упрощают работу до уровня «ввёл промт — получил кино», а языковые модели иногда преподносят сюрпризы, но нейросети уже превращают творческие задумки в реальность, а также создают новые пространства для идей.
Какие нейросети вы уже взяли на вооружение? Кого приручили, а где хотелось выключить и забыть? Жду ваших историй в комментариях!
* Llama-3.1 — проект Meta Platforms Inc., деятельность которой в России запрещена.
ссылка на оригинал статьи https://habr.com/ru/articles/895482/
Добавить комментарий