Бесплатный API для нейросетей от NVIDIA: 100+ моделей, OpenAI-совместимый эндпоинт и 40 запросов в минуту

от автора

NVIDIA раздаёт бесплатные API-ключи к 100+ моделям — DeepSeek R1, Llama, Mistral, GLM, Kimi и десятки других. Регистрация за 2 минуты, OpenAI-совместимый эндпоинт, без привязки карты.

Звучит как маркетинговый трюк, и отчасти это он — NVIDIA хочет посадить разработчиков на свою инфраструктуру. Но бесплатный tier реальный, и для прототипирования и пет-проектов его хватает. Я пользуюсь уже два месяца — расскажу, что получается, а где подвох.

Что конкретно дают

Платформа — build.nvidia.com. Регистрируешься в NVIDIA Developer Program, подтверждаешь номер телефона, генерируешь API-ключ. Всё.

Что доступно бесплатно:

  • 100+ моделей — LLM, vision, speech, embedding, генерация изображений

  • OpenAI-совместимый API/v1/chat/completions, тот же формат, что и у OpenAI. Меняешь base_url и model — всё работает

  • 40 запросов в минуту — лимит на бесплатном tier

  • Без привязки карты — только email + телефон

Ключевые модели на апрель 2026:

  • DeepSeek R1 (671B) — reasoning, пошаговое рассуждение

  • Llama 3.3 70B — Meta, general purpose

  • Nemotron — собственная модель NVIDIA, оптимизированная для агентов

  • Kimi K2.5 — Moonshot AI, сильная в кодинге

  • GLM-5 — Z.ai, 744B параметров

  • Mistral Large — Mistral AI

  • gpt-oss-120b — открытая модель OpenAI, оптимизированная NVIDIA для Blackwell

Плюс модели для speech (Riva), генерации изображений, embedding/retrieval, и даже protein folding (BioNeMo).

Как подключить за 5 минут

Python

from openai import OpenAIclient = OpenAI(    api_key="nvapi-YOUR_KEY",    base_url="https://integrate.api.nvidia.com/v1")response = client.chat.completions.create(    model="deepseek-ai/deepseek-r1",    messages=[        {"role": "user", "content": "Объясни, как работает MoE"}    ])print(response.choices[0].message.content)

JavaScript

import OpenAI from 'openai';const client = new OpenAI({    apiKey: "nvapi-YOUR_KEY",    baseURL: "https://integrate.api.nvidia.com/v1"});const response = await client.chat.completions.create({    model: "meta/llama-3.3-70b-instruct",    messages: [        { role: "user", content: "Напиши React-компонент для формы логина" }    ]});

Обратите внимание: base_url один для всех моделей — https://integrate.api.nvidia.com/v1. Модель выбирается через поле model. Переключение между DeepSeek и Llama — одна строчка.

Подключение к существующим инструментам

Раз API OpenAI-совместимый, он работает с любым инструментом, который поддерживает кастомный base_url:

Claude Code / OpenClaw:

OPENAI_BASE_URL=https://integrate.api.nvidia.com/v1OPENAI_API_KEY=nvapi-YOUR_KEYOPENAI_MODEL=deepseek-ai/deepseek-r1

Cursor: Settings → Models → Custom API → указать base_url и ключ.

Любой OpenAI-совместимый клиент: Тот же принцип — меняете base_url и api_key.

Лимиты: где подвох

40 запросов в минуту. Для прототипирования — достаточно. Для продакшена с реальными пользователями — мало. Если у вас бот, который обрабатывает 10 сообщений в минуту — хватит. Если 100 — нет.

Кредиты. Бесплатный tier работает на кредитах. Крупные модели (DeepSeek R1 671B, GLM-5 744B) съедают больше кредитов за запрос. Мелкие (Llama 8B, Mistral 7B) — значительно меньше. Точные цифры NVIDIA не публикует, но по опыту: на DeepSeek R1 кредиты заканчиваются в 3-4 раза быстрее, чем на Llama 70B.

Не для продакшена. NVIDIA явно позиционирует бесплатный tier для разработки и тестирования. Для продакшена — платный NVIDIA AI Enterprise (90 дней бесплатно, потом по подписке).

Телефон обязателен. Без подтверждения номера API-ключ не сгенерируется. Российские номера работают.

Зачем NVIDIA это делает

Стратегия прозрачная: бесплатно для разработчиков → привыкаешь к NIM → разворачиваешь на своих серверах с NVIDIA GPU → покупаешь их железо и подписку AI Enterprise.

NIM (NVIDIA Inference Microservices) — это контейнеры с оптимизированными под NVIDIA GPU моделями. На бесплатном tier вы используете NIM в облаке NVIDIA. Когда нужен продакшен — скачиваете контейнер и запускаете на своём сервере с NVIDIA GPU. Оптимизации под TensorRT дают ~2x прирост throughput по сравнению с ванильным деплоем.

Сравнение с альтернативами

Параметр

NVIDIA NIM

OpenRouter

DeepSeek API

Groq

Бесплатный tier

Да (кредиты)

Нет (оплата)

Да (ограничен)

Да (лимитирован)

Моделей

100+

300+

2 (V3, R1)

~10

API-формат

OpenAI

OpenAI

OpenAI

OpenAI

Rate limit

40 req/min

По оплате

60 req/min

30 req/min

Для продакшена

Нет (free tier)

Да

Да

Ограниченно

NVIDIA выигрывает по количеству бесплатных моделей. OpenRouter — по количеству моделей вообще и по продакшен-готовности. DeepSeek API — если нужна именно DeepSeek. Groq — по скорости инференса.

Для чего я использую

Прототипирование. Прежде чем платить за API, тестирую идею на бесплатных моделях NVIDIA. Если работает — переключаюсь на платный провайдер.

Сравнение моделей. Один ключ, один эндпоинт — меняю только model. За час можно прогнать один и тот же промпт через 10 моделей и сравнить.

Пет-проекты. Telegram-бот, который отвечает на 50-100 сообщений в день — вписывается в лимит. Бесплатно и стабильно.

OpenClaw / Claude Code. Подключаю как провайдер — экономлю на API-ключах для некритичных задач.

Как получить ключ

  1. Зайдите на build.nvidia.com

  2. Зарегистрируйтесь (email + пароль)

  3. Подтвердите номер телефона

  4. Перейдите в Settings → API Keys

  5. Сгенерируйте ключ (начинается с nvapi-)

  6. Подставьте в код: base_url="https://integrate.api.nvidia.com/v1"


Пользуетесь бесплатными API для LLM? Какой провайдер используете для прототипирования — NVIDIA, Groq, DeepSeek напрямую? И хватает ли 40 запросов в минуту для ваших задач?

ссылка на оригинал статьи https://habr.com/ru/articles/1023592/