JetBrains обновила свой сервис AI Assistant для работы с языковыми моделями. Теперь пользователи могут подключить Gemini и локальные нейросети Ollama. Также компания улучшила функции автоматического дополнения кода.
Что нового в JetBrains AI Assistant:
-
Выбор языковой модели. Появилось меню, в котором можно выбрать нейросеть для генерации кода и ответов на вопросы. Это позволяет настроить сервис под требования конкретного проекта.
-
Поддержка Gemini. Помимо ChatGPT теперь можно выбрать языковую модель Gemini от Google. Доступны нейросети Gemini 1.5 Pro 002 и Flash 002.
-
Локальные нейросети. Для дополнительной приватности добавили возможность использовать локальные языковые модели через Ollama.
-
Управление контекстом. В интерфейсе появились элементы управления контекстом. Пользователь может включать в него фрагменты или целые файлы, а после удалять, чтобы ответы нейросети были более точными.
-
Больше языков программирования в Mellum. Языковая модель JetBrains Mellum теперь поддерживает больше языков программирования, включая JavaScript, TypeScript, HTML, C#, C, C++, Go, PHP и Ruby.
-
Лёгкий промптинг. Запросы к нейросети теперь можно вводить прямо в коде проекта, а после нажатия клавиши
Tab
языковая модель будет генерировать код. -
Работа с несколькими файлами. AI Assistant теперь может редактировать несколько файлов одновременно, а не только выбранный фрагмент.
-
ИИ-документация. С помощью команды
/docs
в чате можно получить справку по функциям IDE. Благодаря этому пользователям не надо будет тратить время на поиск информации в документации.
ссылка на оригинал статьи https://habr.com/ru/articles/858834/
Добавить комментарий