В JetBrains AI Assistant добавили поддержку локальных моделей через LM Studio

от автора

JetBrains сообщила разработчикам, что нейросетевой помощник AI Assistant теперь поддерживает интеграцию локальных языковых моделей через LM Studio. Помимо этого компания добавила новые нейросети от OpenAI и Anthropic.

В ноябре 2024 года JetBrains добавили возможность подключать к AI Assistant локальные языковые модели с помощью Ollama. Это даёт большое преимущество для пользователей, которым важна приватность, но не всем может быть удобно пользоваться Ollama. Теперь локальные модели можно подключать и через LM Studio.

Также компания расширила список облачных моделей от крупных компаний. Теперь в AI Assistant можно выбирать недавно выпущенные GPT o1, o1-mini и o3-mini. Модель o1 подойдёт для сложных задач, над которыми нейросети надо «подумать», а o1-mini и o3-mini — для быстрых ответов. Примечательно, что в списке нет o3-mini-high, которую OpenAI называет «лучшей моделью для кодинга и логики». Вместе с GPT добавили и обновлённые Claude 3.5 Sonnet и Claude 3.5 Haiku.

Чтобы всё заработало, IDE надо обновить до версии 2024.3.2.


ссылка на оригинал статьи https://habr.com/ru/articles/882352/


Комментарии

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *