Разработчики Ollama выпустили обновление инструмента для локального запуска нейросетей. В нём появилась поддержка мультимодальности, возможность загружать файлы и другие функции. Обновление доступно для всех платформ, а для Windows и macOS выпустили обновлённый клиент.

Что нового в Ollama:
-
В интерфейсе чата появился переключатель для быстрой смены и загрузки моделей.

-
В чат теперь можно загружать документы для анализа. Для загрузки достаточно перетащить файл в окно Ollama. После этого можно задавать вопросы по документу. Важно помнить, что для работы с большими файлами в настройках надо увеличить длину контекста, что может сказаться на потреблении памяти.

-
Помимо документов в чат для анализа можно загружать изображения. Эта функция работает на базе мультимодального движка Ollama и только с мультимодальными моделями, например Gemma 3 от Google.

-
В чат можно загружать файлы кода. Например, можно загрузить файл проекта на Python и попросить модель сгенерировать документацию в Markdown.

ссылка на оригинал статьи https://habr.com/ru/articles/932634/
Добавить комментарий