Open WebUI обновился. Что нового привнесла версия 0.4.5?

от автора

Медиакомбайн с веб-интерфейсом для работы с LLM-моделями Open WebUI за последний месяц серьезно обновился дважды (сначала до версии 0.3.35, а затем — до стабильной версии 0.4.5), которые привнесли множество полезных изменений. Поскольку мы используем его в нашем AI-чат-боте, то хотим рассказать, какие новшества и улучшения они привнесли и на что стоит обратить внимание при обновлении.

Начнем с процесса обновления: рекомендуем сразу обновлять и Ollama, и OpenWebui. Можете воспользоваться нашей инструкцией для Docker-установки или запустить команду

pip install --upgrade open-webui

если вы установили OpenWebUI через PIP. В Windows Ollama у вас попросит обновиться сама.

0.3.35

Сперва расскажем о полезных измененях в версии Open WebUI 0.3.35:

  • Поддержка папок для чатов. Если раньше чаты шли сплошным списком, теперь можно организовать все по папкам и возвращаться к необходимым вам диалогам или удачным промтам.

  • Улучшенная коллекция знаний. Это одно из ключевых новшеств, которое делает работу с формированием базы знаний для запросов Retrieval-Augmented Generations (RAG) гораздо проще. Теперь вы формируете коллекцию, а уже в ней добавляете необходимые документы. И надо сказать, последние стало гораздо удобнее просматривать и добавлять. Стало возможным добавлять документы целыми директориям и синхронизировать изменения между локальной директорией с файлами и файлами в базе знаний (ранее для этого приходилось удалять файлы и загружать их заново). А еще появилась возможность добавлять текст в базу знаний через встроенный редактор.

  • Расширенная система тегов. Теги теперь занимают меньше места! Используйте новую систему поиска по тегам tag для управления, поиска и упорядочивания ваших бесед более эффективно без загромождения интерфейса.

  • Удобная настройка модели Whisper. Теперь можно задать, какую модель необходимо использовать для перевода речи в текст. Ранее по умолчанию была только base, что вызывало проблемы с тем же русским языком, для которого оптимальна модель medium.

Из других новшеств:

  • экспериментальная поддержка S3;

  • отключение уведомлений об обновлениях, если такие сообщения вам мешали;

  • процент релевантности цитаты в RAG;

  • копирование Mermaid-диаграмм;

  • поддержка RTF-форматирования.

Также появилась долгожданная API-документация, и теперь, например, достаточно просто использовать кастомные модели с RAG из Open WebUI из внешних приложений. Документация в swagger, доступ к ней можно получить через эндпоинты.

Подробнее об API можно прочитать в документации Open WebUI.

Попробуйте AI-чат-бот на собственном GPU-сервере.

HOSTKEY предлагает персональный AI-чат-бот на основе Ollama и OpenWebUI с предустановленной моделью Llama3.1 8b (и возможностью установки любых поддерживаемых ollama моделей), который доступен на вашем собственном сервере! Это инновационное решение разработано для тех, кто ценит безопасность данных, масштабируемость и экономию средств.

Попробовать

0.4.5

Следующие большие изменения произошли с выходом версии 0.4.x. Увы уже привычно, что сразу после выхода версии 0.4.0 разработчики сломали кучу работающего ранее функционала, а запланированные новшества, наоборот, забыли включить. Поэтому стоило подождать и по прошествии нескольких релизов (на момент написания статьи Open WebUI имел версию 0.4.5) смело обновляться. Что же нового появилось в этой версии?

Первое, что бросается в глаза, — это скорость работы. По ощущениям запросы обрабатываются и выводятся раза вдвое–втрое быстрее, поскольку в Open WebUI внедрены оптимизации кэширования для более быстрого загрузки моделей.

Второе новшество коснулось управления пользователями. Теперь можно создавать и управлять группами пользователей, что упрощает их организацию, четко разграничивать доступ к моделям и базам знаний, а также выдавать разрешения не индивидуально каждому пользователю, а по группам. Все это упрощает использование Open WebUI в организациях.

Появилась и аутентификация через LDAP, и поддержка ключей API Ollama, что позволяет управлять учетными данными Ollama при их размещении за прокси-серверами, в том числе использовать ID-префиксы для правильного различения нескольких экземпляров Ollama.

Также стоит отметить появление индикатора, который показывает включен ли у вас веб-поиск или другие инструменты.

Опции по управлению моделями в Ollama теперь сгруппированы в одном месте.

Из других новшеств:

  • Изменения в интерфейсе: переработанная рабочая зона моделей, промтов, запросов.

  • Возможность быстрого включения или выключения опции аутентификации по API-ключу.

  • Улучшение точности RAG за счет интеллектуальной предварительной обработки истории чата для определения наилучших запросов перед извлечением.

  • Возможность опционально преобразовывать вставленный большой текст в загружаемый файл, что сохраняет интерфейс чата более чистым.

  • Исправление проблем с интеграцией поиска DuckDuckGo с повышением стабильности и производительность поиска при работе в пределах лимитов скорости.

  • Новый режим моделей Arena Model. Запрос из чата отправляется на случайную подключенную к Open WebUI модель, что позволяет выполнить их A/B-тестирование и выбрать лучшую. 

Отдельно стоит отметить процесс первоначальной настройки, где пользователя четко информирует о том, что он создает учетную запись администратора. Раньше пользователи сразу попадали на страницу входа без этого разъяснения и часто забывали пароль админа.

Что стоит учесть при обновлении до версии 0.4.5? Изменился алгоритм работы с выбиранием модели: исчезла возможность указать модель «по дефолту» для пользователя, и теперь модель, с которой вы работаете в текущий момент, будет сохраняться при создании нового чата.

Это только часть новшеств, улучшения коснулись также инструментов и функций, и администрирования — об этом можно почитать в Release Notes к каждому выпуску Open Webui. А вы используете Open Web UI у себя дома или на работе?

P. S. При обновлении Ollama до версии v0.4.4 (она почти сравнялась по версионности с Open WebUI) вам среди прочего станут доступны такие новые модели, как:

  • Marco-o1 — модель рационального мышления от Alibaba.

  • Llama3.2-vision — мультимодальная модель, понимающая изображения.

  • Aya-expanse — модель общего плана, которая официально поддерживает 23 языка.

  • Qwen2.5-coder — одна из лучших моделей для написания программного кода.

Попробуйте AI-чат-бот на собственном GPU-сервере.

HOSTKEY предлагает персональный AI-чат-бот на основе Ollama и OpenWebUI с предустановленной моделью Llama3.1 8b (и возможностью установки любых поддерживаемых ollama моделей), который доступен на вашем собственном сервере! Это инновационное решение разработано для тех, кто ценит безопасность данных, масштабируемость и экономию средств.

Попробовать


ссылка на оригинал статьи https://habr.com/ru/articles/861788/


Комментарии

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *