Использование Ollama в ServBay
ServBay интегрирует мощные локальные возможности AI непосредственно в вашу среду разработки, позволяя с легкостью запускать различные открытые языковые модели (LLM) через Ollama на macOS. Этот документ проведет вас через процесс активации, настройки, управления Ollama и его моделями, а также поможет приступить к работе.
Обзор
Ollama — популярный инструмент, который упрощает процесс загрузки, настройки и запуска крупных языковых моделей прямо на вашем компьютере. ServBay включает Ollama как отдельный программный пакет, предоставляя графический интерфейс для управления, что позволяет разработчикам:
- Запускать, останавливать и перезапускать сервис Ollama одним кликом.
- Настраивать параметры Ollama через визуальный интерфейс.
- Просматривать, скачивать и управлять поддерживаемыми моделями LLM.
- Разрабатывать, тестировать и экспериментировать с AI-приложениями на локальной машине без обращения к облачным сервисам.
Предварительные требования
- ServBay установлен и запущен на вашем macOS.
Включение и управление сервисом Ollama
Вы можете легко управлять пакетом Ollama через главный интерфейс ServBay.
Доступ к пакету Ollama:
- Откройте приложение ServBay.
- В левой навигационной панели выберите
Пакеты
(Packages). - В появившемся списке найдите и кликните по категории
AI
. - Нажмите на
Ollama
.
Управление сервисом Ollama:
- В правой части экрана отображается статус пакета Ollama, включая версию (например,
0.6.5
), состояние сервиса (Running
илиStopped
), идентификатор процесса (PID). - Используйте расположенные справа управляющие кнопки:
- Запуск/остановка: Оранжевая круглая кнопка позволяет запустить или остановить сервис Ollama.
- Перезапуск: Синяя кнопка обновления для перезапуска Ollama.
- Настроить: Желтая кнопка-шестеренка для перехода к экрану настроек Ollama.
- Удалить: Красная кнопка корзины для удаления пакета Ollama (будьте внимательны).
- Подробнее: Серая кнопка-информация может содержать дополнительные сведения или логи.
- В правой части экрана отображается статус пакета Ollama, включая версию (например,
Настройка Ollama
ServBay предоставляет удобный интерфейс для тонкой настройки параметров Ollama под ваши задачи.
Доступ к настройкам:
- Откройте приложение ServBay.
- В левой навигационной панели выберите
AI
. - В открывшемся списке выберите категорию
Настройки (Settings)
. - Кликните по
Ollama
.
Изменение параметров:
- Model Download Threads: Количество параллельных потоков при скачивании моделей для ускорения загрузки.
- Bind IP: IP-адрес, на котором слушает Ollama. По умолчанию
127.0.0.1
(доступ только с локального компьютера). - Bind Port: Порт Ollama. По умолчанию
11434
. - Булевы опции:
Debug
: Включить режим отладки.Flash Attention
: Включить оптимизацию Flash Attention (при поддержке оборудования).No History
: Не сохранять историю сессий.No Prune
: Не удалять неиспользуемые модели автоматически.Schedule Spread
: Настройки распределения задач.Multi-user Cache
: Кэш для нескольких пользователей.
- K/V Cache Type: Тип key/value-кэша, влияющий на производительность и использование памяти.
- Настройки GPU:
GPU Overhead
: Конфигурация нагрузки на GPU.Keepalive
: Время поддержания активности GPU.
- Загрузка моделей и очередь:
Load Timeout
: Таймаут загрузки моделей.Max loaded models
: Максимальное количество одновременно загруженных моделей в память.Max Queue
: Максимальная длина очереди запросов.Parallel Num.
: Число параллельно обрабатываемых запросов.
- LLM Library: Путь к используемой библиотеке LLM.
- Models folder: Локальная директория для загрузки и хранения моделей Ollama. По умолчанию
/Applications/ServBay/db/ollama/models
. Можно открыть каталог через иконку папки в Finder. - origins: Список доверенных источников, которым разрешен доступ к Ollama API (настройки CORS). По умолчанию включены распространенные локальные адреса (
http://localhost
,https://localhost
,http://127.0.0.1
,https://127.0.0.1
и др.). Для доступа с других доменов, необходимо добавить их адреса в этот список.
Сохранение настроек: После изменений нажмите кнопку
Save
в правом нижнем углу для применения изменений.
Управление моделями Ollama
ServBay делает процесс поиска, загрузки и управления моделями Ollama проще и быстрее.
Переход к управлению моделями:
- Откройте приложение ServBay.
- В левой навигационной панели выберите
AI
. - В появившемся списке перейдите к
Models (Ollama)
.
Обзор и скачивание моделей:
- Слева отображаются доступные модельные репозитории Ollama (например,
deepseek-r1
,deepseek-v3
,qwen3
,gemma
,llama3
,mistral
и др.). Для примера выберитеgemma3
. - Справа появится перечень различных вариантов или версий выбранного репозитория, обычно различающихся размером параметров (
latest
,1b
,4b
,12b
,27b
). - Каждая строка содержит название модели, базовую модель, размер параметров и размер файла.
- Для скачивания нужной модели щелкните по зелёной иконке стрелки справа. Прогресс загрузки будет отображаться на экране. Скорость загрузки можно увеличить, изменив число потоков в настройках.
- Для уже скачанных моделей кнопка загрузки становится серой или недоступной.
- Слева отображаются доступные модельные репозитории Ollama (например,
Управление скачанными моделями:
- Загруженные модели обычно отмечаются явно (например, кнопка загрузки серая или появляется кнопка удаления).
- Для удаления модели — и освобождения места на диске — нажмите на кнопку удаления (иконка корзины).
Использование Ollama API
После запуска Ollama предоставляет REST API на заданных в настройках IP и порту (по умолчанию 127.0.0.1:11434
). Вы можете взаимодействовать с моделями через любой HTTP-клиент (curl
, Postman или языковые библиотеки).
TIP
ServBay заботится о вас и предоставляет домен https://ollama.servbay.host
с SSL/TLS-шифрованием для безопасного HTTPS-доступа к API.
Вы можете использовать https://ollama.servbay.host
вместо формата IP:порт
для обращения к API Ollama.
Пример: Взаимодействие с моделью gemma3:latest
через curl
Убедитесь, что модель gemma3:latest
загружена в ServBay и сервис Ollama запущен.
# Используем HTTPS через ServBay
curl https://ollama.servbay.host/api/generate -d '{
"model": "gemma3:latest",
"prompt": "Why is the sky blue?",
"stream": false
}'
# Либо классический вариант через IP и порт
#curl http://127.0.0.1:11434/api/generate -d '{
# "model": "gemma3:latest",
# "prompt": "Why is the sky blue?",
# "stream": false
#}'
2
3
4
5
6
7
8
9
10
11
12
13
Объяснение команд:
http://127.0.0.1:11434/api/generate
: Точка входа API для генерации текста с помощью Ollama.-d '{...}'
: Отправка POST-запроса с данными в формате JSON."model": "gemma3:latest"
: Имя используемой модели (должна быть скачана)."prompt": "Why is the sky blue?"
: Ваш вопрос или подсказка к модели."stream": false
: Приfalse
ответ возвращается целиком. Если установитьtrue
, API выдаёт ответ в режиме потока.
Ожидаемый результат:
В терминале вы увидите ответ в формате JSON, где поле response
содержит текстовый ответ модели на вопрос "Why is the sky blue?".
{
"model": "gemma3:latest",
"created_at": "2024-...",
"response": "The sky appears blue because of a phenomenon called Rayleigh scattering...",
"done": true,
// ... другие метаданные
}
2
3
4
5
6
7
Внимание к CORS: Если вы обращаетесь к API Ollama из JavaScript-кода в браузере, убедитесь, что домен вашего приложения (например, http://myapp.servbay.demo
) добавлен в список origins
в настройках Ollama. Иначе запрос блокируется браузером из-за политики CORS.
Примеры применения
Локальный запуск Ollama в ServBay открывает множество возможностей:
- AI-разработка на локальной машине: Не нужно использовать внешние API или облака — разработка и тестирование приложений на базе LLM происходит прямо на вашем Mac.
- Быстрое прототипирование: Оценка и переключение между разными open-source моделями для реализации идей.
- Оффлайн-доступ: Даже без интернета вы можете взаимодействовать с языковыми моделями LLM.
- Конфиденциальность данных: Все данные и запросы остаются на вашем компьютере, нет риска передачи сторонним сервисам.
- Экономия: Нет затрат на облачные AI-сервисы с оплатой по объему использования.
Важные замечания
- Свободное место: Файлы языковых моделей занимают значительный объём (от нескольких до десятков гигабайт). Убедитесь, что на вашем диске достаточно свободного пространства. По умолчанию модели хранятся в
/Applications/ServBay/db/ollama/models
. - Системные ресурсы: Для работы LLM требуется много ресурсов CPU, оперативной памяти (RAM), а при наличии совместимой видеокарты Ollama может использовать GPU для ускорения (и это тоже влияет на загрузку системы). Перед запуском убедитесь, что ваш Mac соответствует требованиям выбранной модели.
- Время загрузки: Загрузка моделей зависит от скорости интернета и размера файла.
- Firewall: Если вы установили параметр
Bind IP
на0.0.0.0
для доступа к Ollama с других устройств в вашей сети, проверьте, что macOS Firewall разрешает входящие соединения на используемый порт (11434
).
Итоги
Интеграция Ollama в ServBay кардинально упрощает развёртывание и управление локальными языковыми моделями на macOS. Благодаря интуитивному интерфейсу разработчик может быстро запускать сервисы, настраивать параметры, загружать модели — и практически мгновенно приступить к созданию или тестированию AI-приложений. Всё это укрепляет статус ServBay как универсального инструмента для локальной разработки.