Korzystanie z Ollama w ServBay
ServBay integruje potężne możliwości AI działającej lokalnie z Twoim środowiskiem deweloperskim, umożliwiając łatwe uruchamianie różnych otwartoźródłowych dużych modeli językowych (LLM) przez Ollama na macOS. Ten dokument przeprowadzi Cię przez proces aktywacji, konfiguracji i zarządzania Ollama oraz jej modelami w ServBay, a także pokaże, jak zacząć korzystać z tych funkcji.
Przegląd
Ollama to popularne narzędzie upraszczające pobieranie, konfigurację i uruchamianie dużych modeli językowych na komputerze lokalnym. ServBay integruje Ollama jako niezależny pakiet, oferując graficzny interfejs zarządzania, który pozwala programistom na:
- Uruchamianie, zatrzymywanie i restartowanie usługi Ollama jednym kliknięciem.
- Konfigurację parametrów Ollama bezpośrednio z poziomu interfejsu graficznego.
- Przeglądanie, pobieranie i zarządzanie obsługiwanymi modelami LLM.
- Tworzenie, testowanie i eksperymentowanie z aplikacjami AI lokalnie, bez zależności od usług chmurowych.
Wymagania wstępne
- ServBay musi być zainstalowany i uruchomiony na Twoim komputerze z macOS.
Aktywacja i zarządzanie usługą Ollama
Zarządzanie pakietem Ollama jest bardzo proste za pomocą głównego interfejsu ServBay.
Przejdź do pakietu Ollama:
- Otwórz aplikację ServBay.
- W lewym pasku nawigacyjnym kliknij
Pakiety
(Packages). - Z rozwijanego menu wybierz kategorię
AI
. - Kliknij
Ollama
.
Zarządzanie usługą Ollama:
- Po prawej stronie zobaczysz aktualny status pakietu Ollama, w tym wersję (np.
0.6.5
), status działania (Running
lubStopped
), identyfikator procesu (PID). - Skorzystaj z przycisków kontrolnych po prawej:
- Uruchom/Zatrzymaj: Pomarańczowy okrągły przycisk służy do uruchamiania lub zatrzymywania usługi Ollama.
- Restartuj: Niebieski przycisk odświeżania umożliwia restart usługi Ollama.
- Konfiguracja: Żółty przycisk z ikoną koła zębatego służy do przejścia do strony konfiguracji Ollama.
- Usuń: Czerwony przycisk z ikoną kosza umożliwia odinstalowanie pakietu Ollama (Uwaga: operacja nieodwracalna).
- Więcej informacji: Szary przycisk informacji może oferować dodatkowe informacje lub dostęp do logów.
- Po prawej stronie zobaczysz aktualny status pakietu Ollama, w tym wersję (np.
Konfiguracja Ollama
ServBay zapewnia graficzny interfejs umożliwiający dostosowanie parametrów działania Ollama do własnych potrzeb.
Przejdź do panelu konfiguracji:
- Otwórz aplikację ServBay.
- W lewym pasku nawigacyjnym kliknij
AI
. - Z listy wybierz kategorię
Ustawienia (Settings)
. - Kliknij
Ollama
.
Dostosowywanie ustawień:
- Wątki pobierania modeli (Model Download Threads): Określa liczbę jednoczesnych wątków pobierania modeli, co umożliwia szybsze pobieranie.
- Bind IP: Adres IP, na którym nasłuchuje usługa Ollama. Domyślnie to
127.0.0.1
, czyli dostęp wyłącznie lokalny. - Bind Port: Port używany przez usługę Ollama. Domyślnie to
11434
. - Przełączniki:
Debug
: Aktywuje tryb debugowania.Flash Attention
: Może włączyć optymalizację Flash Attention (wymaga wsparcia sprzętowego).No History
: Blokuje zapisywanie historii sesji.No Prune
: Wyłącza automatyczne czyszczenie nieużywanych modeli.Schedule Spread
: Dotyczy strategii harmonogramowania.Multi-user Cache
: Tryb współdzielenia pamięci podręcznej przez wielu użytkowników.
- K/V Cache Type: Typ cache (Key/Value), wpływa na wydajność i wykorzystanie pamięci.
- Parametry GPU:
GPU Overhead
: Konfiguracja obciążenia GPU.Keepalive
: Czas utrzymania aktywnego GPU.
- Ładowanie modeli i kolejka:
Load Timeout
: Limit czasu ładowania modelu.Max loaded models
: Maksymalna liczba modeli jednocześnie załadowanych do pamięci.Max Queue
: Maksymalna długość kolejki żądań.Parallel Num.
: Liczba żądań przetwarzanych równolegle.
- LLM Library: Ścieżka do biblioteki wykorzystywanej przez Ollama.
- Models folder: Lokalny katalog pobierania i przechowywania modeli Ollama (domyślnie:
/Applications/ServBay/db/ollama/models
). Możesz kliknąć ikonę folderu, by otworzyć katalog w Finderze. - origins: Konfiguracja dozwolonych źródeł (CORS) dla API Ollama. Domyślnie zawiera najczęstsze adresy lokalne (
http://localhost
,https://localhost
,http://127.0.0.1
,https://127.0.0.1
itd.). Jeśli chcesz uzyskać dostęp z aplikacji web na innej domenie, dodaj ją do tej listy.
Zapisz zmiany: Po wprowadzeniu zmian kliknij w prawym dolnym rogu przycisk
Zapisz
(Save), aby je zastosować.
Zarządzanie modelami Ollama
ServBay upraszcza proces przeglądania, pobierania i zarządzania modelami Ollama.
Wejdź do panelu zarządzania modelami:
- Otwórz aplikację ServBay.
- W lewym pasku nawigacyjnym kliknij
AI
. - Z listy wybierz
Models (Ollama)
.
Przeglądanie i pobieranie modeli:
- Po lewej stronie zobaczysz różne biblioteki modeli dostępnych dla Ollama (np.
deepseek-r1
,deepseek-v3
,qwen3
,gemma
,llama3
,mistral
itd.). Kliknij wybraną bibliotekę (np.gemma3
). - Po prawej stronie pojawią się warianty lub wersje danego modelu, zwykle podzielone według liczby parametrów (
latest
,1b
,4b
,12b
,27b
). - Każdy wiersz zawiera nazwę modelu, bazę, liczbę parametrów i wielkość pliku.
- Kliknij zielony przycisk pobierania po prawej stronie, aby rozpocząć pobieranie wybranego modelu. Progres pobierania zobaczysz na ekranie. Możesz przyspieszyć pobieranie, zwiększając liczbę wątków w
Ustawieniach
. - Dla modeli już pobranych przycisk pobierania będzie wyszarzony lub nieaktywny.
- Po lewej stronie zobaczysz różne biblioteki modeli dostępnych dla Ollama (np.
Zarządzanie pobranymi modelami:
- Modele, które zostały pobrane, są wyraźnie oznaczone (np. wyszarzony przycisk pobierania lub ikona usuwania).
- Możesz kliknąć ikonę kosza, aby usunąć wybrany model lokalnie i zwolnić miejsce na dysku.
Korzystanie z API Ollama
Po uruchomieniu, Ollama udostępnia REST API na skonfigurowanym adresie Bind IP
i porcie Bind Port
(domyślnie 127.0.0.1:11434
). Możesz korzystać z dowolnego klienta HTTP (curl
, Postman, biblioteki programistyczne) do interakcji z pobranymi modelami.
TIP
ServBay oferuje wygodną nazwę domenową https://ollama.servbay.host
, dzięki której możesz korzystać z Ollama przez szyfrowane połączenie HTTPS.
Użytkownicy mogą uzyskać dostęp do API Ollama poprzez https://ollama.servbay.host
zamiast tradycyjnego IP:port
.
Przykład: Wykorzystanie curl
do interakcji z pobranym modelem gemma3:latest
Upewnij się, że pobrałeś model gemma3:latest
przez ServBay i usługa Ollama jest uruchomiona.
bash
# Użycie adresu https od ServBay
curl https://ollama.servbay.host/api/generate -d '{
"model": "gemma3:latest",
"prompt": "Why is the sky blue?",
"stream": false
}'
# Lub klasycznie przez IP:port
#curl http://127.0.0.1:11434/api/generate -d '{
# "model": "gemma3:latest",
# "prompt": "Why is the sky blue?",
# "stream": false
#}'
1
2
3
4
5
6
7
8
9
10
11
12
13
2
3
4
5
6
7
8
9
10
11
12
13
Wyjaśnienie poleceń:
http://127.0.0.1:11434/api/generate
: Punkt końcowy API do generowania tekstu przez Ollama.-d '{...}'
: Przesłanie danych POST z JSON-em."model": "gemma3:latest"
: Określa nazwę modelu (musi być wcześniej pobrany)."prompt": "Why is the sky blue?"
: Pytanie lub polecenie skierowane do modelu."stream": false
: Jeśli ustawisz nafalse
, odpowiedź zostanie zwrócona jednorazowo po wygenerowaniu całości. Przytrue
odpowiedź będzie zwracana strumieniowo tokenami.
Oczekiwany rezultat:
W terminalu otrzymasz odpowiedź w formacie JSON, gdzie w polu response
znajdziesz odpowiedź modelu na pytanie "Why is the sky blue?".
json
{
"model": "gemma3:latest",
"created_at": "2024-...",
"response": "The sky appears blue because of a phenomenon called Rayleigh scattering...",
"done": true,
// ... inne metadane
}
1
2
3
4
5
6
7
2
3
4
5
6
7
Uwaga dotycząca CORS: Jeśli chcesz uzyskać dostęp do API Ollama z poziomu JavaScript w przeglądarce, upewnij się, że adres źródłowy Twojej aplikacji web (np. http://myapp.servbay.demo
) został dodany do listy origins
w konfiguracji Ollama, inaczej przeglądarka zablokuje zapytania z powodu CORS.
Przykładowe zastosowania
Lokalne uruchomienie Ollama w ServBay oferuje wiele korzyści:
- Rozwój AI lokalnie: Twórz i testuj aplikacje oparte na LLM bez potrzeby korzystania z zewnętrznych API lub usług chmurowych.
- Szybkie prototypowanie: Błyskawicznie testuj różne otwarte modele, by zweryfikować pomysły.
- Tryb offline: Dostęp do modeli nawet bez połączenia z Internetem.
- Prywatność danych: Wszystkie dane i interakcje pozostają na komputerze, bez przesyłania do podmiotów trzecich.
- Efektywność kosztowa: Unikasz kosztów związanych z usługami AI rozliczanymi w chmurze.
Ważne uwagi
- Miejsce na dysku: Pliki modeli LLM mogą być bardzo duże (od kilku do kilkudziesięciu GB). Upewnij się, że masz wystarczająco wolnego miejsca (domyślnie:
/Applications/ServBay/db/ollama/models
). - Zasoby systemowe: Uruchamianie modeli LLM wymaga sporej mocy CPU i RAM. Jeśli Twój Mac ma kompatybilną kartę GPU, Ollama może wykorzystać ją do przyspieszenia działania – zużycie GPU również wzrośnie. Upewnij się, że Twój komputer spełnia wymagania wybranego modelu.
- Czas pobierania: Pobieranie modeli może zająć dużo czasu, w zależności od szybkości łącza oraz wielkości plików.
- Firewall: Jeśli zmienisz
Bind IP
na0.0.0.0
, umożliwiając innym urządzeniom w sieci LAN dostęp do API Ollama, upewnij się, że firewall macOS zezwala na ruch przychodzący na wybranym porcie (11434
).
Podsumowanie
Dzięki integracji z Ollama, ServBay znacząco ułatwia wdrażanie i zarządzanie lokalnymi dużymi modelami językowymi na macOS. Za sprawą intuicyjnego interfejsu graficznego deweloperzy mogą szybko uruchamiać usługi, konfigurować środowisko, pobierać modele i natychmiast użytkować AI lokalnie – co czyni ServBay jeszcze bardziej wartościową, kompleksową platformą do lokalnego rozwoju oprogramowania.