Łatwe uruchamianie lokalnych modeli językowych AI na komputerze za pomocą otwartego interfejsu użytkownika WebUI

Łatwe uruchamianie lokalnych modeli językowych AI na komputerze za pomocą otwartego interfejsu użytkownika WebUI

Open WebUI wyróżnia się jako solidna, samodzielnie hostowana i open source’owa platforma, która umożliwia użytkownikom obsługę modeli językowych sztucznej inteligencji bezpośrednio z ich maszyn, zapewniając pełną kontrolę nad danymi. Obsługuje różne modele lokalne, w tym Ollama, a także obsługuje interfejsy API zgodne z OpenAI. Elastyczność instalacji jest kluczową cechą, ponieważ Open WebUI można skonfigurować za pomocą Dockera, Pythona lub Kubernetesa. W poniższym przewodniku przedstawiamy kompleksowy, krok po kroku proces instalacji Open WebUI na komputerze osobistym.

Korzyści z korzystania z Open WebUI

Open WebUI oferuje intuicyjną i elastyczną platformę do wykorzystania sztucznej inteligencji (AI), dostosowaną do Twoich specyficznych wymagań. Obsługuje różnorodne modele AI, jest kompatybilny ze wszystkimi głównymi systemami operacyjnymi i oferuje przyjazny dla użytkownika interfejs, przypominający ChatGPT. Wśród jego najważniejszych funkcji znajdują się Markdown, LaTeX, integracja z wtyczkami oraz zaawansowany system pamięci do efektywnego przechowywania treści.

To wszechstronne narzędzie pozwala użytkownikom podłączać wtyczki, zarządzać wieloma wątkami czatu i zapisywać komunikaty do wykorzystania w przyszłości. Jako inicjatywa open source, Open WebUI opiera się na ulepszeniach tworzonych przez społeczność, co umożliwia szybkie, ewolucyjne aktualizacje i wprowadzanie nowych funkcji.

Instalowanie Open WebUI

Aby rozpocząć korzystanie z Open WebUI za pośrednictwem Dockera, najpierw musisz utworzyć katalog projektu i przejść do niego:

mkdir openwebuicd openwebui

Następnie utwórz nowy plik o nazwie „docker-compose.yml” przy użyciu preferowanego edytora tekstu (np. Notatnika):

nano docker-compose.yml

Wstaw następującą konfigurację do nowo utworzonego pliku „docker-compose.yml”:

services: ollama: image: ollama/ollama:latest container_name: ollama ports: - "11434:11434" environment: - OLLAMA_USE_GPU=false volumes: - ollama_data:/root/.ollama restart: unless-stopped openwebui: image: ghcr.io/open-webui/open-webui:main container_name: openwebui ports: - "3000:8080" environment: - OLLAMA_BASE_URL=http://ollama:11434 depends_on: - ollama volumes: - open-webui:/app/backend/data restart: unless-stopped volumes: open-webui: ollama_data:

Ta konfiguracja inicjuje dwie niezbędne usługi: ollama i OpenWebUI. Usługa ollama wykorzystuje kontener ollama/ollama, mapuje na port 11434, wyłącza akcelerację GPU i zapisuje dane w woluminie ollama_data. Jednocześnie usługa OpenWebUI uzyskuje dostęp do kontenera open-webui, kierując ruch z portu 3000 do portu 8080, jednocześnie korzystając z usług ollama w zakresie operacji. Obie usługi oferują opcje automatycznego ponownego uruchamiania, chyba że zostaną zatrzymane ręcznie, a nazwane woluminy zapewniają trwałość danych.

Po zapisaniu konfiguracji Docker Compose uruchom usługę Docker za pomocą następującego polecenia:

docker compose up -d

Uruchom Docker Compose Up D

Dostęp do Open WebUI

Po uruchomieniu kontenerów otwórz preferowaną przeglądarkę internetową i przejdź do adresu http://localhost:3000. Spowoduje to załadowanie interfejsu Open WebUI bezpośrednio z Twojego komputera. Aby rozpocząć proces instalacji, kliknij przycisk Rozpocznij.

Otwórz Webui Rozpocznij

Następnie wprowadź swoje imię, adres e-mail i hasło, po czym kliknij przycisk Utwórz konto administratora, aby utworzyć konto administratora.

Utwórz konto administratora

Po utworzeniu konta możesz się zalogować, aby uzyskać dostęp do pulpitu nawigacyjnego Open WebUI.

Otwórz konfigurację WebUI

Instalowanie modelu AI za pomocą Ollama

Chociaż Open WebUI oferuje kompleksowy interfejs, do jego prawidłowego działania wymagane jest zainstalowanie co najmniej jednego lokalnego modelu sztucznej inteligencji. Na szczęście, Ollama upraszcza ten proces. Możesz wybierać spośród wielu modeli – w tym llama3, mistral, gemma lub vicuna – w zależności od wymagań i dostępnych zasobów systemowych.

Na potrzeby tej demonstracji zainstalujemy gemma:2b, znaną z efektywnego wykorzystania zasobów w porównaniu z większymi modelami. Aby rozpocząć instalację, kliknij ikonę swojego profilu i wybierz opcję Panel administracyjny, aby uzyskać dostęp do panelu zarządzania.

Dostęp do panelu administracyjnego

Na pulpicie nawigacyjnym znajdź i kliknij ikonę pobierania w prawym górnym rogu, aby rozpocząć pobieranie modelu.

Pobierz model

Po podaniu nazwy modelu kliknij przycisk pobierania, aby kontynuować.

Wyciągnij model z Ollama

Po pomyślnym pobraniu modelu zostanie wyświetlony komunikat potwierdzający:

Model pomyślnie wyciągnięty

W tym momencie możesz wybrać model z interfejsu Open WebUI i rozpocząć jego wykorzystanie do swoich zapytań.

Wybierz model

Wykorzystanie otwartego interfejsu użytkownika WebUI

Po wybraniu modelu możesz zacząć zadawać pytania. Na przykład, kiedy zapytałem: „Czym jest Docker Compose?”, Open WebUI udzielił mi następującej, cennej odpowiedzi:

Rozpocznij korzystanie z Openwebui

Aby rozpocząć nową rozmowę bez przenoszenia kontekstu z poprzednich dyskusji, wystarczy kliknąć „Nowy czat” w menu po lewej stronie. Ta funkcja jest szczególnie przydatna, gdy chcesz przejść do zupełnie innego tematu bez wcześniejszych inspiracji.

Rozpocznij nowy czat

Sekcja wyszukiwania umożliwia odnalezienie wcześniejszych rozmów lub konkretnych słów kluczowych w zapisanych czatach. Wystarczy wpisać termin lub frazę, a wyniki zostaną przefiltrowane, umożliwiając szybki powrót do poprzednich spostrzeżeń lub podpowiedzi.

Szukaj czatów
Utwórz notatki wyszukiwania

Obszar roboczy zapewnia ustrukturyzowane środowisko do płynnego zarządzania różnymi projektami, zapobiegając ich mieszaniu. Jest to szczególnie przydatne podczas kodowania, pisania lub prac długoterminowych. Open WebUI zawiera następujące zakładki:

  • Karta Modele – odkrywaj i pobieraj modele lub ustawienia społecznościowe, importuj modele z zewnętrznych źródeł i zarządzaj zainstalowanymi modelami.
  • Karta Wiedza – przeglądaj pakiety wiedzy społeczności lub importuj pliki (PDF, tekst, CSV), aby sztuczna inteligencja mogła je wykorzystać w odpowiedziach.
  • Karta Podpowiedzi – przeglądaj szablony społeczności, importuj istniejące podpowiedzi i stosuj je w różnych czatach.
  • Karta Narzędzia – znajdź lub zaimportuj narzędzia, takie jak programy do wykonywania kodu, narzędzia do scrapowania lub narzędzia do podsumowywania, umożliwiające bezpośrednie wykorzystanie w czatach do automatyzacji lub wykonywania specjalistycznych zadań.
Obszar roboczy Openwebui

Sekcja Czaty wyświetla historię Twoich rozmów z AI, umożliwiając Ci ponowne otwarcie poprzednich czatów lub usunięcie tych, których już nie potrzebujesz :

Historia czatu

Sterowanie czatem w Open WebUI

Panel sterowania czatem oferuje opcje dostosowywania stylu konwersacji i odpowiedzi sztucznej inteligencji. Możesz ustawić monit systemowy, aby wpłynąć na ton lub zachowanie, a także dostosować parametry zaawansowane, takie jak strumieniowe odpowiedzi czatu, rozmiar fragmentu, wywołanie funkcji, zarodek, sekwencję zatrzymywania, temperaturę i wysiłek wnioskowania. Możesz swobodnie dostosować te parametry lub pozostawić je na domyślnych ustawieniach, aby zapewnić standardową wydajność.

Sterowanie czatem

Klikając ikonę profilu, możesz uzyskać dostęp do menu użytkownika, które zawiera opcje dotyczące ustawień, zarchiwizowanych czatów, placu zabaw, panelu administracyjnego, dokumentacji, notatek o wydaniach, skrótów klawiaturowych, wylogowywania się i przeglądania aktywnych użytkowników.

Dostęp do menu użytkownika

Wniosek

Chociaż konfiguracja Open WebUI wymaga początkowej inwestycji czasu, korzyści znacznie przewyższają nakład pracy. Platforma daje użytkownikom pełną kontrolę nad swoimi danymi, możliwość wyboru preferowanych modeli i personalizacji interfejsu, eliminując zależność od serwerów firm trzecich. Po instalacji można korzystać z modelu całkowicie offline, podobnie jak z agenta Gemini CLI AI w terminalu.

Źródło i obrazy

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *