Exécutez facilement des modèles de langage d’IA locaux sur votre ordinateur à l’aide d’Open WebUI

Exécutez facilement des modèles de langage d’IA locaux sur votre ordinateur à l’aide d’Open WebUI

Open WebUI se distingue par sa robustesse, son auto-hébergement et son open source. Elle permet aux utilisateurs d’exploiter des modèles de langage d’IA directement depuis leurs machines, garantissant ainsi un contrôle total des données. Elle prend en charge divers modèles locaux, dont Ollama, et les API compatibles OpenAI. La flexibilité d’installation est un atout majeur : Open WebUI peut être configuré avec Docker, Python ou Kubernetes. Le guide suivant présente une procédure complète et étape par étape pour installer Open WebUI sur votre ordinateur.

Avantages de l’utilisation d’Open WebUI

Open WebUI offre une plateforme intuitive et flexible pour exploiter l’IA, adaptée à vos besoins spécifiques. Prenant en charge divers modèles d’IA, elle est compatible avec tous les principaux systèmes d’exploitation et propose une interface conviviale rappelant ChatGPT. Parmi ses fonctionnalités notables, on trouve Markdown, LaTeX, l’intégration de plugins et un système de mémoire avancé pour un stockage de contenu efficace.

Cet outil polyvalent permet aux utilisateurs de connecter des plugins, de gérer plusieurs fils de discussion et d’enregistrer des invites pour consultation ultérieure. Initiative open source, Open WebUI s’appuie sur des améliorations communautaires, facilitant des mises à jour évolutives rapides et de nouvelles fonctionnalités.

Installation d’Open WebUI

Pour démarrer avec Open WebUI via Docker, vous devez d’abord établir un répertoire de projet et y accéder :

mkdir openwebuicd openwebui

Ensuite, créez un nouveau fichier nommé « docker-compose.yml » à l’aide de votre éditeur de texte préféré (par exemple, le Bloc-notes) :

nano docker-compose.yml

Insérez la configuration suivante dans le fichier « docker-compose.yml » nouvellement créé :

services: ollama: image: ollama/ollama:latest container_name: ollama ports: - "11434:11434" environment: - OLLAMA_USE_GPU=false volumes: - ollama_data:/root/.ollama restart: unless-stopped openwebui: image: ghcr.io/open-webui/open-webui:main container_name: openwebui ports: - "3000:8080" environment: - OLLAMA_BASE_URL=http://ollama:11434 depends_on: - ollama volumes: - open-webui:/app/backend/data restart: unless-stopped volumes: open-webui: ollama_data:

Cette configuration initialise deux services essentiels : ollama et OpenWebUI. Le service ollama utilise le conteneur ollama/ollama, se connecte au port 11434, désactive l’accélération GPU et enregistre les données dans le volume ollama_data. Parallèlement, le service OpenWebUI accède au conteneur open-webui, acheminant le trafic du port 3000 vers le port 8080 tout en dépendant du service ollama pour ses opérations. Les deux services incluent des options de redémarrage automatique, sauf arrêt manuel, avec des volumes nommés garantissant la persistance des données.

Après avoir enregistré la configuration de Docker Compose, démarrez le service Docker à l’aide de la commande suivante :

docker compose up -d

Exécutez Docker Compose Up D

Accéder à Open WebUI

Une fois les conteneurs opérationnels, ouvrez votre navigateur web préféré et accédez à http://localhost:3000. Cette action chargera l’interface Open WebUI directement depuis votre ordinateur. Pour lancer l’installation, cliquez simplement sur le bouton « Démarrer ».

Ouvrir l'interface Web Démarrer

Ensuite, entrez votre nom, votre adresse e-mail et votre mot de passe, puis cliquez sur le bouton Créer un compte administrateur pour établir votre compte administrateur.

Créer un compte administrateur

Une fois votre compte créé, vous pouvez vous connecter pour accéder au tableau de bord Open WebUI.

Ouvrir la configuration de l'interface Web

Installation d’un modèle d’IA avec Ollama

Bien qu’Open WebUI offre une interface complète, son bon fonctionnement nécessite l’installation d’au moins un modèle d’IA local. Heureusement, Ollama simplifie le processus. Vous pouvez choisir parmi une variété de modèles, dont llama3, mistral, gemma ou vicuna, en fonction de vos besoins et des ressources système disponibles.

Pour cette démonstration, nous allons installer gemma:2b, connu pour son utilisation efficace des ressources par rapport aux modèles plus grands. Pour lancer l’installation, cliquez sur l’icône de votre profil et sélectionnez l’ option Panneau d’administration pour accéder au tableau de bord de gestion.

Accéder au panneau d'administration

Dans le tableau de bord, recherchez et cliquez sur l’ icône de téléchargement dans le coin supérieur droit pour commencer à télécharger le modèle.

Télécharger le modèle

Après avoir spécifié le nom du modèle, cliquez sur le bouton Télécharger pour continuer.

Modèle extrait d'Ollama

Une fois le téléchargement de votre modèle réussi, un message de confirmation de réussite s’affichera :

Modèle extrait avec succès

À ce stade, vous pouvez sélectionner un modèle dans l’interface Open WebUI et commencer à l’utiliser pour vos requêtes.

Sélectionnez le modèle

Utilisation d’Open WebUI

Une fois le modèle choisi, vous pouvez commencer à vous poser des questions. Par exemple, lorsque j’ai demandé « Qu’est-ce que Docker Compose ? », Open WebUI m’a fourni la précieuse réponse suivante :

Commencez à utiliser Openwebui

Pour lancer une nouvelle conversation sans reprendre le contexte des discussions précédentes, cliquez simplement sur « Nouvelle discussion » dans le menu de gauche. Cette fonctionnalité est particulièrement utile pour aborder un sujet complètement différent sans influences précédentes.

Démarrer une nouvelle discussion

La section Recherche vous permet de retrouver d’anciennes conversations ou des mots-clés spécifiques dans vos conversations enregistrées. Saisissez simplement un terme ou une expression et les résultats seront filtrés, vous permettant ainsi de revenir rapidement sur des informations ou des suggestions précédentes.

Rechercher des chats
Créer des notes de recherche

L’ espace de travail offre un environnement structuré pour gérer facilement divers projets, évitant ainsi toute confusion. Il est particulièrement utile pour le codage, l’écriture ou tout travail de longue haleine. L’interface Web ouverte comprend les onglets suivants :

  • Onglet Modèles – Découvrez et téléchargez des modèles ou des préréglages communautaires, importez des modèles à partir de sources externes et gérez les modèles installés.
  • Onglet Connaissances – Parcourez les packs de connaissances de la communauté ou importez vos fichiers (PDF, texte, CSV) pour que l’IA les utilise dans les réponses.
  • Onglet Invites – Explorez les modèles de communauté, importez les invites existantes et appliquez-les à différentes discussions.
  • Onglet Outils – Recherchez ou importez des outils tels que des exécuteurs de code, des scrapers ou des synthétiseurs, permettant une utilisation directe dans les chats pour l’automatisation ou des tâches spécialisées.
Espace de travail Openwebui

La section Chats affiche l’historique de vos conversations avec l’IA, vous permettant de rouvrir les chats précédents ou de supprimer ceux dont vous n’avez plus besoin :

Historique des discussions

Contrôles de discussion dans Open WebUI

Le panneau de contrôle du chat propose des options permettant d’ajuster le style de conversation et les réponses de l’IA. Vous pouvez définir une invite système pour influencer le ton ou le comportement, et personnaliser des paramètres avancés tels que la diffusion des réponses au chat, la taille des blocs, l’appel de fonction, la valeur de départ, la séquence d’arrêt, la température et l’effort de raisonnement. Vous pouvez personnaliser ces paramètres ou les conserver à leurs valeurs par défaut pour des performances standard.

Contrôles de discussion

En cliquant sur l’ icône de profil, vous pouvez accéder au menu utilisateur qui comprend des options pour les paramètres, les discussions archivées, l’aire de jeux, le panneau d’administration, la documentation, les notes de version, les raccourcis clavier, la déconnexion et l’affichage des utilisateurs actifs.

Accéder au menu utilisateur

Conclusion

Bien que la configuration d’Open WebUI nécessite un investissement initial en temps, les avantages compensent largement les efforts. La plateforme offre aux utilisateurs la liberté d’exercer un contrôle total sur leurs données, de sélectionner leurs modèles préférés et de personnaliser leur interface, éliminant ainsi la dépendance aux serveurs tiers. Après l’installation, vous pouvez utiliser le modèle entièrement hors ligne, comme avec l’agent Gemini CLI AI dans votre terminal.

Source et images

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *