Execute facilmente modelos de linguagem de IA local no seu computador usando o Open WebUI

Execute facilmente modelos de linguagem de IA local no seu computador usando o Open WebUI

O Open WebUI se destaca como uma plataforma robusta, auto-hospedada e de código aberto que permite aos usuários operar modelos de linguagem de IA diretamente de suas máquinas, garantindo controle total dos dados. Ele acomoda diversos modelos locais, incluindo o Ollama, além de oferecer suporte a APIs compatíveis com o OpenAI. A flexibilidade de instalação é um recurso essencial, pois o Open WebUI pode ser configurado usando Docker, Python ou Kubernetes. No guia a seguir, apresentamos um processo passo a passo completo para instalar o Open WebUI em seu computador pessoal.

Benefícios do uso do Open WebUI

O Open WebUI oferece uma plataforma intuitiva e flexível para a utilização de IA, adaptada às suas necessidades específicas. Suportando uma variedade de modelos de IA, é compatível com todos os principais sistemas operacionais e apresenta uma interface amigável que lembra o ChatGPT. Entre os recursos notáveis estão Markdown, LaTeX, integração com plugins e um sistema de memória avançado para armazenamento eficaz de conteúdo.

Esta ferramenta versátil permite que os usuários conectem plugins, gerenciem múltiplos tópicos de bate-papo e salvem prompts para referência futura. Como uma iniciativa de código aberto, a Open WebUI prospera com melhorias impulsionadas pela comunidade, facilitando atualizações evolutivas rápidas e novos recursos.

Instalando o Open WebUI

Para começar a usar o Open WebUI via Docker, primeiro você precisa estabelecer um diretório de projeto e navegar até ele:

mkdir openwebuicd openwebui

Em seguida, crie um novo arquivo chamado “docker-compose.yml” usando seu editor de texto preferido (por exemplo, o Bloco de Notas):

nano docker-compose.yml

Insira a seguinte configuração no arquivo “docker-compose.yml” recém-criado:

services: ollama: image: ollama/ollama:latest container_name: ollama ports: - "11434:11434" environment: - OLLAMA_USE_GPU=false volumes: - ollama_data:/root/.ollama restart: unless-stopped openwebui: image: ghcr.io/open-webui/open-webui:main container_name: openwebui ports: - "3000:8080" environment: - OLLAMA_BASE_URL=http://ollama:11434 depends_on: - ollama volumes: - open-webui:/app/backend/data restart: unless-stopped volumes: open-webui: ollama_data:

Esta configuração inicializa dois serviços essenciais: ollama e OpenWebUI. O serviço ollama utiliza o contêiner ollama/ollama, mapeia para a porta 11434, desabilita a aceleração de GPU e salva os dados no volume ollama_data. Enquanto isso, o serviço OpenWebUI acessa o contêiner open-webui, roteando o tráfego da porta 3000 para a porta 8080, dependendo do serviço ollama para suas operações. Ambos os serviços incluem opções de reinicialização automática, a menos que sejam interrompidos manualmente, com volumes nomeados garantindo a persistência dos dados.

Após salvar a configuração do Docker Compose, inicie o serviço do Docker usando o seguinte comando:

docker compose up -d

Execute o Docker Compose Up D

Acessando o Open WebUI

Assim que os contêineres estiverem funcionando, abra seu navegador preferido e acesse http://localhost:3000. Esta ação carregará a interface Open WebUI diretamente da sua máquina. Para iniciar o processo de configuração, basta clicar no botão “Começar”.

Abra o Webui e comece agora

Em seguida, insira seu Nome, E-mail e Senha e clique no botão Criar conta de administrador para estabelecer sua conta de administrador.

Criar conta de administrador

Com sua conta criada, você pode efetuar login para acessar o painel do Open WebUI.

Abra a configuração do WebUI

Instalando um modelo de IA com Ollama

Embora o Open WebUI ofereça uma interface abrangente, ele exige a instalação de pelo menos um modelo de IA local para funcionar corretamente. Felizmente, usar o Ollama simplifica o processo. Você pode escolher entre uma variedade de modelos — incluindo llama3, mistral, gemma ou vicunha — com base em suas necessidades e nos recursos disponíveis do sistema.

Para esta demonstração, instalaremos o gemma:2b, conhecido por seu uso eficiente de recursos em comparação com modelos maiores. Para iniciar a instalação, clique no ícone do seu perfil e selecione a opção Painel de Administração para acessar o painel de gerenciamento.

Painel de administração de acesso

No painel, localize e clique no ícone de download no canto superior direito para iniciar o download do modelo.

Baixar modelo

Depois de especificar o nome do modelo, clique no botão de download para prosseguir.

Puxe o modelo de Ollama

Após o download bem-sucedido do seu modelo, uma mensagem de confirmação de sucesso será exibida:

Modelo Puxado com Sucesso

Neste ponto, você pode selecionar um modelo na interface Open WebUI e começar a utilizá-lo para suas consultas.

Selecione o modelo

Utilizando Open WebUI

Depois de escolher um modelo, você pode começar a fazer perguntas. Por exemplo, quando perguntei “O que é Docker Compose?”, a Open WebUI forneceu a seguinte resposta valiosa:

Comece a usar o Openwebui

Para iniciar uma nova conversa sem transferir o contexto de discussões anteriores, basta clicar em ” Novo Chat” no menu à esquerda. Esse recurso é particularmente útil quando você deseja mudar para um tópico totalmente diferente sem influências anteriores.

Iniciar novo bate-papo

A seção de Busca permite que você descubra conversas anteriores ou palavras-chave específicas nos seus chats salvos. Basta inserir um termo ou frase e os resultados serão filtrados, permitindo que você revisite rapidamente insights ou prompts anteriores.

Pesquisar bate-papos
Criar notas de pesquisa

O Workspace oferece um ambiente estruturado para gerenciar vários projetos de forma integrada, evitando a confusão entre eles. Isso é especialmente útil para programação, escrita ou qualquer trabalho de longo prazo. O Open WebUI inclui as seguintes abas:

  • Guia Modelos – Descubra e baixe modelos ou predefinições da comunidade, importe modelos de fontes externas e gerencie modelos instalados.
  • Guia de conhecimento – Navegue pelos pacotes de conhecimento da comunidade ou importe seus arquivos (PDF, texto, CSV) para a IA utilizar nas respostas.
  • Guia Prompts – Explore modelos de comunidade, importe prompts existentes e aplique-os em diferentes chats.
  • Guia Ferramentas – Encontre ou importe ferramentas como executores de código, scrapers ou sumarizadores, permitindo o uso direto em chats para automação ou tarefas especializadas.
Espaço de trabalho Openwebui

A seção Bate-papos exibe seu histórico de conversas com a IA, permitindo que você reabra bate-papos anteriores ou exclua aqueles que não precisa mais:

Histórico de bate-papo

Controles de bate-papo no Open WebUI

O painel Controles de Chat oferece opções para ajustar o estilo de conversação e as respostas da IA. Você pode definir um Prompt do Sistema para influenciar o tom ou o comportamento, além de personalizar Parâmetros Avançados, como respostas de chat em streaming, tamanho do bloco, chamada de função, semente, sequência de parada, temperatura e esforço de raciocínio. Você tem a liberdade de personalizar esses parâmetros ou mantê-los nas configurações padrão para um desempenho padrão.

Controles de bate-papo

Ao clicar no ícone de perfil, você pode acessar o menu do usuário, que inclui opções de configurações, chats arquivados, playground, painel de administração, documentação, notas de versão, atalhos de teclado, logout e visualização de usuários ativos.

Acessar Menu do Usuário

Conclusão

Embora a configuração do Open WebUI exija um investimento inicial de tempo, as vantagens superam em muito o esforço. A plataforma permite que os usuários tenham total controle sobre seus dados, selecionem modelos preferidos e personalizem sua interface, eliminando a dependência de servidores de terceiros. Após a instalação, você pode operar o modelo completamente offline, como se estivesse usando o Gemini CLI AI Agent no seu terminal.

Fonte e Imagens

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *