
O Open WebUI se destaca como uma plataforma robusta, auto-hospedada e de código aberto que permite aos usuários operar modelos de linguagem de IA diretamente de suas máquinas, garantindo controle total dos dados. Ele acomoda diversos modelos locais, incluindo o Ollama, além de oferecer suporte a APIs compatíveis com o OpenAI. A flexibilidade de instalação é um recurso essencial, pois o Open WebUI pode ser configurado usando Docker, Python ou Kubernetes. No guia a seguir, apresentamos um processo passo a passo completo para instalar o Open WebUI em seu computador pessoal.
Benefícios do uso do Open WebUI
O Open WebUI oferece uma plataforma intuitiva e flexível para a utilização de IA, adaptada às suas necessidades específicas. Suportando uma variedade de modelos de IA, é compatível com todos os principais sistemas operacionais e apresenta uma interface amigável que lembra o ChatGPT. Entre os recursos notáveis estão Markdown, LaTeX, integração com plugins e um sistema de memória avançado para armazenamento eficaz de conteúdo.
Esta ferramenta versátil permite que os usuários conectem plugins, gerenciem múltiplos tópicos de bate-papo e salvem prompts para referência futura. Como uma iniciativa de código aberto, a Open WebUI prospera com melhorias impulsionadas pela comunidade, facilitando atualizações evolutivas rápidas e novos recursos.
Instalando o Open WebUI
Para começar a usar o Open WebUI via Docker, primeiro você precisa estabelecer um diretório de projeto e navegar até ele:
mkdir openwebuicd openwebui
Em seguida, crie um novo arquivo chamado “docker-compose.yml” usando seu editor de texto preferido (por exemplo, o Bloco de Notas):
nano docker-compose.yml
Insira a seguinte configuração no arquivo “docker-compose.yml” recém-criado:
services: ollama: image: ollama/ollama:latest container_name: ollama ports: - "11434:11434" environment: - OLLAMA_USE_GPU=false volumes: - ollama_data:/root/.ollama restart: unless-stopped openwebui: image: ghcr.io/open-webui/open-webui:main container_name: openwebui ports: - "3000:8080" environment: - OLLAMA_BASE_URL=http://ollama:11434 depends_on: - ollama volumes: - open-webui:/app/backend/data restart: unless-stopped volumes: open-webui: ollama_data:
Esta configuração inicializa dois serviços essenciais: ollama e OpenWebUI. O serviço ollama utiliza o contêiner ollama/ollama, mapeia para a porta 11434, desabilita a aceleração de GPU e salva os dados no volume ollama_data. Enquanto isso, o serviço OpenWebUI acessa o contêiner open-webui, roteando o tráfego da porta 3000 para a porta 8080, dependendo do serviço ollama para suas operações. Ambos os serviços incluem opções de reinicialização automática, a menos que sejam interrompidos manualmente, com volumes nomeados garantindo a persistência dos dados.
Após salvar a configuração do Docker Compose, inicie o serviço do Docker usando o seguinte comando:
docker compose up -d

Acessando o Open WebUI
Assim que os contêineres estiverem funcionando, abra seu navegador preferido e acesse http://localhost:3000. Esta ação carregará a interface Open WebUI diretamente da sua máquina. Para iniciar o processo de configuração, basta clicar no botão “Começar”.

Em seguida, insira seu Nome, E-mail e Senha e clique no botão Criar conta de administrador para estabelecer sua conta de administrador.

Com sua conta criada, você pode efetuar login para acessar o painel do Open WebUI.

Instalando um modelo de IA com Ollama
Embora o Open WebUI ofereça uma interface abrangente, ele exige a instalação de pelo menos um modelo de IA local para funcionar corretamente. Felizmente, usar o Ollama simplifica o processo. Você pode escolher entre uma variedade de modelos — incluindo llama3, mistral, gemma ou vicunha — com base em suas necessidades e nos recursos disponíveis do sistema.
Para esta demonstração, instalaremos o gemma:2b, conhecido por seu uso eficiente de recursos em comparação com modelos maiores. Para iniciar a instalação, clique no ícone do seu perfil e selecione a opção Painel de Administração para acessar o painel de gerenciamento.

No painel, localize e clique no ícone de download no canto superior direito para iniciar o download do modelo.

Depois de especificar o nome do modelo, clique no botão de download para prosseguir.

Após o download bem-sucedido do seu modelo, uma mensagem de confirmação de sucesso será exibida:

Neste ponto, você pode selecionar um modelo na interface Open WebUI e começar a utilizá-lo para suas consultas.

Utilizando Open WebUI
Depois de escolher um modelo, você pode começar a fazer perguntas. Por exemplo, quando perguntei “O que é Docker Compose?”, a Open WebUI forneceu a seguinte resposta valiosa:

Para iniciar uma nova conversa sem transferir o contexto de discussões anteriores, basta clicar em ” Novo Chat” no menu à esquerda. Esse recurso é particularmente útil quando você deseja mudar para um tópico totalmente diferente sem influências anteriores.

A seção de Busca permite que você descubra conversas anteriores ou palavras-chave específicas nos seus chats salvos. Basta inserir um termo ou frase e os resultados serão filtrados, permitindo que você revisite rapidamente insights ou prompts anteriores.


O Workspace oferece um ambiente estruturado para gerenciar vários projetos de forma integrada, evitando a confusão entre eles. Isso é especialmente útil para programação, escrita ou qualquer trabalho de longo prazo. O Open WebUI inclui as seguintes abas:
- Guia Modelos – Descubra e baixe modelos ou predefinições da comunidade, importe modelos de fontes externas e gerencie modelos instalados.
- Guia de conhecimento – Navegue pelos pacotes de conhecimento da comunidade ou importe seus arquivos (PDF, texto, CSV) para a IA utilizar nas respostas.
- Guia Prompts – Explore modelos de comunidade, importe prompts existentes e aplique-os em diferentes chats.
- Guia Ferramentas – Encontre ou importe ferramentas como executores de código, scrapers ou sumarizadores, permitindo o uso direto em chats para automação ou tarefas especializadas.

A seção Bate-papos exibe seu histórico de conversas com a IA, permitindo que você reabra bate-papos anteriores ou exclua aqueles que não precisa mais:

Controles de bate-papo no Open WebUI
O painel Controles de Chat oferece opções para ajustar o estilo de conversação e as respostas da IA. Você pode definir um Prompt do Sistema para influenciar o tom ou o comportamento, além de personalizar Parâmetros Avançados, como respostas de chat em streaming, tamanho do bloco, chamada de função, semente, sequência de parada, temperatura e esforço de raciocínio. Você tem a liberdade de personalizar esses parâmetros ou mantê-los nas configurações padrão para um desempenho padrão.

Ao clicar no ícone de perfil, você pode acessar o menu do usuário, que inclui opções de configurações, chats arquivados, playground, painel de administração, documentação, notas de versão, atalhos de teclado, logout e visualização de usuários ativos.

Conclusão
Embora a configuração do Open WebUI exija um investimento inicial de tempo, as vantagens superam em muito o esforço. A plataforma permite que os usuários tenham total controle sobre seus dados, selecionem modelos preferidos e personalizem sua interface, eliminando a dependência de servidores de terceiros. Após a instalação, você pode operar o modelo completamente offline, como se estivesse usando o Gemini CLI AI Agent no seu terminal.
Deixe um comentário