Ejecute fácilmente modelos de lenguaje de IA locales en su computadora usando Open WebUI

Ejecute fácilmente modelos de lenguaje de IA locales en su computadora usando Open WebUI

Open WebUI destaca como una plataforma robusta, autoalojada y de código abierto que permite a los usuarios operar modelos de lenguaje de IA directamente desde sus equipos, garantizando un control total de los datos. Admite diversos modelos locales, incluyendo Ollama, y también admite API compatibles con OpenAI. La flexibilidad de instalación es fundamental, ya que Open WebUI se puede configurar con Docker, Python o Kubernetes. En la siguiente guía, presentamos un proceso completo, paso a paso, para instalar Open WebUI en su ordenador personal.

Beneficios de usar Open WebUI

Open WebUI ofrece una plataforma intuitiva y flexible para usar IA, adaptada a sus necesidades específicas. Compatible con diversos modelos de IA, es compatible con los principales sistemas operativos y presenta una interfaz intuitiva similar a ChatGPT. Entre sus funciones más destacadas se incluyen Markdown, LaTeX, integración de plugins y un sistema de memoria avanzado para un almacenamiento de contenido eficaz.

Esta versátil herramienta permite a los usuarios conectar plugins, gestionar múltiples hilos de chat y guardar mensajes para futuras consultas. Como iniciativa de código abierto, Open WebUI se nutre de mejoras impulsadas por la comunidad, lo que facilita actualizaciones rápidas y nuevas funciones.

Instalación de Open WebUI

Para comenzar a utilizar Open WebUI a través de Docker, primero deberá establecer un directorio de proyecto y navegar hasta él:

mkdir openwebuicd openwebui

A continuación, cree un nuevo archivo llamado “docker-compose.yml” utilizando su editor de texto preferido (por ejemplo, el Bloc de notas):

nano docker-compose.yml

Inserte la siguiente configuración en el archivo “docker-compose.yml” recién creado:

services: ollama: image: ollama/ollama:latest container_name: ollama ports: - "11434:11434" environment: - OLLAMA_USE_GPU=false volumes: - ollama_data:/root/.ollama restart: unless-stopped openwebui: image: ghcr.io/open-webui/open-webui:main container_name: openwebui ports: - "3000:8080" environment: - OLLAMA_BASE_URL=http://ollama:11434 depends_on: - ollama volumes: - open-webui:/app/backend/data restart: unless-stopped volumes: open-webui: ollama_data:

Esta configuración inicializa dos servicios esenciales: ollama y OpenWebUI. El servicio ollama utiliza el contenedor ollama/ollama, se asigna al puerto 11434, desactiva la aceleración de GPU y guarda los datos en el volumen ollama_data. Mientras tanto, el servicio OpenWebUI accede al contenedor open-webui, enrutando el tráfico del puerto 3000 al puerto 8080, dependiendo del servicio ollama para sus operaciones. Ambos servicios incluyen opciones de reinicio automático a menos que se detengan manualmente, y los volúmenes con nombre garantizan la persistencia de los datos.

Después de guardar la configuración de Docker Compose, inicie el servicio Docker con el siguiente comando:

docker compose up -d

Ejecutar Docker Compose Up D

Acceder a Open WebUI

Una vez que los contenedores estén en funcionamiento, abra su navegador web preferido y navegue a http://localhost:3000. Esta acción cargará la interfaz Open WebUI directamente desde su equipo. Para comenzar el proceso de configuración, simplemente haga clic en el botón «Comenzar».

Open Webui Comenzar

A continuación, ingrese su nombre, correo electrónico y contraseña, luego haga clic en el botón Crear cuenta de administrador para establecer su cuenta de administrador.

Crear una cuenta de administrador

Una vez creada su cuenta, podrá iniciar sesión para acceder al panel de control de Open WebUI.

Configuración de Open Webui

Instalación de un modelo de IA con Ollama

Aunque Open WebUI ofrece una interfaz completa, requiere la instalación de al menos un modelo de IA local para su correcto funcionamiento. Afortunadamente, usar Ollama simplifica el proceso. Puede elegir entre diversos modelos, como llama3, mistral, gemma o vicuña, según sus necesidades y los recursos disponibles del sistema.

Para esta demostración, instalaremos gemma:2b, conocido por su eficiente uso de recursos en comparación con modelos más grandes. Para iniciar la instalación, haga clic en el icono de su perfil y seleccione la opción «Panel de administración» para acceder al panel de administración.

Acceder al panel de administración

En el panel de control, busque y haga clic en el ícono de descarga en la esquina superior derecha para comenzar a descargar el modelo.

Descargar modelo

Después de especificar el nombre del modelo, haga clic en el botón de descarga para continuar.

Extraer modelo de Ollama

Tras descargar correctamente su modelo, se mostrará un mensaje de confirmación de éxito:

Modelo extraído con éxito

En este punto, puede seleccionar un modelo de la interfaz Open WebUI y comenzar a utilizarlo para sus consultas.

Seleccionar modelo

Utilizando Open WebUI

Una vez elegido un modelo, puedes empezar a plantear preguntas. Por ejemplo, cuando pregunté «¿Qué es Docker Compose?», Open WebUI me dio la siguiente y valiosa respuesta:

Comience a usar Openwebui

Para iniciar una nueva conversación sin transferir el contexto de conversaciones anteriores, simplemente haz clic en «Nuevo chat» en el menú de la izquierda. Esta función es especialmente útil cuando deseas cambiar de tema sin influencias previas.

Iniciar un nuevo chat

La sección de Búsqueda te permite descubrir conversaciones pasadas o palabras clave específicas en tus chats guardados. Solo introduce un término o frase y se filtrarán los resultados, permitiéndote revisar rápidamente información o sugerencias anteriores.

Buscar chats
Crear notas de búsqueda

El espacio de trabajo proporciona un entorno estructurado para gestionar diversos proyectos sin problemas, evitando que se mezclen. Esto resulta especialmente útil para programar, escribir o cualquier trabajo a largo plazo. La interfaz web abierta incluye las siguientes pestañas:

  • Pestaña Modelos : descubra y descargue modelos o ajustes preestablecidos de la comunidad, importe modelos de fuentes externas y administre modelos instalados.
  • Pestaña de conocimiento : explore los paquetes de conocimiento de la comunidad o importe sus archivos (PDF, texto, CSV) para que la IA los utilice en las respuestas.
  • Pestaña Avisos : explora las plantillas de la comunidad, importa avisos existentes y aplícalos en diferentes chats.
  • Pestaña Herramientas : busque o importe herramientas como ejecutores de código, raspadores o resumidores, lo que permite el uso directo en chats para automatización o tareas especializadas.
Espacio de trabajo Openwebui

La sección Chats muestra tu historial de conversaciones con la IA, lo que te permite reabrir chats anteriores o eliminar aquellos que ya no necesitas:

Historial de chat

Controles de chat en Open WebUI

El panel de Controles de Chat ofrece opciones para ajustar el estilo conversacional y las respuestas de la IA. Puedes configurar un Aviso del Sistema para influir en el tono o el comportamiento, además de personalizar Parámetros Avanzados como la transmisión de respuestas de chat, el tamaño del fragmento, la llamada a funciones, la semilla, la secuencia de detención, la temperatura y el esfuerzo de razonamiento. Puedes personalizar estos parámetros o mantenerlos con su configuración predeterminada para un rendimiento estándar.

Controles de chat

Al hacer clic en el ícono de perfil, puede acceder al menú de usuario, que incluye opciones de configuración, chats archivados, área de juegos, panel de administración, documentación, notas de la versión, atajos de teclado, cierre de sesión y visualización de usuarios activos.

Acceder al menú de usuario

Conclusión

Si bien configurar Open WebUI requiere una inversión inicial de tiempo, las ventajas compensan con creces el esfuerzo. La plataforma ofrece a los usuarios la libertad de tener control total sobre sus datos, seleccionar los modelos preferidos y personalizar su interfaz, eliminando así la dependencia de servidores externos. Tras la instalación, puede operar el modelo completamente sin conexión, de forma similar a usar el Agente de IA de Gemini CLI en su terminal.

Fuente e imágenes

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *