Open WebUI: interfaz gráfica tipo ChatGPT para tu Ollama local
Tiempo de lectura: 7 minutos CategorÃa: Inteligencia Artificial · Linux Nivel: Principiante / Intermedio
🔒 Seguridad de Acceso (Privacidad Total)
Exponer servicios como Open WebUI directamente a internet mediante la apertura de puertos en el router es una práctica arriesgada. Para una seguridad real:
No expongas puertos: Evita que tus servicios sean vistos desde internet si inspeccionan tu IP.
Uso de VPN o Túneles: Implementa soluciones como WireGuard o Tailscale para acceso remoto seguro.
Autenticación Robusta: Configura un 2FA o un proveedor de identidad (IdP) como Authentik para gestionar quién accede a tus herramientas de IA.
En el artÃculo anterior instalamos Ollama y aprendimos a usar modelos de lenguaje desde la terminal. Pero seamos honestos: la interfaz de lÃnea de comandos no es la más cómoda para tener conversaciones largas o gestionar varios modelos. Open WebUI soluciona exactamente eso.
¿Qué es Open WebUI?
Open WebUI es una interfaz web de código abierto diseñada especÃficamente para interactuar con Ollama y con la API de OpenAI. Visualmente es muy similar a ChatGPT: tienes un historial de conversaciones en la barra lateral, un campo de texto para escribir tus mensajes, y una respuesta del modelo que aparece en tiempo real.
Pero a diferencia de ChatGPT, todo corre en tu propia máquina. Tus conversaciones no se envÃan a ningún servidor externo, no hay lÃmites de uso y funciona sin conexión a internet una vez que tienes los modelos descargados.
Qué necesitas antes de empezar
Para instalar Open WebUI necesitas tener Ollama funcionando (si no lo tienes, echa un vistazo al artÃculo anterior de esta serie) y Docker instalado en tu sistema. Docker es la forma más sencilla de instalar Open WebUI porque evita tener que gestionar dependencias manualmente.
Si no tienes Docker, puedes instalarlo siguiendo la documentación oficial en docs.docker.com. La instalación en Linux se hace con un script de una sola lÃnea y en la mayorÃa de distribuciones no lleva más de dos minutos.
Instalación con Docker
La instalación de Open WebUI con Docker se hace con un único comando que descarga la imagen del contenedor y lo pone en marcha. El comando mapea el puerto 3000 de tu máquina al puerto 8080 del contenedor, monta un volumen para que los datos persistan entre reinicios, y configura la URL de la API de Ollama para que Open WebUI sepa dónde encontrarla.
El parámetro más importante es la variable de entorno OLLAMA_BASE_URL, que debe apuntar a la dirección donde está corriendo Ollama. Si Ollama está en la misma máquina, el valor correcto es http://host.docker.internal:11434 en la mayorÃa de sistemas, o http://172.17.0.1:11434 si el anterior no funciona.
La primera vez que ejecutes el comando, Docker descargará la imagen de Open WebUI que pesa aproximadamente 1 GB. Las siguientes veces arrancará en segundos.
Acceder a la interfaz
Una vez que el contenedor está en marcha, abre tu navegador y ve a http://localhost:3000. Verás la pantalla de registro de Open WebUI donde debes crear una cuenta de administrador. Esta cuenta es local y no se envÃa a ningún servidor externo.
Tras registrarte llegarás a la interfaz principal, que es prácticamente idéntica a ChatGPT. En la esquina superior izquierda puedes seleccionar el modelo que quieres usar entre todos los que tengas descargados en Ollama.
CaracterÃsticas principales
Open WebUI va mucho más allá de ser una simple interfaz de chat. Tiene un historial completo de conversaciones organizado por fecha que se guarda localmente. Permite crear varios chats simultáneos con diferentes modelos. Puedes subir documentos PDF o de texto y hacer preguntas sobre su contenido directamente en el chat, lo que es una forma sencilla de hacer RAG sin configuración adicional.
También tiene un editor de system prompts para personalizar el comportamiento del modelo, soporte para generación de imágenes si conectas un modelo de imagen, y la posibilidad de compartir conversaciones mediante un enlace.
Una de las funciones más útiles es la posibilidad de crear varios usuarios con diferentes niveles de acceso. Esto lo hace ideal si quieres dar acceso a tu IA local a varios miembros de tu familia o equipo sin que cada uno tenga que instalar nada.
Gestionar modelos desde la interfaz
Open WebUI te permite descargar nuevos modelos de Ollama directamente desde la interfaz web sin tener que abrir la terminal. En el panel de administración hay una sección de modelos donde puedes escribir el nombre de cualquier modelo disponible en Ollama y descargarlo con un clic.
También muestra el tamaño de cada modelo y permite eliminar los que ya no uses para liberar espacio en disco.
Hacer que arranque automáticamente
Si quieres que Open WebUI esté disponible siempre que enciendas tu máquina, puedes configurar Docker para que inicie el contenedor automáticamente añadiendo el flag --restart always al comando de instalación, o creando un archivo de servicio de systemd que arranque Docker y el contenedor al inicio del sistema.
Acceder desde otros dispositivos de tu red
Por defecto Open WebUI solo es accesible desde la máquina donde está instalado. Pero si quieres acceder desde el móvil o desde otro ordenador de tu red local, simplemente reemplaza localhost por la IP local de tu máquina en la URL. Puedes conocer tu IP local con el comando ip addr o ifconfig.
Asà puedes tener tu IA privada accesible desde cualquier dispositivo de tu casa sin que nada salga de tu red local.
Conclusión
Open WebUI transforma Ollama de una herramienta de terminal en un asistente de IA completo y cómodo de usar para cualquier persona, independientemente de sus conocimientos técnicos. La instalación lleva menos de 10 minutos y el resultado es una experiencia muy similar a ChatGPT pero completamente privada y sin coste mensual.
En el próximo artÃculo iremos un paso más allá y veremos cómo construir un sistema RAG que permita hacer preguntas sobre tus propios documentos con una precisión mucho mayor.
¿Has probado alguna otra interfaz para Ollama? Me interesa saber cuál es tu favorita.

