IA Local · Tutorial sin código
Tu propio ChatGPT
gratis en casa
"Llevo 8 meses sin pagar a OpenAI. Tengo una IA que responde igual de bien, funciona sin internet y mis datos no salen de mi ordenador. Te enseño exactamente cómo."
⏱️ 15 minutos de setup total 🖥️ Windows y Mac 💻 Sin saber programar 🆓 Gratis para siempre
Lo que te cuesta ChatGPT ahora mismo

Antes de entrar en el tutorial, hagamos los números. ChatGPT Plus cuesta 20€ al mes. Claude Pro, otros 20€. Si usas ambos — algo normal si trabajas con IA todos los días — son 480€ al año solo en suscripciones de IA.

Suscripciones IA / año
480€
ChatGPT + Claude Pro
IA local con Ollama / año
0€
Para siempre, en tu ordenador

Obvio que no es una comparación 1:1 — hay cosas que ChatGPT hace mejor. Pero para el 70–80% del trabajo diario de un creador de contenido —escribir, resumir, reformular, generar ideas, analizar textos— un modelo local bien configurado da resultados equivalentes. Y los 480€ se quedan en tu bolsillo.

¿Qué vamos a instalar exactamente? Ollama (el motor que corre los modelos) + Open WebUI (la interfaz gráfica tipo ChatGPT). El resultado final: una pantalla de chat en tu navegador, con tus modelos, en tu ordenador, que funciona sin internet y sin suscripciones.

→ Si quieres entender primero qué es Ollama, lee esta guía completa
Antes de empezar — ¿tu ordenador puede?

No necesitas un ordenador gaming. Con un portátil o PC de los últimos 5 años con 16GB de RAM puedes correr modelos muy capaces. Estos son los mínimos reales:

💾
RAM mínima
8 GB
Para modelos 3B (ligeros pero útiles). Con 16GB tienes acceso a modelos 7B–8B que son los mejores para uso diario.
💽
Disco libre
10–20 GB
Para instalar Ollama y descargar 2–3 modelos. Puedes borrar modelos en cualquier momento para liberar espacio.
🖥️
Sistema operativo
Windows 10/11 · macOS · Linux
Compatible con los tres. En Mac con chip M (M1/M2/M3/M4) el rendimiento es especialmente bueno.
¿Tu ordenador se queda corto? Más abajo tienes los mini PCs que uso como servidores de IA en casa. Desde 639€, 32GB de RAM, silenciosos y preparados para correr LLaMA 70B sin problemas.
Setup completo en 15 minutos

Sin código. Sin terminal si no quieres. Sigue los pasos en orden y al final tendrás tu propio ChatGPT corriendo en local.

1
Descarga e instala Ollama

Ve a ollama.com desde tu navegador. Verás un botón de descarga grande para tu sistema operativo. Descárgalo y ejecútalo como cualquier instalador normal — siguiente, siguiente, instalar.

En Windows: descarga el .exe y dale doble clic.
En Mac: descarga el .dmg, ábrelo y arrastra Ollama a Aplicaciones.

✅ Sabrás que está instalado cuando veas el icono de Ollama en la barra del sistema (Windows) o en la barra de menús (Mac).
2
Descarga tu primer modelo de IA

Abre la terminal (en Windows busca "cmd" en el menú inicio; en Mac busca "Terminal" en Spotlight) y escribe este comando. Ollama descarga el modelo automáticamente — tarda 2–5 minutos según tu conexión.

Terminal · Windows o Mac
ollama run llama3.1:8b
💡 LLaMA 3.1 8B pesa ~5GB y necesita 16GB de RAM. Si tienes 8GB, usa ollama run llama3.2 (~2GB, igual de fácil de instalar).
3
Prueba que funciona desde la terminal

Cuando el modelo termine de descargarse, verás el prompt >>>. Escribe cualquier mensaje y el modelo responderá. Es tu IA, en tu ordenador, sin internet.

✅ Si ves respuestas del modelo ya tienes Ollama funcionando. Para salir escribe /bye y pulsa Enter.
4
Instala Open WebUI — la interfaz tipo ChatGPT

La terminal funciona, pero es incómoda para uso diario. Open WebUI te da exactamente la misma interfaz que ChatGPT — chat en el navegador, historial de conversaciones, selección de modelo — pero apuntando a tu Ollama local.

La forma más fácil de instalarlo es con Docker. Si no tienes Docker instalado, descárgalo desde docker.com (es gratis, instalador normal). Una vez instalado, ejecuta este comando:

Terminal · Instalar Open WebUI con Docker
docker run -d -p 3000:8080 \ --add-host=host.docker.internal:host-gateway \ -v open-webui:/app/backend/data \ --name open-webui --restart always \ ghcr.io/open-webui/open-webui:main
✅ Este comando solo se ejecuta una vez. Open WebUI arranca automáticamente cada vez que enciendes el ordenador.
5
Abre tu ChatGPT local en el navegador

Espera 1–2 minutos mientras Open WebUI se instala y luego abre tu navegador y ve a esta dirección:

Navegador
http://localhost:3000

Verás una pantalla de registro — crea una cuenta local (solo para ti, no sale de tu ordenador). Una vez dentro, selecciona el modelo en el desplegable superior y empieza a chatear. Es exactamente igual que ChatGPT pero es tuyo, gratis y privado.

🎉 Setup completo. A partir de ahora solo tienes que abrir el navegador y ir a localhost:3000 para tener tu IA disponible.
¿Sin Docker? Si no quieres instalar Docker, también puedes usar Ollama directamente desde la terminal (paso 3) o instalar Enchanted (Mac, App Store, gratis) que es una app nativa para Mac que se conecta a Ollama sin necesidad de Docker ni terminal.
Interfaces gráficas — elige la tuya

Open WebUI es mi recomendación para la mayoría, pero hay más opciones según tus preferencias:

🌐
Open WebUI

La más completa. Chat, historial, documentos, multiusuario. Idéntica a ChatGPT en el navegador.

Recomendada
🍎
Enchanted

App nativa para Mac. Sin Docker, sin terminal. Perfecta si usas Mac y quieres la opción más sencilla.

Solo Mac
💻
Continue (VS Code)

Para programadores. Integra Ollama directamente en VS Code como asistente de código local.

Desarrolladores
¿Tu ordenador se queda corto?

Si tienes menos de 16GB de RAM o tu ordenador va justo con el modelo, estos mini PCs están preparados de fábrica para IA local. Los uso como servidores dedicados — siempre encendidos, silenciosos, sin ocupar el PC principal.

🖥️
MINISFORUM UM773
🛒
Mini PC · IA Local
MINISFORUM
UM773 Lite 32GB
🛒 MEJOR OFERTA EN AMAZON
⚡ Rendimiento IA
7/10
💰 Precio/calidad
8/10
🎬 Para creadores
8/10

32GB DDR5, Ryzen 7 7735HS, GPU Radeon integrada. Corre Ollama + LLaMA 8B sin problemas, silencioso, compacto. Ideal como servidor dedicado.

✅ Pros
+32GB RAM DDR5
+GPU Radeon 680M
+Silencioso 24/7
❌ Contras
Sin GPU NVIDIA
70B algo justo
FLUX más lento
💻
Mac Mini M4
🛒
Mac · IA All-in-One
Apple Mac
Mini M4 16GB
🛒 MEJOR OFERTA EN AMAZON
⚡ Rendimiento IA
9/10
💰 Precio/calidad
7/10
🎬 Para creadores
10/10

El all-in-one definitivo para Ollama en Mac. LLaMA 70B, Whisper y FLUX en un dispositivo de 20W sin ventilador. Instala Enchanted desde el App Store y listo.

✅ Pros
+LLaMA 70B fluido
+Solo 20W consumo
+Chip M4 bestial
❌ Contras
Solo ecosistema Mac
RAM no ampliable
Precio elevado
Por qué tiene sentido tener IA en local

La pregunta obvia es: si ChatGPT funciona bien, ¿para qué complicarse? La respuesta depende de cómo uses la IA. Si la usas una vez a la semana para una consulta puntual, ChatGPT gratis probablemente es suficiente. Pero si la integras en tu flujo de trabajo diario, los problemas empiezan a aparecer: límites de mensajes, respuestas lentas en horas pico, datos de clientes que no deberían salir de tu empresa, o simplemente la factura mensual que se acumula.

La IA local resuelve todos esos problemas a la vez. Una vez instalada, tienes un asistente disponible 24/7, sin límites, sin cuotas, que funciona aunque tu conexión a internet falle. Para alguien que usa IA para escribir guiones, analizar datos, generar descripciones de producto o automatizar tareas repetitivas, el ahorro de tiempo y dinero es inmediato.

Qué modelo usar según tu caso

No todos los modelos son iguales, y elegir mal significa frustrarse con respuestas lentas o de baja calidad. La regla es simple: cuanto más RAM tienes, mejor modelo puedes correr. Con 8GB, LLaMA 3.2 3B o Phi-3 Mini son tus mejores opciones — rápidos y sorprendentemente capaces para texto en español. Con 16GB, LLaMA 3.1 8B es el punto dulce: calidad comparable al ChatGPT gratuito para la mayoría de tareas de escritura y análisis.

Si tienes 32GB de RAM — ya sea en tu PC de escritorio o en un mini PC dedicado — puedes correr LLaMA 3.1 70B, que da resultados que en muchas tareas son comparables a GPT-4. Ahí es cuando la IA local deja de ser "una alternativa interesante" y se convierte en la opción principal para el trabajo diario. Ver guía de requisitos por modelo →

Preguntas frecuentes
¿Es legal usar estos modelos de IA gratis? +
Sí. LLaMA (Meta), Mistral, Phi (Microsoft), Gemma (Google) y el resto de modelos disponibles en Ollama son open source con licencias que permiten uso personal y en muchos casos comercial. Puedes usarlos libremente para tu trabajo.
¿Funciona sin conexión a internet? +
Sí, una vez que el modelo está descargado funciona completamente offline. Solo necesitas internet para descargar modelos nuevos o actualizar Ollama. El chat diario funciona sin red.
¿Es tan bueno como ChatGPT? +
Depende del modelo y la tarea. Para escritura, resúmenes, ideas y análisis de texto en español, LLaMA 3.1 8B da resultados comparables al ChatGPT gratuito. Para razonamiento muy complejo o acceso a información actualizada, ChatGPT Plus sigue siendo mejor. La mayoría de usuarios que lo prueban acaban usando ambos según el tipo de tarea.
¿Afecta mucho al rendimiento del ordenador? +
Mientras estás generando texto sí consume CPU y RAM. Pero Ollama descarga el modelo de memoria cuando no lo usas, así que no afecta al rendimiento general del sistema cuando está inactivo. La mayoría de usuarios lo tienen instalado como servidor siempre disponible sin notar impacto en su trabajo habitual.
¿Puedo tener varios modelos instalados a la vez? +
Sí. Puedes descargar todos los modelos que quepan en tu disco. Open WebUI te deja cambiar entre ellos con un desplegable, igual que cambias de modelo en ChatGPT. Cada modelo ocupa su espacio en disco pero solo consume RAM el que está activo en ese momento.
* Este artículo contiene enlaces de afiliado a Amazon. Si compras a través de ellos recibo una pequeña comisión sin coste adicional para ti. Solo recomiendo productos que uso o he probado personalmente.