gratis en casa
Antes de entrar en el tutorial, hagamos los números. ChatGPT Plus cuesta 20€ al mes. Claude Pro, otros 20€. Si usas ambos — algo normal si trabajas con IA todos los días — son 480€ al año solo en suscripciones de IA.
Obvio que no es una comparación 1:1 — hay cosas que ChatGPT hace mejor. Pero para el 70–80% del trabajo diario de un creador de contenido —escribir, resumir, reformular, generar ideas, analizar textos— un modelo local bien configurado da resultados equivalentes. Y los 480€ se quedan en tu bolsillo.
→ Si quieres entender primero qué es Ollama, lee esta guía completa
No necesitas un ordenador gaming. Con un portátil o PC de los últimos 5 años con 16GB de RAM puedes correr modelos muy capaces. Estos son los mínimos reales:
Sin código. Sin terminal si no quieres. Sigue los pasos en orden y al final tendrás tu propio ChatGPT corriendo en local.
Ve a ollama.com desde tu navegador. Verás un botón de descarga grande para tu sistema operativo. Descárgalo y ejecútalo como cualquier instalador normal — siguiente, siguiente, instalar.
En Windows: descarga el .exe y dale doble clic.
En Mac: descarga el .dmg, ábrelo y arrastra Ollama a Aplicaciones.
Abre la terminal (en Windows busca "cmd" en el menú inicio; en Mac busca "Terminal" en Spotlight) y escribe este comando. Ollama descarga el modelo automáticamente — tarda 2–5 minutos según tu conexión.
ollama run llama3.2 (~2GB, igual de fácil de instalar).
Cuando el modelo termine de descargarse, verás el prompt >>>. Escribe cualquier mensaje y el modelo responderá. Es tu IA, en tu ordenador, sin internet.
/bye y pulsa Enter.La terminal funciona, pero es incómoda para uso diario. Open WebUI te da exactamente la misma interfaz que ChatGPT — chat en el navegador, historial de conversaciones, selección de modelo — pero apuntando a tu Ollama local.
La forma más fácil de instalarlo es con Docker. Si no tienes Docker instalado, descárgalo desde docker.com (es gratis, instalador normal). Una vez instalado, ejecuta este comando:
Espera 1–2 minutos mientras Open WebUI se instala y luego abre tu navegador y ve a esta dirección:
Verás una pantalla de registro — crea una cuenta local (solo para ti, no sale de tu ordenador). Una vez dentro, selecciona el modelo en el desplegable superior y empieza a chatear. Es exactamente igual que ChatGPT pero es tuyo, gratis y privado.
Open WebUI es mi recomendación para la mayoría, pero hay más opciones según tus preferencias:
La más completa. Chat, historial, documentos, multiusuario. Idéntica a ChatGPT en el navegador.
RecomendadaApp nativa para Mac. Sin Docker, sin terminal. Perfecta si usas Mac y quieres la opción más sencilla.
Solo MacPara programadores. Integra Ollama directamente en VS Code como asistente de código local.
DesarrolladoresSi tienes menos de 16GB de RAM o tu ordenador va justo con el modelo, estos mini PCs están preparados de fábrica para IA local. Los uso como servidores dedicados — siempre encendidos, silenciosos, sin ocupar el PC principal.
UM773 Lite 32GB
32GB DDR5, Ryzen 7 7735HS, GPU Radeon integrada. Corre Ollama + LLaMA 8B sin problemas, silencioso, compacto. Ideal como servidor dedicado.
Mini M4 16GB
El all-in-one definitivo para Ollama en Mac. LLaMA 70B, Whisper y FLUX en un dispositivo de 20W sin ventilador. Instala Enchanted desde el App Store y listo.
La pregunta obvia es: si ChatGPT funciona bien, ¿para qué complicarse? La respuesta depende de cómo uses la IA. Si la usas una vez a la semana para una consulta puntual, ChatGPT gratis probablemente es suficiente. Pero si la integras en tu flujo de trabajo diario, los problemas empiezan a aparecer: límites de mensajes, respuestas lentas en horas pico, datos de clientes que no deberían salir de tu empresa, o simplemente la factura mensual que se acumula.
La IA local resuelve todos esos problemas a la vez. Una vez instalada, tienes un asistente disponible 24/7, sin límites, sin cuotas, que funciona aunque tu conexión a internet falle. Para alguien que usa IA para escribir guiones, analizar datos, generar descripciones de producto o automatizar tareas repetitivas, el ahorro de tiempo y dinero es inmediato.
No todos los modelos son iguales, y elegir mal significa frustrarse con respuestas lentas o de baja calidad. La regla es simple: cuanto más RAM tienes, mejor modelo puedes correr. Con 8GB, LLaMA 3.2 3B o Phi-3 Mini son tus mejores opciones — rápidos y sorprendentemente capaces para texto en español. Con 16GB, LLaMA 3.1 8B es el punto dulce: calidad comparable al ChatGPT gratuito para la mayoría de tareas de escritura y análisis.
Si tienes 32GB de RAM — ya sea en tu PC de escritorio o en un mini PC dedicado — puedes correr LLaMA 3.1 70B, que da resultados que en muchas tareas son comparables a GPT-4. Ahí es cuando la IA local deja de ser "una alternativa interesante" y se convierte en la opción principal para el trabajo diario. Ver guía de requisitos por modelo →