IA Local · Tutorial
Ollama:
Instala cualquier IA
en tu ordenador

"Una sola herramienta. Todos los modelos IA del mundo. En tu ordenador. Sin internet."

5 minutos de instalación 🖥️ Windows · Mac · Linux 🔒 100% local — sin suscripciones 🆓 Gratis y open source

Llevas meses pagando ChatGPT. O quizá nunca has pagado pero sabes que hay algo mejor. Ollama es la herramienta que te permite correr LLaMA, Mistral, Phi o Gemma directamente en tu ordenador, sin mandar tus datos a ningún servidor, sin límites de uso, sin cortes cuando el servidor está saturado. Esta guía te lleva de cero a funcionando en menos de 5 minutos.

¿Para qué sirve Ollama exactamente? Es un gestor de modelos IA para tu ordenador. Con un solo comando descargas cualquier modelo open source y lo ejecutas localmente. Es como tener Netflix de modelos IA, pero gratis y en tu máquina. → Guía completa: qué es Ollama y cómo funciona
Instalar en 5 minutos

Elige tu sistema operativo y sigue los pasos

1
Descarga el instalador

Ve a ollama.com y descarga el instalador para Windows (.exe). Es el botón azul grande en la portada. Doble clic y siguiente, siguiente, instalar.

2
Abre la terminal (CMD o PowerShell)

Tecla Windows → escribe cmd → Enter. Ya tienes la terminal abierta.

3
Corre tu primer modelo IA

Escribe el siguiente comando. Ollama descarga el modelo automáticamente (~2GB) y arranca el chat.

Terminal Windows
ollama run llama3.2
4
¡Listo! Empieza a escribir

Cuando aparezca el prompt >>> ya puedes escribir cualquier pregunta. Para salir, escribe /bye.

1
Instala con Homebrew (recomendado)

Si tienes Homebrew instalado, una sola línea lo hace todo. Si no tienes Homebrew, descarga el .dmg desde ollama.com.

Terminal macOS
brew install ollama
2
Arranca el servidor Ollama
Terminal macOS
ollama serve
3
En otra pestaña de terminal, corre el modelo
Terminal macOS — segunda pestaña
ollama run llama3.2

En Mac con chip M (M1/M2/M3/M4) el rendimiento es excepcional. LLaMA 70B funciona sin GPU externa.

1
Instala con el script oficial

Un solo comando instala Ollama y lo configura como servicio del sistema.

Terminal Linux
curl -fsSL https://ollama.com/install.sh | sh
2
Corre tu primer modelo
Terminal Linux
ollama run llama3.2
3
Con GPU NVIDIA (opcional pero muy recomendado)

Si tienes una RTX, Ollama la detecta automáticamente. Solo asegúrate de tener los drivers NVIDIA actualizados. La diferencia de velocidad es brutal.

Comandos que usarás a diario
Listar modelos instalados
ollama list
Descargar un modelo sin correrlo
ollama pull mistral
Eliminar un modelo para liberar espacio
ollama rm llama3.2
Ver qué modelos están corriendo ahora
ollama ps
⚙️ ¿Tu ordenador puede correr Ollama?
💾
RAM mínima
8 GB
Para modelos 3B–7B. Con 16GB mucho mejor.
💽
Espacio en disco
10–50 GB
Según los modelos que instales. LLaMA 3.2 ~2GB.
🎮
GPU (opcional)
NVIDIA / AMD / Apple
Sin GPU funciona, pero la generación es más lenta.
¿No sabes si tu ordenador tiene suficiente potencia para los modelos que te interesan? → Consulta la guía completa de requisitos por modelo
Qué modelo instalar primero

5 modelos que uso yo — con el comando directo para descargarlos

Uso diario
LLaMA 3.1 8B

Mi modelo de cabecera para escritura, guiones y resúmenes. El salto cualitativo respecto al 3B es enorme. Necesitas 16GB de RAM.

Tamaño
~5 GB
RAM mín.
16 GB
Código
Mistral 7B

Imbatible para código y análisis de texto. Más rápido que LLaMA para tareas técnicas. También 16GB de RAM para un rendimiento cómodo.

Tamaño
~4 GB
RAM mín.
16 GB
Máxima calidad
LLaMA 3.1 70B

Calidad comparable a GPT-4. Necesitas 32GB de RAM como mínimo. Con Mac M-series o mini PC con 32GB, funciona sorprendentemente bien.

Tamaño
~40 GB
RAM mín.
32 GB
Portátiles
Phi-3 Mini

El modelo de Microsoft. Increíblemente capaz para su tamaño. Ideal si tienes un portátil con menos de 16GB o quieres respuestas ultrarrápidas.

Tamaño
~2 GB
RAM mín.
8 GB
¿No sabes cuál elegir según tu caso? → Guía para elegir el modelo Ollama correcto
¿Tu ordenador se queda corto?

Si quieres correr LLaMA 70B o FLUX sin tiempos de espera, estos son los equipos que uso y recomiendo

🖥️
MINISFORUM UM773
🛒
Mini PC · IA Local
MINISFORUM
UM773 Lite 32GB
🛒 MEJOR OFERTA EN AMAZON
⚡ Rendimiento IA
7/10
💰 Precio/calidad
8/10
🎬 Para creadores
8/10

32GB DDR5, Ryzen 7, GPU Radeon integrada. Corre Ollama + LLaMA 8B sin problemas. El que tengo como servidor de IA en casa — silencioso, compacto.

✅ Pros
+32GB RAM DDR5
+GPU Radeon 680M
+Silencioso
❌ Contras
Sin GPU NVIDIA
FLUX más lento
70B algo justo
💻
Mac Mini M4
🛒
Mac · IA All-in-One
Apple Mac
Mini M4 16GB
🛒 MEJOR OFERTA EN AMAZON
⚡ Rendimiento IA
9/10
💰 Precio/calidad
7/10
🎬 Para creadores
10/10

El all-in-one definitivo para Ollama en Mac. LLaMA 70B, Whisper y FLUX en un dispositivo silencioso de 20W. Sin ventilador. Sin suscripciones.

✅ Pros
+LLaMA 70B fluido
+Solo 20W consumo
+Chip M4 bestial
❌ Contras
Solo ecosistema Mac
RAM no ampliable
Precio elevado

Qué puedes hacer con Ollama instalado

La instalación es solo el primer paso. Una vez tienes Ollama funcionando, lo que puedes hacer con él es casi ilimitado. El uso más inmediato para un creador de contenido es tener un asistente de escritura que nunca falla, nunca está saturado y no te cobra por token. Abre la terminal, escribe tu prompt y tienes la respuesta en segundos.

Pero Ollama también tiene una API local en localhost:11434 que puedes conectar a otras herramientas. Con eso puedes automatizar la generación de guiones, conectarlo a n8n para flujos de trabajo automáticos, usarlo como backend de tu propio chatbot, o integrar transcripción con Whisper. Todo en local, sin costes variables, sin límites de rate.

Ollama vs ChatGPT: cuándo usar cada uno

Esta es la pregunta que me hace todo el mundo. La respuesta honesta: depende de lo que hagas. ChatGPT sigue siendo mejor para tareas muy complejas que requieren razonamiento profundo o acceso a internet en tiempo real. Pero para el 80% de las tareas diarias de un creador —escribir, resumir, reformular, generar ideas, analizar textos— un modelo local con Ollama da resultados iguales o mejores, sin pagar nada y sin límites de uso.

La ventaja real de Ollama no es solo el coste. Es la privacidad y la disponibilidad. Tus prompts, tus textos, tus ideas nunca salen de tu ordenador. Y el modelo siempre está disponible, incluso sin conexión a internet. Para alguien que trabaja con datos sensibles de clientes o que simplemente no quiere que sus ideas acaben en el training de otra empresa, eso tiene un valor incalculable.

Cómo usar Ollama como creador de contenido

El flujo que uso para mis guiones de TikTok: transcribo vídeos con Whisper local, los analizo con LLaMA 8B para extraer la estructura narrativa y los ganchos, y genero borradores de mis propios guiones siguiendo esos patrones. Todo en local, todo automático, cero suscripciones. Aquí explico el flujo completo para analizar vídeos virales de TikTok con IA.

Para generación de imágenes, Ollama no es la herramienta — eso lo resuelves con Stable Diffusion o FLUX, que también puedes correr en local si tienes una GPU NVIDIA con suficiente VRAM. Pero para texto, guiones, ideas, análisis y automatizaciones, Ollama es la pieza central de cualquier setup de IA local serio.

Preguntas frecuentes

¿Ollama es gratis? +
Sí, completamente gratis y open source. Los modelos que descarga (LLaMA, Mistral, Phi, etc.) también son gratuitos. Solo pagas la electricidad de tu ordenador.
¿Necesito GPU para usar Ollama? +
No. Ollama funciona solo con CPU y RAM. Pero con una GPU NVIDIA la velocidad de generación se multiplica por 10 o más. Si solo vas a usar modelos pequeños (3B–7B) una CPU moderna con 16GB de RAM es suficiente para trabajar cómodamente. Ver requisitos detallados por modelo →
¿Qué diferencia hay entre LLaMA y Mistral? +
LLaMA (de Meta) es más versátil para texto general, escritura creativa y español. Mistral (empresa francesa) brilla especialmente en código y razonamiento técnico, y es más rápido para su tamaño. Yo uso LLaMA 8B para escribir y Mistral para analizar o generar código.
¿Ollama funciona en español? +
Sí. LLaMA 3.1 y Mistral tienen un soporte excelente en español. Simplemente escribe en español en el prompt y el modelo responde en español. LLaMA 3.1 8B es mi recomendación si el español es tu idioma de trabajo principal.
¿Puedo tener una interfaz gráfica en lugar de usar la terminal? +
Sí. Existen varias interfaces gráficas que conectan con Ollama: Open WebUI es la más popular (es como tener ChatGPT en tu navegador, apuntando a tus modelos locales). También puedes conectar Ollama con extensiones de VS Code, aplicaciones de escritorio o tu propio chatbot web.
* Este artículo contiene enlaces de afiliado a Amazon. Si compras a través de ellos recibo una pequeña comisión sin coste adicional para ti. Solo recomiendo productos que uso o he probado personalmente.