Instala cualquier IA
en tu ordenador
"Una sola herramienta. Todos los modelos IA del mundo. En tu ordenador. Sin internet."
Llevas meses pagando ChatGPT. O quizá nunca has pagado pero sabes que hay algo mejor. Ollama es la herramienta que te permite correr LLaMA, Mistral, Phi o Gemma directamente en tu ordenador, sin mandar tus datos a ningún servidor, sin límites de uso, sin cortes cuando el servidor está saturado. Esta guía te lleva de cero a funcionando en menos de 5 minutos.
Elige tu sistema operativo y sigue los pasos
Ve a ollama.com y descarga el instalador para Windows (.exe). Es el botón azul grande en la portada. Doble clic y siguiente, siguiente, instalar.
Tecla Windows → escribe cmd → Enter. Ya tienes la terminal abierta.
Escribe el siguiente comando. Ollama descarga el modelo automáticamente (~2GB) y arranca el chat.
Cuando aparezca el prompt >>> ya puedes escribir cualquier pregunta. Para salir, escribe /bye.
Si tienes Homebrew instalado, una sola línea lo hace todo. Si no tienes Homebrew, descarga el .dmg desde ollama.com.
En Mac con chip M (M1/M2/M3/M4) el rendimiento es excepcional. LLaMA 70B funciona sin GPU externa.
Un solo comando instala Ollama y lo configura como servicio del sistema.
Si tienes una RTX, Ollama la detecta automáticamente. Solo asegúrate de tener los drivers NVIDIA actualizados. La diferencia de velocidad es brutal.
5 modelos que uso yo — con el comando directo para descargarlos
El punto de entrada perfecto. Rápido, ligero, sorprendentemente capaz para texto y resúmenes. Funciona incluso con 8GB de RAM.
Mi modelo de cabecera para escritura, guiones y resúmenes. El salto cualitativo respecto al 3B es enorme. Necesitas 16GB de RAM.
Imbatible para código y análisis de texto. Más rápido que LLaMA para tareas técnicas. También 16GB de RAM para un rendimiento cómodo.
Calidad comparable a GPT-4. Necesitas 32GB de RAM como mínimo. Con Mac M-series o mini PC con 32GB, funciona sorprendentemente bien.
El modelo de Microsoft. Increíblemente capaz para su tamaño. Ideal si tienes un portátil con menos de 16GB o quieres respuestas ultrarrápidas.
Si quieres correr LLaMA 70B o FLUX sin tiempos de espera, estos son los equipos que uso y recomiendo
UM773 Lite 32GB
32GB DDR5, Ryzen 7, GPU Radeon integrada. Corre Ollama + LLaMA 8B sin problemas. El que tengo como servidor de IA en casa — silencioso, compacto.
Mini M4 16GB
El all-in-one definitivo para Ollama en Mac. LLaMA 70B, Whisper y FLUX en un dispositivo silencioso de 20W. Sin ventilador. Sin suscripciones.
Qué puedes hacer con Ollama instalado
La instalación es solo el primer paso. Una vez tienes Ollama funcionando, lo que puedes hacer con él es casi ilimitado. El uso más inmediato para un creador de contenido es tener un asistente de escritura que nunca falla, nunca está saturado y no te cobra por token. Abre la terminal, escribe tu prompt y tienes la respuesta en segundos.
Pero Ollama también tiene una API local en localhost:11434 que puedes conectar a otras herramientas.
Con eso puedes automatizar la generación de guiones, conectarlo a n8n para flujos de trabajo automáticos,
usarlo como backend de tu propio chatbot, o integrar transcripción con Whisper.
Todo en local, sin costes variables, sin límites de rate.
Ollama vs ChatGPT: cuándo usar cada uno
Esta es la pregunta que me hace todo el mundo. La respuesta honesta: depende de lo que hagas. ChatGPT sigue siendo mejor para tareas muy complejas que requieren razonamiento profundo o acceso a internet en tiempo real. Pero para el 80% de las tareas diarias de un creador —escribir, resumir, reformular, generar ideas, analizar textos— un modelo local con Ollama da resultados iguales o mejores, sin pagar nada y sin límites de uso.
La ventaja real de Ollama no es solo el coste. Es la privacidad y la disponibilidad. Tus prompts, tus textos, tus ideas nunca salen de tu ordenador. Y el modelo siempre está disponible, incluso sin conexión a internet. Para alguien que trabaja con datos sensibles de clientes o que simplemente no quiere que sus ideas acaben en el training de otra empresa, eso tiene un valor incalculable.
Cómo usar Ollama como creador de contenido
El flujo que uso para mis guiones de TikTok: transcribo vídeos con Whisper local, los analizo con LLaMA 8B para extraer la estructura narrativa y los ganchos, y genero borradores de mis propios guiones siguiendo esos patrones. Todo en local, todo automático, cero suscripciones. Aquí explico el flujo completo para analizar vídeos virales de TikTok con IA.
Para generación de imágenes, Ollama no es la herramienta — eso lo resuelves con Stable Diffusion o FLUX, que también puedes correr en local si tienes una GPU NVIDIA con suficiente VRAM. Pero para texto, guiones, ideas, análisis y automatizaciones, Ollama es la pieza central de cualquier setup de IA local serio.