IA Local · Hardware · Coste real
Mi servidor de IA
en casa por
900€
"ChatGPT Pro cuesta 240€/año. Claude Pro, otros 240€. Midjourney, 144€ más. Mi servidor de IA en casa me costó 900€ una sola vez. Sabes lo que eso significa."
🖥️ MINISFORUM UM773 Lite + RTX 4070 💰 Amortizado en 2 años vs suscripciones LLaMA 70B + FLUX Dev en local 🔒 Privado — ningún dato sale del PC
900€
Coste total del setup
0€
Coste mensual de uso
624€
Suscripciones IA/año evitadas
17m
Tiempo de amortización
El setup completo: qué tengo y cuánto costó

No es el setup más potente. Es el setup más eficiente para el caso de uso concreto de un creador de contenido que quiere correr LLMs para texto y modelos de imagen sin depender de suscripciones. Cada componente tiene un motivo.

Componente Modelo Para qué sirve Precio
Mini PC MINISFORUM UM773 Lite 32GB CPU host, RAM, almacenamiento del sistema ~269€
GPU RTX 4070 Super 12GB VRAM Inferencia LLM + generación de imágenes FLUX ~550€
Dock eGPU Case PCIe + fuente 650W Conecta la GPU al Mini PC vía Thunderbolt/PCIe ~80€
TOTAL ~900€
¿Por qué Mini PC + eGPU en lugar de un PC de sobremesa? El Mini PC consume 15W en reposo y es silencioso — lo tengo siempre encendido como servidor. La eGPU con RTX 4070 se conecta cuando proceso en batch o genero imágenes. Si solo necesitas texto, el Mini PC con CPU es suficiente para modelos de 7–8B parámetros.
Calcula tu amortización real

Introduce las suscripciones de IA que pagas ahora y el coste del hardware que te interesa. La calculadora te dice cuándo amortizas la inversión:

¿En cuánto tiempo amortizas el servidor?
Introduce tus datos — todos los campos son editables
Introduce un valor mayor a 0
Introduce un valor mayor a 0
Introduce 0 si no lo sabes
Entre 1 y 24 horas
Ahorro neto / mes
vs suscripciones actuales
Amortización en
meses
Ahorro a 3 años
euros netos
Qué modelos corro y para qué los uso

Con la RTX 4070 Super de 12GB VRAM el rango de modelos es muy amplio. Esto es lo que tengo activo habitualmente y el caso de uso real de cada uno:

Modelo VRAM Uso real Veredicto
LLaMA 3.1 8B ~5GB Borradores, SEO, respuestas rápidas Uso diario
Mistral 7B ~4.5GB Textos en español, más preciso que LLaMA en ES Uso diario
LLaMA 3.3 70B Q4 ~35GB — CPU+GPU Análisis complejos, revisión final de textos Uso puntual — lento
FLUX.1 Dev ~10GB Thumbnails, imágenes de producto, editoriales Producción diaria
Whisper large-v3 ~2GB Transcripción de TikToks y vídeos de competidores Automatizado
FLUX.1 Schnell ~8GB Variantes rápidas y pruebas de composición Iteración
La clave es la VRAM de 12GB: FLUX Dev y LLaMA 8B caben al mismo tiempo. Genero imagen y proceso texto en paralelo sin reiniciar nada. Con 8GB de VRAM ya no encajan juntos — tienes que elegir uno u otro.
Hardware que uso: qué comprar y por qué

Estas son las dos piezas centrales del setup — el Mini PC y la GPU. Si tienes que elegir solo una, empieza por el Mini PC: corre modelos de 7–8B con CPU y los 32GB de RAM. La GPU es el salto para modelos grandes e imágenes.

El host del sistema
🖥️
MINISFORUM UM773
🛒
Mini PC · AMD Ryzen 7 · 32GB RAM
MINISFORUM
UM773 Lite 32GB
🛒 MEJOR OFERTA EN AMAZON
⚡ Rendimiento IA
7/10
💰 Precio/calidad
8/10
🎬 Para creadores
8/10

AMD Ryzen 7 7735HS con 32GB DDR5. Suficiente para correr LLaMA 8B y Mistral 7B en CPU con velocidad aceptable. 15W en reposo — siempre encendido como servidor sin que notes el recibo de la luz.

El motor de inferencia
🎮
RTX 4070 Super
🛒
GPU NVIDIA · 12GB VRAM · CUDA
RTX 4070
Super 12GB
🛒 MEJOR OFERTA EN AMAZON
⚡ Rendimiento IA
9/10
💰 Precio/calidad
9/10
🎬 Para creadores
9/10

12GB VRAM es el sweet spot: FLUX Dev + LLaMA 8B caben en paralelo. LLaMA genera a 35–50 tokens/segundo. FLUX produce una imagen en 5–8 segundos. El salto de rendimiento respecto a 8GB es enorme para IA.

Preguntas frecuentes
¿Cuánto consume el servidor al mes en electricidad?+
El Mini PC en reposo consume unos 15W. En inferencia activa con CPU sube a 35–45W. Con la RTX 4070 Super generando imágenes o procesando LLM, el conjunto puede llegar a 250–300W. Con uso moderado de 3 horas al día de carga real, el coste eléctrico ronda los 6–10€/mes en España a precio medio de kWh.
¿Se puede montar por menos de 900€?+
Sí. Si ya tienes un PC con GPU NVIDIA de 8GB o más, el coste es prácticamente cero — solo instalar Ollama y los modelos. Si partes de cero, el mínimo viable es un Mini PC con 16GB de RAM (~200€) que ya corre modelos de 7B en CPU. La GPU es el salto de calidad pero no es obligatoria para empezar.
¿Necesito saber de hardware o Linux para montarlo?+
No. Ollama corre en Windows, Mac y Linux con un instalador gráfico. Draw Things para imágenes en Mac es una app de App Store. El setup que describo aquí funciona en Windows — sin tocar terminal salvo para instalar Ollama, que es un solo comando.
¿Qué pasa si quiero modelos más grandes como LLaMA 70B?+
LLaMA 70B cuantizado a Q4 pesa ~35GB y no cabe en 12GB de VRAM. Ollama lo corre en modo CPU+GPU — parte del modelo en VRAM y parte en RAM del sistema. Con 32GB de RAM funciona pero es lento: 5–8 tokens/segundo en vez de 35–50. Para uso habitual con 70B necesitas una GPU de 24GB+ o el setup con Mac M4 Pro y 48GB de memoria unificada.
¿Las GPUs AMD o Intel funcionan para IA local?+
AMD funciona vía ROCm pero el soporte es más limitado y algunos modelos y herramientas solo están optimizados para CUDA (NVIDIA). Intel Arc tiene soporte básico pero no es el objetivo principal de los desarrolladores de herramientas IA. Para evitar fricciones técnicas, una GPU NVIDIA con CUDA es la elección más práctica hoy.
Conecta tu servidor
a tu WordPress con PosontyAI

PosontyAI usa el modelo que ya tienes en local para generar contenido SEO directamente desde WordPress — sin API externa, sin coste por token.

Ver PosontyAI →
* Este artículo contiene enlaces de afiliado a Amazon. Si compras a través de ellos recibo una pequeña comisión sin coste adicional para ti. Solo recomiendo productos que uso o he probado personalmente.
Creado con GeneratePress