GPU dedicada vs cloud: el cálculo real.
La fiebre por la inteligencia artificial ha disparado la demanda de GPUs. Los proveedores cloud (AWS, Azure, Google, y también los especializados como RunPod o Vast.ai) han subido precios hasta niveles insostenibles para muchas PYMEs. Pero la alternativa de tener tu propia GPU dedicada, en un servidor on‑premise o en colocation, es hoy más real que nunca. Hacemos las cuentas reales, con ejemplos y costes ocultos.
El mercado de GPUs en la nube: precios desorbitados
Tomemos como referencia una NVIDIA A100 de 40 GB (la más usada para entrenar modelos pequeños y medianos). Los precios por hora en la nube pública (bajo demanda) oscilan entre 3,20 $ y 4,50 $ (AWS p3.2xlarge o Azure NC6s v3). Si la usas 8 horas al día, 5 días a la semana, durante 12 meses:
- 8h × 5 días × 48 semanas = 1.920 horas/año.
- 1.920h × 3,50 $ = 6.720 $ (aprox. 6.100 €).
Parece razonable, ¿verdad? Pero ese cálculo es un espejismo: casi nadie usa GPUs solo 8 horas diarias en días laborables. Los trabajos de entrenamiento suelen ejecutarse 24/7 durante semanas. Además, la nube cobra también por almacenamiento, transferencia de datos y por el uso de IPs.
Escenario real: una pyme que entrena un modelo de lenguaje propio durante 6 semanas completas (24h × 7 días × 6 semanas = 1.008 horas) y luego necesita inferencia diaria (8h × 300 días = 2.400 horas). Total anual: ~3.400 horas. Precio: 3.400 × 3,50 $ = 11.900 $ (10.800 €). Y eso sin contar costes de transferencia (hasta 0,09 $/GB).
El truco del almacenamiento
En AWS, los datos que alimentan la GPU suelen estar en S3 o EBS. La transferencia desde S3 a la instancia GPU es gratuita dentro de la misma región, pero si los datos están en otro servicio o externalizas, pagas. Además, mantener un dataset de 2 TB en S3 cuesta ~50 $/mes = 600 $/año. Pequeños gastos que suman.
¿Qué pasa si usamos instancias spot (sobreventa)?
AWS ofrece instancias spot con descuentos de hasta el 70 %, pero pueden ser interrumpidas con 2 minutos de aviso. Para entrenamiento no determinista o batch, puede valer. Para servicios en producción, es un riesgo. Precio spot de una A100 ronda 1,20 $/h, pero la disponibilidad es baja en horas punta. Coste anual (con las mismas 3.400h) = 4.080 $. Sigue siendo caro, y además sufres interrupciones no planificadas.
Alternativa: GPU dedicada en colocation o on‑premise
Comprar una GPU no es barato, pero la amortización es muy rápida. Una NVIDIA A100 40 GB usada (de reacondicionamiento) cuesta hoy ~6.500 € en plataformas especializadas. Una nueva, ~12.000 €. Si añadimos un servidor básico con CPU, RAM y almacenamiento (1.000 € más para un chasis compatible), el hardware total ronda los 7.500 € (usado) o 13.000 € (nuevo).
Opción colocation en el CPD Muralla de Zamora: media rack (21U) + 2 kW de potencia + 10 TB de tráfico = 220 €/mes. Al año, 2.640 €. Además, un seguro para el hardware (pequeño) y mantenimiento (500 € anuales).
Primer año con GPU usada: 7.500 € (hardware) + 2.640 € (colocation) + 500 € (mantenimiento) = 10.640 €. A partir del segundo año: solo 3.140 € anuales (colocation + mantenimiento).
GPU nueva: primer año 16.140 €; segundo año 3.140 €.
En ambos casos, a partir del segundo año ya estás ahorrando frente a la nube (que cuesta mínimo 10.000 €/año). Además, tienes la GPU disponible 24/7 sin latencia variable ni riesgo de interrupción.
¿Y si tu empresa no quiere comprar pero sí alquilar bajo soberanía?
En TYBSI también ofrecemos GPUs dedicadas en alquiler mensual, con hardware instalado en nuestro CPD y contratos de soberanía. Por ejemplo, una NVIDIA RTX 6000 Ada (equivalente en rendimiento a la A100 para inferencia) por 490 €/mes (incluye servidor básico, 2 TB SSD, y 10 TB de tráfico). Eso son 5.880 €/año. Más caro que la propiedad a partir del segundo año, pero sin inversión inicial y con flexibilidad para escalar.
Y la gran ventaja: todo bajo ley española, con contratos de confidencialidad y sin que tus datos entren en servidores de EE.UU.
Comparativa con servicios cloud especializados (RunPod, Vast.ai, Lambda Labs)
Estos proveedores ofrecen precios más competitivos que AWS/Azure: una A100 en RunPod cuesta ~1,50 $/h, en Vast.ai ~1,10 $/h. Pero el problema es la procedencia: normalmente los servidores están en centros de datos americanos o europeos de terceros, y no siempre puedes garantizar jurisdicción. Además, la oferta de GPUs es volátil. Para un uso intensivo semi‑profesional, puede ser una opción, pero para producción estable con datos sensibles, preferimos la soberanía.
Con 3.400 horas anuales, RunPod costaría 5.100 $/año (4.600 €). Sigue siendo más caro que tener tu propia GPU a partir del segundo año, y no eres propietario del hardware.
Casos reales: clientes que han migrado de nube a GPU on‑premise
- Clínica privada que entrena modelos de diagnóstico por imagen: antes pagaban 3.200 €/mes a AWS. Compraron una GPU RTX A6000 (9.000 €) y la alojaron con nosotros por 390 €/mes. El ahorro anual fue de 38.400 € a 10.680 €.
- Startup de NLP para análisis de redes sociales: usaban Google Cloud TPU (4.500 $/mes). Migraron a un servidor con 2× NVIDIA RTX 4090 (6.000 € de hardware + 500 €/mes de colocation). ROI en 5 meses.
- Despacho de ingeniería civil que corre simulaciones: pasaron de alquilar instancias spot en AWS (latencia variable) a tener un nodo GPU en el CPD de Zamora. Redujeron los tiempos por simulación de 9 a 3 horas, y el coste anual cayó un 70 %.
¿Quieres que calculemos tu caso?
Mándanos un correo a gpu@tybsi.es con tu uso actual de GPU (horas semanales, tipo de modelo). Te devolvemos un estudio comparativo con las tres opciones: nube pública, proveedor especializado extranjero, y GPU dedicada en colocation / on‑premise. Sin coste ni compromiso.
Lo que la nube no te cuenta: dependencia y soberanía
Alquilar GPU en un hiperescalar te ata a su ecosistema. Si tu modelo crece o necesitas más almacenamiento, los costes se disparan. Además, los datos que pasan por esas GPUs pueden ser susceptibles de inspección por parte de las autoridades del país donde está la empresa (CLOUD Act). Para sectores regulados o con propiedad intelectual, ese riesgo es inasumible.
Con tu propia GPU en colocation soberana, eres dueño del flujo de datos, del hardware y de los resultados. Puedes auditar físicamente el servidor, retirarlo cuando quieras, o incluso llevártelo a tus oficinas. Eso es soberanía real.
¿Cuándo no merece la pena comprar GPU?
Si tu carga de trabajo es esporádica (unas pocas horas a la semana) o estás en fase de prueba de concepto sin presupuesto, la nube te da flexibilidad. También si necesitas la última generación de GPUs cada seis meses (empresa de I+D con mucha financiación). Pero para la inmensa mayoría de PYMEs con un uso predecible y continuo de IA, comprar o alquilar dedicado en un CPD cercano es más rentable y seguro.
Haz las cuentas con tus propios números. Y si necesitas GPU de alto rendimiento sin sorpresas en la factura, nosotros te ayudamos a montar tu propio nodo en Zamora, con total transparencia.