Las empresas noruegas de los sectores financiero, sanitario y público experimentan una presión cada vez mayor para ejecutar cargas de trabajo de IA sensibles en infraestructuras que ellas mismas controlan. El debate sobre la nube soberana y los centros de datos locales ya no es solo una cuestión de ideología: se trata de dinero, cumplimiento normativo y control estratégico sobre los propios datos.
Una revisión técnica publicada en Towards Data Science analiza cómo las organizaciones pueden construir GPU-as-a-Service (GPUaaS) en sus propios servidores utilizando Kubernetes, con soporte para arquitectura multi-inquilino, programación de cargas de trabajo y modelado de costes. El artículo proporciona un marco práctico para quienes desean evitar el bloqueo con los grandes proveedores de la nube.
¿Cuánto cuesta tener GPUs propias?
Los gastos de capital son significativos. Un servidor NVIDIA H100 con ocho unidades de GPU puede costar alrededor de 250.000 dólares, y eso es solo el punto de partida. Según investigaciones de mercado referenciadas por el artículo de Towards Data Science, la electricidad, la refrigeración y el mantenimiento pueden añadir otro 40–60 por ciento al precio del hardware a lo largo de su vida útil.
Detrás de estas cifras se esconden diversos gastos operativos: infraestructura de refrigeración especializada, equipos de red como interruptores InfiniBand de 100GbE, licencias y personal de TI cualificado. El hardware se amortiza normalmente en un periodo de tres a cinco años, lo que requiere planificación para sustituciones y actualizaciones.

La nube es flexible, pero puede resultar cara
El GPUaaS en la nube pública compite en disponibilidad y bajo nivel de entrada. Los precios por hora para NVIDIA H100 varían desde aproximadamente 1,50 dólares por hora en proveedores especializados hasta entre 4 y 8 dólares por hora en los grandes hiperescaladores cuando se solicita sin contrato previo, según datos de precios de finales de 2024 y principios de 2025.
Para fases experimentales, cargas de trabajo variables y puestas en marcha rápidas, esto es difícil de superar. Pero con una utilización alta y continua, el panorama cambia rápidamente.
Según análisis de Accenture, recogidos en la base de investigación de este artículo, la infraestructura local de GPU se vuelve competitiva en costes con la nube cuando la tasa de utilización supera consistentemente el 60–70 por ciento durante la vida útil del hardware. El resultado puede ser un coste total entre un 30 y un 50 por ciento inferior en un periodo de tres años.

RGPD y control de datos: La dimensión noruega
Para las organizaciones sujetas al RGPD y a regulaciones sectoriales específicas, la infraestructura local proporciona una previsibilidad jurídica que la nube pública rara vez puede igualar por completo.
Para las empresas noruegas en industrias reguladas —especialmente el sector sanitario, las instituciones financieras y las agencias públicas— el control y la soberanía de los datos suelen ser tan importantes como la cuestión del coste en sí. Los datos personales y los datos comerciales sensibles procesados por sistemas de IA pueden estar sujetos a requisitos de que los datos no abandonen la zona del EEE o, en la práctica, la jurisdicción noruega.
Las soluciones basadas en la nube de proveedores no europeos han generado incertidumbre jurídica, especialmente tras la sentencia Schrems II y la discusión en curso sobre la CLOUD Act y el acceso de las autoridades estadounidenses a los datos. El GPUaaS local elimina esta incertidumbre, siempre que la infraestructura se gestione correctamente.
Kubernetes como plataforma de nube interna
El núcleo del enfoque técnico descrito en el artículo de Towards Data Science es el uso de Kubernetes para abstraer los recursos de GPU y ofrecerlos como un servicio interno a través de diferentes equipos y proyectos. Esto permite:
- Aislamiento multi-inquilino: Diferentes unidades de negocio o proyectos pueden compartir la capacidad de la GPU sin interferir entre sí
- Programación dinámica: Las cargas de trabajo se priorizan y distribuyen eficientemente según la necesidad
- Visibilidad de costes: El consumo se puede rastrear por equipo o aplicación, lo que proporciona una base para la tarificación interna y la gestión presupuestaria
¿Quién debería elegir qué?
No existe una respuesta universal. Las empresas con proyectos de IA esporádicos, necesidad de escalado rápido o competencia de TI limitada seguirán encontrando la nube pública más adecuada. Para aquellos con cargas de trabajo estables e intensivas —y especialmente aquellos con requisitos estrictos de manejo de datos— el cálculo apunta hacia la infraestructura local o híbrida.
Sin embargo, la complejidad técnica no es trivial. Construir y operar una plataforma GPUaaS interna requiere una profunda experiencia tanto en hardware como en orquestación de Kubernetes, algo que muchas organizaciones noruegas deben construir internamente o adquirir externamente.
La fuente de este artículo es la revisión técnica de Towards Data Science sobre la arquitectura GPUaaS para empresas, complementada con datos de mercado independientes sobre precios de GPU y análisis de TCO.
