OpenAI Nvidia 10 gigawatts: el plan de 100B para escalar IA equivalente a 10 reactores
OpenAI Nvidia 10 gigawatts define un acuerdo preliminar de 100B para desplegar infraestructura de computo que equivale al consumo de 10 reactores, con la primera fase prevista para 2026 en la plataforma Vera Rubin.
OpenAI y Nvidia anunciaron el 22 de septiembre de 2025 una carta de intención para desplegar, de manera progresiva, al menos 10 gigavatios (GW) de sistemas Nvidia dedicados al entrenamiento e inferencia de la próxima generación de modelos de OpenAI. El plan viene acompañado por una inversión de hasta 100.000 millones de dólares por parte de Nvidia, condicionada al avance del despliegue y al aseguramiento de ubicación, alimentación eléctrica y capacidad de centros de datos. La primera traza, de 1 GW, se programó para entrar en operación en la segunda mitad de 2026, sobre la plataforma Vera Rubin, el stack de próxima generación de Nvidia para computación de IA a hiperescala. Esta alianza posiciona a Nvidia como partner estratégico preferente de cómputo y redes para OpenAI y complementa relaciones vigentes con otros hyperscalers y socios de infraestructura. Fuente oficial de Nvidia; anuncio en el sitio de OpenAI.
Dimensión energética: 10 GW equivalen a 10 reactores
Para dimensionar la cifra, 10 GW equivalen aproximadamente a la generación conjunta de 10 reactores nucleares modernos de ~1 GW cada uno. La mayoría de los grandes centros de datos actuales consumen entre 50 y 100 megavatios (MW), y los más extremos alcanzan el rango de 300 MW a 1 GW; el plan anunciado, por tanto, excede por uno o dos ordenes de magnitud los campus convencionales. El paso va en línea con la curva de demanda: según la Agencia Internacional de la Energía (IEA), el consumo eléctrico de los centros de datos podría duplicarse hacia 2030 hasta ~945 TWh, con la IA como principal impulsor del crecimiento.
El viraje del sector hacia fuentes firmes y libres de carbono también está en marcha. En 2024, Microsoft firmó un PPA a 20 años para apoyar el reinicio de Three Mile Island Unit 1 (835 MW), y en 2024 Amazon Web Services adquirió un campus adyacente a la planta nuclear de Susquehanna con planes de uso hasta 960 MW en etapas, indicadores de una tendencia a “nuclearizar” parte del suministro eléctrico de la nube para cubrir cargas constantes de IA. Anuncio de Microsoft y Constellation; detalle del campus de AWS en Susquehanna; análisis de la IEA.
Plataforma y hoja de ruta: Vera Rubin y el siguiente salto de cómputo
Nvidia planea iniciar el despliegue con su plataforma Vera Rubin en H2 2026, un ecosistema que integra GPU de última generación, interconexión de baja latencia y software optimizado para entrenar modelos fundacionales a gran escala. Si se mantiene la cadencia histórica de Nvidia, el ciclo de refresh de la plataforma podría coincidir con nuevas generaciones de GPU y redes de alto ancho de banda, reforzando la estrategia de co-design entre silicon, redes y frameworks. De materializarse los 10 GW, el número de GPU activas podría situarse en el rango de millones, según declaraciones públicas que equiparan el consumo esperable a entre 4 y 5 millones de procesadores gráficos en servicio.
Un despliegue de esta escala requiere algo más que capex en hardware: conexiones de red de terabits por segundo entre racks, fabrics de baja latencia, refrigeración líquida de alta eficiencia, contratos de energía a largo plazo y una trazabilidad de carbono creíble. Los campus de 1 GW, por ejemplo, suelen combinar subestaciones dedicadas, redundancia N+1/N+2 y acuerdos con utilities para interconexiones escalables. Nvidia y OpenAI han señalado que la inversión de 100B se irá ejecutando conforme avance la construcción y la energización de cada tramo.
Mercado, financiación y gobernanza: preguntas abiertas
El anuncio se formalizó como carta de intención, con términos finales por concretar en las próximas semanas. Reportes periodísticos apuntan a que la estructura podría incluir equity de acciones sin derecho a voto y compromisos de compra de sistemas, una combinación que potencialmente activaría preguntas de competencia en distintos reguladores. También se ha señalado que la inversión no estaba incorporada en las previsiones financieras recientes de Nvidia, y que el mercado reaccionó con subidas cercanas al 4% tras el anuncio. Cobertura de Reuters; nota oficial de Nvidia.
Desde el punto de vista de asignación de capital, el proyecto podría implicar un gasto total del ecosistema de varios cientos de miles de millones de dólares si se considera que un campus de 1 GW puede costar decenas de miles de millones en terrenos, obra civil, powertrain, interconexión, subestaciones y equipamiento TI de última generación. Aunque no hay desglose oficial, Nvidia indicó previamente que una fracción sustancial del capex en centros de datos de IA se concentra en sus sistemas, lo que profundiza su papel como proveedor integral de hardware y software para cargas de IA.
Cuellos de botella: energía, red y tramitación
El reto no es solo financiero. La interconexión a la red eléctrica es hoy uno de los principales cuellos de botella: las listas de espera para nuevas conexiones a gran escala pueden alcanzar varios años, con mercados energéticos tensionados por electrificación, renovables y demanda de IA. A ello se suman los plazos de permisos, disponibilidad de agua para refrigeración (si aplica), tensiones en la cadena de suministro de racks y equipos de potencia, y la necesidad de personal técnico especializado para operar centros multi-gigavatio. La tendencia a acuerdos con nuclear y contratos de energía a largo plazo apunta a mitigar la intermitencia y asegurar cargas base, a la vez que reduce la huella de carbono de la operación.
Implicaciones para el ecosistema de IA
El salto a 10 GW sugiere que la escala de entrenamiento de modelos fundacionales seguirá expandiéndose durante 2026-2028, con efectos en la frontier research, la disponibilidad de capacidades de fine-tuning e inferencia para empresas, y la competencia en precio-rendimiento por token procesado. En paralelo, el avance hacia arquitecturas más eficientes y el aumento del throughput por vatio podrían amortiguar parcialmente el impacto energético, pero no alterar la dirección de fondo: la IA como consumidor estructural de electricidad en la próxima década. La IEA estima que, de aquí a 2030, los centros de datos podrían acaparar una fracción cercana al 3% de la electricidad mundial, mientras que en Estados Unidos explicarían cerca de la mitad del crecimiento de la demanda eléctrica. IEA, resumen ejecutivo.
Lo que se sabe hoy y lo que falta por definir
Confirmado: la carta de intención entre OpenAI y Nvidia, el objetivo de 10 GW con un primer 1 GW en H2 2026 sobre Vera Rubin, y un compromiso de inversión de hasta 100B acompasado al despliegue. Por concretar: el detalle de la estructura financiera (eventual emisión de acciones sin voto, reparto del riesgo, plazos de desembolso), la lista de ubicaciones, el perfil exacto de fuentes de energía, los acuerdos de interconexión, la participación de otros socios de cómputo y la governance de una red multi-gigavatio de centros de datos. Comunicado de OpenAI; cobertura de contexto: FT Alphaville y Network World.
Lectura relacionada en este sitio
Para contexto sobre la carrera por energía en centros de datos, revisa este análisis sobre PPAs y campus de alta potencia en la industria de la nube: La nueva geografía eléctrica de la nube.