Puntos clave
- OpenAI ha firmado un acuerdo de 38.000 millones de dólares con Amazon Web Services (AWS) para asegurar infraestructura en la nube.
- OpenAI obtiene acceso a cientos de miles de GPUs de Nvidia para entrenar y escalar sus modelos de IA de próxima generación.
- El acuerdo refuerza la posición de AWS en la carrera de IA y destaca la creciente centralización del poder computacional entre las principales nubes tecnológicas.
¿Qué es el acuerdo OpenAI-AWS?: Una apuesta de siete años y 38.000 millones de dólares en computación
OpenAI ha firmado un acuerdo de servicios en la nube de siete años y 38.000 millones de dólares con Amazon Web Services (AWS), asegurando acceso a cientos de miles de GPUs de Nvidia para entrenar e implementar sus modelos de próxima generación. El acuerdo, anunciado el lunes, marca el movimiento estratégico más significativo de OpenAI desde su reestructuración corporativa de la semana pasada, que dio al creador de ChatGPT mayor independencia financiera y aflojó el control de Microsoft sobre sus operaciones.
Bajo el acuerdo, AWS comenzará a proporcionar aceleradores Nvidia GB200 y GB300 en clusters de centros de datos dedicados, con capacidad completa esperada en línea para finales de 2026 y margen para escalar hasta 2027. Para Amazon, el acuerdo señala un regreso decisivo en la carrera de IA. Para OpenAI, representa el mayor contrato de computación jamás firmado por una empresa privada de IA.
La asociación impulsa instantáneamente a AWS de vuelta al centro de la infraestructura de IA, contrarrestando los temores de que se había quedado atrás frente a Microsoft Azure y Google Cloud. Las acciones de Amazon subieron un 5 por ciento el martes, añadiendo casi 140.000 millones de dólares a su valor de mercado — su mayor rally de dos días en años.
La nueva moneda de la inteligencia: la computación
Si los datos fueron el petróleo de la era digital, la computación es su electricidad. "Escalar la IA de frontera requiere computación masiva y confiable", dijo Sam Altman, CEO de OpenAI, en un comunicado. Esa frase resume la lógica detrás del acuerdo: en la carrera hacia la inteligencia artificial general (AGI), el acceso a la capacidad de computación —no los algoritmos— ahora define el liderazgo.
OpenAI planea desplegar más de 30 gigavatios de potencia computacional durante la próxima década, con un desembolso de capital de aproximadamente 1,4 billones de dólares. Altman ha propuesto un objetivo audaz: añadir un gigavatio de computación cada semana, a un costo actual que supera los 40.000 millones de dólares por GW. Para ponerlo en perspectiva, cada gigavatio podría alimentar aproximadamente 830.000 hogares estadounidenses.
Esta escala convierte la computación en un mercado de capital propio. Capitalistas de riesgo, fondos soberanos y gigantes tecnológicos están negociando capacidad de infraestructura como futuros energéticos. La economía de inteligencia mundial —desde el entrenamiento de grandes modelos de lenguaje hasta servir miles de millones de consultas diarias de IA— ahora depende de la capacidad de asegurar, financiar y operar centros de datos densos en GPUs a escala planetaria.
Por qué importa: La espiral de centralización
El acuerdo AWS-OpenAI cristaliza una realidad incómoda: la industria de IA se está consolidando alrededor de un puñado de nubes de hiperescala, proveedores de chips y proveedores de modelos. Microsoft, Amazon y Google ahora se sientan en el centro de un circuito cerrado donde el dinero, la computación y la inteligencia circulan entre las mismas pocas redes.
Cada nueva iteración de modelo demanda exponencialmente más computación. Cada salto en computación requiere gastos de capital de miles de millones de dólares. El resultado es un ciclo de retroalimentación que privilegia a los incumbentes y eleva las barreras de entrada para todos los demás.
Eric Yang, CEO de Gradient —una red de investigación de IA descentralizada respaldada por Pantera Capital y Multicoin Capital— describió el fenómeno sucintamente:
"La escala de estos nuevos acuerdos en la nube muestra cuán rápidamente la IA se ha convertido en un mercado de capital por derecho propio. Los mayores actores de la industria ahora están efectivamente negociando poder para controlar la inteligencia de la misma manera que otros negocian energía —concentrando un enorme poder financiero y operativo en unos pocos proveedores. El próximo desafío es asegurar que la inteligencia misma no quede atrapada allí."
Las palabras de Yang subrayan una creciente división filosófica: ¿debería el futuro de la IA pertenecer a nubes centralizadas, o a sistemas distribuidos y soberanos que funcionan a través de redes y dispositivos independientes?
De abierto a opaco: El cambio estructural de OpenAI
El momento del acuerdo con AWS sigue a la amplia reestructuración de OpenAI, que distancia a la empresa de su estatuto original sin fines de lucro. La reorganización elimina el "derecho de primera negativa" de Microsoft para suministrar servicios en la nube y posiciona a OpenAI para recaudar capital externo más libremente —incluyendo una potencial OPI de 1 billón de dólares, según Reuters.
Desde su fundación en 2015, la trayectoria de OpenAI ha reflejado la evolución más amplia de la IA misma: de colectivo de investigación abierta a plataforma con fines de lucro. El lanzamiento de ChatGPT a finales de 2022 convirtió la IA en un concepto doméstico, impulsando la tasa de ingresos de la empresa hacia los 20.000 millones de dólares para finales de 2025. Sin embargo, sigue generando pérdidas, en gran parte debido al inmenso costo del entrenamiento de modelos e inferencia.
Al diversificarse más allá de la nube Azure de Microsoft —mientras sigue comprometiendo 250.000 millones de dólares a la computación de Azure como parte de la reestructuración de la semana pasada— OpenAI está tanto cubriendo el riesgo operativo como amplificando la intensidad de capital. También tiene acuerdos secundarios con Google Cloud y Oracle, este último supuestamente valorado en 300.000 millones de dólares durante cinco años. En total, los compromisos de computación futuros de OpenAI superan los 600.000 millones de dólares —los más grandes en la historia para una sola empresa de IA.
El resurgimiento de AWS en la carrera armamentística de IA
Para Amazon, el acuerdo es un arco de redención. AWS sigue siendo el mayor proveedor de nube del mundo por cuota de mercado, pero los analistas habían comenzado a cuestionar sus credenciales en IA a medida que Microsoft y Google anunciaban asociaciones más llamativas con desarrolladores de modelos líderes.
El contrato de 38.000 millones de dólares cambia esa narrativa. Trae a OpenAI —la joya de la corona de la revolución de IA generativa— a la órbita de Amazon, incluso mientras Amazon continúa respaldando al rival constructor de modelos Anthropic con sus propias inversiones multimillonarias. La plataforma Bedrock de AWS ya aloja modelos de Anthropic, Meta, Cohere, Stability AI y Mistral AI. Ahora añade las cargas de trabajo de OpenAI, reforzando la estrategia de Amazon de ser la "capa de infraestructura neutral" para IA.
A corto plazo, el acuerdo promete una mayor utilización de los chips especializados y las instancias GPU de AWS. A largo plazo, posiciona a Amazon como el proveedor de servicios indispensable para cargas de trabajo de IA —el mismo papel que desempeñó para las startups de internet tempranas hace dos décadas.
La competencia de OpenAI: Titanes y desafiantes
El panorama competitivo en 2025 es feroz. Anthropic, respaldado por Amazon y Google, está entrenando sus próximos modelos de la serie Claude en los superclusters TPU v6 de Google. xAI de Elon Musk está escalando su modelo "Grok" en GPUs H100 y B200 de Nvidia alojadas por Oracle. La startup francesa Mistral AI, recién salida de una ronda de 600 millones de dólares, está tomando el camino de pesos abiertos, lanzando modelos completamente accesibles que pueden ejecutarse en hardware más pequeño.
OpenAI sigue siendo el punto de referencia para el rendimiento de modelos cerrados, pero el campo se está estrechando. Los modelos propietarios de la empresa —GPT-4 y el próximo GPT-5— requieren presupuestos de inferencia masivos que pueden exceder incluso la capacidad global de Azure de Microsoft. Al añadir AWS a su mezcla de infraestructura, OpenAI asegura redundancia y crecimiento paralelo —pero también señala que ningún proveedor único puede satisfacer sus demandas de escala por sí solo.
Mientras tanto, startups como Together AI, Lambda Labs y CoreWeave (ahora valorada en 20.000 millones de dólares después de la participación de Nvidia) están ofreciendo computación de alto rendimiento boutique para entrenamiento de modelos especializados. Esta proliferación sugiere un ecosistema en el que la computación se convierte en la mercancía y la orquestación en el diferenciador.
La economía de una carrera armamentística de computación
El desarrollo de modelos de IA se ha convertido en la frontera más intensiva en capital del sector tecnológico. El precio de las GPUs, la energía y la refrigeración ha convertido la infraestructura de IA en el nuevo campo petrolero de la economía digital.
Nvidia sigue siendo el proveedor dominante, controlando más del 80 por ciento del mercado de chips de IA de alta gama. Sus últimos sistemas GB200 Grace Blackwell están diseñados para modelos de billones de parámetros y ofrecen hasta 30 veces el rendimiento de la generación H100 anterior. AWS planea desplegar estos chips a una escala sin precedentes para los clusters de OpenAI.
Las implicaciones financieras son asombrosas. Según Morgan Stanley, la inversión global en infraestructura de IA podría superar los 2 billones de dólares para 2030, impulsada por hiperescaladores y programas de IA soberana. Solo OpenAI podría representar el 20 por ciento de la demanda total de GPU en 2026.
Esta concentración tiene efectos secundarios: consumo de energía disparado, costos ambientales y posibles puntos de estrangulamiento en la cadena de suministro. Los países ya están compitiendo por la fabricación de chips, el acceso a la red eléctrica y los derechos de agua para enfriar los centros de datos —haciendo eco de la geopolítica del petróleo en el siglo XX.
IA Descentralizada: El contramovimiento gana terreno
A medida que la concentración en la nube se acelera, un nuevo ecosistema está surgiendo en oposición —uno que combina infraestructura blockchain, computación distribuida e IA de borde. El objetivo: hacer que la inteligencia sea soberana, es decir, controlable por individuos y comunidades en lugar de ser monopolizada por las nubes.
Proyectos como Gaia AI, Bittensor, Fetch.ai e io.net están construyendo redes peer-to-peer donde los recursos de computación pueden ser agrupados, comercializados y asignados de manera transparente a través de tokens. Render Network descentraliza el renderizado de GPU; Gensyn y Akash Network proporcionan mercados abiertos para computación de entrenamiento; Cerebras y Tenstorrent experimentan con aceleradores de IA modulares y desplegables localmente.
El atractivo radica en la resiliencia y la autonomía. Si la infraestructura de inteligencia refleja el oligopolio de la nube actual, las sociedades corren el riesgo de ceder tanto los datos como la toma de decisiones a unas pocas plataformas corporativas. La IA descentralizada aboga por lo contrario: un mundo donde los modelos viven a través de dispositivos, gobernados por protocolos abiertos en lugar de APIs propietarias.
Incluso las principales instituciones están prestando atención. La iniciativa "IA Soberana" de la UE y el programa "IA de Borde" del Ministerio de Economía de Japón enfatizan el control local sobre el entrenamiento e inferencia de modelos. El objetivo no es desmantelar las nubes, sino equilibrarlas.
Poder, política y la próxima ola de regulación
La expansión de infraestructura de OpenAI plantea cuestiones regulatorias y ambientales. El entrenamiento de modelos de frontera consume inmensa electricidad —un estimado de 10-15 GWh por iteración de modelo— y genera huellas de carbono significativas. Los gobiernos están comenzando a examinar la huella física de la IA tan de cerca como su ética de datos.
En los Estados Unidos, la Comisión Federal de Comercio y el Departamento de Energía han abierto conjuntamente investigaciones sobre la "concentración de computación" y sus efectos en la innovación y la seguridad energética

