AWS y OpenAI anuncian una asociación estratégica plurianual

La asociación permitirá a OpenAI ejecutar sus cargas de trabajo avanzadas de inteligencia artificial en la infraestructura de clase mundial de AWS inmediatamente.
Amazon Web Services (AWS) y OpenAI anunciaron una asociación estratégica plurianual que proporciona la infraestructura de clase mundial de AWS para ejecutar y escalar las cargas de trabajo principales de inteligencia artificial (IA) de OpenAI con efecto inmediato.
Bajo este nuevo acuerdo de 38.000 millones de dólares, que continuará creciendo durante los próximos siete años, OpenAI está accediendo al cómputo de AWS que comprende cientos de miles de GPU NVIDIA de última generación, con la capacidad de expandirse a decenas de millones de CPU para escalar rápidamente las cargas de trabajo agentivas.
AWS tiene una experiencia inusual al ejecutar infraestructura de IA a gran escala de manera segura, confiable y con clusters que superan los 500.000 chips. El liderazgo de AWS en infraestructura de nube, combinado con los avances pioneros de OpenAI en IA generativa, ayudará a que millones de usuarios continúen obteniendo valor de ChatGPT.
El rápido avance de la tecnología de IA ha creado una demanda sin precedentes de poder de cómputo. A medida que los proveedores de modelos de frontera buscan llevar sus modelos a nuevos niveles de inteligencia, recurren cada vez más a AWS debido al rendimiento, la escala y la seguridad que pueden lograr.
OpenAI comenzará inmediatamente a utilizar el cómputo de AWS como parte de esta asociación, con toda la capacidad prevista para ser implementada antes de finales de 2026, y con la posibilidad de expandirse aún más en 2027 y más allá.
La implementación de infraestructura que AWS está construyendo para OpenAI presenta un diseño arquitectónico sofisticado optimizado para una eficiencia y rendimiento máximos en el procesamiento de IA. La agrupación de las GPU NVIDIA —tanto GB200 como GB300— a través de Amazon EC2 UltraServers en la misma red permite un rendimiento de baja latencia en sistemas interconectados, lo que permite a OpenAI ejecutar cargas de trabajo de manera eficiente con un rendimiento óptimo. Los clusters están diseñados para admitir diversas cargas de trabajo, desde ofrecer inferencia para ChatGPT hasta entrenar modelos de próxima generación, con la flexibilidad de adaptarse a las necesidades cambiantes de OpenAI.
“Escalar la IA de frontera requiere cómputo masivo y confiable”, dijo Sam Altman, cofundador y director ejecutivo de OpenAI. “Nuestra asociación con AWS fortalece el amplio ecosistema de cómputo que impulsará esta próxima era y llevará la IA avanzada a todos”.
“A medida que OpenAI continúa empujando los límites de lo que es posible, la infraestructura de primera clase de AWS servirá como columna vertebral de sus ambiciones de IA”, dijo Matt Garman, director ejecutivo de AWS. “La amplitud y disponibilidad inmediata del cómputo optimizado demuestran por qué AWS está en una posición única para respaldar las vastas cargas de trabajo de IA de OpenAI”.
Esta noticia continúa el trabajo conjunto de ambas compañías para proporcionar tecnología de IA de vanguardia que beneficie a organizaciones en todo el mundo. A principios de este año, los modelos fundacionales de peso abierto de OpenAI se pusieron a disposición en Amazon Bedrock, trayendo estas opciones adicionales de modelos a millones de clientes en AWS.
OpenAI se ha convertido rápidamente en uno de los proveedores de modelos disponibles públicamente más populares en Amazon Bedrock, con miles de clientes —incluidos Bystreet, Comscore, Peloton, Thomson Reuters, Triomics y Verana Health— trabajando con sus modelos para flujos de trabajo agentivos, codificación, análisis científico, resolución de problemas matemáticos y más.
Para comenzar a usar los modelos de peso abierto de OpenAI en Amazon Bedrock, visita: https://aws.amazon.com/bedrock/openai.
DERECHOS DE AUTOR
Esta información pertenece a su autor original y se encuentra en el sitio https://boletin.mx/2025/11/04/aws-y-openai-anuncian-una-asociacion-estrategica-plurianual/




