Oracle y AMD lanzan el primer hyperscaler para IA de próxima generación

A partir del tercer trimestre calendario de 2026, Oracle será el primer hyperscaler en ofrecer un supercluster de IA de uso público impulsado por 50,000 GPUs AMD Instinct MI450 Series
Oracle y AMD anunciaron hoy una importante expansión de su colaboración de larga data y múltiples generaciones para ayudar a los clientes a escalar significativamente sus capacidades e iniciativas de IA.
Basándose en años de coinnovación, Oracle Cloud Infrastructure (OCI) será socio de lanzamiento del primer supercluster de IA de acceso público impulsado por GPUs AMD Instinct™ MI450 Series, con una implementación inicial de 50,000 GPUs a partir del tercer trimestre calendario de 2026 y una expansión en 2027 y años posteriores.
Este anuncio se fundamenta en el trabajo conjunto de Oracle y AMD para ofrecer plataformas de GPU AMD Instinct en OCI a clientes finales, comenzando con el lanzamiento de shapes impulsados por AMD Instinct MI300X en 2024 y extendiéndose a la disponibilidad general de OCI Compute con GPUs AMD Instinct MI355X. Estas estarán disponibles en el OCI Supercluster de zettascale.
La demanda de capacidad de IA a gran escala está creciendo rápidamente a medida que los modelos de IA de próxima generación superan los límites de los clusters actuales. Para entrenar y ejecutar estas cargas de trabajo, los clientes necesitan soluciones de cómputo flexibles y abiertas, diseñadas para una escala y eficiencia extremas.
Los nuevos superclusters de IA planificados de OCI estarán impulsados por el diseño de rack “Helios” de AMD, el cual incluye GPUs AMD Instinct MI450 Series, CPUs AMD EPYC™ de próxima generación con nombre clave “Venice” y redes avanzadas AMD Pensando™ de próxima generación con nombre clave “Vulcano”. Esta arquitectura de rack verticalmente optimizada está diseñada para ofrecer máximo rendimiento, escalabilidad y eficiencia energética para el entrenamiento e inferencia de IA a gran escala.
“Nuestros clientes están creando algunas de las aplicaciones de IA más ambiciosas del mundo, y eso requiere una infraestructura robusta, escalable y de alto desempeño”, comentó Mahesh Thiagarajan, vicepresidente ejecutivo de Oracle Cloud Infrastructure.
“Al reunir las más recientes innovaciones de procesadores AMD con la plataforma segura y flexible de OCI y la red avanzada impulsada por Oracle Acceleron, los clientes pueden ampliar los límites con confianza. A través de nuestra relación de más de una década con AMD—de EPYC a los aceleradores AMD Instinct—seguimos ofreciendo el mejor costo-beneficio, con una nube abierta, segura y escalable en asociación con AMD para satisfacer las necesidades de la nueva era de IA.”
“AMD y Oracle continúan marcando el ritmo de la innovación en IA en la nube”, añadió Forrest Norrod, vicepresidente ejecutivo y gerente general de Data Center Solutions Business Group, AMD. “Con nuestras GPUs AMD Instinct, CPUs EPYC y la red avanzada AMD Pensando, los clientes de Oracle obtienen capacidades potentes para entrenar, ajustar y desplegar la próxima generación de IA. Juntos, AMD y Oracle están acelerando la IA con sistemas abiertos, optimizados y seguros, construidos para grandes centros de datos de IA.”
AMD Instinct MI450 Series GPUs llegan a OCI
Los shapes impulsados por GPUs AMD Instinct MI450 Series están diseñados para ofrecer opciones de implementación en la nube de alto rendimiento y flexibilidad, brindando un extenso soporte open source. Esto proporciona la base ideal para clientes que ejecutan los modelos de lenguaje más avanzados, IA generativa y cargas de trabajo de cómputo de alto desempeño. Con AMD Instinct MI450 Series GPUs en OCI, los clientes podrán beneficiarse de:
- Rendimiento y memoria innovadores: Permite a los clientes obtener resultados más rápidos, abordar cargas de trabajo complejas y reducir la necesidad de particionar modelos al aumentar el ancho de banda de memoria para entrenamiento de IA. Cada GPU AMD Instinct MI450 Series ofrecerá hasta 432 GB de HBM4 y 20 TB/s de ancho de banda, permitiendo entrenar e inferir modelos 50% más grandes que la generación anterior, completamente en memoria.
- Diseño de rack AMD “Helios” optimizado: Permite a los clientes operar a escala al optimizar densidad, costos y eficiencia energética mediante racks líquidos de 72 GPUs. Integra conectividad UALoE de escala vertical y networking de escala horizontal basado en Ethernet conforme al Ultra Ethernet Consortium (UEC), minimizando la latencia y maximizando el rendimiento entre racks y pods.
- Nodo principal potente: Ayuda a maximizar la utilización del cluster y agilizar los flujos de trabajo a gran escala, acelerando la orquestación de trabajos y procesamiento de datos sobre CPUs AMD EPYC de próxima generación, con nombre clave “Venice”. Estas CPUs brindarán capacidades de confidential computing y seguridad integrada para proteger cargas de IA sensibles de extremo a extremo.
- Red convergente acelerada por DPU: Permite ingestión de datos a velocidad de línea para mejorar el rendimiento y fortalecer la seguridad en infraestructuras y cargas de trabajo de IA en la nube a gran escala. Basada en la tecnología completamente programable AMD Pensando DPU, la red converge proporcionando la seguridad y el rendimiento necesarios para centros de datos de próxima generación en IA e inferencia.
- Networking de escala horizontal para IA: Permite a los clientes aprovechar entrenamiento distribuido ultrarrápido y comunicación colectiva optimizada con un tejido de red abierto y listo para el futuro. Cada GPU puede equiparse con hasta tres AMD Pensando “Vulcano” AI-NICs de 800 Gbps, brindando conectividad programable, libre de pérdidas y de alta velocidad que soporta los estándares avanzados RoCE y UEC.
- Tejido UALink y UALoE innovador: Ayuda a expandir cargas de trabajo eficientemente, reducir cuellos de botella de memoria y orquestar modelos de IA de billones de parámetros. La arquitectura escalable minimiza saltos y latencia sin enrutar por CPUs, habilitando networking y compartición de memoria coherente entre GPUs dentro de un rack vía protocolo UALink transportado sobre UALoE. UALink es un estándar abierto de interconexión de alta velocidad diseñado para aceleradores de IA, respaldado por un ecosistema industrial robusto. Así, los clientes obtienen la flexibilidad, escalabilidad y confiabilidad necesaria para las cargas de trabajo más exigentes en infraestructuras abiertas.
- Stack de software open-source AMD ROCm™: Permite innovación rápida, libertad de elección de proveedor y simplifica la migración de cargas existentes de IA y HPC al proporcionar un entorno de programación abierto y flexible con frameworks populares, bibliotecas, compiladores y runtimes.
- Particionamiento y virtualización avanzados: Permite a los clientes compartir clusters de forma segura y asignar GPUs según necesidades específicas, facilitando el uso eficiente de recursos a través de particionamiento granular, virtualización SR-IOV y multi-tenencia robusta.
Para dar a los clientes que construyen, entrenan e infieren IA a escala más opciones, OCI también anunció la disponibilidad general de OCI Compute con GPUs AMD Instinct MI355X. Estas estarán disponibles en el OCI Supercluster de zettascale, capaz de escalar hasta 131,072 GPUs. Los shapes impulsados por AMD Instinct MI355X están diseñados con valor superior, flexibilidad en la nube y compatibilidad open source. Más información aquí y aquí.
DERECHOS DE AUTOR
Esta información pertenece a su autor original y se encuentra en el sitio https://boletin.mx/2025/10/15/oracle-y-amd-lanzan-el-primer-hyperscaler-para-ia-de-proxima-generacion/