El acuerdo entre Nvidia y Meta marca una nueva era en la potencia de cómputo

«Si eres uno de los hiperescaladores, no vas a ejecutar todos tus cálculos de inferencia en CPU», advierte Bajarin. «Solo necesitas que el software que ejecutes sea lo suficientemente rápido en la CPU como para interactuar con la arquitectura de la GPU, que es en realidad la fuerza motriz de ese cálculo. De lo contrario, la CPU se convierte en un cuello de botella».
Meta no ha querido hacer comentarios sobre la ampliación de su acuerdo con Nvidia. Durante una reciente llamada de ganancias, la gigante de las redes sociales dijo que planeaba aumentar drásticamente su gasto en infraestructura de IA este año a entre 115 mil millones y 135 mil millones de dólares, frente a los 72.2 mil millones del año pasado.
Nvidia, que también declinó hacer comentarios sobre el nuevo acuerdo, lleva años diciendo que su hardware puede utilizarse para necesidades de cálculo de inferencia, además de para el entrenamiento de IA de vanguardia. Hace dos años, en una entrevista concedida a WIRED, el fundador y CEO de Nvidia. Jensen Huang, estimó que el negocio de Nvidia era probablemente «un 40% de inferencia y un 60% de entrenamiento».
En diciembre, Nvidia anunció que se iba a gastar 20,000 millones de dólares en licenciar tecnología de la startup de chips Groq y en incorporar al redil de Nvidia a algunos de los principales talentos de Groq, incluido su CEO, Jonathan Ross. Según un comunicado de Groq, el acuerdo refleja un «enfoque compartido para ampliar el acceso a la inferencia de alto rendimiento y bajo costo». La operación representa la mayor inversión de Nvidia hasta la fecha.
La competencia se recrudece
El acuerdo de Nvidia con Meta se produce en un momento en el que los principales laboratorios de IA y empresas de software multimillonarias buscan diversificar sus fuentes de potencia de cálculo. OpenAI, Anthropic, Meta, xAI y muchos otros han confiado en el hardware de Nvidia para realizar el trabajo pesado a medida que entrenaban y desplegaban modelos generativos de IA en los últimos años.
Ahora, en muchos casos, construyen o personalizan sus propios chips, presionando a Nvidia para que ofrezca más servicios.
Microsoft utiliza una mezcla de GPU de Nvidia y chips diseñados a medida para sus servicios de IA en la nube. Google también utiliza chips Nvidia para sus servicios en la nube, pero confía principalmente en sus propias unidades de procesamiento tensorial (TPU) para entrenar y desplegar sus modelos avanzados de IA. Google también ha considerado vender sus TPU a Meta.
Anthropic utiliza una combinación de GPU de Nvidia, TPU de Google y chips de Amazon (uno de sus accionistas minoritarios más importantes) para sus modelos de IA de Claude. El cofundador y consejero delegado de Anthropic, Dario Amodei, es también uno de los escasos ejecutivos que ha criticado públicamente los esfuerzos de presión de Huang para persuadir al gobierno estadounidense de que permita a Nvidia vender chips avanzados a China.
OpenAI, que el año pasado firmó un enorme acuerdo de infraestructura de IA con Nvidia que podría alcanzar los 100,000 millones de dólares, ha dicho abiertamente que está trabajando con Broadcom para crear su propio hardware de chips de IA y sistemas de red.
DERECHOS DE AUTOR
Esta información pertenece a su autor original y fue recopilada del sitio https://es.wired.com/articulos/el-acuerdo-entre-nvidia-y-meta-marca-una-nueva-era-en-la-potencia-de-computo




