Un mismo lenguaje para todos los chips de IA: es lo que busca crear esta exestrella de Apple

En un momento dado, entre la creación de las herramientas para desarrolladores de Apple, la dirección de una parte esencial del equipo de infraestructura de IA de Google y el enfrentamiento con Elon Musk durante un periodo como jefe de Autopilot de Tesla, la visión de Chris Lattner sobre el trabajo de su vida empezó a hacerse evidente. La IA se estaba apoderando del mundo y la demanda de los chips que la impulsaban era cada vez mayor. Pero la pila de software para esos chips estaba dominada por unas pocas grandes empresas. ¿Podrían los desarrolladores ejecutar fácilmente su código en todos los chips que salpican el panorama de la IA?
La respuesta de Lattner a esta pregunta es una empresa de software que fundó en 2022 con su antiguo colega de Google, Tim Davis. Modular crea una capa de software unificadora que ayuda a las empresas de la nube a exprimir al máximo las unidades de procesamiento gráfico (GPU) y unidades centrales de procesamiento (CPU), los chips de alta potencia que sustentan la IA generativa. La startup también ha creado un nuevo lenguaje de codificación, basado en Python, que permite a los desarrolladores utilizar un único lenguaje para crear aplicaciones de IA que se ejecuten en varias GPU y CPU. La premisa básica de Modular es que, si un desarrollador crea una aplicación para un chip, no debería tener que pasar por el aro para ejecutarla en el chip de otro proveedor.
Pero el objetivo a largo plazo de Modular es aún más ambicioso
La compañía tiene un cometido: Acabar con el asfixiante control del software que empresas como Nvidia y AMD ejercen sobre el sector, y convertirse en el software de facto para los chips de IA. «Nuestra tesis es que la necesidad de potencia de cálculo está explotando, pero no existe una plataforma de cálculo unificada», afirma Lattner. Añade: «La IA soberana estará en todas partes. Habrá muchas puertas estelares. Pero habrá diferentes tipos de chips optimizados para diferentes casos de uso, y tiene que haber una capa unificada para eso».
Ya hay indicios de que la tesis de Modular se cumple. Gigantes de la IA como Nvidia, AMD y Amazon se han asociado con la startup para tantear el terreno. La empresa de clústeres de GPU, SF Compute, también ha trabajado con Modular para crear lo que afirman es la API más barata del mundo para grandes modelos de IA. Desde esta semana, la plataforma de desarrollo de Modular es compatible con las GPU Silicon de Apple, además de los chips de Nvidia y AMD.
Aprovechando este impulso, Modular acaba de recaudar 250 millones de dólares en capital riesgo, su tercera ronda de financiación en tres años, lo que eleva su valoración total a 1,600 millones de dólares. La ronda fue liderada por el US Innovative Technology Fund, con sede en Pittsburgh. DFJ Growth también invirtió, junto con los inversores existentes General Catalyst, Greylock y GV, antes conocido como Google Ventures.
«Hemos dedicado mucho tiempo y energía a averiguar qué hace interesante a una startup de este sector, y en todas las empresas que han intentado crear su propio chip, incluso las grandes, como AMD y Nvidia, todo se reduce al software. Chris me convenció de que el software era el problema más interesante y valioso», afirma Dave Munichiello, socio director de GV.
DERECHOS DE AUTOR
Esta información pertenece a su autor original y fue recopilada del sitio https://es.wired.com/articulos/un-mismo-lenguaje-para-todos-los-chips-de-ia-es-lo-que-busca-crear-esta-exestrella-de-apple