Los grandes rivales tecnológicos de Nvidia ponen sus propios chips de IA sobre la mesa

En septiembre, Amazon dicho invertiría hasta 4 mil millones de dólares en Anthropic, una nueva empresa de San Francisco que trabaja en inteligencia artificial.

Poco después, un ejecutivo de Amazon envió un mensaje privado a un ejecutivo de otra empresa. Dijo que Anthropic había ganado el trato porque aceptó construir su IA utilizando chips informáticos especializados diseñados por Amazon.

Amazon, escribió, quería crear un competidor viable para el fabricante de chips Nvidia, un socio clave y creador de reyes en el importantísimo campo de la inteligencia artificial.

El auge de la IA generativa durante el último año expuso cuán dependientes se habían vuelto las grandes empresas de tecnología de Nvidia. No pueden construir chatbots y otros sistemas de inteligencia artificial sin un tipo especial de chip que Nvidia ha dominado en los últimos años. Han gastado miles de millones de dólares en los sistemas de Nvidia y el fabricante de chips no ha podido satisfacer la demanda.

Por eso, Amazon y otros gigantes de la industria, incluidos Google, Meta y Microsoft, están construyendo sus propios chips de inteligencia artificial. Con estos chips, los gigantes tecnológicos podrían controlar su propio destino. Podrían controlar los costos, eliminar la escasez de chips y, eventualmente, vender el acceso a sus chips a empresas que utilicen sus servicios en la nube.

Mientras que Nvidia vendió 2,5 millones de chips el año pasado, Google gastó entre 2.000 y 3.000 millones de dólares en construir alrededor de un millón de sus propios chips de IA, dijo Pierre Ferragu, analista de New Street Research. Amazon gastó 200 millones de dólares en 100.000 chips el año pasado, estimó. Microsoft dijo que había comenzado a probar su primer chip de IA.

Pero este trabajo es un acto de equilibrio entre competir con Nvidia y al mismo tiempo trabajar estrechamente con el fabricante de chips y su cada vez más poderoso director ejecutivo, Jensen Huang.

La empresa del Sr. Huang representa más del 70 por ciento de las ventas de chips de IA, según la firma de investigación Omdia. Proporciona un porcentaje aún mayor de los sistemas utilizados en la creación de IA generativa. Las ventas de Nvidia se han disparado un 206 por ciento durante el año pasado y la compañía ha añadido alrededor de un billón de dólares en valor de mercado.

Lo que son ingresos para Nvidia son costos para los gigantes tecnológicos. Los pedidos de Microsoft y Meta representaron alrededor de una cuarta parte de las ventas de Nvidia en los últimos dos trimestres completos, dijo Gil Luria, analista del banco de inversión DA Davidson.

Nvidia vende sus chips a unos 15.000 dólares cada uno, mientras que Google gasta un promedio de sólo 2.000 a 3.000 dólares en cada uno de ellos, según Ferragu.

“Cuando se encontraron con un vendedor que los sujetaba sobre un barril, reaccionaron con mucha fuerza”, dijo Luria.

Las empresas cortejan constantemente al Sr. Huang, compitiendo para estar al frente de la fila para recibir sus fichas. Aparece regularmente en los escenarios de eventos con sus directores ejecutivos, y las empresas se apresuran a decir que siguen comprometidas con sus asociaciones con Nvidia. Todos planean seguir ofreciendo sus chips junto con los suyos.

Mientras las grandes empresas tecnológicas se están incorporando al negocio de Nvidia, ésta se está incorporando al de ellos. El año pasado, Nvidia lanzó su propio servicio de nube donde las empresas pueden usar sus chips, y está canalizando chips hacia una nueva ola de proveedores de nube, como CoreWeave, que compiten con los tres grandes: Amazon, Google y Microsoft.

“Las tensiones aquí son mil veces mayores que las habituales maniobras entre clientes y proveedores”, dijo Charles Fitzgerald, consultor e inversionista en tecnología.

Nvidia se negó a hacer comentarios.

Se prevé que el mercado de chips de IA se duplicará con creces para 2027, hasta alcanzar aproximadamente 140 mil millones de dólares, según la firma de investigación Gartner. Venerables fabricantes de chips como AMD e Intel también están construyendo chips de IA especializados, al igual que empresas emergentes como Cerebras y SambaNova. Pero Amazon y otros gigantes tecnológicos pueden hacer cosas que los competidores más pequeños no pueden.

«En teoría, si pueden alcanzar un volumen suficientemente alto y pueden reducir sus costos, estas empresas deberían poder ofrecer algo que sea incluso mejor que Nvidia», dijo Naveen Rao, quien fundó una de las primeras empresas emergentes de chips de IA. ups y luego se lo vendió a Intel.

Nvidia construye lo que se llaman unidades de procesamiento de gráficos, o GPU, que originalmente diseñó para ayudar a renderizar imágenes para videojuegos. Pero hace una década, investigadores académicos se dieron cuenta de que estos chips también eran realmente buenos para construir sistemas, llamados Redes neuronalesque ahora impulsan la IA generativa

Cuando esta tecnología despegó, el Sr. Huang rápidamente Comenzó a modificar los chips de Nvidia y el software relacionado para la IA, y se convirtieron en el estándar de facto. La mayoría de los sistemas de software utilizados para entrenar tecnologías de inteligencia artificial se diseñaron para funcionar con los chips de Nvidia.

«Nvidia tiene excelentes chips y, lo que es más importante, tiene un ecosistema increíble», dijo Dave Brown, quien dirige los esfuerzos de chips de Amazon. Eso hace que lograr que los clientes utilicen un nuevo tipo de chip de IA sea “muy, muy desafiante”, dijo.

Reescribir el código de software para utilizar un nuevo chip es tan difícil y requiere tanto tiempo que muchas empresas ni siquiera lo intentan, dijo Mike Schroepfer, asesor y ex director de tecnología de Meta. «El problema con el desarrollo tecnológico es que gran parte de él muere incluso antes de comenzar», dijo.

Rani Borkar, que supervisa la infraestructura de hardware de Microsoft, dijo que Microsoft y sus pares necesitaban que los clientes pudieran moverse entre chips de diferentes compañías de manera «fluida».

Amazon, dijo Brown, está trabajando para que el cambio entre chips sea «lo más simple posible».

Algunos gigantes tecnológicos han tenido éxito fabricando sus propios chips. Apple diseña el silicio en iPhones y Macs, y Amazon ha implementado más de dos millones de sus propios chips de servidor tradicionales en sus centros de datos de computación en la nube. Pero logros como estos requieren años de desarrollo de hardware y software.

Google tiene la mayor ventaja en el desarrollo de chips de IA. En 2017, presentó su unidad de procesamiento de tensores, o TPU, que lleva el nombre de un tipo de cálculo vital para construir inteligencia artificial. Google utilizó decenas de miles de TPU para crear productos de inteligencia artificial, incluido su chatbot en línea, Google Bard. Y otras empresas han utilizado el chip a través del servicio en la nube de Google para crear tecnologías similares, incluidas la startup de alto perfil Cohere.

Amazon se encuentra ahora en la segunda generación de Trainium, su chip para construir sistemas de IA, y tiene un segundo chip fabricado exclusivamente para ofrecer modelos de IA a los clientes. En mayo, Meta anunció planes para trabajar en un chip de IA adaptado a sus necesidades, aunque aún no está en uso. En noviembre, Microsoft anunció su primer chip de IA, Maia, que se centrará inicialmente en ejecutar los propios productos de IA de Microsoft.

«Si Microsoft construye sus propios chips, construye exactamente lo que necesita al menor costo posible», dijo Luria.

Los rivales de Nvidia han utilizado sus inversiones en empresas emergentes de inteligencia artificial de alto perfil para impulsar el uso de sus chips. Microsoft ha comprometido 13 mil millones de dólares para OpenAI, el fabricante del chatbot ChatGPT, y su chip Maia servirá las tecnologías de OpenAI a los clientes de Microsoft. Al igual que Amazon, Google ha invertido miles de millones en Anthropic y también está utilizando los chips de inteligencia artificial de Google.

Anthropic, que ha utilizado chips tanto de Nvidia como de Google, se encuentra entre un puñado de empresas que trabajan para desarrollar IA utilizando tantos chips especializados como puedan conseguir. Amazon dijo que si empresas como Anthropic utilizaran los chips de Amazon a una escala cada vez mayor e incluso ayudaran a diseñar chips futuros, hacerlo podría reducir el costo y mejorar el rendimiento de estos procesadores. Anthropic se negó a hacer comentarios.

Pero ninguna de estas empresas superará a Nvidia en el corto plazo. Sus chips pueden ser caros, pero se encuentran entre los más rápidos del mercado. Y la empresa seguirá mejorando su velocidad.

Rao dijo que su empresa, Databricks, entrenó algunos sistemas de IA experimentales utilizando los chips de IA de Amazon, pero construyó sus sistemas más grandes e importantes utilizando chips de Nvidia porque proporcionaban un mayor rendimiento y funcionaban bien con una gama más amplia de software.

«Tenemos muchos años de dura innovación por delante», dijo Brown de Amazon. «Nvidia no se quedará quieta».

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *