Apple dice que sus modelos de IA fueron entrenados en chips personalizados de Google

Apple dice que sus modelos de IA fueron entrenados en chips personalizados de Google

Sundar Pichai y Tim Cook

Fuente: Reuters; Apple

Manzana dijo el lunes que los modelos de inteligencia artificial que sustentan Apple Intelligence, Su sistema de inteligencia artificialfueron entrenados previamente en procesadores diseñados por Google, una señal de que las grandes empresas tecnológicas están buscando alternativas a Nvidia Cuando se trata del entrenamiento de IA de vanguardia.

La elección de Apple de de google La Unidad de Procesamiento Tensorial (TPU) de fabricación propia para entrenamiento se detalló en Un artículo técnico recién publicado por La empresa. Por otra parte, Apple lanzó una versión de vista previa de Apple Intelligence para algunos dispositivos el lunes.

Las costosas unidades de procesamiento gráfico (GPU) de Nvidia dominan el mercado de chips de entrenamiento de IA de alta gamay han tenido tanta demanda en los últimos años que ha sido difícil conseguirlos en las cantidades requeridas. OpenAI, Microsofty Anthropic utilizan GPU de Nvidia para sus modelos, mientras que otras empresas tecnológicas, incluida Google, Meta, Oráculo y Tesla están adquiriéndolos para desarrollar sus sistemas y ofertas de inteligencia artificial.

Director ejecutivo de Meta Mark Zuckerberg y el director ejecutivo de Alphabet Sundar Pichai Ambos hicieron comentarios la semana pasada sugiriendo que sus empresas y otras en la industria Quizás esté invirtiendo demasiado en infraestructura de IA, pero reconoció que el riesgo comercial de hacer lo contrario era demasiado alto.

«La desventaja de estar atrás es que estás fuera de posición para la tecnología más importante para los próximos 10 a 15 años», dijo Zuckerberg en un podcast con Emily Chang de Bloomberg.

Apple no menciona a Google ni a Nvidia en su documento de 47 páginas, pero sí señaló que su Apple Foundation Model (AFM) y su servidor AFM están entrenados en «clústeres Cloud TPU». Eso significa que Apple alquiló servidores de un proveedor de la nube para realizar los cálculos.

«Este sistema nos permite entrenar los modelos AFM de manera eficiente y escalable, incluidos AFM en el dispositivo, AFM en servidor y modelos más grandes», afirmó Apple en el documento.

Los representantes de Apple y Google no respondieron a las solicitudes de comentarios.

Apple reveló sus planes de IA más tarde que muchos de sus pares, que adoptaron en voz alta la IA generativa poco después del lanzamiento de ChatGPT de OpenAI a fines de 2022. El lunes, Apple presentó Inteligencia de AppleEl sistema incluye varias características nuevas, como una apariencia renovada para Siri, un mejor procesamiento del lenguaje natural y resúmenes generados por IA en campos de texto.

Durante el próximo año, Apple planea implementar funciones basadas en IA generativa, incluida la generación de imágenes, la generación de emojis y una Siri potenciada que puede acceder a la información personal del usuario y realizar acciones dentro de las aplicaciones.

En el artículo del lunes, Apple dijo que el AFM en el dispositivo fue entrenado en una única «segmentación» de 2048 chips TPU v5p que trabajaban juntos. Se trata del TPU más avanzado, lanzado por primera vez en diciembre. El servidor AFM fue entrenado en 8192 chips TPU v4 que se configuraron para trabajar juntos como ocho porciones a través de una red de centro de datos, según el artículo.

Las últimas TPU de Google cuestan menos de 2 dólares por hora de uso del chip cuando se reservan con tres años de antelación, según al sitio web de GoogleGoogle introdujo por primera vez sus TPU en 2015 para cargas de trabajo internas y las hizo… disponible al público en 2017. Ahora se encuentran entre los chips personalizados más maduros diseñados para inteligencia artificial.

Aun así, Google es uno de los principales clientes de Nvidia. Utiliza las GPU de Nvidia y sus propias TPU para entrenar sistemas de IA y también vende acceso a la tecnología de Nvidia en su nube.

Apple dijo anteriormente que la inferencia, que significa tomar un modelo de IA previamente entrenado y ejecutarlo para generar contenido o hacer predicciones, se realizaría parcialmente en los propios chips de Apple en sus centros de datos.

Este es el segundo documento técnico sobre el sistema de inteligencia artificial de Apple, después de que se publicara una versión más general en junio. Apple dijo En el momento que estaba utilizando TPU mientras desarrollaba sus modelos de IA.

Está previsto que Apple presente sus resultados trimestrales después del cierre de operaciones del jueves.

No te pierdas estos insights de CNBC PRO

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *