Apple elige las TPU de Google para la infraestructura de inteligencia artificial y pasa por alto a Nvidia

Apple ha revelado su elección de utilizar las Unidades de procesamiento tensorial (TPU) de Google para su nueva infraestructura de software de inteligencia artificial, como se detalla en un artículo de investigación publicado el lunes. Esto marca una desviación significativa de la norma de la industria, donde las GPU de Nvidia suelen ser la opción preferida para entrenar modelos de IA.

Según el último documento técnico de Apple, el AFM de la compañía y el servidor AFM que lo respalda operan en los clústeres Cloud TPU de Google. Estos detalles sugieren que Apple ha estado subarrendando espacio de servidor de las instalaciones de computación en la nube de Google para los complejos cálculos requeridos en sus marcos de inteligencia artificial.

Apple presenta el nuevo sistema de inteligencia artificial

Apple también presentó su sistema de inteligencia artificial, Apple Intelligence, junto con el documento técnico. El nuevo sistema ha mejorado Siri, un mejor procesamiento del lenguaje natural y resúmenes de IA. Además, durante el próximo año, Apple planea incorporar funciones de IA generativa en el sistema, incluida la generación de imágenes y emoji y un Siri mejorado que puede recuperar y usar información de las aplicaciones.

El documento técnico también afirma que el AFM del dispositivo de Apple fue entrenado con 2048 chips TPU v5p y el servidor AFM con 8192 chips TPU v4. El modelo actual es el TPU v5p de Google, que se anunció en diciembre y que mejora la eficiencia del cálculo de la IA. Los TPU de Google, lanzados en 2017, todavía se encuentran entre los chips personalizados más sofisticados para ejecutar tareas de IA.

NVidia sigue siendo el proveedor dominante de GPU utilizadas en el entrenamiento de redes neuronales. Sin embargo, debido a los altos costos y la limitada accesibilidad, las organizaciones han intentado buscar otras alternativas. Algunos de los principales clientes de Nvidia son OpenAI, Microsoft y Anthropic. Sin embargo, otros gigantes tecnológicos como Google, Meta, Oracle y Tesla también expresan interés en desarrollar capacidades de IA.

Los líderes tecnológicos sopesan los riesgos y beneficios de invertir en IA

El director ejecutivo de Meta, Mark Zuckerberg, y el director ejecutivo de Alphabet, Sundar Pichai, expresaron recientemente su preocupación por la inversión excesiva en infraestructura de inteligencia artificial, pero coincidieron en que la falta de inversión plantea un alto riesgo de perder terreno en una tecnología que representará el punto de inflexión en el futuro. A pesar de ser uno de los clientes más importantes de Nvidia, Google también utiliza TPU para entrenar modelos de IA y ofrece GPU de Nvidia a través de servicios en la nube.

Como afirmó Apple, las TPU de Google permiten la construcción de modelos de IA más complejos y de mayor tamaño. El detallado artículo de investigación que también incorpora información revelada en la Conferencia Mundial de Desarrolladores de Apple en junio indica que estos TPU ofrecen la potencia computacional requerida por los planes avanzados de inteligencia artificial de la compañía. Cuando Apple lance sus funciones de inteligencia artificial para los usuarios beta esta semana, los efectos de sus decisiones de hardware serán más evidentes.