Acabamos de descubrir algo sorprendente sobre cómo se entrenaba Apple Intelligence

Un nuevo documento de investigación de Apple revela que la compañía se basó en las Unidades de Procesamiento Tensorial (TPU) de Google, en lugar de las GPU más ampliamente implementadas de Nvidia, para entrenar dos sistemas cruciales dentro de su próximo servicio Apple Intelligence. El documento señala que Apple utilizó 2.048 chips TPUv5p de Google para entrenar sus modelos de IA y 8.192 procesadores TPUv4 para sus modelos de IA de servidor.

Los chips de Nvidia son muy buscados por una buena razón, ya que se han ganado su reputación de rendimiento y eficiencia informática. Sus productos y sistemas generalmente se venden como ofertas independientes, lo que permite a los clientes construirlos y operarlos como mejor le parezca.

Las TPU de Google, por otro lado, solo están disponibles para los usuarios como parte del paquete más grande de servicios en la nube de la compañía. Es decir, no es propietario de las TPU de Google, sino que alquila el acceso a ellas, ya que los clientes deben desarrollar sus modelos de IA dentro del ecosistema de Google Cloud.

Este requisito de la nube funcionó a favor de Apple, según el equipo de investigación. Señalaron que la capacidad de agrupar las TPU de Google les permitió aprovechar la potencia de procesamiento necesaria para entrenar los modelos de IA de Apple y hacerlo de manera más eficiente que con un sistema independiente.

La decisión de Apple de usar los productos de Google es inesperada, y no solo por la rivalidad de larga data entre las dos compañías. Nvidia cuenta con la cuota de mercado dominante en términos de chips de IA, ya que sus aceleradores constituyen entre el 70% y el 95% de todas las ventas.

Sin embargo, la decisión de Apple podría verse como una señal de que las empresas tecnológicas están buscando alejarse de los costosos chips de gama alta de Nvidia. Amazon, por ejemplo, reveló recientemente que está desarrollando una nueva línea de chips de IA que supuestamente son un 50% más potentes que las ofertas de Nvidia y funcionan con un 50% menos de energía.

Microsoft anunció en mayo que ofrecerá a sus clientes de la nube servicios construidos sobre los chips de IA de AMD, en lugar de los de Nvidia, mientras que Google hizo movimientos similares en abril.

Fuente

Deja un comentario

A %d blogueros les gusta esto: