Es probable que el chip para servidores con IA «Baltra» de Apple se utilice principalmente para la inferencia de IA.
- Masterbitz

- hace 7 días
- 2 Min. de lectura
Es de conocimiento común que Apple es un aficionado a la integración vertical, prefiriendo retener nodos tecnológicos clave en la casa siempre que sea factible, con sus extensos esfuerzos de diseño de silicio personalizado que ofrecen quizás la ilustración más apta de este paradigma.

Ingrese "Baltra", el nombre en clave interno dado al chip de servidor de IA a medida de Apple, que se espera que debute en 2027.
El chip de servidor de IA "Baltra" de Apple probablemente se utilizará principalmente para satisfacer sus gigantescas necesidades de inferencia
En la primavera de 2024, surgieron múltiples informes de que Apple estaba trabajando con Broadcom en su primer chip de servidor de inteligencia artificial, con el nombre en clave interno "Baltra". Algunos informes en ese momento también sugirieron que el chip aprovecharía el proceso 'N3E' de 3 nm de TSMC, y que el proceso de diseño concluiría en el próximo período de 12 meses.
Por supuesto, el despliegue real de estos chips de IA personalizados ahora se espera para 2027, y Apple ya ha comenzado el envío de sus servidores fabricados en Estados Unidos en octubre de 2025.

Pero, la verdadera pregunta es: ¿cómo usará Apple sus chips de IA personalizados? Para esa razón de ser específica, el diseño y la arquitectura general del chip de Baltra dictarán.
No se espera que Apple entrene a grandes modelos de inteligencia artificial, al menos por el momento, especialmente porque ya ha llegado a un acuerdo con Google para implementar un modelo personalizado de 3 billones de parámetros de Gemini AI para alimentar a Apple Intelligence en la nube, y pagaría a Google $ 1 mil millones por año por el derecho a usar este modelo.
Solo es razonable asumir que Apple utilizará principalmente los chips de servidor de IA "Baltra" para satisfacer sus gigantescas necesidades de inferencia de IA. Como actualización, la inferencia ocurre cada vez que los modelos ya entrenados aprovechan su base de conocimientos y la capacitación previa para realizar una tarea específica, que podría incluir algo tan mundano como escribir un correo electrónico en función de las instrucciones proporcionadas.
Por supuesto, la arquitectura de los chips de inferencia es fundamentalmente diferente de los que se utilizan para entrenar modelos de IA, con el primero poniendo mucho más énfasis en la latencia y el rendimiento. Los chips de inferencia de IA también aprovechan la arquitectura basada en matemáticas de menor precisión, como INT8.










.png)



Comentarios