top of page
IG.png

Las Mac mini de Apple se venden como pan caliente mientras Clawdbot socava el foso de CUDA

  • Foto del escritor: Masterbitz
    Masterbitz
  • hace 6 días
  • 2 Min. de lectura

Pregunte a cualquier codificador de vibraciones objetiva, y invariablemente le dirán que Apple tiene un gran ecosistema, aunque obstaculizado por la falta de interacción perfecta con recursos imprescindibles como la CUDA de NVIDIA, una plataforma de computación paralela a medida y un modelo de programación que permite a los desarrolladores utilizar GPU NVIDIA para el procesamiento de propósito general.



Ahora, sin embargo, como un Redditor fue capaz de transferir un backend completo de CUDA a la ROCm de AMD a través del Clawdbot de Claude Code en solo unos 30 minutos, lo que hace una abolladura significativa del moat CUDA hasta ahora inexpugnable de NVIDIA en el proceso, los mini dispositivos Mac de Apple están volando de los estantes, ya que los codificadores simplemente no pueden resistirse a asimilar el hardware confiable de Apple y un verdadero conjunto de servicios muy capaces.


Los dispositivos Apple Mac mini se disparan en popularidad con la llegada de un marco de agencia viable para portar sobre un código determinado

Recientemente demostramos que era más barato ejecutar tareas de aprendizaje automático (ML) e inteligencia artificial menos complicadas en silicio dedicado de Apple en comparación con la NVIDIA RTX 4090.

En el corazón de esta ventaja se encuentra la arquitectura de memoria unificada de Apple Silicon, donde la CPU y la GPU utilizan la misma caché de memoria. Así que, como ejemplo, el M4 Pro Mac mini cuenta con 64GB de RAM (memoria unificada) frente a los 24 GB de RAM de la RTX 4090.

Por supuesto, Apple parece estar haciendo todo lo posible para resaltar esta ventaja de computación agrupada. Por ejemplo, macOS Tahoe 26.2 introdujo un nuevo controlador en el MLX, la plataforma de aprendizaje automático a medida de Apple, repleta de soporte para Thunderbolt 5, que tiene un ancho de banda máximo de 80 Gb / s vs. 10Gb/s para un clúster típico de computación basada en Ethernet.


Tenga en cuenta que el silicio de Apple se basa en Metal Performance Shaders (MPS), una biblioteca de sombreadores de computación y gráficos, para tareas de aceleración de GPU que aprovechan los marcos de aprendizaje automático como PyTorch o TensorFlow para lograr un alto rendimiento en el hardware de Apple.


Aun así, la falta de compatibilidad inherente de Apple Silicon con el marco CUDA de NVIDIA siguió siendo una de las mayores barreras para la adopción de Apple Mac y Mac minis para cargas de trabajo de IA específicas, especialmente aquellas que involucran el procesamiento de imágenes.


Ahora, sin embargo, como detallamos en una publicación dedicada recientemente, un Redditor pudo usar el Clawdbot de Claude Code para reemplazar sin problemas las palabras clave CUDA con las de ROCm, al tiempo que garantizaba que la lógica subyacente de los núcleos específicos se mantuviera consistente, y eso también sin usar entornos de traducción complejos como Hipify.

Este desarrollo está estimulando un renovado interés en los mini dispositivos Apple Mac, especialmente de la comunidad de codificación Vibe.

La situación se ha vuelto tan salvaje que Apple aparentemente está expulsando material de marketing personalizado, con el objetivo de capitalizar la nueva fama del Clawdbot.


Fuente: Wccftech

Comentarios


Aplus_MARS_2107_Eng(1).png
undefined - Imgur(1).jpg

Siguenos

  • Facebook
  • Twitter
  • YouTube
  • Instagram
gaming

© 2016 Derechos Reservados a MasterbitzReviewHN

bottom of page