top of page
IG.png

Los PC de IA NVIDIA GeForce RTX Serie 50 aceleran los modelos de razonamiento de DeepSeek

  • Foto del escritor: Masterbitz
    Masterbitz
  • 3 feb
  • 3 Min. de lectura

La recientemente lanzada familia de modelos DeepSeek-R1 ha traído una nueva ola de entusiasmo a la comunidad de IA, permitiendo a entusiastas y desarrolladores ejecutar modelos de razonamiento de última generación con capacidades de resolución de problemas, matemáticas y de código, todo desde la privacidad de las PC locales. Con hasta 3.352 billones de operaciones por segundo de potencia de IA, las GPU NVIDIA GeForce RTX Serie 50 pueden ejecutar la familia DeepSeek de modelos destilados más rápido que cualquier otra del mercado de PC.


Una nueva clase de modelos que razonan

Los modelos que razonan son una nueva clase de grandes modelos lingüísticos (LLM) que dedican más tiempo a «pensar» y «reflexionar» para resolver problemas complejos, al tiempo que describen los pasos necesarios para resolver una tarea. El principio fundamental es que cualquier problema puede resolverse con una reflexión profunda, razonamiento y tiempo, al igual que los humanos abordan los problemas. Al dedicar más tiempo -y, por tanto, más cálculo- a un problema, el LLM puede obtener mejores resultados. Este fenómeno se conoce como escalado en tiempo de prueba, en el que un modelo asigna dinámicamente recursos informáticos durante la inferencia para razonar los problemas. Los modelos de razonamiento pueden mejorar la experiencia del usuario en el PC al comprender en profundidad sus necesidades, realizar acciones en su nombre y permitirle proporcionar información sobre el proceso de razonamiento del modelo, desbloqueando flujos de trabajo agénticos para resolver tareas complejas de varios pasos, como analizar estudios de mercado, realizar problemas matemáticos complicados, depurar código y mucho más.


La diferencia de DeepSeek

La familia de modelos destilados DeepSeek-R1 se basa en un gran modelo de mezcla de expertos (MoE) de 671.000 millones de parámetros. Los modelos MoE constan de múltiples modelos de expertos más pequeños para resolver problemas complejos. Los modelos de DeepSeek dividen aún más el trabajo y asignan subtareas a conjuntos más pequeños de expertos. DeepSeek empleó una técnica denominada destilación para construir una familia de seis modelos de estudiantes más pequeños -con un rango de 1.500 a 70.000 millones de parámetros- a partir del gran modelo DeepSeek de 671.000 millones de parámetros. Las capacidades de razonamiento del gran modelo DeepSeek-R1 de 671.000 millones de parámetros se enseñaron a los modelos de aprendizaje más pequeños Llama y Qwen, lo que dio lugar a potentes modelos de razonamiento más pequeños que se ejecutan localmente en los PC RTX AI con un rápido rendimiento.


Máximo rendimiento en RTX

La velocidad de inferencia es fundamental para esta nueva clase de modelos de razonamiento. Las GPU de la serie GeForce RTX 50, construidas con núcleos sensores dedicados de quinta generación, se basan en la misma arquitectura de GPU NVIDIA Blackwell que impulsa la innovación en IA líder en el mundo en el centro de datos. RTX acelera por completo DeepSeek, ofreciendo el máximo rendimiento de inferencia en los PC.


Rendimiento de la familia de modelos destilados Deepseek-R1 en las GPU del PC:


Experimenta DeepSeek en RTX con las herramientas más populares

La plataforma RTX AI de NVIDIA ofrece la más amplia selección de herramientas, kits de desarrollo de software y modelos de IA, lo que permite acceder a las funciones de DeepSeek-R1 en más de 100 millones de PC NVIDIA RTX AI en todo el mundo, incluidos los equipados con GPU GeForce RTX Serie 50. Las GPU RTX de alto rendimiento hacen que las funciones de IA estén siempre disponibles -incluso sin conexión a Internet- y ofrecen baja latencia y mayor privacidad porque los usuarios no tienen que cargar materiales confidenciales ni exponer sus consultas a un servicio online.


Experimente la potencia de los PC DeepSeek-R1 y RTX AI a través de un amplio ecosistema de software, que incluye Llama.cpp, Ollama, LM Studio, AnythingLLM, Jan.AI, GPT4All y OpenWebUI, para la inferencia. Además, utiliza Unsloth para afinar los modelos con datos personalizados.


Fuente: NVIDIA

コメント


Aplus_MARS_2107_Eng(1).png
gaming2

Siguenos

  • Facebook
  • Twitter
  • YouTube
  • Instagram
gaming

© 2016 Derechos Reservados a MasterbitzReviewHN

bottom of page