QNAP presenta el servidor de almacenamiento Edge AI QAI-h1290FX
- Masterbitz

- hace 2 días
- 4 Min. de lectura
A medida que la soberanía de los datos y el rendimiento de la computación se convierten en diferenciadores estratégicos para las empresas que adoptan la IA, la demanda de infraestructura de IA privada y local continúa creciendo. En respuesta a este cambio, QNAP Systems, Inc., un innovador líder en soluciones de computación, redes y almacenamiento, presentó hoy el QAI-h1290FX, un servidor de almacenamiento Edge AI de próxima generación diseñado para potenciar la implementación privada de grandes modelos de lenguaje (LLM), motores de búsqueda de generación aumentada de recuperación (RAG) y aplicaciones de IA generativa.
Construido con procesamiento AMD EPYC de grado servidor, con soporte para la aceleración de GPU NVIDIA RTX y doce ranuras U.2 NVMe/SATA SSD, el QAI-h1290FX ofrece una infraestructura de inteligencia artificial de alto rendimiento y local para organizaciones que exigen inferencia de baja latencia, privacidad de datos completa y control operativo, sin depender de la nube.
Impulsado por el sistema operativo de héroe QuTS basado en ZFS de QNAP, el QAI-h1290FX proporciona integridad de datos de nivel empresarial, instantáneas casi ilimitadas y deduplicación en línea. Es compatible con el acceso nativo a la GPU en contenedores a través de Container Station y GPU passthrough para máquinas virtuales a través de Virtualization Station. Los equipos de TI, los desarrolladores y los grupos de investigación pueden ejecutar de manera eficiente modelos de inferencia, aplicaciones de IA generativa y canalizaciones RAG con control total sobre el rendimiento y la asignación de recursos.
El QAI-h1290FX incluye una selección seleccionada de herramientas de IA precargada como AnythingLLM, OpenWebUI y Ollama, lo que permite una rápida implementación de flujos de trabajo privados de LLM. También se están integrando aplicaciones adicionales de IA como Stable Diffusion, ComfyUI, n8n y vLLM para ampliar la funcionalidad. Esto permite a los usuarios construir rápidamente plataformas de inteligencia artificial en el prem y automatizar flujos de trabajo en un entorno seguro, escalable y totalmente controlado.
"El QAI-h1290FX satisface la creciente demanda de infraestructura de IA en los prem", dijo Oliver Lam, Gerente de Producto de QNAP. "Queríamos eliminar la fricción en la construcción de una estación de trabajo de GPU, la instalación de herramientas y la configuración de entornos complejos. Con el QAI-h1290FX, los usuarios pueden implementar y ejecutar sus modelos de IA desde el primer momento, con control total sobre sus datos y cero dependencia en la nube".
Características principales de la QAI-h1290FX
Arquitectura de almacenamiento All-Flash: Doce ranuras SSD U.2 NVMe/SATA permiten una E/S ultrarrápida para la ejecución de modelos de IA de alta frecuencia y la transmisión de datos.
Procesador AMD EPYC 7302P de 16 núcleos: Proporciona 32 hilos de potencia de cálculo de clase servidor, ideal para la inferencia de IA, la virtualización y cargas de trabajo paralelas pesadas.
Arquitectura lista para GPU: admite la GPU opcional NVIDIA RTX PRO 6000 Blackwell Max-Q Workstation, con hasta 96 GB de memoria GPU y soporte para la aceleración CUDA, TensorRT y Transformer Engine, lo que aumenta significativamente el rendimiento para la inferencia LLM en las instalaciones, la generación de imágenes y las cargas de trabajo de aprendizaje profundo.
Entorno de IA en contenedores y gestión de recursos de GPU: admite Docker y LXD con una asignación intuitiva de GPU. Los usuarios pueden lanzar rápidamente herramientas de IA a través del centro de aplicaciones de IA integrado y asignar recursos de GPU sin configuración de línea de comandos.
Implementación completamente local sin dependencia de la nube: ejecute asistentes de chat impulsados por inteligencia artificial, motores de búsqueda de documentos o bases de conocimiento completamente en las instalaciones. Mantenga los datos confidenciales internos mientras acelera los flujos de trabajo de IA.
Redes de alta velocidad y arquitectura escalable: Viene con puertos duales de 25GbE y duales de 2.5GbE. Las ranuras PCIe admiten actualizaciones opcionales de 100GbE. Compatible con los gabinetes de expansión JBOD de QNAP para almacenamiento de datos de IA a gran escala.
Características de caso de uso
Asistentes Internos De IA / Interfaces De Chat On-Prem
Implemente interfaces de IA conversacional para la búsqueda de conocimiento, capacitación de empleados y preguntas y respuestas sobre políticas, completamente bajo su control.
Búsqueda de RAG empresarial
Aproveche las tuberías RAG privadas para realizar una búsqueda contextual rápida en todos los contratos, informes y documentos internos.
Generación de imágenes para equipos creativos
Ejecute la difusión estable o ComfyUI para flujos de trabajo de diseño impulsados por inteligencia artificial y la generación de contenido visual.
Automatización de TI impulsada por IA
Utilice n8n para automatizar tareas de inferencia, generación de contenido o alertas, integrando la IA sin problemas en los procesos de negocio.
Con el QAI-h1290FX, QNAP ofrece una ruta práctica y de alto rendimiento para implementar la IA generativa dentro de los límites de la empresa. Ya sea que se utilicen en operaciones legales, de recursos humanos, creativas o de TI, ayuda a los equipos a moverse más rápido, cumplir con las normas y mantener el control total sobre su estrategia de inteligencia artificial, justo al límite.
Fuente: QNAP















.png)



Comentarios