top of page
IG.png

Ubuntu incorporará una «integración inteligente de la IA» opcional en sus próximas versiones

  • Foto del escritor: Masterbitz
    Masterbitz
  • hace 3 días
  • 10 Min. de lectura

La respuesta de la comunidad Linux al advenimiento de los LLM y la IA generativa ha sido muy mixta, pero Ubuntu ha dejado más o menos clara su postura en un reciente hilo de discusión de proyectos sobre el futuro de la IA en Ubuntu. Lo esencial es que, a partir de Ubuntu 26.10 Stonking Stingray en octubre de 2026, el próximo lanzamiento importante después de 26.04, Ubuntu comenzará a dispersar nuevas características de IA en todo el sistema operativo. El líder técnico del proyecto, Jon Seager, afirma que en 2026, Ubuntu ha comenzado a alentar a sus desarrolladores a usar la IA internamente, incentivando a los ingenieros a "profundizar" y descubrir de manera efectiva qué funciona y qué no al medir la producción. A medida que aumenta la adopción interna, Canonical integrará la IA en el sistema operativo, pero señala que "la responsabilidad y la transparencia están en el centro de nuestro enfoque".


Este enfoque significa que, en lugar de meter ChatGPT en cada rincón de Ubuntu, Canonical priorizará los modelos de código abierto y la inferencia local fuera de línea siempre que sea posible. Canonical también prestará especial atención a los términos del modelo, en lugar de simplemente considerar si los pesos están abiertos. Las implementaciones de IA vendrán en forma de lo que Seager describe como características implícitas y explícitas: características implícitas que se integran directamente en el sistema operativo y mejoran su operación estándar, como voz a texto y OCR, mientras que las características explícitas son características centradas en la IA, como flujos de trabajo actónicos y automatizados con IA. "Las características implícitas de la IA mejorarán lo que Ubuntu ya hace; la IA explícita se introducirá como nuevas características". La declaración completa sobre cómo Canonical implementará la IA en Ubuntu sigue.

 

¿Jon SeagerA medida que avanza 2026, las herramientas basadas en LLM son cada vez más omnipresentes. La adopción en toda la industria tecnológica ha sido mixta, tanto en términos de qué proyectos están adoptando las tecnologías de "IA" como en la forma en que las empresas están estructurando su adopción. Como resultado, me preguntan con frecuencia sobre lo que Canonical y Ubuntu harán (o no) para incorporar la IA.En este post detallaré cómo la IA jugará un papel en el futuro de Canonical y Ubuntu, mi marco para clasificar las características de la IA en el sistema operativo, y cómo Canonical se está acercando a la adopción interna, porque creo que eso ayudará a pintar una imagen de nuestra intención.La conclusión es que Canonical está aumentando su uso de herramientas de inteligencia artificial de una manera enfocada y de principios que favorece los modelos de peso abierto con términos de licencia que se sienten más compatibles con nuestros valores, combinados con arneses de código abierto. Las características de la inteligencia artificial aterrizarán en Ubuntu durante el próximo año, ya que sentimos que son de suficiente madurez y calidad, con un sesgo hacia la inferencia local por defecto.Las características de IA en las características de Ubuntu vendrán en dos formas: primero como un medio para mejorar la funcionalidad del sistema operativo existente con modelos de IA en segundo plano, y últimamente en forma de características y flujos de trabajo "nativos de IA" para aquellos que los desean.Adopción de IA en CanonicalEste año Canonical ha comenzado un impulso más deliberado hacia la educación y el desarrollo de la competencia con herramientas de inteligencia artificial. No estamos estableciendo métricas superficiales sobre el uso de tokens, o porcentajes de código escrito con IA, sino más bien incentivando a los ingenieros a experimentar y comprender dónde las herramientas de IA agregan valor. En lugar de forzar una sola pila de IA de elección temprana, estamos incentivando a los equipos a elegir "algo diferente" y profundizar, por lo que aprendemos más como una organización en los próximos seis meses.Hay ciertas tareas para las cuales las herramientas de IA son una obviedad. En estos casos, las herramientas de IA pueden funcionar de forma autónoma y producir excelentes resultados, particularmente cuando el trabajo es de naturaleza mecánica y se les da el contexto correcto. En otros casos, luchan. Mi esperanza es que en los próximos meses, todos nuestros ingenieros crezcan para sentirse competentes y fluidos mientras conducen toda la gama de herramientas de inteligencia artificial: usarlas donde son efectivas y evitarlas donde no lo son.No voy a medir a las personas en Canonical por la cantidad que utilizan la IA, sino que continuaré midiéndolas sobre qué tan bien cumplen. La IA no va a tomar trabajos de ingeniería de software en Canonical, pero otros ingenieros de software que son altamente competentes con herramientas de inteligencia artificial ciertamente podrían. El uso de la IA por sí mismo no es un objetivo constructivo para nada más que aumentar la exposición, y rara vez produce buenos resultados en el código de producción. Se usa donde está bien optimizado, y de manera que se puede controlar y revisar, puede ser altamente efectivo. He visto la inteligencia artificial utilizada con gran efecto como una ayuda educativa, para acelerar las tareas de desarrollo, para crear prototipos inmersivos como una ayuda de diseño, y para ayudar con la solución de problemas difíciles o monótonos.Pisando con cuidadoLa responsabilidad y la transparencia son el núcleo de nuestro enfoque. Muchos de ustedes habrán leído informes de solicitudes de extracción "slop" y contribuciones que se han lanzado a proyectos de código abierto con poco cuidado, consideración o pensamiento. Esta nunca ha sido una forma aceptable de contribuir, y no es absolutamente lo que se está fomentando en Canonical.También existe una creciente preocupación de que la dependencia excesiva de estas herramientas podría obstaculizar la capacidad de las personas para aprender nuevos conceptos. Esto es posible, y tal vez incluso más que cuando se hizo el mismo punto sobre StackOverflow hace unos años, pero creo que se reduce a la cultura y las expectativas del equipo. En mi experiencia, he encontrado que los LLM son una excelente herramienta de aprendizaje. Necesitaremos ayudar a nuestros colegas y colaboradores de código abierto a desarrollar buenos instintos entrenándolos para que sean escépticos y no confíen ciegamente en lo que sale de la máquina, y para ayudarlos a comprender dónde los LLM son más poderosos y más limitados.Las organizaciones también tienen ahora un conjunto adicional de herramientas y proveedores para auditar. Dependiendo de su industria y base de clientes, puede haber limitaciones en qué modelos y herramientas se pueden usar (si las hay en este momento), pero ahí es donde el acceso a herramientas locales de inferencia fuera de línea y personalizadas para que los LLM llamen podría ser invaluable.También reconozco que el "código abierto" puede ser un término cargado en el contexto de los LLM. El acceso a los pesos del modelo es significativo, pero no es equivalente al tipo de transparencia a la que la comunidad de código abierto se ha acostumbrado. Cuando seleccionamos modelos para poner a disposición en Ubuntu, intentaremos tener una visión equilibrada de los términos de la licencia del modelo, no solo si los pesos están abiertos. Desde una perspectiva de Ubuntu, nuestro sesgo será hacia la inferencia local, los arneses de código abierto y los modelos con términos de licencia que son compatibles con nuestros valores, con interfaces claramente definidas a servicios externos donde las personas los requieren.Dada la tasa de adopción, es probable que continuemos viendo un uso cuestionable durante algún tiempo. Parte de nuestro papel como miembros de larga data de la comunidad de código abierto es mantenerse a la vanguardia de lo que se puede lograr con las herramientas de inteligencia artificial, y luego liderar con el ejemplo. Deberíamos demostrar lo que se puede lograr a través del uso responsable y reflexivo, y guiar a los nuevos contribuyentes hacia mejores prácticas que los verán usar estas herramientas para un efecto sorprendente, y contribuir a la próxima ola de código abierto en los próximos años.Características implícitas vs. de IA explícitaEn las últimas semanas he comenzado a desarrollar un marco para ayudar a pensar en diferentes tipos de adopción de IA dentro de Ubuntu. En el centro de eso está la idea de características explícitas e implícitas de la IA.La IA implícita se trata de mejorar las características existentes del sistema operativo con el uso de la IA, sin introducir nuevos modelos mentales para los usuarios. Un ejemplo emocionante de esto es llevar el discurso al texto de primera clase y el texto a voz a Ubuntu. No los veo como "características de inteligencia artificial", los veo como características críticas de accesibilidad que se pueden mejorar dramáticamente a través de la adopción de LLM con inconvenientes mínimos (si los hay). Gran parte de esto se puede lograr con la inferencia local utilizando arneses de código abierto y modelos de peso abierto, que son precisos y eficientes para este caso de uso.Las características de la IA explícita son aquellas que son más obviamente centradas en la IA, y podrían incluir flujos de trabajo más "agénticos". Esto podría ser para crear nuevos documentos o aplicaciones, automatizar flujos de trabajo de solución de problemas o incluso tareas de automatización personal, como sesiones informativas diarias específicas. Con esto viene una gran responsabilidad para nosotros para garantizar que los controles de seguridad y confinamiento pertinentes estén en su lugar para evitar efectos secundarios no deseados.Las características implícitas de IA mejorarán lo que Ubuntu ya hace; la IA explícita se introducirá como nuevas características.Acceso a la inferencia localHe escrito sobre instantáneas de inferencia en el pasado (y he presentado más detalles en un reciente encuentro de AI Native Dev), pero la conclusión es que las instantáneas de inferencia proporcionan un acceso local simplificado a la inferencia con modelos que han sido optimizados específicamente para su hardware. La combinación de la adopción generalizada de Ubuntu y la asociación de Canonical con compañías de silicio nos ha permitido ofrecer una capacidad de inferencia fundamental de alto rendimiento para la distribución con muy pocos gastos cognitivos para nuestros usuarios. Es más fácil instalar nemotron-3-nano que hacer malabares con Ollama, Huggingface y un mar de cuantificaciones de modelos, y el snap le dará los bits optimizados para su silicio particular si esa compañía de silicio los ha contribuido.Los snaps de inferencia están sujetos a las mismas reglas de confinamiento que otros snaps, lo que debería dar a los usuarios la confianza de que los modelos no tienen acceso indiscriminado a sus máquinas o datos.Anteriormente, para beneficiarse de toda la potencia de los LLM, tenía que sesgar los modelos de parámetros más altos. Los desarrollos recientes en modelos como Gemma 4 y Qwen-3.6-35B-A3B demuestran capacidades avanzadas como las llamadas a herramientas que permiten a los LLM buscar en la web, interactuar con API externas y sistemas de archivos, solucionar problemas de sistemas en vivo y, fundamentalmente, sobre temas que se encuentran fuera de sus datos de capacitación iniciales.Lo que viene después de las instantáneas de inferencia es la escala: aumentaremos nuestros equipos para asegurarnos de mantenernos al día con los últimos lanzamientos de modelos y aumentar el número de variantes optimizadas para tantas plataformas de silicio como sea posible.Sistema operativo consciente del contextoMás allá de características como texto a voz o lectura de pantalla mejorada, los usuarios están cada vez más acostumbrados a trabajar con agentes. Me encanta la idea de que todo el poder y la capacidad que Linux ha adquirido en los últimos años podrían ser más accesibles para más personas.Estamos haciendo planes sobre cómo integrar flujos de trabajo agénticos en Ubuntu para aquellos que lo desean de una manera que se sienta de buen gusto, alineado con nuestra base de usuarios y respetuoso de nuestros valores de privacidad y seguridad. Lo que está claro incluso en esta etapa temprana es que las inversiones que hemos realizado en envases confinados con Snaps, y parte de la consolidación que hemos realizado de las funciones centrales del sistema en Ubuntu realmente nos ayudará a cumplir con este objetivo de manera segura.El ecosistema de escritorio Linux está famosomente fragmentado, y de alguna manera esa fragmentación ha contribuido a su éxito. A lo largo de los años, muchas personas inteligentes se han sentido motivadas para arañar una picazón y han creado un excelente software para hacerlo, pero la integración de todas esas partes siempre ha sido el desafío y esto puede llevar a una experiencia frustrante para algunos usuarios. Si tenemos cuidado sobre cómo empleamos los LLM en un contexto de sistema, podrían desmitificar las capacidades de una estación de trabajo Linux moderna y llevarlas a un público mucho más amplio.Pero, ¿por qué limitar esto al escritorio? Si usted es un ingeniero de confiabilidad del sitio (SRE) que administra una flota de máquinas Ubuntu, hay innumerables formas en que un LLM podría ayudar, ya sea interpretar registros durante un incidente para acelerar el análisis de causa raíz o realizar una serie de tareas de mantenimiento programadas con estrictos rieles de protección. Me gustaría construir una capacidad que se sienta como en casa en cualquier máquina Ubuntu con la interfaz adecuada para el tipo de máquina.La delegación de elementos de ingeniería de confiabilidad del sitio a un agente no necesariamente introduce una clase de riesgo completamente nueva; debe heredar las limitaciones de los sistemas de producción existentes. Los entornos de producción bien administrados ya dependen de estrictos controles de acceso, pistas de auditoría y una clara separación entre observación y acción. Mi objetivo es que Ubuntu exponga las primitivas necesarias para que los agentes operen dentro de los límites existentes, ya sea un análisis de solo lectura, permisos de alcance estricto para cualquier acción y una completa auditabilidad de las decisiones y los resultados. En ese sentido, el desafío se trata menos de "confiar en los agentes", y más de construir confianza en las mismas barandillas que ya aplicamos a cualquier sistema de producción.Imagine poder pedirle a su máquina Linux que solucione problemas en un problema de conexión Wi-Fi, o que levante una forja de software de código abierto que esté preconfigurada, segura y accesible sobre TLS. Uno podría imaginar fácilmente el uso de una capacidad como una puerta de enlace para controlar su máquina Linux desde otros dispositivos a través de una variedad de medios, ya sea una aplicación móvil, mensajes de texto, comandos de voz o de otro tipo.Eficiencia y rendimientoEl acceso a la inferencia local está algo ligado al acceso al hardware capaz. Estamos haciendo todo lo posible para que sea fácil consumir modelos de peso abierto en hardware de productos básicos, pero estos modelos de parámetros más pequeños aún no pueden competir con los modelos más grandes para muchas tareas. Veo esto como un tema mayoritariamente temporal. Siempre habrá modelos más grandes y modelos más pequeños, y aquellos con más computación podrán hacer más que aquellos con menos computación, pero la brecha comenzará a cerrarse.Los fabricantes de silicio de todo el mundo están construyendo conduciendo silicio de grado de consumo con capacidades de inferencia en constante mejora, y lo que hoy parece que solo es posible con el acceso a una fábrica de IA fronteriza será significativamente más accesible en los próximos meses y años.Debemos considerar tanto el rendimiento como la eficiencia en la conversación. Es fácil comparar tokens por segundo en un modelo grande en la nube con lo que se ve en su máquina local, pero la ventaja de los aceleradores nativos para estas cargas de trabajo es que el consumo de energía también caerá dramáticamente, lo que nuevamente reduce la barra de entrada. No vamos a llegar de la noche a la mañana, pero me gustaría que Ubuntu estuviera listo cuando estemos allí, y nuestras asociaciones de silicio y las iniciativas de habilitación juegan un papel cada vez más importante en hacer eso una realidad.ResumenA lo largo de 2026 estaremos trabajando para permitir el acceso a la IA fronteriza para los usuarios de Ubuntu de una manera que sea deliberada, segura y alineada con nuestros valores de código abierto. Al centrarse en la combinación de educación para nuestros ingenieros, nuestro conocimiento existente de la construcción de sistemas resistentes y nuestras asociaciones de fortalecimiento del silicio, ofreceremos una inferencia local eficiente, potentes características de accesibilidad y un sistema operativo consciente del contexto que hace que Ubuntu sea significativamente más capaz para las personas que confían en élUbuntu no se está convirtiendo en un producto de IA, pero puede ser más fuerte con una integración reflexiva de la IA.



Comentarios


Aplus_MARS_2107_Eng(1).png
undefined - Imgur(1).jpg

Siguenos

  • Facebook
  • Twitter
  • YouTube
  • Instagram
gaming

© 2016 Derechos Reservados a MasterbitzReviewHN

bottom of page