

Tokio — En su discurso de apertura en Open Source Summit Japón el lunes, el director ejecutivo de la Fundación Linux, Jim Zemlin, sostuvo que «la inteligencia artificial puede que no esté en una burbuja completa, pero los grandes modelos de lenguaje [LLMs] quizá sí.» ¿Por qué? Zemlin comenzó señalando cifras de inversión asombrosas que han dominado los titulares. Morgan Stanley, señaló, estima que se gastarán 3 billones de dólares en centros de datos de IA entre ahora y 2028, y los hiperescaladores como Amazon, Google, Meta y Microsoft representarán aproximadamente la mitad de ese total. «Eso es más inversión que el PIB de muchos países pequeños», dijo Zemlin ante la audiencia, enfatizando que la mayoría de las empresas, e incluso la mayoría de las naciones, no pueden competir de manera significativa en este tipo de despliegues de infraestructura intensivos en capital. Más crucial, dijo, es la demanda de energía ligada a las cargas de inferencia de IA en aceleración. Citó un repunte de 50 veces interanual en el volumen de inferencia, concretamente el uso de IA en Google, que pasó de 9,7 billones de tokens en abril de 2024 a más de 480 billones de tokens en abril de 2025. Además, coincidió con la creencia de Andy Jassy, presidente de AWS, de que la mayor limitación para el crecimiento de IA hoy es la energía. Zemlin argumentó que el auge de IA es fundamentalmente una historia sobre infraestructura física, GPUs, energía y centros de datos, no solo sobre algoritmos, modelos y software. Sin embargo, a pesar de este entorno centrado en el hardware, Zemlin dijo que la verdadera palanca para el código abierto reside en otros lugares: en las capas de infraestructura de modelos y software. Específicamente, solo en el último año, los modelos de pesos abiertos que emergen desde China, como DeepSeek, cerraron la brecha de rendimiento con los modelos comerciales de frontera. Zemlin añadió: «También estamos viendo que esos modelos de peso abierto se utilizan para destilar modelos más pequeños específicos de la industria.» Por ejemplo, señaló TinyLlama para Llama 3 y DistilBert para BERT. La economía de la IA Esta combinación de modelos de pesos abiertos y técnicas de destilación ha cambiado la economía del sector de IA. Según Zemlin, «El código abierto en gran medida ha alcanzado a los modelos de frontera, a los modelos propietarios, en EE. UU. Los modelos de pesos abiertos suelen ir de tres a seis meses por detrás.» Eso es más que suficiente para un trabajo de IA económicamente rentable. Zemlin citó al economista jefe de la Fundación Linux, Frank Nagle, quien recientemente cuantificó ese desajuste. Según Zemlin, el análisis de Nagel muestra que, aunque los modelos abiertos son mucho más baratos y casi tan capaces, los modelos cerrados siguen capturando el 95% de los ingresos, dejando un gasto anual excesivo estimado de 24,8 mil millones de dólares en sistemas propietarios. Por lo tanto, «creo que no estamos en una burbuja de IA», dijo Zemlin. «Pero podríamos estar en una burbuja de LLM.» A medida que las empresas comienzan a priorizar implementaciones eficientes y asequibles, predijo que 2026 marcará «una era de rendimiento y eficiencia» dominada por ecosistemas abiertos. ¿Es PARK la nueva pila LAMP? Zemlin también señaló la aparición de lo que llama la pila PARK: PyTorch, AI, Ray y Kubernetes. (Ray es un marco de computación distribuida de código abierto para simplificar la escalabilidad de las cargas de trabajo de IA y aprendizaje automático [ML].) Cree que la generación de IA que definirá la pila tecnológica de mañana, así como la pila LAMP definió la primera era de la web. Ya, afirmó, PARK se está convirtiendo rápidamente en la plataforma predeterminada para el despliegue de IA a gran escala. Lo comparó con la evolución del kernel de Linux, donde la presión colectiva de una comunidad global de desarrolladores impulsó repetidamente mejoras de eficiencia en hardware diverso. En IA, herramientas de código abierto como vLLM y DeepSpeed están extrayendo más rendimiento de las GPUs, reduciendo el consumo de energía y el costo por token. «Esto es en lo que el código abierto es realmente bueno», dijo Zemlin. «Mejorar el precio por token y el precio por kilovatio.» También es donde el software de código abierto ayuda a recortar la creciente factura de energía de la infraestructura de hardware de IA. Zemlin pasó luego a la emergente capa «agéntica» de la IA, es decir, sistemas que planifican, razonan y actúan de forma autónoma. Zemlin describió una pila aún en su adolescencia pero que se está formalizando rápidamente alrededor de protocolos abiertos, incluyendo implementaciones tempranas de Model Context Protocol (MCP) y servidores Agent2Agent (A2A). Aunque solo una minoría de organizaciones usa MCP en producción hoy en día, Zemlin sugirió que 2026 traerá una ola de automatización empresarial real: flujos de trabajo multiagente, orquestación aprendida, marcos de validación y nuevas mezclas de sistemas determinísticos y no deterministas. «La IA agéntica no necesita estar determinada por el tamaño del modelo», enfatizó. «Se trata de cómo diseñas la solución.» La IA no ha cambiado tanto aún Zemlin cerró su discurso destacando que, a pesar del bombo, «la IA no ha cambiado tanto aún.» Lo que la cambiará, argumentó, es la colaboración abierta. El código abierto, dijo, evita el encierro de proveedores, mejora la confianza y la transparencia, y proporciona «conectores universales» para la próxima era de sistemas de IA interoperables. Desde el entrenamiento hasta la inferencia y la orquestación, dijo, la Fundación Linux tiene la intención de servir como un centro central para ese trabajo junto a laboratorios de investigación global y socios de la industria. «Estamos realmente, realmente emocionados de ser una pequeña parte de este mundo», dijo, prometiendo que aún quedan grandes anuncios por venir.