

ТОКИО — В своей ключевой речи на конференции Open Source Summit Japan в понедельник исполнительный директор Linux Foundation Джим Землин заявил, что «искусственный интеллект может и не быть в полном пузыре, но крупные языковые модели (LLMs) вполне могут оказаться в таком положении». Зачем? Землин начал с указания на впечатляющие суммы инвестиций, которые все чаще попадают в заголовки новостей. Он отметил, что Morgan Stanley оценивает, что до 2028 года на дата-центры ИИ будет потрачено около 3 триллионов долларов, причём гиперскейлеры, такие как Amazon, Google, Meta и Microsoft, будут занимать примерно половину от этой суммы. «Это больше инвестиций, чем ВВП многих небольших стран», — сказал Землин публике, подчеркивая, что большинству бизнесов и даже большинству стран трудно соперничать в таких капиталоёмких инфраструктурных развертываниях. Ещё важнее, по его словам, — спрос на энергию, сопутствующий ускоряющимся вычислениям по выводу (inference) ИИ. Он привёл пример: Google за год зафиксировала рост объёма вывода в 50 раз, в частности использование ИИ в Google, которое выросло с 9,7 трлн токенов в апреле 2024 года до более чем 480 трлн токенов в апреле 2025 года. Более того, он поддержал убеждение президента AWS Энди Джасси, что единственным по-настоящему ограничивающим фактором роста ИИ сегодня является энергия. Землин рассуждал, что бум ИИ по сути — история физической инфраструктуры, графических процессоров, энергии и дата-центров, а не только алгоритмов, моделей и программного обеспечения. Тем не менее, несмотря на такую аппаратно-ёмкую среду, Землин отметил, что реальное преимущество открытого исходного кода кроется не в этом, а в слоях инфраструктуры моделей и программного обеспечения. Особенно за прошедший год из Китая появились открытые весовые модели, такие как DeepSeek, которые сократили отставание по производительности по отношению к коммерческим передовым моделям. Землин добавил: «Мы также видим, что эти открытые весовые модели применяются для дистилляции меньших отраслевых моделей» — например, TinyLlama для Llama 3 и DistilBert для BERT. Экономика ИИ Это сочетание открытых весов моделей и техник дистилляции поменяло экономику сектора ИИ. По словам Землина, «открытый исходный код в значительной мере догнал передовые модели и проприетарные модели в США. Модели с открытым весом обычно отстают примерно на три–шесть месяцев». Это более чем достаточно для экономичной работы ИИ. Землин сослался на главного экономиста Linux Foundation Фрэнка Нагеля, чья последняя оценка подтверждает этот разрыв. По словам Землина, анализ Нагеля показывает, что хотя открытые модели существенно дешевле и почти не уступают по возможностям закрытым моделям, последние по-прежнему собирают 95% выручки, что приводит к приблизительной переплате в 24,8 миллиарда долларов в год за проприетарные системы. Поэтому «я думаю, что мы не находимся в пузыре ИИ», — сказал Землин. «Но мы можем оказаться в пузыре LLM». По мере того как предприятия начинают приоритетно выбирать эффективные и доступные развертывания, он предсказал, что 2026 год станет «эпохой производительности и эффективности», доминируемой открытыми экосистемами. Является ли PARK новым стеком LAMP? Землин также подчеркнул появление того, что он называет стеком PARK: PyTorch, AI, Ray и Kubernetes. (Ray — это открытая распределённая вычислительная платформа, упрощающая масштабирование рабочих нагрузок ИИ и ML.) Он считает, что будущее поколение ИИ, определяющее технологический стек завтрашнего дня, так же, как LAMP стек определил раннюю эпоху веба. Уже, по его утверждению, PARK быстро становится платформой по умолчанию для развёртывания ИИ в масштабах. Он сравнил этот момент с эволюцией ядра Linux, где давление глобального сообщества разработчиков неоднократно добивалось повышения эффективности на самых разных аппаратных средствах. В ИИ открытые инструменты, такие как vLLM и DeepSpeed, сейчас вытесняют больше производительности из GPU, сокращают потребление энергии и уменьшают стоимость за токен. «Это то, чем на самом деле хороши открытые технологии», — сказал Землин. «Повышение цены за токен и цены за киловатт-час». Именно здесь открытое ПО помогает снизить постоянно растущую цену на энергию аппаратной инфраструктуры ИИ. Затем Землин обратился к развивающемуся «агентическому» слою ИИ — системам, которые планируют, рассуждают и действуют автономно. Он описал стек, который всё ещё находится в подростковом возрасте, но быстро формируется вокруг открытых протоколов, включая ранние развертывания Model Context Protocol (MCP) и Agent2Agent (A2A) серверов. Хотя в настоящее время лишь меньшинству организаций удаётся использовать MCP в продакшне, Землин предположил, что к 2026 году наступит волна реальной корпоративной автоматизации: многогерольевые рабочие процессы, обученная оркестрация, рамки валидации и новые смеси детерминированных и недетерминированных систем. «Агентифицированный ИИ не обязан зависеть от размера модели», — подчеркнул он. «Главное — как вы спроектируете решение». «ИИ ещё не изменился настолько сильно» Землин завершил keynote, подчеркнув, что несмотря на ажиотаж, «ИИ ещё не изменился настолько сильно». Что может это изменить, по его мнению, — открытое сотрудничество. Открытые исходники, по его словам, исключают принуждение к одному поставщику, повышают доверие и прозрачность и предоставляют «универсальные коннекторы» для наступающей эры интероперабельных систем ИИ. От обучения до вывода и оркестрации Фонд Linux намерен выступать в качестве центрального узла для этой работы вместе с глобальными исследовательскими лабораториями и отраслевыми партнёрами. «Мы действительно очень рады быть маленькой частью этого мира», — сказал он, пообещав, что впереди нас ждут крупные анонсы.