

TOKYO — در سخنرانی کلیدی خود در اجلاس Open Source Summit Japan در روز دوشنبه، جیم زمِلین، مدیر اجرایی بنیاد لینوکس، استدلال کرد که «هوش مصنوعی ممکن است در یک حباب کامل نباشد، اما مدلهای زبانی بزرگ ممکن است چنین حبابی داشته باشند.» چرا؟ زمِلین با اشاره به اعداد سرمایهگذاری شگفتانگیزی که تیتر خبرها را به خود اختصاص دادهاند آغاز کرد. مورگان استنلی، به گفته او، برآورد میکند که بین حال و تا سال ۲۰۲۸ سه تریلیون دلار در دیتاسنترهای هوش مصنوعی صرف خواهد شد، و ابرشرکتهایی مانند آمازون، گوگل، متا و مایکروسافت حدود نیمی از این کل را تشکیل میدهند. «این سرمایهگذاری بیش از تولید ناخالص داخلی بسیاری از کشورهای کوچک است،» زمِلین به جمعیت حاضر گفت، با تأکید بر اینکه اکثر کسبوکارها و حتی اکثر کشورها نمیتوانند در چنین زیرساختهای سرمایهبر رقابت معنیداری داشته باشند. مهمتر از این است که، به گفته او، تقاضای انرژی مرتبط با بارهای استنتاج هوش مصنوعی با سرعت فزاینده در حال افزایش است. او به جهش ۵۰ برابر سال به سال در حجم استنتاج گوگل اشاره کرد، بهویژه استفاده از هوش مصنوعی در گوگل که از ۹.۷ تریلیون توکن در آوریل ۲۰۲۴ به بیش از ۴۸۰ تریلیون توکن در آوریل ۲۰۲۵ رسید. علاوه بر این، او با تکرار باور اندی جاسی، رئیس AWS، مبنی بر این که بزرگترین محدودیت رشد هوش مصنوعی امروز، نیرو است، گفت. زمِلین استدلال کرد که رونق هوش مصنوعی به عبارت دیگری داستانی درباره زیرساخت فیزیکی، GPUها، انرژی و دیتاسنترهاست نه صرفاً الگوریتمها، مدلها و نرمافزارها. با این وجود، با وجود این محیط سنگین از سختافزار، او گفت اهرم واقعی متنباز بودن در جای دیگری است: در لایههای مدل و زیرساخت نرمافزار. بهویژه در سال گذشته، مدلهای با وزن باز که از چین ظهور کردهاند، مانند DeepSeek، فاصلهٔ کارایی با مدلهای پیشروِ تجاری را پر کردهاند. زمِلین افزود: «همچنین میبینیم که این مدلهای با وزن باز برای تقطیر مدلهای صنعتی کوچکتر استفاده میشوند.» بهعنوان نمونه، به TinyLlama برای Llama 3 و DistilBert برای BERT اشاره کرد. اقتصاد هوش مصنوعی این ترکیب مدلهای با وزن باز و تکنیکهای تقطیر، اقتصاد بخش هوش مصنوعی را تغییر داده است. به گفتهٔ زمِلین، «متنباز تا حد زیادی با مدلهای پیشرو و مدلهای مالکیتی در ایالات متحده همسو شده است. مدلهای با وزن باز عموماً سه تا شش ماه از نظر کارایی عقبترند.» این برای کارهای AI با صرفه اقتصادی بیش از حد کافی است. زمِلین به نقل از اقتصاددان ارشد بنیاد لینوکس، فرانک ناگل، که اخیراً این ناهمسوگیری را کمیّتبندی کرده است، گفت که تحلیل ناگل نشان میدهد که اگرچه مدلهای باز بهطور قابل توجهی ارزانتر هستند و تا حد زیادی توانمند، مدلهای بسته هنوز ۹۵٪ از درآمد را به خود اختصاص میدهند و سالانه حدود ۲۴.۸ میلیارد دلار هزینه اضافی برای سیستمهای مالکیتی به وجود میآورند. بنابراین، «فکر میکنم در حال حاضر در یک حباب هوش مصنوعی نیستیم، اما ممکن است در یک حباب LLM باشیم.» همانطور که شرکتها آغاز به اولویتبخشی به استقرارهای کارآمد و مقرون به صرفه میکنند، او پیشبینی کرد که سال ۲۰۲۶ دوران «کارایی و عملکرد» را با اکوسیستمهای باز غالب خواهد کرد. Is PARK the New LAMP Stack? زمِلین همچنین به ظهور PARK استک اشاره کرد: PyTorch، AI، Ray و Kubernetes. (Ray یک چارچوب متنباز محاسبات توزیعی است برای سادهسازی مقیاسدهی کارهای AI و ML.) او باور دارد نسل AI که استک فناوری فردا را تعریف میکند، همانطور که استک LAMP عصر وب اولیه را تعریف کرد، PARK است. او ادعا کرد PARK به سرعت به پلتفرم پیشفرض برای استقرار AI در مقیاس تبدیل میشود. او این لحظه را با تکامل هسته لینوکس مقایسه کرد، جایی که فشار جمعی از سوی جامعهٔ توسعهدهندگان جهانی بارها کارایی را در سختافزارهای گوناگون بهبود داده است. در AI، ابزارهای متنباز مانند vLLM و DeepSpeed اکنون با استخراج کارایی از GPUها، مصرف انرژی را کاهش میدهند و هزینه به ازای هر توکن را پایین میآورند. «این چیزی است که متنباز واقعاً در آن خوب است،» گفت زمِلین. «بهبود قیمت به ازای هر توکن و هر کیلووات.» همچنین اینجا است که نرمافزار منبعباز به کاهش قیمت انرژی برای زیرساخت سختافزاری هوش مصنوعی کمک میکند. سپس زمِلین به لایهٔ نوظهورِ «عامِلمدار» (agentic) AI روی آورد، یعنی سیستمهایی که بهطور خودمختار برنامهریزی، استدلال و عمل میکنند. زمِلین توضیح داد که این استک همچنان در دوران نوجوانی است اما به سرعت حول پروتکلهای باز شکل میگیرد، از جمله پیادهسازیهای اولیهٔ پروتکل زمینه مدل (MCP) و سرورهای Agent2Agent (A2A). اگرچه اکنون تنها اقلیت سازمانها MCP را در تولید به کار میگیرند، زمِلین پیشنهاد کرد که سال ۲۰۲۶ موجی از اتوماسیون واقعی در سطح شرکتها پدید خواهد آمد: گردش کار چندعاملە، ارکستراسیون یادگیریشده، چارچوبهای اعتبارسنجی و ترکیبی تازه از سیستمهای قطعی و غیرقطعی. «هوش مصنوعی عامِلمدار نیازی ندارد که با اندازهٔ مدل تعیین شود،» تأکید کرد. «مسئله این است که چگونه راهحل را معماری میکنید.» هوش مصنوعی هنوز خیلی تغییر نکرده است زمِلین سخنرانی کلیدی خود را با تأکید بر این که با وجود هیاهو، «هوش مصنوعی هنوز خیلی تغییر نکرده است» به پایان برد. به باور او، چیزی که آن را تغییر خواهد داد همکاری باز است. او گفت متنباز از قفلشدن توسط فروشنده جلوگیری میکند، اعتماد و شفافیت را بهبود میبخشد و برای عصر آتیِ سیستمهای هوش مصنوعیِ قابلِ همکاری، «اتصالات جهانی» فراهم میکند. از آموزش تا استنتاج تا ارکستراسیون، او گفت بنیاد لینوکس قصد دارد بهعنوان مرکزی برای این کار همراه با آزمایشگاههای پژوهشی جهانی و شرکای صنعتی عمل کند. «ما واقعاً خیلی هیجانزدهایم که بخش کوچکی از این دنیا هستیم،» او گفت و وعده داد که هنوز خبرهای مهمی در راه است.