

В конце 2025 года Nvidia попала в заголовки новостей благодаря покупке AI-подразделения компании Groq за 20 миллиардов долларов, вложение, которое изначально удивило некоторых отраслевых аналитиков. Однако генеральный директор Nvidia, Дженсен Хуан, продемонстрировал четкое видение интеграции передовых технологий Groq в существующую AI-архитектуру Nvidia. Хуан объявил о слиянии низколатентных процессоров Groq с AI-инфраструктурой Nvidia, стремясь достичь трансформационных результатов. Эта стратегическая интеграция привела к появлению революционного акселератора Groq 3 LPX для инференса, который был представлен менее чем через три месяца после приобретения. AI-инференс — это процесс, при котором обученные AI-модели принимают решения в реальном времени на основе новых данных, являясь основой многих технологических прорывов. От чат-ботов, генерирующих уникальные ответы для пользователей, до автономных автомобилей, интерпретирующих данные сенсоров, инференс представляет собой важнейшую составляющую AI-функционала. Новый инференсный акселератор Groq 3 LPX использует LPU-технологию Groq, известную своей способностью работать с естественными языковыми входами и выходами с удивительной скоростью. Объединив интерактивность технологий Groq с высоким уровнем пропускной способности и производительностью графических процессоров Nvidia Rubin, новый акселератор обещает превосходные возможности для моделей AI-инференса. Несмотря на разницу в объеме памяти — 500 МБ у LPU Groq против 288 ГБ у графического процессора Rubin, Groq 3 LPU превосходит с пропускной способностью памяти в 150 ТБ в секунду по сравнению с 22 ТБ в секунду у графического процессора Rubin. Синергия между технологией LPU от Groq и графическим процессором Rubin от Nvidia позволяет акселератору Groq 3 LPX достигать непревзойденной производительности агентов AI-систем для языковых инференс-моделей. Nvidia утверждает, что это новшество обеспечивает в 35 раз большую пропускную способность на мегаватт для моделей искусственного интеллекта с миллиардными параметрами по сравнению с его предшественником, Blackwell NVL72. Такие достижения важны не только для снижения энергопотребления, злоазновной удержания конкурентоспособности на AI-рынке. Компании, стремящиеся оставаться на переднем крае технологий AI-чатботов, вероятно, обратят внимание на превосходную производительность, предлагаемую последними инновациями Nvidia, что приведет к увеличению продаж и доли рынка для технологического гиганта. Благодаря этой стратегической покупке и интеграции продукта, Nvidia закрепляет свою позицию лидера среди разработчиков чипов AI, демонстрируя свои непревзойденные способности в использовании передовых технологий для удовлетворения растущих рыночных потребностей.