

Microsoft ha presentado su último avance tecnológico: el chip de inferencia de IA Maia 200. Esta potente adición a la diversa infraestructura de IA de Microsoft está diseñada para admitir una variedad de modelos avanzados, notablemente incluyendo la última familia GPT-5.2 de OpenAI. La integración perfecta con Microsoft Azure amplía su utilidad, proporcionando capacidades extendidas a plataformas como Microsoft Foundry y Microsoft 365 Copilot. El equipo de superinteligencia de Microsoft está preparado para aprovechar el poder de Maia 200 para ejecutar tareas de aprendizaje por refuerzo y generar datos sintéticos, contribuyendo a mejorar sus modelos propietarios. Técnicamente hablando, el Maia 200 lleva los límites en comparación con sus competidores, como el Trainium y el Inferentia de Amazon, así como el TPU v4i y v5i de Google, según Scott Bickley, un asesor de Info-Tech Research Group. La fabricación del Maia 200 se basa en un nodo de proceso de última generación de 3nm, un marcado contraste con las tecnologías de 7nm y 5nm empleadas por Amazon y Google, marcando una superioridad en cómputo, interconexión y funcionalidad de memoria. Sin embargo, Bickley advirtió a los posibles usuarios que evalúan cuidadosamente el rendimiento real del chip dentro del ecosistema de Azure antes de realizar una transición significativa desde soluciones actuales como las de Nvidia. Es igualmente crítico para los clientes confirmar si la eficiencia de costos del 30% reportada por Microsoft se traduce en su precio de suscripción a Azure.