Volver al inicio Meta presenta cuatro generaciones de chips de IA personalizados MTIA para reducir su dependencia de Nvidia Tecnología

Meta presenta cuatro generaciones de chips de IA personalizados MTIA para reducir su dependencia de Nvidia

Publicado el 21 de marzo de 2026 856 vistas

Meta ha presentado oficialmente cuatro generaciones de sus chips personalizados MTIA (Meta Training and Inference Accelerator), lo que representa una importante escalada en los esfuerzos de la empresa por reducir su dependencia de proveedores externos de chips como Nvidia y AMD. El anuncio, realizado el 11 de marzo de 2026, introduce los procesadores MTIA 300, 400, 450 y 500, cada uno diseñado para gestionar cargas de trabajo de inteligencia artificial cada vez más exigentes. Esta decisión coloca al gigante de las redes sociales junto a otros hiperescaladores como Google, Amazon y Microsoft en la carrera por desarrollar silicio propietario dedicado a la inteligencia artificial.

El MTIA 300, que ya se encuentra desplegado en los centros de datos de la compañía, sirve como la base de esta familia de procesadores. Está optimizado para entrenar modelos de IA más pequeños utilizados en sistemas de clasificación de contenido y recomendaciones, tareas que son fundamentales para la experiencia de miles de millones de usuarios con los feeds, anuncios y contenido sugerido de la plataforma. Aunque no está diseñado para las tareas de IA generativa más intensivas computacionalmente, el MTIA 300 ha demostrado su valor al manejar el enorme volumen de solicitudes de inferencia que impulsan las interacciones diarias de los usuarios.

Partiendo de esa base, el MTIA 400 representa un avance significativo. Es el primer chip desarrollado por la empresa con niveles de rendimiento bruto competitivos con los principales productos comerciales disponibles actualmente en el mercado. El MTIA 400 utiliza una arquitectura de doble chiplet de cómputo, lo que le permite soportar cargas de trabajo de IA generativa que anteriormente eran gestionadas exclusivamente por hardware de terceros. Este chip marca el punto en el que el silicio interno de la empresa pasa de un papel complementario a una alternativa genuina para tareas exigentes de procesamiento de inteligencia artificial.

El MTIA 450 impulsa aún más el rendimiento al duplicar el ancho de banda de la memoria de alto rendimiento (HBM) en comparación con el MTIA 400. Según la compañía, este ancho de banda HBM supera al de los principales productos comerciales existentes, proporcionando una ventaja significativa para las operaciones de IA que requieren un uso intensivo de memoria. El aumento del ancho de banda permite que el chip alimente datos a sus núcleos de procesamiento con mayor rapidez, reduciendo los cuellos de botella que pueden ralentizar tanto el entrenamiento como la inferencia de grandes modelos de lenguaje y otras aplicaciones de IA generativa.

De cara al futuro, el MTIA 500 incrementa el ancho de banda HBM en un 50 por ciento adicional respecto al MTIA 450, posicionándolo como uno de los chips de inferencia de IA generativa más eficientes en desarrollo. La empresa se ha comprometido con un ritmo de lanzamiento agresivo, con una nueva generación de chips llegando aproximadamente cada seis meses. Este ciclo de iteración rápida está diseñado para garantizar que el silicio personalizado de la compañía mantenga el ritmo frente a las demandas exponencialmente crecientes de la infraestructura de inteligencia artificial.

Los analistas del sector han señalado que el ritmo de desarrollo demostrado por la hoja de ruta MTIA es notable, especialmente dada la complejidad de diseñar aceleradores de IA competitivos. La transición del MTIA 300 ya desplegado al próximo MTIA 500 abarca una amplia gama de capacidades, desde la clasificación de contenido hasta la inferencia de IA generativa de alta gama. Si estos chips pueden realmente igualar o superar el rendimiento de los productos establecidos de Nvidia y AMD a gran escala sigue siendo una incógnita, pero el compromiso con el desarrollo de silicio personalizado envía una señal clara sobre la dirección de las inversiones en infraestructura de IA entre las mayores empresas tecnológicas del mundo.

Fuentes: CNBC, Tom's Hardware, The Register, Meta AI Blog

Comentarios