NVIDIA recibe otra alerta: Meta y Broadcom se alían para construir su propia infraestructura de IA a gran escala

NVIDIA recibe otra alerta: Meta y Broadcom se alían para construir su propia infraestructura de IA a gran escala

La verdadera batalla por el futuro de la inteligencia artificial no se libra en los escenarios de las conferencias, sino en los centros de datos. Meta, con su socio Broadcom, está construyendo un ecosistema propio de hardware para IA a una escala que habla por sí sola: no se trata de vender chips más potentes, sino de redefinir cómo se procesa la IA en servicios cotidianos. La alianza, que se extenderá hasta 2029, no solo incluye el diseño de nuevos aceleradores MTIA (Meta Training and Inference Accelerator), sino también empaquetado avanzado y redes Ethernet para conectar clústeres de IA. Es un movimiento que trasciende lo técnico: es una apuesta por la autonomía y el control de costos en una industria dominada hasta ahora por soluciones genéricas.

Meta ya ha presentado cuatro generaciones de MTIA, con un ritmo de desarrollo de una nueva versión cada seis meses. El MTIA 300, por ejemplo, ya opera en tareas de ranking y recomendaciones, pero las próximas versiones apuntarán directamente a la inferencia, es decir, a hacer que los modelos de IA funcionen de manera eficiente en aplicaciones masivas. El objetivo es claro: abaratir el despliegue de IA en servicios como WhatsApp, Instagram o Threads, evitando la dependencia exclusiva de GPU costosas y poco optimizadas para tareas repetitivas.

Infrastructura de IA

Este movimiento no es aislado. AWS con Trainium2, Google con TPU, Amazon con Trainium y Microsoft con Maia ya han demostrado que los grandes actores tecnológicos buscan recuperar el control sobre el costo de la inferencia. NVIDIA sigue siendo rey en el entrenamiento de modelos grandes, pero cuando se trata de implementar IA a escala masiva, lo que importa ya no es solo la potencia bruta, sino el consumo de energía, el ancho de banda de red y el espacio en los racks. Meta, con su alianza con Broadcom, se suma a esta tendencia: quiere sus propios chips diseñados para las tareas que repiten miles de millones de veces al día, donde cada watt y cada milisegundo cuentan.

Aunque Meta no cierra la puerta a proveedores externos —como NVIDIA o AMD—, el mensaje es inequívoco: el mercado se dividirá entre ecosistemas completos, no entre chips individuales. Si este modelo se consolida, los usuarios verán funciones de IA más rápidas y económicas, mientras que los fabricantes de aceleradores universales perderán parte del negocio más accesible. La pregunta ya no es quién tendrá el chip más potente, sino quién controlará el costo real de hacer que la IA funcione en el mundo real.

Fuente: Meta Platforms, Meta AI, Broadcom, Reuters