Meta reconfigura el mapa del hardware de IA y sacude al gigante de los semiconductores

Nvidia cae un 4,5% mientras Meta busca reducir su dependencia de las GPU apostando por los chips de IA de Google

La posible adopción de las TPU de Google por parte de Meta activa alarmas en el mercado y amenaza el dominio casi absoluto de Nvidia en el entrenamiento y la inferencia de modelos de inteligencia artificial

NVIDIA
NVIDIA 24H

Un movimiento que estremece al mercado de semiconductores

Nvidia sufrió una caída del 4,5% en bolsa tras conocerse que Meta está evaluando utilizar los chips de inteligencia artificial de Google, conocidos como TPU, para alimentar parte de sus modelos y centros de datos.
Este movimiento, aunque todavía exploratorio, ha sido suficiente para encender las alarmas en el mercado: Meta es uno de los mayores compradores del mundo de GPU especializadas en IA y cualquier cambio en su estrategia de abastecimiento altera por completo las previsiones de crecimiento de Nvidia.

La situación es particularmente sensible porque Nvidia ha sustentado su valoración bursátil —disparada desde 2023— en la expectativa de que la demanda de GPU para IA continuaría creciendo de forma exponencial. La idea de que uno de sus principales clientes busque alternativas rompe esa narrativa y abre la puerta a un escenario más competitivo y menos predecible.

La ofensiva de Google: de gigante del software a proveedor de hardware de IA

El golpe no procede solo de Meta, sino del actor que se encuentra detrás de esta posible transición: Google.
Durante años, la compañía mantuvo sus Tensor Processing Units (TPU) como una herramienta interna, diseñada para optimizar sus modelos de IA, su infraestructura cloud y servicios como YouTube o Google Search.

Sin embargo, Google ha comenzado a ofrecer sus TPU a clientes externos, iniciando una ofensiva que lo coloca directamente en el terreno que hasta ahora dominaban Nvidia y, en menor medida, AMD.
La tecnología TPU no solo es competitiva, sino que está altamente optimizada para cargas de trabajo de IA a gran escala, con ventajas en eficiencia energética, velocidad de procesamiento y coste por operación en entornos de inferencia.

La entrada de Google como proveedor externo altera el ecosistema completo: ya no es únicamente un consumidor gigantesco de hardware, sino un rival con una infraestructura global capaz de desplegar hardware propio a escala industrial. Este cambio estratégico coloca a Nvidia en una posición inesperada y añade presión en un mercado que hasta ahora controlaba con una superioridad casi indiscutida.

Meta mueve ficha: diversificación estratégica y presión por costes

Meta ha sido en los últimos años uno de los mayores compradores de GPU Nvidia del planeta. Entrenar modelos como Llama requiere decenas de miles de unidades de alto rendimiento, y la empresa ha invertido miles de millones en construir clústeres masivos basados en la arquitectura de Nvidia.
Pero incluso con esa dependencia, Meta lleva tiempo mostrando interés por reducir su exposición a un solo proveedor.

El mayor problema para Meta —y para cualquier empresa del sector— es el coste de cada entrenamiento.
Los chips de Nvidia son potentes, pero también extremadamente caros, y en un momento en que la IA se ha convertido en el núcleo del negocio, diversificar el hardware es una estrategia casi obligatoria.

La posibilidad de utilizar TPU de Google ofrece a Meta una vía para:

— reducir costes,
— acelerar despliegues,
— evitar cuellos de botella en el suministro,
— y ganar independencia tecnológica.

Aunque Meta no abandonará a Nvidia de la noche a la mañana, la sola idea de que parte de su hardware pueda trasladarse al ecosistema Google cambia por completo la relación de fuerzas.

Nvidia ante su mayor desafío desde el auge de la IA generativa

Durante años, Nvidia ha tenido una posición hegemónica gracias a:

— su ecosistema CUDA,
— el rendimiento de sus GPU,
— su red de socios cloud,
— y su dominio en infraestructuras de entrenamiento.

Pero la nueva etapa del mercado de IA ya no se centra únicamente en la potencia bruta.
Las empresas tecnológicas buscan:

eficiencia energética, escalabilidad, disponibilidad inmediata, reducción de costes y control del ecosistema completo.

Ahí es donde Google tiene una ventaja que Nvidia no puede igualar: controla la nube, el hardware, el software y los modelos de IA.
Si combina todo ello en una oferta integrada y competitiva, su entrada puede erosionar el dominio de Nvidia más rápido de lo que muchos esperaban.

Los analistas ya señalan que la caída del 4,5% podría ser solo el primer síntoma de un cambio de ciclo en el mercado de aceleradores de IA.

Un golpe psicológico para los inversores: el riesgo invisible del exceso de concentración

El mercado interpreta este movimiento como una advertencia: depender de que todas las grandes tecnológicas sigan comprando GPU Nvidia no es sostenible a largo plazo.
La diversificación de Meta podría ser el inicio de una tendencia más amplia que incluiría a Amazon, Microsoft o incluso OpenAI.
Las empresas buscan reducir vulnerabilidades y mejorar márgenes, y Nvidia es uno de los costes más altos en su cadena de infraestructura.

La caída del valor no es tanto un cuestionamiento del liderazgo tecnológico de Nvidia como un aviso sobre la fragilidad de su posición estratégica cuando uno de sus mayores clientes reconsidera su dependencia.

Un futuro más competitivo: el fin del monopolio de facto en chips de IA

El sector entra en una etapa donde convivirán múltiples arquitecturas: GPU, TPU y aceleradores personalizados.
Google no será el único que apueste por hardware propio: Amazon tiene Trainium e Inferentia; Meta desarrolla sus propios chips; Microsoft trabaja en aceleradores internos; y empresas como Cerebras, Graphcore o Groq buscan nichos de especialización.

En este nuevo tablero, Nvidia seguirá siendo un actor dominante, pero ya no será el único centro de gravedad del ecosistema de IA.
La irrupción de Google en el mercado comercial marca un antes y un después