El informe Índice de inteligencia artificial (IA) 2026 de la Universidad de Stanford destaca que el progreso de la IA ya no se limita a los avances en software y sistemas, ya que la demanda se ha desplazado hacia la infraestructura de hardware a escala industrial.
Este estudio, que reseña el portal digital de la revista Business Today, indica que la capacidad global de computación de IA ha aumentado aproximadamente 3,3 veces al año, alcanzando 17,1 millones de GPU (Unidad de Procesamiento Gráfico) a principios de este 2026.
Publicidad
La revista resalta que este crecimiento es tan significativo que está impulsando a gobiernos y empresas tecnológicas a replantearse el suministro de energía, las redes eléctricas y las cadenas de suministro globales.
Google, Microsoft, Amazon y Meta, por ejemplo, invierten cientos de miles de millones de dólares en centros de datos e infraestructura eléctrica dedicados a la IA.
Publicidad
Crecimiento vertiginoso
El estudio universitario revela que la potencia de cálculo utilizada actualmente en IA es inmensa y crece a un ritmo vertiginoso, refiere la revista y apunta que desde 2022, la capacidad de procesamiento de IA se ha triplicado con creces cada año, alcanzando ahora el equivalente a 17,1 millones de chips de IA de alta gama como el H100 de Nvidia.
La capacidad de computación de IA a nivel mundial está dominada principalmente por gigantes tecnológicos como Nvidia, Google y Amazon.
- Inteligencia artificial consumirá el 5 % de electricidad en América Latina para 2035, advierte Olade
El informe de Stanford detalla que Nvidia proporciona más del 60 % de la capacidad de aceleración de IA del mundo, mientras que Google y Amazon controlan gran parte del resto.
Estas empresas invierten ‘fuertemente’ en infraestructura para asegurar el hardware necesario para chips personalizados, centros de datos y otros equipos, agrega el portal digital.
“El crecimiento de la capacidad de procesamiento sigue de cerca los patrones de inversión, donde las principales empresas de IA han aumentado su gasto de capital, y la infraestructura se ha convertido en el área de mayor crecimiento en la financiación privada de la IA”, afirma la investigación que reseña Business Today.
Costo energético en IA
La revista resalta que el informe de la Universidad de Stanford evidencia que los costos detrás del rápido crecimiento de la IA, que están asociados principalmente a la enorme cantidad de energía que se requiere para alimentar los centros de datos, entrenar modelos complejos y mantener cargas de trabajo computacionales.
A finales de 2025, detalla, los centros de datos de IA consumían a nivel mundial unos 29,6 gigavatios de energía, lo que equivale a la demanda máxima de electricidad del estado de Nueva York.
De esta cifra, unos 11,8 gigavatios eran utilizados por los chips de IA y el resto se destinaba a sistemas como la refrigeración, las redes y otros componentes del centro de datos, menciona el estudio.
No obstante, señala que la infraestructura de la IA va más allá de los chips, ya que los centros de datos de IA modernos también dependen de una pila de componentes en capas, que consiste en un ecosistema complejo y estratificado de hardware e infraestructura que funciona conjuntamente.
Estos complejos ecosistemas dependen en gran medida -puntualiza el estudio- de empresas tecnológicas como Taiwan Semiconductor Manufacturing Company (TSMC), Nvidia, SK Hynix, Samsung Foundry y otras, que desempeñarán diferentes funciones en cuanto a diseño, fabricación, ensamblaje.
Mientras se dan los últimos lanzamientos de modelos de IA, la verdadera batalla se libra -de acuerdo a la revista- en las fundiciones de semiconductores y las subestaciones eléctricas, donde se debe agregar nueva capacidad para satisfacer la demanda de energía relacionada con la IA. (I)