Al revisar la actual ola de IA, los sectores que primero captaron la atención en los mercados de capital se centraron casi exclusivamente en chips y memoria. La explicación es directa: la rápida evolución de los modelos grandes depende de capacidades de entrenamiento a gran escala, y la mayor limitación para ese entrenamiento es el suministro de potencia de cómputo de alto nivel. Cuantos más GPU tengas, mayor será la oportunidad de entrenar modelos más grandes, ofrecer servicios en la nube más potentes y crear ecosistemas más sólidos.
Sin embargo, a medida que la potencia de los chips individuales crece, surgen nuevos cuellos de botella rápidamente. Los sistemas de IA no solo necesitan "calcular rápido", también deben estar "bien alimentados". Esto ha elevado de forma acelerada la importancia estratégica de la memoria de alto ancho de banda (HBM). Para el entrenamiento de modelos grandes y la inferencia de alta densidad, el ancho de banda de la memoria ya no es un aspecto secundario: ahora es una variable clave que impacta directamente en el rendimiento, la latencia y la eficiencia energética.
Informes públicos recientes refuerzan esta lógica. Según medios como Reuters, la dirección de SK Group señaló que la escasez global de obleas podría persistir hasta 2030, y SK Hynix indicó que la demanda de HBM superará la oferta durante varios años. Esto muestra que el interés del mercado en chips y HBM no es solo una cuestión de sentimiento; la IA está cambiando de manera fundamental la dinámica de oferta y demanda de semiconductores de alto nivel.
Existen tres razones principales por las que chips y HBM se convirtieron en los hotspots iniciales:
Por ello, chips, HBM y el empaquetado avanzado han seguido ganando relevancia recientemente, en línea con los fundamentos de la industria y las preferencias del mercado.
Aunque chips y HBM siguen siendo fundamentales, el centro de gravedad de la infraestructura de IA ya comenzó a cambiar. Antes, el foco estaba principalmente en el entrenamiento de modelos; ahora, más recursos se destinan a la implementación de inferencia y operaciones de producción.
La razón es clara: el entrenamiento fija el límite superior de la capacidad del modelo, mientras que la inferencia determina la escala de comercialización. El entrenamiento requiere una inversión elevada y está reservado a unas pocas empresas líderes, mientras que la inferencia ocurre en cada interacción real de usuario. Escenarios como búsqueda, productividad en oficina, atención al cliente, publicidad, generación de código, generación de video, preguntas y respuestas en bases de conocimiento empresariales y automatización de agentes dependen de solicitudes continuas de inferencia.
Según el Informe de Estrategia de Aplicaciones Empresariales 2026 de F5, el 78 % de las empresas ya ejecutan inferencia de IA como capacidad operativa central y el 77 % considera que la inferencia—no el entrenamiento—es el principal escenario de actividad de la IA. Estos datos envían una señal clara: la IA está pasando del laboratorio a los sistemas de producción y la demanda se está desplazando de la “competencia por capacidad de modelo” a la “competencia por eficiencia operativa”.
Cuando la IA entra en los procesos empresariales reales, las preocupaciones clave pasan del tamaño de los parámetros del modelo a métricas operativas como:
Esto implica que la infraestructura de IA está evolucionando de clusters de entrenamiento únicos a sistemas de operación de inferencia más complejos, que incluyen:
Este cambio también es evidente en las estrategias de los proveedores de hardware. En su lanzamiento público de 2026, Google Cloud destacó aún más los productos TPU optimizados para inferencia, resaltando baja latencia, contexto largo y concurrencia masiva de agentes. La arquitectura de hardware está evolucionando de “primero entrenamiento” a “primero inferencia”.
Si antes la pregunta clave era “¿Hay GPU disponibles?”, ahora la pregunta urgente es “Una vez que tienes GPU, ¿puedes desplegarlas de forma fiable?”
Esto marca la segunda etapa de la infraestructura de IA. Los GPU siguen siendo activos centrales, pero solo cuando se combinan con centros de datos, energía, refrigeración, redes, conmutación y sistemas operativos se transforman en verdadera productividad. Es decir, el cuello de botella de la industria de IA ha pasado del hardware individual a la capacidad del sistema completo.
Varios acontecimientos públicos recientes destacan esta tendencia:
Esto significa que la industria de IA cada vez se parece más a un sistema de industria pesada, no solo a la expansión ligera de activos de la era de internet. La variable clave para la expansión futura se está desplazando de “¿podemos diseñar chips más potentes?” a “¿podemos asegurar rápidamente energía, terrenos, refrigeración y recursos de red?”
Desde la perspectiva sectorial, esta transformación trae al menos cuatro consecuencias:
Por ello, la competencia central en infraestructura de IA ya no se trata de avances puntuales, sino de colaboración a nivel de sistema.

Según información pública reciente y cambios en la cadena industrial, las direcciones de mayor crecimiento para la infraestructura de IA en los próximos 2–3 años se resumen en cinco categorías:
La ruta de transmisión puede resumirse en una línea principal clara:
El upstream determina “si se puede construir”, el midstream determina “si se puede desplegar” y el downstream determina “si se puede usar y seguir generando valor”.
En los últimos años, el mercado se volcó inicialmente hacia chips y HBM porque eran los sectores más escasos y ofrecían la historia de oferta y demanda más clara. Pero a medida que la IA pasa de una carrera de entrenamiento a la implementación de inferencia, la lógica sectorial ha cambiado de fondo. En adelante, el verdadero factor de crecimiento no es solo el rendimiento de chips individuales, sino la capacidad de toda la infraestructura para operar de forma cohesionada.
Un marco más estructurado para entender la etapa actual de la infraestructura de IA es:
Esto significa que la próxima ola de oportunidades en infraestructura de IA no se limitará a chips, sino que abarcará “infraestructura de inferencia + centros de datos + sistemas energéticos + interconexiones de alta velocidad + plataformas de gobernanza empresarial”.
A largo plazo, la IA está evolucionando de una industria de competencia de modelos a una industria de ingeniería de sistemas. Quienes logren crear sinergias entre potencia de cómputo, redes, energía y plataformas operativas estarán mejor posicionados para liderar la expansión del sector en los próximos 2–3 años.
Recordatorio de riesgo: Este artículo no constituye asesoramiento de inversión y es solo para fines informativos. Invierte con cautela.





