Micron supera las previsiones con unos ingresos de 11 320 millones de dólares gracias a la demanda de chips para IA
Micron Technology logra ingresos récord de 11.320 millones con un crecimiento del 46% interanual. La demanda explosiva de memoria HBM para IA impulsa márgenes superiores al 45%.
Micron Technology (NASDAQ: MU) ha logrado resultados financieros extraordinarios en el cuarto trimestre del año fiscal 2025, superando ampliamente las expectativas de los analistas y consolidándose como uno de los principales beneficiarios del auge de la inteligencia artificial. La compañía estadounidense reportó ingresos de 11 320 millones de dólares, un incremento del 46% interanual que refleja la sólida demanda de soluciones de memoria avanzada impulsada por las aplicaciones de IA.
Resultados sobresalientes del cuarto trimestre
Los resultados del cuarto trimestre fiscal 2025 de Micron superaron las proyecciones en todos los indicadores clave. La empresa registró ingresos de 11 320 millones de dólares, comparado con los 11 100 millones estimados por los analistas. Las ganancias por acción ajustadas alcanzaron 3,03 dólares, superando la expectativa de 2,86 dólares.
El beneficio neto GAAP se situó en 3 200 millones de dólares (2,83 dólares por acción diluida), mientras que el beneficio neto no-GAAP fue de 3 470 millones de dólares (3,03 dólares por acción). Los márgenes brutos mejoraron significativamente hasta el 45,7% en términos no-GAAP, comparado con el 39,0% del trimestre anterior y el 36,5% del mismo período del año pasado.
Impulso de la memoria de alto ancho de banda (HBM)
El crecimiento excepcional de Micron está siendo impulsado principalmente por la demanda explosiva de memoria de alto ancho de banda (HBM), un componente crítico para los chips de IA y las GPU avanzadas. Los ingresos por HBM de la compañía crecieron hasta alcanzar casi 2 000 millones de dólares en el cuarto trimestre, implicando una tasa anualizada de aproximadamente 8 000 millones de dólares.
La memoria HBM3E de Micron, que ofrece 50% más capacidad y 20% menor consumo energético que las generaciones anteriores, está completamente reservada para la producción de 2025 y alimenta las GPU Blackwell B200 de NVIDIA. La empresa ha desarrollado chips HBM de 12 capas que proporcionan ventajas significativas en términos de rendimiento y eficiencia energética para cargas de trabajo de IA.
Rendimiento por unidades de negocio
El desempeño de Micron por segmentos de negocio refleja la fortaleza diversificada de la demanda de memoria:
- Unidad de Memoria en la Nube: 4 540 millones de dólares en ingresos (frente a 3 390 millones del trimestre anterior)
- Centro de Datos Principal: 1 580 millones de dólares
- Móvil y Cliente: 3 760 millones de dólares
- Automotriz y Embebido: 1 430 millones de dólares
Los márgenes operativos también mostraron mejoras sustanciales en todas las divisiones, con la Unidad de Memoria en la Nube liderando con un margen operativo del 48%.
Perspectivas optimistas para 2026
Micron proporcionó una guía muy optimista para el primer trimestre del año fiscal 2026, proyectando ingresos de 12 500 millones de dólares (±300 millones), superando las estimaciones de los analistas de 11 940 millones. La empresa anticipa márgenes brutos superiores al 50% y ganancias por acción ajustadas de 3,75 dólares.
Para todo el año fiscal 2025, Micron logró ingresos récord de 37 380 millones de dólares, un aumento del 49% respecto al año anterior, con un beneficio neto GAAP de 8 540 millones de dólares.
Posición competitiva en el mercado de memoria
En el competitivo mercado de memoria global, Micron ha ganado terreno significativo, especialmente en el segmento HBM donde compite directamente con Samsung y SK Hynix. Según datos de Counterpoint Research, la cuota de mercado de Micron en HBM creció del 4% al 21% interanual en el segundo trimestre de 2025.
SK Hynix mantiene el liderazgo con el 62% del mercado HBM, mientras que Samsung ha perdido participación, cayendo al 17%. Esta dinámica refleja la capacidad de Micron para ejecutar estratégicamente y capitalizar la demanda de IA, posicionándose como el único fabricante de memoria con sede en Estados Unidos.
Inversiones estratégicas y expansión de capacidad
Para satisfacer la creciente demanda, Micron está expandiendo agresivamente su capacidad de producción. La empresa planea triplicar la producción de HBM a 60 000 obleas por mes para finales de 2025. Además, ha anunciado una inversión de 7 000 millones de dólares para construir una nueva fábrica de HBM en Singapur, que comenzará operaciones en 2026.
Las inversiones de capital neto fueron de 4 930 millones de dólares en el cuarto trimestre y 13 800 millones para todo el año fiscal 2025. La compañía también está convirtiendo instalaciones adquiridas en Taiwán en plantas listas para HBM y acelerando la apertura de su instalación en Hiroshima, Japón.
Impacto en el mercado accionario
El rendimiento excepcional de Micron ha sido recompensado por los inversores, con las acciones de la compañía aumentando aproximadamente un 80% desde principios de 2025. A pesar de este crecimiento sustancial, los analistas consideran que la valoración sigue siendo atractiva, con la acción cotizando a aproximadamente 20 veces las ganancias estimadas para 2025.
Brian Chin de Stifel Nicolaus estableció un precio objetivo de 173 dólares para Micron, suggeriendo un potencial incremento del 6,31% desde su precio actual. Algunos analistas proyectan que las acciones podrían alcanzar los 300 dólares si la empresa mantiene su trayectoria de crecimiento impulsada por la IA.
Conclusión
Los resultados del cuarto trimestre de Micron Technology demuestran la transformación exitosa de la empresa para capitalizar la revolución de la inteligencia artificial. Con ingresos récord de 11 320 millones de dólares y una guía optimista que supera las expectativas del mercado, Micron se posiciona como un actor fundamental en el ecosistema de infraestructura de IA. La combinación de liderazgo tecnológico en HBM, expansión estratégica de capacidad y sólida ejecución operacional sitúa a la empresa en una posición privilegiada para beneficiarse del crecimiento continuo de la demanda de memoria para aplicaciones de inteligencia artificial.