DruckFin

Penguin Solutions eleva sus perspectivas anuales por el auge de la memoria, pero el retroceso en computación avanzada señala riesgos de ejecución en su giro hacia las "AI factories"

Resultados del segundo trimestre fiscal 2026 — 1 de abril de 2026

Penguin Solutions presentó un segundo trimestre mixto, pero con un balance neto positivo, al elevar sus previsiones de ingresos y ganancias para todo el año gracias a un robusto negocio de memoria, aunque simultáneamente redujo las expectativas para su segmento de Computación Avanzada. La compañía proyecta ahora un crecimiento de las ventas netas anuales del 12% en el punto medio, frente al 6% anterior, con una utilidad por acción (EPS) diluida no GAAP de $2,15, superando el objetivo previo de $2,00. Sin embargo, esta mejora general oculta una revisión a la baja significativa en el negocio de infraestructura de IA, que la dirección atribuyó a los tiempos de despliegue; una explicación que el mercado querrá verificar a medida que avance el año.

La memoria se convierte en el motor, y en el riesgo

La memoria integrada es ahora el principal motor de ingresos, representando el 50% de las ventas netas totales del segundo trimestre con $172 millones, un aumento del 63% interanual. La guía de crecimiento anual para este segmento se elevó a un rango de entre el 65% y el 75%, impulsada por una fuerte demanda relacionada con la IA en redes, telecomunicaciones y computación, así como por dinámicas de precios favorables en un entorno de oferta restringida. El CFO, Nate Olmstead, fue directo sobre el techo de crecimiento: "Llegar al extremo superior de esa perspectiva depende simplemente de nuestra capacidad para asegurar materiales, que es el único obstáculo que vemos en este momento". La compañía está utilizando su balance de forma agresiva para anticipar compras, con inventarios que subieron a $322 millones desde los $200 millones de hace un año y cuentas por pagar que se expandieron a $401 millones desde los $238 millones. Los días de inventario, situados en 51 frente a los 37 de hace un año, reflejan una acumulación deliberada y no una debilidad en la demanda, pero el aumento del capital de trabajo es real y merece seguimiento.

En cuanto a los márgenes, la dirección señaló que los márgenes brutos del segundo semestre enfrentarán presión. La perspectiva de margen bruto no GAAP para todo el año se redujo en un punto porcentual al 28%, más o menos 50 puntos básicos, debido a una mezcla de ventas con mayor peso de memoria y hardware de IA de menor margen, además de los crecientes costos de insumos de memoria en el negocio de "AI factories". Una dinámica de tiempos favorable entre las compras de inventario y los precios de envío impulsó los márgenes brutos del segundo trimestre al 31,2%, un aumento de 120 puntos básicos secuencialmente, pero Olmstead advirtió que este efecto se moderará a medida que los aumentos de precios se desaceleren. La memoria flash, que conlleva márgenes más altos dentro de la cartera, también contribuyó positivamente a la mezcla del trimestre.

Computación Avanzada: El problema honesto

Las ventas netas de Computación Avanzada de $116 millones cayeron un 42% interanual y fueron el segmento que obligó a la dirección a ajustar sus previsiones. La perspectiva anual para este segmento se revisó a un rango de entre menos 25% y menos 15% interanual, peor que las expectativas anteriores. La dirección ofreció dos explicaciones estructurales y una cíclica. Los factores estructurales son claros: la liquidación del negocio de alto margen Penguin Edge y la salida deliberada de las ventas de hardware de hiperescala representan, en conjunto, un lastre de aproximadamente 30 puntos porcentuales en el crecimiento interanual de Computación Avanzada. La explicación cíclica —que los ingresos van por detrás de las reservas de tres a seis meses, con cinco meses restantes en el año fiscal— es más difícil de verificar de forma independiente, pero fue consistente en las respuestas de la gerencia.

El CEO Kash Shaikh, en su primera llamada de resultados tras asumir el cargo a principios de febrero, reconoció el problema directamente: "La mayoría de las reservas que esperamos podrían no materializarse en ingresos para la segunda mitad de este año fiscal, pero creemos que tendrán un impacto positivo al entrar en la primera mitad del próximo año fiscal". Es una explicación razonable para los negocios de infraestructura basados en proyectos, pero traslada el reconocimiento de ingresos a un periodo posterior al año fiscal actual, algo que los inversores deben evaluar con cautela.

El negocio subyacente de IA/HPC (computación de alto rendimiento) que no es de hiperescala muestra un impulso genuino. Las ventas netas de este segmento crecieron un 50% interanual en la primera mitad del año fiscal 2026 y ahora representan más del 40% de los ingresos de Computación Avanzada, frente a aproximadamente el 20% en la primera mitad del año anterior. La compañía sumó cinco nuevos clientes de IA/HPC en el segundo trimestre —en servicios financieros, investigación biomédica y energía—, elevando el total del primer semestre a siete, frente a tres en el mismo periodo del año pasado. Sin embargo, los ciclos de despliegue de 12 a 18 meses significan que estos contratos se traducirán en ingresos en un cronograma que se extiende hasta el año fiscal 2027.

La estrategia de la plataforma "AI Factory" toma forma

Shaikh utilizó la llamada para articular un marco de plataforma de "AI factory" de seis pilares: el software de gestión de infraestructura ClusterWare, la nueva línea MemoryAI de sistemas optimizados para inferencia, los sistemas de computación avanzada, las arquitecturas de referencia OriginAI, servicios integrales y un ecosistema de socios anclado por NVIDIA, SK Telecom y Dell. El planteamiento estratégico es coherente y aborda una transición real del mercado. "El entrenamiento de modelos dependía en gran medida de la computación; la inferencia que impulsa la IA agente depende de la memoria y es sensible a la latencia", afirmó Shaikh, posicionando la herencia combinada de memoria y computación de la compañía como estructuralmente diferenciada.

La línea de productos MemoryAI, anunciada en el NVIDIA GTC en marzo, es la revelación de producto más importante. Incluye un servidor KV Cache basado en CXL —un sistema diseñado para almacenar contexto de inferencia y acelerar los tiempos de respuesta de los modelos de lenguaje extenso—, así como una cartera más amplia de sistemas de memoria escalables construidos sobre interconexiones Compute Express Link. Shaikh ofreció una explicación inusualmente accesible de la propuesta de valor: "Si estás escribiendo un libro y tienes que escribir una nueva frase sin tener memoria como componente de apoyo, tendrías que releer todo el libro antes de escribir la siguiente oración. Así es como está cambiando para las empresas". La analogía captura por qué el KV Cache se está volviendo arquitectónicamente importante a medida que la inferencia escala.

Están surgiendo pruebas de éxito. La compañía vendió servidores KV Cache basados en CXL a una institución financiera de primer nivel para su "AI factory" local —el mismo cliente también está comprando infraestructura de IA más amplia— y recibió un "pedido sustancial" de tarjetas CXL de una empresa de IA generativa que construye soluciones de inferencia. Estas son validaciones tempranas pero significativas de que la estrategia de producto está conectando con los compradores. Olmstead confirmó que se espera que las soluciones CXL tengan márgenes brutos materialmente más altos que el negocio principal de módulos de memoria, dada la diferenciación de software y hardware integrada en el producto.

Ingresos por memoria fotónica y Celestial AI

Penguin reveló haber recibido aproximadamente $32 millones por la venta de su inversión en Celestial AI tras la adquisición de esa empresa por parte de Marvell Technology en un acuerdo multimillonario. Celestial AI desarrollaba tecnología de interconexión fotónica para el escalado de memoria, la misma tecnología que sustenta lo que Penguin llama su Photonic Memory Appliance. La dirección tuvo cuidado de no posicionar esto como un revés estratégico, sino como una oportunidad futura, señalando que ahora se están "posicionando para el crecimiento futuro en este mercado" a medida que la relación con Marvell se desarrolla. Shaikh aclaró la arquitectura técnica: CXL proporciona una solución sólida a corto plazo para la agrupación de memoria entre GPU y CPU, el servidor KV Cache aborda los requisitos de latencia para ventanas de contexto de inferencia más grandes, y la conectividad fotónica representa el siguiente paso de escalado, ofreciendo mayor capacidad de memoria compartida que el CXL eléctrico por sí solo. Las tres capas son complementarias en lugar de dependencias secuenciales.

Asignación de capital y balance

La compañía terminó el segundo trimestre con $489 millones en efectivo y equivalentes y $450 millones en deuda, manteniendo una posición de caja neta. Con los bonos convertibles retirados y sin vencimientos de deuda programados hasta 2029, el balance proporciona una flexibilidad operativa significativa. La empresa recompró aproximadamente 1,7 millones de acciones por $32 millones en el trimestre, con $64,5 millones restantes bajo la autorización actual a finales de febrero. La expansión del capital de trabajo —impulsada por la acumulación estratégica de inventario de memoria y mayores cuentas por cobrar por el crecimiento del volumen de memoria— consumió efectivo en el trimestre, con un flujo de caja operativo de $55 millones frente a los $73 millones de un año antes. Los gastos de capital siguen siendo mínimos, con $2 millones para el trimestre, lo que refleja la naturaleza de activos ligeros del modelo de negocio.

Nuevo liderazgo y señales organizativas

Más allá de la llegada de Shaikh como CEO, la compañía nombró a Ian Colle como Chief Product Officer, aportando más de dos décadas de experiencia en infraestructura de IA y HPC, recientemente desde Amazon Web Services. La contratación es notable dada la intención declarada de Penguin de acelerar la innovación de productos en el software ClusterWare y la línea MemoryAI. Olmstead señaló que un nuevo Chief Revenue Officer que se incorporó hace un par de trimestres "ha hecho un buen trabajo añadiendo más rigor al proceso de planificación en nuestro negocio de IA". El reinicio del liderazgo combinado es alentador, pero también significa que los inversores están evaluando a un equipo ejecutivo en gran parte nuevo frente a una ambiciosa transición estratégica simultáneamente, un factor de riesgo difícil de cuantificar pero real.

Alineación con NVIDIA y posicionamiento competitivo

Cuando se le preguntó si los diseños de referencia de "AI factory" de NVIDIA representan una presión competitiva, Shaikh fue inequívoco al señalar que son complementarios: "Sus planos son más complementarios a nuestra plataforma de 'AI factory' y a los componentes que la conforman". La arquitectura OriginAI Factory de la compañía se superpone a los planos de NVIDIA, añadiendo software de gestión de clústeres, sistemas de memoria, servicios e integración de ecosistema. A medida que NVIDIA apunta cada vez más a clientes empresariales —una prioridad estratégica que, según Shaikh, se alinea directamente con el cambio de comercialización de Penguin—, la dinámica de asociación parece constructiva. La colaboración con Deepgram, que despliega servidores Dell PowerEdge con GPU NVIDIA RTX Pro 6000 Blackwell para IA de voz empresarial en salud y comercio minorista, ilustra cómo la asociación tripartita puede generar victorias reales en mercados verticales.

Segmento LED: Declive gestionado

El segmento de LED optimizado continúa en una trayectoria descendente controlada, con ventas netas en el segundo trimestre de $56 millones, un 7% menos interanual. La guía para todo el año se mantiene en un rango de menos 15% a menos 5%. La dirección describió el negocio como operando con "liderazgo enfocado y disciplina operativa dedicada", un lenguaje que señala un modo de mantenimiento en lugar de inversión. La recuperación de costos arancelarios proporcionó cierto apoyo al margen bruto en el segundo trimestre, aunque se espera que ese beneficio disminuya en la segunda mitad del año.

Análisis a fondo de Penguin Solutions

Marco arquitectónico y captura de valor

Penguin Solutions, tras completar su metamorfosis corporativa desde SMART Global Holdings a finales de 2024, opera como un arquitecto de infraestructura de inteligencia artificial de enfoque exclusivo. Más que limitarse a ensamblar hardware comoditizado, la compañía monetiza la inmensa fricción asociada al despliegue de computación a escala empresarial. Su modelo de negocio se segmenta en tres vectores principales: Computación Avanzada, Memoria Integrada y una división heredada de LED Optimizado. La Computación Avanzada actúa como punta de lanza, donde Penguin diseña, refrigera por líquido, despliega y gestiona activamente clústeres de computación de alto rendimiento. En lugar de simplemente entregar al cliente un lote de servidores, Penguin utiliza su software de orquestación patentado ICE ClusterWare para ofrecer fábricas de inteligencia artificial prevalidadas y llave en mano bajo la marca OriginAI. El motor de monetización aquí es bilateral: captura ingresos por integración de alto valor al inicio, junto con un flujo recurrente y cautivo de servicios gestionados y contratos de soporte durante el ciclo de vida. El segmento de Memoria Integrada funciona como un pilar adyacente crítico, aprovechando décadas de experiencia en módulos especializados para diseñar soluciones de memoria robustas y de alto margen que resuelven graves cuellos de botella de ancho de banda en entornos de alta carga computacional. Al gestionar tanto la infraestructura estructural del centro de datos como las restricciones de memoria específicas de los chips internos, Penguin ostenta una propuesta de valor verticalmente integrada única que genera márgenes brutos (no GAAP) que superan habitualmente el 31 por ciento, un marcado contraste frente a los márgenes de un solo dígito bajo de los fabricantes de equipos originales estándar.

Topografía del ecosistema: clientes y cadena de suministro

La base de clientes ha experimentado una evolución deliberada en los últimos tres años. Históricamente anclada en despliegues masivos y personalizados a hiperescala, destacando su rol como arquitecto de infraestructura principal para el Research SuperCluster original de inteligencia artificial de Meta, Penguin ha diversificado activamente su concentración de ingresos. Hoy, la matriz de demanda está fuertemente inclinada hacia entidades que no son hiperescaladores y que se enfrentan al imperativo repentino de desplegar modelos generativos. Esto incluye proveedores de servicios "neo-cloud" de segundo nivel, proyectos de fondos soberanos como SKT de Corea —que recientemente desplegó un clúster masivo Nvidia Blackwell—, instituciones financieras líderes de primer nivel y laboratorios nacionales especializados. Por el lado de la oferta, el ecosistema está estrechamente vinculado a los diseñadores de silicio dominantes. Como Elite Partner, Penguin depende en gran medida de Nvidia para las asignaciones de unidades de procesamiento gráfico (GPU), mientras mantiene simultáneamente asociaciones de ingeniería profundas con Advanced Micro Devices e Intel para la integración de unidades de procesamiento central (CPU) y memoria avanzada. Si bien esta concentración de proveedores introduce riesgos inherentes de asignación, la capacidad de Penguin para actuar como un conducto preferente y altamente confiable para llevar silicio complejo a entornos de producción consolida su indispensabilidad dentro de la jerarquía de proveedores.

Dinámica de cuota de mercado y el entorno competitivo

El mercado global de servidores de inteligencia artificial es actualmente un campo de batalla dominado por la escala masiva en un extremo y una feroz degradación de márgenes en el otro. Los datos de la industria indican que Dell Technologies lidera el grupo con aproximadamente un 20 por ciento de cuota de mercado, seguido de cerca por Hewlett Packard Enterprise con un 15 por ciento, el conglomerado chino Inspur con un 12 por ciento, Lenovo con un 11 por ciento y Supermicro cerca del 9 por ciento. Dentro de esta estructura oligopólica, Penguin Solutions opera como un insurgente más pequeño y altamente especializado. En lugar de competir por volumen bruto y una brutal reducción de precios contra fabricantes de diseño original (ODM) taiwaneses, Penguin apunta a la compleja capa intermedia del mercado. Este segmento comprende compradores empresariales y soberanos que carecen de los ejércitos de ingeniería interna de un Google o un Amazon y, por tanto, requieren un diseño conjunto intensivo, experiencia en refrigeración líquida y gestión de clústeres post-despliegue. Al centrarse en el costo total de propiedad y en un rápido "time-to-first-token" en lugar de en la factura de materiales de hardware inicial más barata, Penguin defiende su estrategia de precios premium. La realidad actual del mercado dicta que, mientras gigantes como Dell aprovechan vastos equipos de ventas directas para capturar el gasto general en TI corporativa, Penguin captura los despliegues de supercomputación altamente técnicos, limitados térmicamente y personalizados donde el fallo resulta catastrófico.

Vientos de cola de la industria y el vacío de gobernanza

La dinámica industrial más aguda que acelera la trayectoria de crecimiento de Penguin es la crisis de gobernanza sin precedentes que actualmente envuelve a un competidor principal. En marzo de 2026, el Departamento de Justicia de los Estados Unidos dio a conocer acusaciones contra ejecutivos vinculados a Supermicro, alegando un asombroso esquema multimillonario para introducir servidores de inteligencia artificial restringidos a compradores chinos. Este ajuste de cuentas legal, que se suma a irregularidades contables previas, ha alterado fundamentalmente el cálculo de adquisiciones para los compradores de infraestructura sofisticada. Los fondos soberanos, las instituciones financieras altamente reguladas y las agencias gubernamentales enfrentan riesgos de cumplimiento masivos y no pueden permitirse diseñar una arquitectura de misión crítica en torno a un proveedor comprometido. Esto ha creado un vacío de cumplimiento estimado en 15.000 millones de dólares en el mercado de nube de segundo nivel y empresarial. Penguin Solutions es actualmente la opción de infraestructura de inteligencia artificial más limpia capaz de absorber exactamente este perfil de demanda. La huida hacia la gobernanza está redirigiendo activamente las tuberías de adquisición hacia Penguin, proporcionando un viento de cola estructural que trasciende la demanda cíclica normal de hardware. Simultáneamente, la transición más amplia de centros de datos enfriados por aire a refrigeración líquida directa, necesaria por el consumo de energía del silicio de próxima generación, actúa como un filtro natural que elimina a los ensambladores de hardware de bajo valor y consolida aún más el poder de fijación de precios entre los integradores especializados.

Fosos estructurales en un panorama de hardware comoditizado

El ensamblaje de hardware carece notoriamente de fosos económicos, sin embargo, Penguin ha diseñado ventajas estructurales distintivas que lo aíslan de una carrera pura hacia el abismo. El primer foso es su pedigrí de 25 años en supercomputación y orquestación térmica. A medida que las densidades de potencia de los racks superan los 120 kilovatios para soportar nuevas arquitecturas de silicio, el despliegue de infraestructura ya no es un ejercicio de conectar servidores; es un ejercicio de dinámica de fluidos avanzada y gestión de energía a nivel de instalación. Los competidores que intentan pivotar hacia despliegues de inteligencia artificial de alta densidad enfrentan una curva de aprendizaje empinada y costosa en refrigeración líquida directa, mientras que Penguin posee diseños de referencia probados y validados en combate. El segundo foso es la "adherencia" definida por software. El ICE ClusterWare de Penguin proporciona el plano de control crítico que mantiene a miles de unidades de procesamiento gráfico dispares funcionando de forma sincrónica, prediciendo fallos de hardware y minimizando el tiempo de inactividad del clúster. Esta capa de software transforma una venta transaccional de hardware en una dependencia operativa continua. El foso final es la integración vertical a través de su división de Memoria Integrada. Mientras que los competidores deben obtener módulos de memoria de terceros sujetos a precios brutales del mercado al contado, Penguin diseña su propia memoria optimizada para aplicaciones, aislando su cadena de suministro y permitiéndole co-diseñar arquitecturas de servidor desde el silicio hasta la capa de software.

Catalizadores tecnológicos: desmantelando el "muro de memoria"

A medida que la industria de la inteligencia artificial pivota agresivamente desde el entrenamiento de modelos base hacia la ejecución de inferencia a escala empresarial persistente y flujos de trabajo agentes, el principal cuello de botella operativo se ha desplazado de la potencia de cómputo bruta al ancho de banda de memoria, un fenómeno conocido clínicamente como el "muro de memoria". A principios de 2026, Penguin capitalizó este punto de inflexión lanzando el primer dispositivo de memoria listo para producción de la industria que utiliza tecnología Compute Express Link, o CXL. Bajo la marca MemoryAI KV Cache Server, este hardware crea un grupo masivo y desagregado de memoria, de hasta 11 terabytes, al que puede acceder todo el clúster informático. Al descargar la caché de clave-valor de la memoria costosa y estrictamente limitada en las propias unidades de procesamiento gráfico, Penguin acelera drásticamente la latencia de inferencia y elimina los tiempos de inactividad del cómputo. Esta innovación es un multiplicador directo de ingresos; el segmento de Memoria Integrada registró una tasa de crecimiento interanual masiva del 63 por ciento en el segundo trimestre fiscal de 2026, impulsada directamente por la adopción de esta tecnología basada en CXL. Esto establece a Penguin no solo como un constructor de clústeres, sino como un inventor crítico de tecnologías que resuelven los cuellos de botella más costosos de la computación moderna.

Transición de liderazgo y ejecución estratégica

El historial de gestión refleja un giro estratégico exitoso, aunque complejo. El ex Director Ejecutivo, Mark Adams, orquestó la transformación crítica de la compañía, desprendiéndose de la identidad heredada de SMART Global Holdings, desinvirtiendo en activos geográficos no esenciales como la división brasileña de memoria y unificando los activos de computación avanzada bajo una marca empresarial cohesiva. En febrero de 2026, la compañía ejecutó una transición de liderazgo calculada, nombrando a Kash Shaikh como nuevo Director Ejecutivo. Shaikh aporta un pedigrí altamente relevante de sus cargos en firmas de ciberseguridad y optimización en la nube, donde se especializó en escalar soluciones de computación agente e impulsar la adopción global de software empresarial. Su mandato es transformar a Penguin de un proveedor de infraestructura a una compañía de plataformas de inteligencia artificial integral. La ejecución estratégica en los últimos años ha sido clínicamente disciplinada, como lo demuestra la liquidación deliberada del negocio heredado de computación Edge de bajo margen. Si bien esta liquidación crea un lastre mecánico en el crecimiento de los ingresos brutos desde una perspectiva óptica, elimina quirúrgicamente los ingresos dilutivos, lo que resulta directamente en la expansión constante de los márgenes operativos y las ganancias por acción subyacentes.

El cuadro de mando

Penguin Solutions se erige como un arquitecto estructuralmente vital, aunque crónicamente subestimado, de la economía informática moderna. Al combinar con éxito la ingeniería térmica compleja, el software de orquestación patentado y el diseño de memoria a medida, la compañía captura una economía desproporcionada en un mercado caracterizado por la comoditización y la compresión de márgenes. La postura estratégica actual es singularmente asimétrica; Penguin posee el pedigrí técnico para desplegar los clústeres informáticos más avanzados del mundo mientras actúa como el principal beneficiario de un cambio de adquisiciones masivo impulsado por el cumplimiento, derivado del colapso legal de su competidor especializado más cercano.

La traducción financiera de este posicionamiento es muy convincente. Con su segmento de memoria de mayor margen demostrando actualmente un crecimiento explosivo de dos dígitos impulsado por la adopción de tecnología estructural, y su cartera de cómputo expandiéndose agresivamente hacia verticales soberanas y empresariales, el negocio opera desde un punto de máximo apalancamiento operativo. Al descartar unidades heredadas dilutivas y centrarse exclusivamente en resolver la fricción aguda del escalado arquitectónico, el equipo directivo actual está ampliando activamente el foso competitivo de la compañía, asegurando una rentabilidad duradera en la carrera armamentista tecnológica de mayor intensidad de capital de la década.

Aviso legal: Este artículo es solo para fines informativos y no constituye asesoramiento de inversión ni una recomendación para comprar, vender o mantener ningún valor. Nuestros analistas ofrecen una cobertura detallada de eventos corporativos, pero pueden cometer errores; siempre realiza tu propia investigación. Los puntos de vista y opiniones expresados no reflejan necesariamente los de DruckFin. No hemos verificado de forma independiente toda la información utilizada aquí, y puede contener errores u omisiones. Antes de tomar cualquier decisión de inversión, consulta a un asesor financiero calificado. DruckFin y sus afiliados no asumen ninguna responsabilidad por cualquier pérdida que surja de la confianza en este contenido. Para los términos completos, consulta nuestros Términos de Uso.