SK Hynix, leader mondiale nella produzione di chip di memoria ad alta larghezza di banda (HBM), ha lanciato l’allarme più chiaro sullo stato attuale del boom dell’Intelligenza Artificiale: la sua capacità produttiva per i semiconduttori cruciali per l’AI è virtualmente esaurita fino alla fine del 2026. Questa scarsità, unita all’impennata dei prezzi, ha spinto l’azienda coreana a risultati finanziari da record, con l’utile operativo nel terzo trimestre 2025 in crescita del 62% rispetto all’anno precedente.  

La HBM, che impila i chip verticalmente per fornire l’immensa velocità richiesta dal training e dall’inference dei Modelli Linguistici di Grande Scala (LLM), è il collo di bottiglia strategico per le GPU di Nvidia, principale cliente di SK Hynix. La domanda è guidata dagli Hyperscaler (come Amazon, Google e Microsoft) e da progetti monumentali: OpenAI e Nvidia, ad esempio, hanno siglato una partnership per implementare almeno 10 gigawatt di sistemi AI di prossima generazione, la cui prima fase è prevista per la seconda metà del 2026.  

Per far fronte a questa fame insaziabile di memoria, SK Hynix sta investendo massicciamente, con piani di spesa in conto capitale fino a 74,8 miliardi di dollari entro il 2028, l’80% dei quali destinati alla ricerca e produzione di HBM. Inoltre, l’azienda sta già finalizzando accordi di fornitura per il volume del 2026 in anticipo, al fine di garantire stabilità commerciale e prevedibilità delle vendite.

Il Paradosso del 2026: Scarsità vs. Sovraofferta

Nonostante l’attuale leadership indiscussa (SK Hynix deteneva il 62% del mercato HBM nel Q2 2025) , gli analisti di mercato, tra cui Goldman Sachs, avvertono che la fase di scarsità è destinata a svanire nel 2026. Il paradosso risiede nell’aggressivo ramp-up produttivo dei rivali, in particolare Samsung e Micron, tutti focalizzati sulla prossima generazione, HBM4.  

Samsung, che mira a superare il 30% di quota di mercato nel 2026, sta adottando una “strategia a basso prezzo” e sta accelerando la produzione di massa dell’HBM4 per intercettare gli ordini di Nvidia e degli altri clienti. Allo stesso tempo, Micron ha iniziato a spedire campioni di HBM4 che vantano prestazioni record superiori a 11 Gbps, e prevede anch’essa di esaurire la propria capacità produttiva HBM per il 2026.  

L’intensificarsi di questa competizione, unita all’entrata in funzione dei massicci investimenti in capacità di tutti e tre gli attori, è previsto che inonderà il mercato, trasformando l’attuale “Super Ciclo” di scarsità in un ciclo di guerra dei volumi. Gli analisti prevedono un calo dei prezzi HBM del 10% nel 2026. In questo scenario, il potere di determinazione dei prezzi è destinato a spostarsi dai produttori ai clienti su larga scala (Nvidia), che potranno sfruttare la concorrenza per ottenere condizioni più vantaggiose.  

Per SK Hynix, la sfida non è più solo vendere la capacità (già esaurita), ma difendere i margini innovando rapidamente verso l’HBM4 custom e l’integrazione logica, evolvendo verso un “full-stack AI memory provider”. Il 2026 si configura così come l’anno di svolta: dal dominio della capacità alla battaglia per il prezzo.