Il Goldman Sachs Global Institute pubblica il report più scomodo della stagione: la cifra che tutti citano per giustificare il rally dipende da quattro assunzioni che nessuno ha ancora verificato.
Il primo maggio 2026, il Goldman Sachs Global Institute ha pubblicato un documento di quaranta pagine intitolato “Tracking Trillions.” In copertina, nessuna grafica spettacolare. Nessuna proiezione trionfale. Solo una domanda, formulata con la sobrietà tipica di chi sa che la risposta è destabilizzante: quanto costa davvero costruire l’AI?
La risposta ufficiale che circola da mesi sui mercati è questa: tra 4.000 e 8.000 miliardi di dollari di investimento cumulativo nei prossimi cinque anni. È il numero che ha dato fiducia agli investitori, giustificato i multipli stellari di Nvidia, e convinto i CFO delle Fortune 500 a firmare contratti cloud pluriennali. Goldman lo cita, lo analizza, e poi fa una cosa che nessuno si aspettava da una banca che finanzia, sottoscrive e consiglia le stesse aziende al centro di questo boom: dice che quel numero è “far more conditional than it appears”, ovvero molto più condizionale di quanto sembri.
Il modello e le sue fondamenta
Per arrivare a 7.600 miliardi, il punto che Goldman usa come baseline, il Goldman Sachs Global Institute ha costruito un modello che parte da un ancoraggio preciso: le stime di fatturato forward di Nvidia. La logica è solida: Nvidia controlla circa il 75% della spesa totale in chip AI, quindi le sue proiezioni di vendita sono il proxy più affidabile per misurare la domanda di infrastruttura computazionale a livello globale.
Il modello stima 765 miliardi di capex AI nel solo 2026, crescenti a 1.600 miliardi annui entro il 2031. I 7.600 miliardi cumulativi si distribuiscono così: circa 5.100 miliardi in chip e acceleratori, 2.150 miliardi in data center fisici, 358 miliardi in infrastruttura elettrica.
Fin qui, niente di nuovo rispetto a ciò che il mercato già sapeva. La novità del report sta nel paragrafo successivo: questi numeri, scrive Goldman, “sono altamente sensibili a un piccolo insieme di assunzioni sulla struttura dell’infrastruttura stessa.” Cambiate una singola assunzione, e il totale si sposta di centinaia di miliardi. Cambiatene due, e l’intero edificio cambia forma.

Le quattro variabili che nessuno controlla
La prima, e più importante: quanto durano i chip.
Un acceleratore GPU acquistato oggi a 50.000 dollari viene ammortizzato in bilancio su un orizzonte di quattro-sei anni. È lo standard contabile del settore. Ma esiste una tensione strutturale che i bilanci non catturano: Nvidia rilascia una nuova architettura ogni anno, con miglioramenti generazionali così drastici da rendere il chip precedente economicamente obsoleto molto prima che sia fisicamente degradato.
Goldman quantifica l’impatto con precisione chirurgica: accorciare la vita utile media dei chip da cinque a tre anni fa salire l’ammortamento annuale implicito da circa 3.000 miliardi a quasi 4.000 miliardi nel periodo 2026-2031. Estenderla a sette anni la comprime sotto i 2.500 miliardi. Una differenza di quattro anni nel ciclo di sostituzione muove il totale di quasi 1.500 miliardi di dollari, più del PIL annuale dell’Italia.
Il punto non è tecnico: è strategico. Nvidia ha tutto l’incentivo a rendere i propri chip obsoleti il più rapidamente possibile, accelerando il ciclo d’acquisto. I suoi clienti, Amazon, Microsoft, Google, hanno tutto l’interesse a prolungarlo. Chi vince questa negoziazione silenziosa determinerà la dimensione reale del mercato più di qualunque proiezione di domanda.
La seconda: il costo dei data center di nuova generazione.
Un data center standard degli anni Duemila costava circa 10 milioni di dollari per megawatt di capacità installata. Il modello baseline di Goldman usa 15 milioni per megawatt per le strutture AI di oggi. Ma le specifiche tecniche dei chip di nuova generazione, come il GB300 NVL72 di Nvidia attuale o il Rubin in arrivo, spingono la densità di potenza per rack da 15-20 kilowatt a 50-100 kilowatt e oltre. Questo richiede raffreddamento a liquido industriale, architetture elettriche che non esistevano nel design tradizionale, e sistemi di ridondanza completamente ridisegnati.
Goldman mostra che portare il costo unitario da 15 a 19 milioni per megawatt gonfia i costi totali dei data center di oltre 500 miliardi di dollari sull’intero periodo. E quella forchetta (da 15 a 19 milioni) non è teorica: alcune strutture costruite appena due anni fa sono già considerate insufficientemente equipaggiate per i chip in produzione oggi.
La terza: chi vince la guerra dei chip.
Il modello Goldman assume che Nvidia mantenga il 75% della spesa computazionale totale. Ma questa assunzione è sotto pressione da ogni lato. Google progetta i propri TPU. Amazon ha Trainium. Microsoft co-sviluppa chip custom con AMD e Broadcom. Meta sta esplorando silicon proprietario. Se la quota Nvidia scende al 60%, l’intera catena di fornitura si riorganizza e con essa i margini operativi dell’intero ecosistema.
Goldman introduce qui una distinzione concettuale critica: la domanda di compute è elastica o anelastica rispetto al costo? Se è elastica, ogni riduzione del costo per query genera più query, allora l’efficienza dei chip alternativi non riduce la spesa totale ma la moltiplica. Se è anelastica, esiste un limite pratico alle inferenze che un’organizzazione può effettivamente usare, allora i data center costruiti oggi diventeranno sovracapacità prima del previsto. Goldman non risponde. Onestamente, nessuno può.
La quarta: i colli di bottiglia fisici.
Costruire un data center AI richiede trasformatori ad alta tensione, sistemi di raffreddamento a liquido, cavi specializzati, e connessioni alla rete elettrica. Tutti questi componenti hanno lead time che si misurano in anni, non in settimane. I tempi di consegna dei trasformatori di potenza sono oggi superiori ai due anni in molti mercati. Il permitting per nuove connessioni alla rete elettrica richiede mediamente tre-cinque anni negli Stati Uniti.
Goldman stima che in scenari di stress, dove più di questi colli di bottiglia si materializzano simultaneamente, il calendario complessivo del buildout si allunga, i costi salgono per effetti di scarsità, e quello che era previsto come capex 2026-2028 scivola verso il 2029-2031. Il totale cumulativo può rimanere simile, ma il profilo temporale cambia in modo radicale, con implicazioni dirette sui rendimenti attesi dagli investitori che hanno prezzato una crescita lineare.

Il lato che Goldman non dice, ma insinua
Il report del Goldman Sachs Global Institute è pubblicato separatamente dal ramo di ricerca della banca. Quest’ultimo, guidato da James Covello, il più coerente scettico AI di Wall Street, ha pubblicato in parallelo un aggiornamento del suo famoso report del 2024, “Too Much Spend, Too Little Benefit?”
Le conclusioni, lette insieme, formano un dittico difficile da ignorare. Da un lato, l’infrastruttura che si sta costruendo costa più di quanto i numeri ufficiali suggeriscano, e dipende da variabili fuori controllo. Dall’altro, l’infrastruttura già costruita non sta producendo i ritorni che dovrebbe. Nonostante 30-40 miliardi di dollari di investimenti enterprise in AI generativa, un report MIT citato da Covello ha rilevato che il 95% delle organizzazioni ottiene zero ritorno sui propri pilot AI. Una ricerca EY ha trovato che il 99% delle aziende campionate ha riportato perdite finanziarie legate ai rischi AI, con una perdita media di 4,4 milioni di dollari per azienda.
Covello cita anche un dato che sintetizza la tensione meglio di qualunque modello: il 56% degli americani dichiara di usare l’AI, ma l’85% della forza lavoro non ha ancora un caso d’uso che generi valore misurabile.
La domanda che il mercato non si fa
“Tracking Trillions” è costruito con cura istituzionale. Non predice un crollo. Non consiglia di vendere. Ma pone con precisione la domanda che chi investe in questo ciclo dovrebbe avere in testa ogni mattina: quali assunzioni fondamentali stai facendo sul futuro, e quanto sono robusti i tuoi piani se quelle assunzioni cambiano?
La risposta onesta, a maggio 2026, è che quasi nessuno lo sa. Il mercato sta prezzando come certezza un edificio da 7.600 miliardi costruito su fondamenta che si spostano di centinaia di miliardi per ogni grado di variazione di quattro variabili che nessuno controlla. Le stime tra i 4.000 e gli 8.000 miliardi che compaiono ovunque nel discorso pubblico sono “far more conditional than they appear” – parole di Goldman Sachs.
Il conto potrebbe essere reale. Potrebbe essere la più grande ondata di investimento infrastrutturale della storia moderna, e tra dieci anni sembrerà ovvio che fosse necessaria. O potrebbe essere che qualcuno stia costruendo una “Spagna” intera di capacità elettrica per data center che serviranno applicazioni che ancora non esistono, a costi che cambiano ogni trimestre, con chip che diventano obsoleti prima di essere ammortizzati.
La differenza tra i due scenari vale, letteralmente, tutto.






