L’accordo pluriennale annunciato il 3 novembre tra Amazon Web Services (AWS) e OpenAI, del valore stimato di 38 miliardi di dollari su sette anni, rappresenta un punto di svolta nella corsa globale all’intelligenza artificiale (AI). Questa partnership non è solo una maxi-transazione finanziaria, ma una dichiarazione strategica che rompe l’esclusività storica di OpenAI con Microsoft Azure, posizionando AWS come il nuovo centro gravitazionale dell’infrastruttura AI.
Il contratto, uno dei maggiori impegni finanziari infrastrutturali mai registrati nel settore, è stato accolto con entusiasmo dal mercato, con il titolo di Amazon che ha registrato un rialzo del 4,7% nel pre-mercato.
L’Insaziabile Fame di Calcolo
Il valore dell’accordo riflette la realtà che l’AI di frontiera, come i modelli che alimentano ChatGPT, richiede una potenza di calcolo “massiva e affidabile,” come sottolineato dal CEO di OpenAI, Sam Altman.
Per soddisfare questa richiesta, AWS fornirà centinaia di migliaia di unità di elaborazione grafica (GPU) di ultima generazione, specificamente i modelli di punta Nvidia GB200 e GB300. L’infrastruttura di calcolo per l’addestramento (training) e il funzionamento (inferenza) dei modelli AI di OpenAI verrà distribuita immediatamente, con la piena capacità operativa prevista entro la fine del 2026.

La Fine del Monopolio Azure
L’impatto strategico più significativo è la fine del rapporto esclusivo di OpenAI con Microsoft Azure. Nonostante Microsoft resti il maggiore investitore di OpenAI (con circa 13 miliardi di dollari complessivi) e mantenga il “diritto di prima offerta” sui nuovi requisiti cloud , l’accordo da 38 miliardi con AWS sancisce la necessità per OpenAI di diversificare i propri fornitori.
Questo spostamento consente a OpenAI di ridurre la dipendenza da un unico cloud e di sfruttare la competizione tra i giganti tech per assicurarsi l’accesso all’hardware del momento.
La Mossa “Open-Weight” di Amazon
AWS ha rafforzato la sua posizione lanciando i nuovi modelli “open-weight” di OpenAI, gpt-oss-120b e gpt-oss-20b, direttamente sulle sue piattaforme Bedrock e SageMaker AI.
Questa mossa è stata resa possibile dalla licenza Apache 2.0 dei modelli, una scelta che aggira efficacemente le stringenti clausole di esclusività che Microsoft deteneva sui modelli proprietari chiusi. Per i clienti AWS, ciò significa poter accedere ai modelli OpenAI insieme ad altri modelli AI di punta tramite una singola API, beneficiando della sicurezza di livello enterprise e della governance dei dati di AWS.
La Doppia Scommessa di AWS
L’accordo con OpenAI (incentrato su Nvidia) si inserisce in una complessa strategia di hedging da parte di AWS. L’azienda ha già investito un totale di 8 miliardi di dollari nel rivale diretto di OpenAI, Anthropic, designandola come primary training partner e utilizzatrice dei suoi chip proprietari Trainium e Inferentia.
Questo dualismo—fornire i chip standard di settore (Nvidia) a OpenAI e spingere il proprio silicio (Trainium) con Anthropic—dimostra l’obiettivo di AWS: non scommettere sul modello AI vincente, ma diventare l’infrastruttura cloud indispensabile e neutrale che ospita tutti i principali player della GenAI. Il CEO di Amazon, Andy Jassy, ha rimarcato che la partnership permette a OpenAI di sfruttare la “insolita esperienza di AWS nella gestione sicura, affidabile e scalabile di infrastrutture AI su larga scala”.
In sintesi, la battaglia per la supremazia nell’intelligenza artificiale si è spostata dal modello di AI stesso all’infrastruttura sottostante, e con il contratto da 38 miliardi, AWS si è assicurata una posizione in prima linea in questa guerra di risorse.