L’avvertimento arriva da una delle figure più autorevoli della Silicon Valley: Eric Schmidt, ex CEO di Google, definisce l’intelligenza artificiale un “rischio esistenziale” . Non si tratta di un futuro lontano: secondo Schmidt, entro i prossimi cinque o dieci anni, i computer potrebbero prendere decisioni autonome capaci di causare danni su vasta scala, persino la morte di molte persone . Il suo monito, maturato anche durante la presidenza della Commissione per la Sicurezza Nazionale sull’IA degli Stati Uniti, riflette la crescente paura di chi ha costruito questa tecnologia: la creatura sta sfuggendo al controllo del suo creatore.

Il punto di non ritorno e le armi digitali
Il cuore della minaccia è un concetto noto come “auto-miglioramento ricorsivo”: il momento in cui un’IA inizia a potenziarsi da sola, a un ritmo incomprensibile per l’uomo . Di fronte a questa prospettiva, la soluzione di Schmidt è drastica: “Quando il sistema può auto-migliorarsi, dobbiamo pensare seriamente a staccargli la spina”.
Questo pericolo non è teorico. I modelli linguistici (LLM) sono già oggi hackerabili tramite tecniche come il “Prompt Injection”, che permette di ingannarli per aggirare le loro barriere di sicurezza. Nel dark web, strumenti come WormGPT e FraudGPT vengono già venduti per creare email di phishing perfette e codice malevolo, abbassando la barriera d’ingresso al cybercrimine. Un’IA che controlla infrastrutture critiche, se manipolata, potrebbe trasformare una minaccia digitale in un danno fisico letale, realizzando la previsione contenuta nel libro di Schmidt The Age of AI: “un codice software verrà scritto con l’aiuto dell’intelligenza artificiale, per attentare a un’altra intelligenza artificiale” .
Una corsa senza freni in un mondo diviso
A spingere questa accelerazione è una corsa geopolitica e commerciale senza freni. Schmidt parla di un “San Francisco Consensus”: la convinzione diffusa tra i leader della Silicon Valley che l’IA trasformerà il mondo entro i prossimi tre-sei anni . Questa fretta è alimentata dalla competizione con la Cina, rendendo quasi impossibile una pausa per riflettere sulla sicurezza .
La posizione di Schmidt è condivisa da altri pionieri, come Geoffrey Hinton, il “padrino dell’IA”, che ha lasciato Google per poter parlare liberamente dei pericoli. Tuttavia, il campo è spaccato. Yann LeCun, capo scienziato dell’IA di Meta, liquida questi timori come “incredibilmente ridicoli”.
Governare l’ingovernabile
Questa divisione si riflette in un vuoto normativo globale. Mentre l’Unione Europea ha varato un AI Act basato su una rigida classificazione del rischio , gli Stati Uniti procedono con Executive Order più flessibili, focalizzati sulla leadership tecnologica . La tecnologia, ammette Schmidt, si sta sviluppando “più velocemente della nostra società, della nostra democrazia, delle nostre leggi” . La domanda che pone non ha ancora una risposta: come possiamo governare un’intelligenza che potrebbe presto governare se stessa, prima che sia troppo tardi?