Quando a firmare uno stesso documento troviamo il principe Harry e Meghan Markle, l’ex stratega di Donald Trump Steve Bannon, il pioniere dell’intelligenza artificiale Geoffrey Hinton e il cofondatore di Apple Steve Wozniak, appare chiaro che sta accadendo qualcosa di insolito.
I cinque, insieme a una rete di scienziati e personaggi pubblici di primo piano, hanno sottoscritto un appello del Future of Life Institute per chiedere una moratoria sullo sviluppo della cosiddetta “IA superintelligente”, finché non sarà possibile garantirne la sicurezza e il controllo.
La loro posizione non è quella di chi teme la tecnologia ma di chi intravede nella sua corsa senza freni il rischio di generare un potere autonomo, capace di sfuggire al controllo umano.
“Il futuro deve essere uno in cui le macchine lavorano per noi, non una sorta di nuovi signori digitali”, ha sintetizzato Max Tegmark, professore al MIT e presidente dell’istituto promotore.
Dalla Silicon Valley a Buckingham Palace
La composizione del gruppo racconta molto dello stato d’animo globale di fronte all’IA. Harry e Meghan, da sempre attenti alle questioni sociali e al benessere mentale, vedono nella superintelligenza un pericolo per la dignità e l’autonomia umana.
Steve Bannon, simbolo del populismo trumpiano, teme che l’IA possa concentrare troppo potere nelle mani di élite tecnologiche e finanziarie. Geoffrey Hinton, considerato il “padrino dell’IA”, ha lasciato Google nel 2023 proprio per denunciare i rischi etici dei sistemi che lui stesso ha contribuito a creare.
Steve Wozniak, spirito libero della Silicon Valley, ha invece sempre difeso la necessità di bilanciare l’innovazione con il rispetto della persona.
L’inedita convergenza tra queste figure così lontane mostra come la preoccupazione per l’IA superintelligente stia superando le frontiere politiche e culturali, trasformandosi in un tema universale che unisce monarchi, ingegneri, libertari e attivisti.
L’America tra deregulation e regolamenti
Negli Stati Uniti, il dibattito sulla regolamentazione dell’intelligenza artificiale è diventato un terreno di scontro politico. L’amministrazione Trump ha scelto una linea di deregulation aggressiva, sostenuta dal suo “AI czar” David Sacks, che considera le proposte normative un ostacolo all’innovazione.
Il piano d’azione sull’IA presentato dalla Casa Bianca a luglio prevede addirittura la possibilità di revocare i fondi federali agli Stati che approvassero regolamentazioni autonome in materia, una minaccia che ha scatenato forti reazioni nel Paese.
Nel frattempo, una proposta bipartisan per un primo quadro legislativo federale sull’IA è ferma al Senato, bloccata proprio dalle tensioni tra chi chiede più tutele e chi teme un freno economico.
Mentre Washington spinge per contenere le regole, la California del governatore Gavin Newsom si muove nella direzione opposta, lavorando a una legge statale sull’etica e la sicurezza dell’IA ispirata all’approccio europeo.
Sul piano internazionale, gli Stati Uniti stanno infine esercitando pressioni sull’Unione Europea per attenuare o ritardare l’entrata in vigore dell’AI Act, considerato troppo restrittivo nei confronti delle aziende americane.
È una “guerra delle regole” che definisce nuovi confini geopolitici: libertà d’impresa contro precauzione, crescita economica contro responsabilità tecnologica.
Superintelligenza: la paura esce dalla bolla ‘nerd’
Per Max Tegmark, la novità più significativa è che la preoccupazione per l’IA superintelligente “sta uscendo dalla bolla nerd”.
L’opinione pubblica americana, secondo un sondaggio commissionato dal Future of Life Institute, chiede una regolamentazione robusta dell’intelligenza artificiale avanzata: il 73% degli adulti intervistati si è detto favorevole a norme più severe sui modelli più potenti.
Altri studi confermano un consenso bipartisan sul tema: un recente sondaggio Gallup ha rilevato che l’88% dei Democratici e il 79% dei Repubblicani e degli indipendenti sostengono l’idea di mantenere regole rigorose sull’IA per motivi di sicurezza e protezione.
La questione non è più solo tecnica, ma culturale e politica. La paura di perdere il controllo, che si tratti di algoritmi finanziari, sistemi militari o modelli di linguaggio, è diventata un riflesso collettivo.
Fonte: Bloomberg


