La domanda resta sempre la stessa: deregolamentare, permettendo al sistema di evolversi liberamente, anche a costo di sacrificare i diritti dei cittadini? Oppure normare, contenendo lo sviluppo in favore della popolazione, ma rischiando di limitare la competitività?
L’Europa, come dimostra l’AI Act, storicamente opta per la seconda via, mentre gli Stati Uniti, al contrario, tendono verso la prima. La notizia di oggi non fa che rafforzare questa contrapposizione.
Come i più attenti di voi ricorderanno, nelle scorse settimane abbiamo scritto del disegno di legge SB 1047 da parte della California. Il provvedimento aveva l’obiettivo di impedire che i modelli di IA più avanzati possano causare danni catastrofici. L’iniziativa era promossa da Scott Wiener, fermo sostenitore della necessità di una regolamentazione preventiva per scongiurare scenari apocalittici.
Tra le principali disposizioni figuravano l’obbligo di adottare protocolli di sicurezza rigorosi, l’introduzione di sistemi di spegnimento d’emergenza e la certificazione obbligatoria per ogni nuovo modello di IA reso disponibile al pubblico.
A supervisionare l’intero processo sarebbe stata la Frontier Model Division, una nuova agenzia governativa incaricata di garantire l’applicazione di queste normative. La direzione sarebbe stata affidata a un consiglio composto da cinque membri, tra cui rappresentanti dell’industria dell’IA, della comunità open source e del mondo accademico, nominati dal governatore e dal legislatore della California.
Il veto di Newsom, la reazione di Wiener
Com’era immaginabile per una nazione che da sempre ha fatto della deregulation il suo vessillo, il disegno di legge di Wiener ha incontrato l’opposizione di importanti leader tecnologici, tra cui OpenAI, e di politici come Nancy Pelosi.
Quella più rilevante, e definitiva, è arrivata (a sorpresa?) dal governatore della California, Gavin Newsom, che ha posto il veto su quello che voleva essere uno dei disegni di legge più ambiziosi degli Stati Uniti.
Newsom ha definito il disegno di legge “ben intenzionato” ma ha dichiarato che avrebbe imposto “standard stringenti anche per le funzioni più basilari”. Secondo il governatore, la regolamentazione dell’IA dovrebbe basarsi su “prove empiriche e scienza”, sottolineando che la sua amministrazione ha già firmato altri provvedimenti contro i rischi noti, come quello contro i deepfake che potete approfondire qui sotto.
Il senatore democratico Scott Wiener, promotore del disegno di legge, ha criticato duramente la decisione di Newsom su X: “Questo veto rappresenta un passo indietro per chiunque creda nella supervisione delle grandi corporation, che stanno prendendo decisioni critiche che influenzano la sicurezza e il benessere pubblico, oltre al futuro del pianeta”.
Drammatici i toni della sua chiusura: “Questo veto ci lascia con la preoccupante realtà che le aziende che puntano a creare una tecnologia estremamente potente non affrontano alcuna restrizione vincolante da parte dei legislatori statunitensi, soprattutto considerando la paralisi continua del Congresso nel regolamentare il settore tecnologico in modo significativo”.
My statement on the Governor’s veto of SB 1047: pic.twitter.com/SsuBvV2mMI
— Senator Scott Wiener (@Scott_Wiener) September 29, 2024
L’opposizione dell’industria e della politica
La proposta di legge SB 1047 aveva suscitato un ampio dibattito nel mondo tecnologico. OpenAI e altre aziende avevano avvertito che avrebbe potuto “rallentare il ritmo dell’innovazione” e spingere talenti e investimenti fuori dalla California.
Jason Kwon, chief strategy officer di OpenAI, aveva affermato: “SB 1047 minaccerebbe la crescita e porterebbe ingegneri e imprenditori di livello mondiale a lasciare lo stato in cerca di maggiori opportunità altrove”.
Anche alcuni politici democratici, come l’ex Speaker della Camera Nancy Pelosi e il sindaco di San Francisco London Breed, si erano uniti alle critiche, sostenendo che la legge avrebbe potuto minare la leadership della California nel settore dell’IA.
Tuttavia, non tutti nel mondo tecnologico erano contrari: Elon Musk aveva sorprendentemente dichiarato che, pur trattandosi di una “decisione difficile”, appoggiava la proposta; la startup rivale di OpenAI, Anthropic, aveva affermato che i “benefici probabilmente superano i costi” del disegno di legge.
Newsom ha comunque annunciato che consulterà esperti, tra cui la celebre Fei-Fei Li (una delle figure più influenti nel campo dell’intelligenza artificiale), per sviluppare “misure di sicurezza praticabili” e ha promesso di continuare a lavorare col legislatore californiano per affrontare le sfide poste dall’intelligenza artificiale. Ma sospettiamo di sapere come andrà a finire…


