Pochi giorni fa abbiamo la fatto la conoscenza di Scott Wiener, la cui proposta di legge per regolamentare l’intelligenza artificiale, ossia il disegno di legge SB 1047, ha incontrato l’opposizione di figure politiche di spicco. Anche eccellenti, come nel caso di cui Nancy Pelosi.
Oggi entriamo nel dettaglio della SB 1047, perché al di là di una ricezione controversa, può essere vista tanto come il giusto modo di regolamentare una tecnologia che potrebbe sfuggire di mano all’umanità, quanto il tentativo della politica di mettere i suoi tipici “lacci e lacciuoli” (lasciamo a voi trovare chi stiamo citando) a una cosa che ancora non le appartiene: l’intelligenza artificiale.
Come sappiamo, quando si parla non tanto di intelligenza artificiale generativa quanto di AGI, il mondo si divide in due: i catastrofisti, che immaginano un futuro alla Terminator; e gli ottimisti, che immaginano un futuro alla Star Trek.
Tra i primi, inaspettatamente, troviamo quelli che sono considerati i padri fondatori dell’IA, ossia Geoffrey Hinton e Yoshua Bengio. Secondo loro, l’avanzamento incontrollato dell’IA potrebbe portare all’estinzione di massa e va normato allo stesso modo di armi chimiche e nucleari.
Inutile dire che la loro preoccupazione stia influenzando direttamente il panorama legislativo americano, come dimostrato appunto dal disegno di legge SB 1047 attualmente in discussione in California.
Cosa prevede la legge SB 1047
Formalmente nota come “Safe and Secure Innovation for Frontier Artificial Intelligence Models Act”, la legge SB 1047 mira a prevenire che i modelli di IA più avanzati vengano utilizzati per causare danni catastrofici. L’iniziativa è guidata dall’attivissimo Scott Wiener, il quale sostiene la necessità di una regolamentazione preventiva per evitare che scenari distopici diventino realtà.
In particolare, la legge SB 1047 si applicherebbe ai modelli di IA che costano almeno 100 milioni di dollari per essere addestrati e che utilizzano almeno 10^26 FLOPS durante la fase di training.
Tra le principali misure previste, vi sono l’obbligo di implementare rigorosi protocolli di sicurezza, l’introduzione di meccanismi di spegnimento d’emergenza e la certificazione di ogni nuovo modello di IA rilasciato pubblicamente.
La legge SB 1047 prevede inoltre protezioni per i dipendenti che denunciano problemi di sicurezza legati ai modelli di IA (i cosiddetti ‘whistleblower“) e richiede che qualsiasi incidente di sicurezza venga segnalato entro 72 ore alla Frontier Model Division.

Il senatore Scott Wiener è l’autore della proposta di legge per regolamentare l’intelligenza artificiale, il disegno di legge SB 1047.
E qui veniamo al discorso dei lacci e lacciuoli, perché la FMD sarebbe una nuova agenzia governativa per sovrintendere l’applicazione di queste regole. A guidarla sarà un consiglio composto da cinque membri, tra cui rappresentanti dell’industria dell’IA, della comunità open source e del mondo accademico, nominati dal governatore e dalla legislatura della California.
Questo consiglio avrà il compito di consigliare il procuratore generale della California sulle potenziali violazioni del SB 1047 e di fornire indicazioni agli sviluppatori di modelli di IA riguardo alle pratiche di sicurezza da adottare.
Insomma, la politica vuole creare un organo di controllo, i cui membri sono da essa nominati, per “controllare” lo sviluppo delle intelligenze artificiali. Sebbene la Silicon Valley sia situata proprio in quello stato, fa specie pensare che la gestione dell’IA negli USA debba essere appannaggio di un solo stato. Così come fa altrettanto specie apprendere che quanto appena elencato varrebbe anche per le intelligenze artificiali sviluppate nel mondo (come Europa e Asia).
Se infatti esse possono essere usate da un californiano, allora devono essere soggette SB 1047. D’altronde, è pur vero che il nostro Thierry Breton s’è preso la briga di scrivere a Elon Musk cosa poteva e non poteva dire durante la sua intervista a Donald Trump su X…
La contrarietà della Silicon Valley
Immancabilmente, il disegno di legge ha suscitato forti critiche da parte di importanti attori della Silicon Valley. Venture capitalist come Marc Andreessen e Ben Horowitz, startup e colossi dell’industria come Meta, hanno denunciato il potenziale impatto negativo della legge sull’innovazione e sulla libertà di espressione.
Secondo i detrattori, la SB 1047 imporrebbe oneri eccessivi alle startup, ostacolando lo sviluppo dell’IA in California, e penalizzerebbe ingiustamente i modelli di IA open source. Col rischio di spingere l’innovazione fuori dallo stato.
A tal proposito basta pensare all’articolo che abbiamo scritto qualche settimana fa, sullo spostamento verso le sponde Repubblicane di molti venture capitalist. Ai quali furbamente Donald Trump ha detto: “L’IA è spaventosa ma dobbiamo assolutamente vincere perché se non vinciamo noi, vince la Cina”.
Miele per le orecchie di chi mette sul piatto miliardi di dollari e non vuole vedersi rallentato dalla politica. E non solo loro: Fei-Fei Li, figura di rilievo nella comunità dell’intelligenza artificiale e fondatrice della startup World Labs, ha avvertito che il disegno di legge rischia di compromettere l’ecosistema dell’IA in California, spingendo la ricerca e l’innovazione fuori dallo stato.
How did outlandishly fringe AI doomsday cults gain so much unwarranted political influence? https://t.co/TQfw7EOJXj
— Yann LeCun (@ylecun) August 16, 2024
Anche perché la soglia dei 100 milioni di dollari o dei 10^26 FLOPS per la fase di training, che farebbe scattare la tagliola della Frontier Model Division, si applicherebbe ai modelli delle dimensioni di ChatGPT 4 in su. Non è difficile immaginare, vista la crescente complessità delle IA, che questi valori diverranno in futuro lo standard minimo per mettere sul mercato una IA generativa.
Ecco spiegato perché Andrew Ng, autorevole accademico nel campo dell’intelligenza artificiale, parla del disegno di legge come di “un attacco all’open source”. Sulla stessa riga anche i colossi della tecnologia: la Chamber of Progress, un gruppo di pressione che rappresenta aziende come Google, Apple e Amazon, ha dichiarato che il disegno di legge SB 1047 mina la libertà di espressione e potrebbe spingere l’innovazione tecnologica fuori dalla California.
Inappellabile invece il commento di Yann LeCun, a capo dell’IA di Meta, secondo cui la legge nasce dalla “illusione di rischio esistenziale spinta da un manipolo di think-tank deliranti“. Ma sappiamo che non ha peli sulla lingua, come ha dimostrato il suo litigio su X con Elon Musk.
Al momento, il disegno di legge è in fase di revisione finale presso l’Assemblea del Senato della California. Se dovesse essere approvato, dovrebbe superare anche il vaglio del governatore Gavin Newsom e potrebbe inoltre affrontare sfide legali da parte dei gruppi che si oppongono alla sua approvazione.
Vedremo come andrà a finire. Quel che è certo è che, indipendentemente dall’esito, la discussione sulla regolamentazione dell’intelligenza artificiale è destinata a proseguire.


