Legge SB 1047: le mani della politica sullo sviluppo dell’IA

da | 21 Ago 2024 | Politica, IA, Legal

Pochi giorni fa abbiamo la fatto la conoscenza di Scott Wiener, la cui proposta di legge per regolamentare l’intelligenza artificiale, ossia il disegno di legge SB 1047, ha incontrato l’opposizione di figure politiche di spicco. Anche eccellenti, come nel caso di cui Nancy Pelosi.

Oggi entriamo nel dettaglio della SB 1047, perché al di là di una ricezione controversa, può essere vista tanto come il giusto modo di regolamentare una tecnologia che potrebbe sfuggire di mano all’umanità, quanto il tentativo della politica di mettere i suoi tipici “lacci e lacciuoli” (lasciamo a voi trovare chi stiamo citando) a una cosa che ancora non le appartiene: l’intelligenza artificiale.

Come sappiamo, quando si parla non tanto di intelligenza artificiale generativa quanto di AGI, il mondo si divide in due: i catastrofisti, che immaginano un futuro alla Terminator; e gli ottimisti, che immaginano un  futuro alla Star Trek.

Tra i primi, inaspettatamente, troviamo quelli che sono considerati i padri fondatori dell’IA, ossia Geoffrey Hinton e Yoshua Bengio. Secondo loro, l’avanzamento incontrollato dell’IA potrebbe portare all’estinzione di massa e va normato allo stesso modo di armi chimiche e nucleari.

Inutile dire che la loro preoccupazione stia influenzando direttamente il panorama legislativo americano, come dimostrato appunto dal disegno di legge SB 1047 attualmente in discussione in California.

Cosa prevede la legge SB 1047

Formalmente nota come “Safe and Secure Innovation for Frontier Artificial Intelligence Models Act”, la legge SB 1047 mira a prevenire che i modelli di IA più avanzati vengano utilizzati per causare danni catastrofici. L’iniziativa è guidata dall’attivissimo Scott Wiener, il quale sostiene la necessità di una regolamentazione preventiva per evitare che scenari distopici diventino realtà.

In particolare, la legge SB 1047 si applicherebbe ai modelli di IA che costano almeno 100 milioni di dollari per essere addestrati e che utilizzano almeno 10^26 FLOPS durante la fase di training.

Tra le principali misure previste, vi sono l’obbligo di implementare rigorosi protocolli di sicurezza, l’introduzione di meccanismi di spegnimento d’emergenza e la certificazione di ogni nuovo modello di IA rilasciato pubblicamente.

La legge SB 1047 prevede inoltre protezioni per i dipendenti che denunciano problemi di sicurezza legati ai modelli di IA (i cosiddetti ‘whistleblower“) e richiede che qualsiasi incidente di sicurezza venga segnalato entro 72 ore alla Frontier Model Division.

Il senatore della California Scott Wiener in una foto di Kevin Sanders per il California Globe.

Il senatore Scott Wiener è l’autore della proposta di legge per regolamentare l’intelligenza artificiale, il disegno di legge SB 1047.

E qui veniamo al discorso dei lacci e lacciuoli, perché la FMD sarebbe una nuova agenzia governativa per sovrintendere l’applicazione di queste regole. A guidarla sarà un consiglio composto da cinque membri, tra cui rappresentanti dell’industria dell’IA, della comunità open source e del mondo accademico, nominati dal governatore e dalla legislatura della California.

Questo consiglio avrà il compito di consigliare il procuratore generale della California sulle potenziali violazioni del SB 1047 e di fornire indicazioni agli sviluppatori di modelli di IA riguardo alle pratiche di sicurezza da adottare.

Insomma, la politica vuole creare un organo di controllo, i cui membri sono da essa nominati, per “controllare” lo sviluppo delle intelligenze artificiali. Sebbene la Silicon Valley sia situata proprio in quello stato, fa specie pensare che la gestione dell’IA negli USA debba essere appannaggio di un solo stato. Così come fa altrettanto specie apprendere che quanto appena elencato varrebbe anche per le intelligenze artificiali sviluppate nel mondo (come Europa e Asia).

Se infatti esse possono essere usate da un californiano, allora devono essere soggette SB 1047. D’altronde, è pur vero che il nostro Thierry Breton s’è preso la briga di scrivere a Elon Musk cosa poteva e non poteva dire durante la sua intervista a Donald Trump su X…

La contrarietà della Silicon Valley

Immancabilmente, il disegno di legge ha suscitato forti critiche da parte di importanti attori della Silicon Valley. Venture capitalist come Marc Andreessen e Ben Horowitz, startup e colossi dell’industria come Meta, hanno denunciato il potenziale impatto negativo della legge sull’innovazione e sulla libertà di espressione.

Secondo i detrattori, la SB 1047 imporrebbe oneri eccessivi alle startup, ostacolando lo sviluppo dell’IA in California, e penalizzerebbe ingiustamente i modelli di IA open source. Col rischio di spingere l’innovazione fuori dallo stato.

A tal proposito basta pensare all’articolo che abbiamo scritto qualche settimana fa, sullo spostamento verso le sponde Repubblicane di molti venture capitalist. Ai quali furbamente Donald Trump ha detto: “L’IA è spaventosa ma dobbiamo assolutamente vincere perché se non vinciamo noi, vince la Cina”.

Miele per le orecchie di chi mette sul piatto miliardi di dollari e non vuole vedersi rallentato dalla politica. E non solo loro: Fei-Fei Li, figura di rilievo nella comunità dell’intelligenza artificiale e fondatrice della startup World Labs, ha avvertito che il disegno di legge rischia di compromettere l’ecosistema dell’IA in California, spingendo la ricerca e l’innovazione fuori dallo stato.

Anche perché la soglia dei 100 milioni di dollari o dei 10^26 FLOPS per la fase di training, che farebbe scattare la tagliola della Frontier Model Division, si applicherebbe ai modelli delle dimensioni di ChatGPT 4 in su. Non è difficile immaginare, vista la crescente complessità delle IA, che questi valori diverranno in futuro lo standard minimo per mettere sul mercato una IA generativa.

Ecco spiegato perché Andrew Ng, autorevole accademico nel campo dell’intelligenza artificiale, parla del disegno di legge come di “un attacco all’open source”. Sulla stessa riga anche i colossi della tecnologia: la Chamber of Progress, un gruppo di pressione che rappresenta aziende come Google, Apple e Amazon, ha dichiarato che il disegno di legge SB 1047 mina la libertà di espressione e potrebbe spingere l’innovazione tecnologica fuori dalla California.

Inappellabile invece il commento di Yann LeCun, a capo dell’IA di Meta, secondo cui la legge nasce dalla “illusione di rischio esistenziale spinta da un manipolo di think-tank deliranti“. Ma sappiamo che non ha peli sulla lingua, come ha dimostrato il suo litigio su X con Elon Musk.

Al momento, il disegno di legge è in fase di revisione finale presso l’Assemblea del Senato della California. Se dovesse essere approvato, dovrebbe superare anche il vaglio del governatore Gavin Newsom e potrebbe inoltre affrontare sfide legali da parte dei gruppi che si oppongono alla sua approvazione.

Vedremo come andrà a finire. Quel che è certo è che, indipendentemente dall’esito, la discussione sulla regolamentazione dell’intelligenza artificiale è destinata a proseguire.

POTREBBE INTERESSARTI

Europa Bruxelles

L’Europa prepara il bando dei fornitori cinesi dalle infrastrutture critiche

Bruxelles accelera sulla sovranità tecnologica con quello che sembra un tardivo allineamento a Washington. Ma è il momento giusto per farlo?

Grok Elon Musk

Grok, la California ordina lo stop: “Materiale pedopornografico, tolleranza zero”

Il procuratore generale Bonta invia una diffida a Musk mentre l’amministrazione Trump continua a integrare Grok nei flussi di lavoro federali.

Elon Musk OpenAI causa

Causa OpenAI: Musk chiede 134 miliardi di risarcimento

Sam Altman aveva avvisato di “prepararsi al peggio da Musk”, così è stato. La richiesta poggia sul concetto dei “profitti indebiti”.

Trump Chip

Trump firma il dazio del 25% sui chip H200, ma Nvidia ringrazia

La Casa Bianca impone dazi sui semiconduttori di fascia alta in transito verso la Cina. Ma per Nvidia è una vittoria: finalmente può vendere ai clienti cinesi...
Sam Altman OpenAI Elon Musk

Sam Altman avvisa gli investitori: “Preparatevi al peggio da Musk”

In vista del processo di aprile, OpenAI prepara partner e finanziatori: aspettatevi “sparate a effetto” e “dichiarazioni fuori da ogni...
Mira Murati Thinking Machines

Il saccheggio di Thinking Machines: OpenAI si riprende tre co-fondatori

In meno di un anno la startup di Mira Murati perde quattro figure chiave. A quanto pare i soldi non comprano la lealtà neppure nell’industria...
pubblicità IA

La pubblicità bussa alla porta dei chatbot: Google apre, gli altri seguiranno

Il colosso di Mountain View sperimenta annunci in AI Mode. OpenAI e Perplexity osservano, Meta si prepara. E chi non vorrà spot dovrà probabilmente pagare

Musk Iran Proteste

Starlink gratis in Iran: Musk si infila anche nella crisi di Teheran

Dopo Venezuela e Ucraina, il miliardario interviene anche nella crisi iraniana. Con l’ok di Trump e capacità che nessuno Stato può eguagliare.

Brad Smith, presidente di Microsoft

Microsoft promette: i nostri data center non peseranno sulle bollette degli americani

L’azienda si impegna a non chiedere sgravi fiscali e a formare i residenti. Brad Smith: “Non chiediamo ai contribuenti di sovvenzionarci”.

cina surplus

La Cina annuncia un surplus commerciale da 1,2 trilioni di dollari

La crescita del 20% della bilancia commerciale cinese in un anno mette in discussione l’efficacia della strategia americana dei dazi.

Share This