OpenAI, l’azienda creatrice di ChatGPT (ormai lo sappiamo tutti, vero?), ha recentemente espresso il suo sostegno a tre importanti disegni di legge del Senato statunitense. Progetti che potrebbero avere un impatto significativo sulla politica federale in materia di IA.
Tra i disegni di legge appoggiati, spicca il Future of AI Innovation Act, che mira a formalizzare lo United States AI Safety Institute come ente federale responsabile della definizione di standard e linee guida per i modelli di IA. E a creari set di dati curati da parte delle agenzie federali, disponibili per uso pubblico, colmando così una lacuna che difficilmente verrà riempita dalle aziende private.
Anna Makanju, Vicepresidente degli Affari Globali di OpenAI, ha sottolineato su LinkedIn l’importanza di questa iniziativa, affermando che l’azienda “ha costantemente sostenuto la missione dell’istituto” nel garantire lo sviluppo e l’impiego sicuro dei sistemi di IA avanzati.
Gli altri due disegni di legge che hanno ricevuto l’appoggio di OpenAI sono l’NSF AI Education Act e il CREATE AI Act, che prevedono borse di studio federali per la ricerca sull’IA e l’istituzione di risorse educative sull’IA nelle scuole e nelle università.
Tutto molto bello ed edificante, non fosse che qualcuno s’è domandato se OpenAI non abbia un proprio tornaconto nel dimostrarsi così aperta verso il Senato, arrivando per bocca della stessa Makanju ad affermare che OpenAI ritiene fondamentale il ruolo del governo nel garantire la sicurezza e l’accessibilità dell’IA.
Tra questi c’è TechCrunch, che osserva come non si possa ignorare la posizione di leader mondiale di OpenAI nel campo dell’IA generativa, con una valutazione di 86 miliardi di dollari grazie alle partnership con colossi come Microsoft e Apple. Il che la rande la candidata numero uno a essere sottoposta in futuro a un attento esame degli organi regolatori americani.
E siccome se non puoi combatterli, è meglio farseli amici, ecco che l’appoggio a questi disegni di legge può anche essere interpretato come un tentativo di Sam Altman di guadagnare la fiducia dei legislatori federali, anticipando possibili future restrizioni. Inoltre, ciò lo colloca nella posizione ideale di garantire all’azienda un ruolo chiave nelle future discussioni sulla regolamentazione dell’IA. Il timing di queste mosse peraltro non pare casuale: due dei disegni di legge sostenuti verranno esaminati proprio in queste ore.
OpenAI non è comunque sola in questa strategia: lunedì, insieme ad altre grandi aziende come Microsoft, Meta, Palantir, Cohere e Amazon, ha firmato una lettera a sostegno dell’Istituto di Sicurezza dell’IA.
La mossa di OpenAI si inserisce dunque in un contesto più ampio, dove le aziende di IA cercano di bilanciare l’innovazione con la necessità di una regolamentazione responsabile, in un settore che sta rapidamente ridefinendo il panorama tecnologico globale.


