Avevamo già scritto nei mesi scorsi di quando OpenAI aveva cambiato la sua policy per consentire l’utilizzo dei suoi modelli di intelligenza artificiale a scopi militari.
Ed ecco ora Meta cambiare anch’essa rotta sul fronte dell’intelligenza artificiale, annunciando che le agenzie governative statunitensi e i contraenti della difesa potranno utilizzare i suoi modelli di IA per scopi militari.
La scelta rappresenta un’inversione totale rispetto alla precedente politica aziendale, che proibiva l’uso della tecnologia di Meta per scopi bellici o nucleari, e posiziona l’azienda tra i principali attori della corsa per il controllo dell’IA a livello globale.
L’IA opensource di Meta
Con questa apertura, Meta renderà dunque accessibili i suoi modelli di IA, chiamati Llama, ad agenzie federali e a importanti attori del settore della difesa come Lockheed Martin, Booz Allen, Palantir e Anduril.
Essendo “open source”, i modelli Llama possono essere liberamente distribuiti e modificati da sviluppatori, aziende e governi, una caratteristica che Meta vede come fondamentale per il miglioramento e la sicurezza della tecnologia.
Ciò, tuttavia, ha già suscitato non pochi dubbi tra gli osservatori e i governi, preoccupati per l’impatto di un’IA distribuita senza vincoli.
Nick Clegg, presidente degli affari globali di Meta, ha difeso la decisione sottolineando che i modelli Llama saranno utilizzati in modo “responsabile ed etico” per sostenere la sicurezza degli Stati Uniti e i valori democratici.
In un suo post, Clegg ha dichiarato che Meta intende supportare “la sicurezza, la prosperità economica e la stabilità degli Stati Uniti e dei suoi alleati”. La collaborazione con il governo americano, ha spiegato Clegg, permetterà di mantenere un vantaggio tecnologico che è diventato cruciale nello scenario geopolitico contemporaneo.
Questa collaborazione non sarà esclusiva degli Stati Uniti. Meta, infatti, estenderà l’accesso ai modelli Llama ai membri dell’alleanza Five Eyes, comprendente Canada, Regno Unito, Australia e Nuova Zelanda, ampliando così la portata della sua influenza nei contesti di difesa e sicurezza.
L’ombra dell’uso militare di tecnologie open source
L’annuncio di Meta arriva in un momento delicato, dato il dibattito crescente sull’impiego di tecnologie della Silicon Valley in ambito militare.
In passato (e ne abbiamo anche dato notizia, si legga la notizia qui sotto), impiegati di Microsoft, Google e Amazon hanno protestato pubblicamente contro le collaborazioni delle rispettive aziende con il settore della difesa, preoccupati per le implicazioni etiche.
La strategia open-source di Meta, in particolare, è stata criticata da chi teme che l’accesso non regolato all’IA possa aprire la strada a usi non controllabili o pericolosi.
Anche il governo degli Stati Uniti si interroga su come regolare il settore, preoccupato per l’accesso di attori stranieri alla tecnologia di punta.
La scorsa settimana Reuters ha riferito che istituti di ricerca cinesi avrebbero utilizzato Llama per sviluppare software per l’Esercito Popolare di Liberazione. Meta ha contestato il report, sostenendo che il governo cinese non era autorizzato a utilizzare Llama per scopi militari, ma l’episodio ha acceso i riflettori sulle vulnerabilità dell’approccio open source.
Secondo Clegg, il governo statunitense potrebbe usare questa tecnologia per monitorare le attività terroristiche e rafforzare la sicurezza informatica.
Meta si propone quindi come partner strategico, nella tutela della supremazia tecnologica americana e della sicurezza dei suoi alleati.
Ma mentre i concorrenti di Zuckerberg tengono per sé i segreti più intimi dei propri modelli di IA per ragioni di sicurezza, Meta ha deciso di puntare sull’open source per recuperare terreno e stimolare una rapida adozione dei suoi modelli.
Con rischi facilmente immaginabili quando, inevitabilmente, qualcosa cadrà nelle mani sbagliate di qualcuno.
Una nuova fase per l’IA americana
La strategia di Meta punta a consolidare la posizione degli Stati Uniti come leader tecnologico globale, creando un “circolo virtuoso” in cui l’IA open source non solo avvantaggia l’industria americana ma promuove innovazioni e in linea con gli interessi strategici statunitensi.
Tuttavia, l’apertura ai governi e alle difese di altri Paesi solleva interrogativi su quali siano i limiti della trasparenza e sulla possibilità di mantenere il controllo su una tecnologia che, seppur nata per scopi benefici, potrebbe avere un impatto radicale e, in alcuni casi, destabilizzante.
Meta riuscirà a mantenere il controllo etico della propria tecnologia o la corsa alla supremazia dell’IA supererà le promesse di trasparenza e responsabilità?


