Google ha da poco aggiornato i suoi principi etici sull’intelligenza artificiale, rimuovendo la clausola che vietava l’impiego della sua tecnologia in ambiti come armamenti o sorveglianza, laddove questi violassero le norme internazionali o i diritti umani.
Fino alla scorsa settimana, la policy aziendale escludeva espressamente applicazioni che potessero causare danni significativi, comprese le armi, mantenendosi allineata ai principi internazionali sui diritti umani. Ora, invece, ecco giungere la modifica delle linee guida, che si inserisce in un quadro di cambiamento degli standard globali sull’IA e in un contesto geopolitico sempre più complesso.
Google ha pubblicato un post ufficiale in cui James Manyika, vicepresidente senior dell’azienda, e Demis Hassabis, a capo di Google DeepMind, hanno così dichiarato: “Crediamo che le democrazie debbano guidare lo sviluppo dell’IA, ispirandosi a valori fondamentali come la libertà, l’uguaglianza e il rispetto dei diritti umani. E riteniamo che aziende, governi e organizzazioni che condividono questi principi debbano collaborare per creare un’IA che protegga le persone, promuova la crescita globale e supporti la sicurezza nazionale.”
Ma Google non è un caso isolato
Negli ultimi anni, anche altre aziende tecnologiche hanno modificato le loro politiche riguardanti l’uso dell’intelligenza artificiale in ambito militare.
OpenAI, ad esempio, inizialmente contraria a qualsiasi impiego bellico delle proprie tecnologie, ha recentemente annunciato una partnership con Anduril, un’azienda specializzata in tecnologie di difesa, per sviluppare sistemi di IA destinati a migliorare la capacità di contrasto ai droni nemici.
Meta, dal canto suo, lo scorso novembre ha annuncito che le agenzie governative statunitensi e i contraenti della difesa potranno utilizzare i suoi modelli di IA per scopi militari.
Inoltre, nonostante la policy dell’azienda ne vietasse espressamente l’utilizzo per scopi militari, bellici o nucleari, è emerso che alcuni ricercatori cinesi hanno adattato una versione precedente del modello per applicazioni militari, dimostrando quanto sia difficile controllare l’uso delle tecnologie open source una volta rilasciate pubblicamente.
Il caso Project Nimbus
Google, vale la pensa ricordarlo, è già finita al centro di proteste interne per il coinvolgimento delle sue tecnologie in operazioni militari.
Uno dei casi più controversi è il “Project Nimbus”, un contratto da 1,2 miliardi di dollari siglato nel 2021 con il governo israeliano, in collaborazione con Amazon, per fornire servizi cloud avanzati.
Il progetto ha sollevato forti preoccupazioni tra i dipendenti, che temono possa essere utilizzato per scopi militari contro la popolazione palestinese.
Il movimento “No Tech for Apartheid”, nato proprio in risposta a questa collaborazione, ha visto lavoratori di Google e Amazon mobilitarsi per chiedere la cancellazione dell’accordo.
Il nuovo orientamento delle Big Tech
Il cambiamento delle policy sull’intelligenza artificiale rientra in una revisione più ampia del posizionamento politico delle grandi aziende tecnologiche, che riguarda anche le politiche di diversità e inclusione.
A gennaio, Meta ha smantellato molte delle sue iniziative per la diversità e l’inclusione, comunicando ai dipendenti che non sarebbero più stati obbligati a intervistare candidati provenienti da gruppi sottorappresentati.
Nello stesso mese, Amazon ha interrotto alcuni programmi analoghi, definendoli “obsoleti” per bocca di un alto dirigente delle risorse umane.
Queste mosse riflettono un cambiamento nel clima politico statunitense, accentuatosi con la vittoria di Donald Trump alle elezioni presidenziali.
Il nuovo scenario sta portando le Big Tech a rivedere le loro politiche, allineandosi a una visione meno progressista e più orientata alla competizione economica. E alla sicurezza nazionale.


