Venerdì l’accordo con il Pentagono, lunedì la retromarcia. OpenAI sta infatti lavorando con il dipartimento della Guerra per aggiungere al contratto clausole che il testo originale non prevedeva.
A riconoscerlo è stato lo stesso Sam Altman, con un’ammissione insolita per un amministratore delegato nel pieno di un’operazione strategica: “Non avremmo dovuto affrettarci. Le questioni sono estremamente complesse e richiedono una comunicazione chiara. Stavamo cercando di attenuare le tensioni ed evitare un esito peggiore, ma è sembrato opportunistico e sciatto.”
L’accordo, firmato venerdì, metteva a disposizione del Pentagono i modelli di IA di OpenAI per operazioni militari classificate. Era arrivato poche ore dopo il collasso dei negoziati tra il dipartimento della Difesa e Anthropic, la principale rivale di OpenAI. Una tempistica che, da sola, racconta più di qualsiasi comunicato.
Le proteste interne e il dietrofront di Altman
La pressione è arrivata da più direzioni contemporaneamente. All’interno, dipendenti di OpenAI hanno espresso preoccupazioni sia attraverso canali aziendali sia sui social media. Nel fine settimana, davanti alla sede di San Francisco, sono comparse scritte col gesso: “No alla sorveglianza di massa” e un invito ai dipendenti a “fare la cosa giusta”.
Here is re-post of an internal post:
We have been working with the DoW to make some additions in our agreement to make our principles very clear.
1. We are going to amend our deal to add this language, in addition to everything else:
“• Consistent with applicable laws,…
— Sam Altman (@sama) March 3, 2026
Una linea rossa tracciata col gesso ha circondato l’intero edificio. Qualcuno ha fatto lavare le scritte; i manifestanti sono rimasti tutta la notte e le hanno rifatte. Il dissenso è stato abbastanza serio da spingere l’azienda a convocare un’assemblea generale dei dipendenti il giorno successivo.
Ma la reazione più pesante è arrivata dal mercato. Claude, il chatbot di Anthropic, ha superato ChatGPT come app gratuita più scaricata negli Stati Uniti sull’App Store di Apple.
Sui social si è diffuso il movimento #QuitGPT, con migliaia di utenti che hanno documentato pubblicamente la cancellazione del proprio abbonamento a ChatGPT. Perfino la pop star Katy Perry ha condiviso su X la pagina prezzi di Claude, amplificando una protesta che dal mondo tech si è estesa al grande pubblico.
La retromarcia di OpenAI è stata rapida. E ieri Altman ha annunciato l’intenzione di inserire nuove clausole per garantire che “il sistema di IA non sarà intenzionalmente utilizzato per la sorveglianza domestica di cittadini e residenti statunitensi”, incluso il divieto di raccolta e utilizzo di informazioni personali ottenute commercialmente.
I servizi di intelligence come la National Security Agency restano, per ora, esclusi dall’accordo: qualsiasi servizio a queste agenzie richiederà una modifica contrattuale separata.
Tra le misure tecniche presentate da OpenAI, la distribuzione dei modelli esclusivamente tramite cloud, senza installazione diretta sull’hardware militare che potrebbe eseguire attacchi, e la presenza costante di dipendenti dell’azienda nel circuito decisionale.
Perché Anthropic ha detto no
Il fallimento dei negoziati tra Anthropic e il Pentagono non è stato un incidente diplomatico. È stato uno scontro su un punto preciso, e decisivo.
Dario Amodei, amministratore delegato di Anthropic, aveva posto due linee rosse: nessun uso dei modelli per la sorveglianza di massa domestica, nessun impiego in armi autonome letali. Il segretario alla Difesa Pete Hegseth voleva invece che i modelli fossero disponibili per “ogni uso lecito”.
Il problema, come hanno argomentato i dirigenti di Anthropic, è che la legislazione statunitense vigente non vieta esplicitamente la sorveglianza di massa attraverso strumenti di IA. Senza un divieto di legge, le garanzie contrattuali diventano l’unico argine concreto. Non un capriccio legale, ma una necessità.
Altman, sabato, aveva liquidato la questione con una distinzione sottile: “Anthropic sembrava più concentrata su divieti specifici nel contratto, piuttosto che fare riferimento alle leggi applicabili, con cui noi ci sentivamo a nostro agio.”
Ieri, però, ha riconosciuto che le preoccupazioni di Anthropic sulla raccolta massiva di dati avevano fondamento. Le trattative tra Anthropic e il Pentagono erano in realtà vicine a una conclusione. Il dipartimento della Difesa si era detto disponibile a rimuovere espressioni ritenute troppo vaghe. Ma tutto si è arenato sulla raccolta massiva di dati pubblicamente disponibili.
Il prezzo del rifiuto e la difesa del rivale
La reazione dell’amministrazione Trump al rifiuto di Anthropic è stata immediata. E calibrata per mandare un messaggio all’intera industria. Il governo ha minacciato di escludere Anthropic dai contratti federali e dalla catena di approvvigionamento del Pentagono.
Ieri, il Tesoro statunitense, la Federal Housing Finance Agency e le agenzie federali Fannie Mae e Freddie Mac, hanno annunciato la cancellazione dei contratti con l’azienda. Il segnale è chiaro: chi pone condizioni al Pentagono paga un prezzo che va ben oltre il singolo contratto militare.
Ma qui la vicenda prende una piega inattesa. Nello stesso post in cui ammetteva gli errori, Altman ha preso posizione a favore del rivale: ha dichiarato di aver ribadito che Anthropic non dovrebbe essere designata come rischio per la catena di approvvigionamento, e di augurarsi che il dipartimento della Guerra offra ad Anthropic le stesse condizioni concordate con OpenAI.
done pic.twitter.com/DkS9DmlUAR
— KATY PERRY (@katyperry) February 28, 2026
Una solidarietà tra concorrenti che dice molto sulla posta in gioco: se il governo può punire un’azienda di IA per aver posto condizioni etiche, il precedente riguarda l’intero settore.
L’incoerenza
La vicenda lascia sul tavolo una contraddizione difficile da ignorare. Le clausole che OpenAI sta aggiungendo (il divieto di sorveglianza domestica, il blocco alla raccolta di dati personali), sono sostanzialmente le stesse garanzie che Anthropic chiedeva prima di firmare. OpenAI le inserisce dopo.
La differenza non sta nei principi dichiarati, che le due aziende condividono, ma nella sequenza: prima l’accesso al contratto, poi le tutele. Altman stesso, nel suo post, ha alzato ulteriormente la posta: “Se ricevessi un ordine che ritengo incostituzionale, preferirei andare in prigione piuttosto che eseguirlo.”
Una dichiarazione che misura la temperatura del momento. Che sia sincera convinzione o gestione del danno, conta il risultato: le clausole che Anthropic chiedeva prima di firmare, OpenAI le sta inserendo dopo. E il precedente è scritto.
Fonte: Financial Times


