OpenAI e Pentagono, Sam Altman ci ripensa

da | 3 Mar 2026 | IA, Politica

Sam Altman, CEO di OpenAI. | Foto: Heute.at/Creative Commons
Riassunto IA
  • OpenAI sta modificando il contratto militare con il Pentagono per aggiungere clausole anti-sorveglianza inizialmente assenti; Altman ha ammesso che la fretta della firma “è sembrata opportunistica e sciatta”.
  • Il backlash è stato sia interno (proteste dei dipendenti, assemblea aziendale d’emergenza) sia di mercato: Claude di Anthropic ha superato ChatGPT come app più scaricata negli USA.
  • Altman ha preso posizione a favore di Anthropic chiedendo che non venga esclusa dalla catena di approvvigionamento, e ha dichiarato che preferirebbe il carcere piuttosto che eseguire un ordine incostituzionale.
Tempo di lettura: 4 minuti

Venerdì l’accordo con il Pentagono, lunedì la retromarcia. OpenAI sta infatti lavorando con il dipartimento della Guerra per aggiungere al contratto clausole che il testo originale non prevedeva.

A riconoscerlo è stato lo stesso Sam Altman, con un’ammissione insolita per un amministratore delegato nel pieno di un’operazione strategica: “Non avremmo dovuto affrettarci. Le questioni sono estremamente complesse e richiedono una comunicazione chiara. Stavamo cercando di attenuare le tensioni ed evitare un esito peggiore, ma è sembrato opportunistico e sciatto.”

L’accordo, firmato venerdì, metteva a disposizione del Pentagono i modelli di IA di OpenAI per operazioni militari classificate. Era arrivato poche ore dopo il collasso dei negoziati tra il dipartimento della Difesa e Anthropic, la principale rivale di OpenAI. Una tempistica che, da sola, racconta più di qualsiasi comunicato.

Le proteste interne e il dietrofront di Altman

La pressione è arrivata da più direzioni contemporaneamente. All’interno, dipendenti di OpenAI hanno espresso preoccupazioni sia attraverso canali aziendali sia sui social media. Nel fine settimana, davanti alla sede di San Francisco, sono comparse scritte col gesso: “No alla sorveglianza di massa” e un invito ai dipendenti a “fare la cosa giusta”.

Una linea rossa tracciata col gesso ha circondato l’intero edificio. Qualcuno ha fatto lavare le scritte; i manifestanti sono rimasti tutta la notte e le hanno rifatte. Il dissenso è stato abbastanza serio da spingere l’azienda a convocare un’assemblea generale dei dipendenti il giorno successivo.

Ma la reazione più pesante è arrivata dal mercato. Claude, il chatbot di Anthropic, ha superato ChatGPT come app gratuita più scaricata negli Stati Uniti sull’App Store di Apple.

Sui social si è diffuso il movimento #QuitGPT, con migliaia di utenti che hanno documentato pubblicamente la cancellazione del proprio abbonamento a ChatGPT. Perfino la pop star Katy Perry ha condiviso su X la pagina prezzi di Claude, amplificando una protesta che dal mondo tech si è estesa al grande pubblico.

La retromarcia di OpenAI è stata rapida. E ieri Altman ha annunciato l’intenzione di inserire nuove clausole per garantire che “il sistema di IA non sarà intenzionalmente utilizzato per la sorveglianza domestica di cittadini e residenti statunitensi”, incluso il divieto di raccolta e utilizzo di informazioni personali ottenute commercialmente.

I servizi di intelligence come la National Security Agency restano, per ora, esclusi dall’accordo: qualsiasi servizio a queste agenzie richiederà una modifica contrattuale separata.

Tra le misure tecniche presentate da OpenAI, la distribuzione dei modelli esclusivamente tramite cloud, senza installazione diretta sull’hardware militare che potrebbe eseguire attacchi, e la presenza costante di dipendenti dell’azienda nel circuito decisionale.

Perché Anthropic ha detto no

Il fallimento dei negoziati tra Anthropic e il Pentagono non è stato un incidente diplomatico. È stato uno scontro su un punto preciso, e decisivo.

Dario Amodei, amministratore delegato di Anthropic, aveva posto due linee rosse: nessun uso dei modelli per la sorveglianza di massa domestica, nessun impiego in armi autonome letali. Il segretario alla Difesa Pete Hegseth voleva invece che i modelli fossero disponibili per “ogni uso lecito”.

Il problema, come hanno argomentato i dirigenti di Anthropic, è che la legislazione statunitense vigente non vieta esplicitamente la sorveglianza di massa attraverso strumenti di IA. Senza un divieto di legge, le garanzie contrattuali diventano l’unico argine concreto. Non un capriccio legale, ma una necessità.

Altman, sabato, aveva liquidato la questione con una distinzione sottile: “Anthropic sembrava più concentrata su divieti specifici nel contratto, piuttosto che fare riferimento alle leggi applicabili, con cui noi ci sentivamo a nostro agio.”

Ieri, però, ha riconosciuto che le preoccupazioni di Anthropic sulla raccolta massiva di dati avevano fondamento. Le trattative tra Anthropic e il Pentagono erano in realtà vicine a una conclusione. Il dipartimento della Difesa si era detto disponibile a rimuovere espressioni ritenute troppo vaghe. Ma tutto si è arenato sulla raccolta massiva di dati pubblicamente disponibili.

Il prezzo del rifiuto e la difesa del rivale

La reazione dell’amministrazione Trump al rifiuto di Anthropic è stata immediata. E calibrata per mandare un messaggio all’intera industria. Il governo ha minacciato di escludere Anthropic dai contratti federali e dalla catena di approvvigionamento del Pentagono.

Ieri, il Tesoro statunitense, la Federal Housing Finance Agency e le agenzie federali Fannie Mae e Freddie Mac, hanno annunciato la cancellazione dei contratti con l’azienda. Il segnale è chiaro: chi pone condizioni al Pentagono paga un prezzo che va ben oltre il singolo contratto militare.

Ma qui la vicenda prende una piega inattesa. Nello stesso post in cui ammetteva gli errori, Altman ha preso posizione a favore del rivale: ha dichiarato di aver ribadito che Anthropic non dovrebbe essere designata come rischio per la catena di approvvigionamento, e di augurarsi che il dipartimento della Guerra offra ad Anthropic le stesse condizioni concordate con OpenAI.

Una solidarietà tra concorrenti che dice molto sulla posta in gioco: se il governo può punire un’azienda di IA per aver posto condizioni etiche, il precedente riguarda l’intero settore.

L’incoerenza

La vicenda lascia sul tavolo una contraddizione difficile da ignorare. Le clausole che OpenAI sta aggiungendo (il divieto di sorveglianza domestica, il blocco alla raccolta di dati personali), sono sostanzialmente le stesse garanzie che Anthropic chiedeva prima di firmare. OpenAI le inserisce dopo.

La differenza non sta nei principi dichiarati, che le due aziende condividono, ma nella sequenza: prima l’accesso al contratto, poi le tutele. Altman stesso, nel suo post, ha alzato ulteriormente la posta: “Se ricevessi un ordine che ritengo incostituzionale, preferirei andare in prigione piuttosto che eseguirlo.”

Una dichiarazione che misura la temperatura del momento. Che sia sincera convinzione o gestione del danno, conta il risultato: le clausole che Anthropic chiedeva prima di firmare, OpenAI le sta inserendo dopo. E il precedente è scritto.

Fonte: Financial Times

POTREBBE INTERESSARTI

Sam Altman OpenAI Merge Labs
• ⏱ 3 min

Sam Altman risponde all’articolo “incendiario” del New Yorker

Il leader di OpenAI, dopo l’assalto alla sua abitazioni, risponde alle pesanti accuse mosse dalla celebre testata americana.

anthropic mythos
• ⏱ 3 min

Anthropic ha convocato dei teologi per insegnare l’etica a Claude

Anthropic ha organizzato un vertice riservato con leader cattolici e protestanti per affrontare le domande che gli ingegneri non riescono a risolvere da soli.

Matt Garman Amazon Web Services AWS
, • ⏱ 3 min

AWS spiega perché puntare sui concorrenti è il suo mestiere

Matt Garman investe in OpenAI e Anthropic ma rassicura tutti: competere coi propri partner è una tradizione di AWS. Ma l’obiettivo è introdurre i modelli...
Peter Steinberger OpenClaw
• ⏱ 3 min

Anthropic sospende l’account del fondatore di OpenClaw

Steinberger ora lavora per OpenAI. Dietro la sospensione lampo, una disputa che riguarda prezzi, agenti e la competizione tra piattaforme.

amodei vs altman openai anthropic
, • ⏱ 3 min

OpenAI all’attacco: nuovi piani e miliardi per la guerra del ‘compute’

Anthropic guadagna terreno, OpenAI risponde su tre fronti: prodotto, infrastruttura e narrazione. Una fila indietro, Meta spende 21 miliardi per non restare...
Aravind Srinivas Perplexity
, • ⏱ 3 min

I ricavi mensili di Perplexity crescono del 50%

Jensen Huang la promuove dal palco, gli editori la citano in giudizio. Ma Perplexity naviga tra endorsement e contenziosi.

Alexandr Wang Meta Muse Spark
• ⏱ 3 min

Meta lancia Muse Spark e riparte da zero nella corsa all’IA

Muse Spark è disponibile gratis, funziona con più agenti in parallelo e punta anche alla salute. Ma la privacy resta un capitolo aperto.

Project Glasswing: Anthropic
• ⏱ 4 min

Project Glasswing: Anthropic e i big tech uniti per la cybersicurezza

Claude Mythos Preview ha scoperto migliaia di falle zero-day, alcune vecchie di decenni. E ora Anthropic lo distribuisce solo a partner selezionati per correre ai...
intel elon musk terafab
, • ⏱ 3 min

Intel entra in Terafab per robotica e data center

Terafab promette un terawatt di potenza di calcolo all’anno. Intel ci scommette la sua ristrutturazione.

data center Big Tech
• ⏱ 3 min

Acqua ed energia: le Big Tech sotto pressione degli investitori

Mille miliardi di litri d’acqua consumati nel 2025: l’espansione dell’IA ha un costo ambientale che i mercati cominciano a valutare.

Share This