Ieri sera l’app di Claude, l’assistente di intelligenza artificiale di Anthropic, è balzata al primo posto nella classifica delle app gratuite più scaricate negli Stati Uniti sull’Apple Store. Un giorno prima, l’amministrazione Trump aveva dichiarato il blocco dell’azienda di Dario Amodei da parte delle agenzie governative. E il tempismo non è casuale.
La scalata è stata infatti vertiginosa: il 30 gennaio Claude era al 131° posto, per gran parte di febbraio ha oscillato nella top 20. Poi lo scontro con il Pentagono, e il balzo in cima alla classifica, superando ChatGPT di OpenAI (stabile al primo posto per quasi tutto il mese) e quindi anche Gemini di Google, scivolata al quarto.
I numeri raccontano il resto: gli utenti gratuiti di Anthropic sono aumentati di oltre il 60% da gennaio, le iscrizioni giornaliere sono triplicate da novembre, battendo il record storico ogni giorno dell’ultima settimana. Gli abbonati paganti sono più che raddoppiati dall’inizio dell’anno.
Claude tra sorveglianza, armi autonome e ragion di Stato
All’origine dello scontro c’è il rifiuto di Anthropic di consentire che i propri modelli vengano utilizzati per la sorveglianza domestica di massa o per armi completamente autonome. Una linea rossa che l’azienda si è autoimposta e che il governo americano ha interpretato come un affronto.
Il presidente Trump è intervenuto direttamente su Truth Social con toni inequivocabili: “I pazzoidi di sinistra di Anthropic hanno commesso un errore disastroso cercando di forzare il braccio al Dipartimento della Guerra, e obbligarlo a rispettare i loro Termini di Servizio invece della nostra Costituzione.”
Il segretario alla Difesa Pete Hegseth ha poi chiesto che Anthropic venga classificata come rischio per la catena di approvvigionamento della sicurezza nazionale.
Nei fatti, non si tratta solo di un bando dal Pentagono: significa che nessun appaltatore della difesa statunitense potrà più utilizzare gli strumenti di Anthropic. Un’esclusione insomma dall’intero ecosistema militare-industriale americano.
La risposta di Amodei e la mossa di OpenAI
Dario Amodei, CEO di Anthropic, ha scelto una risposta misurata: “È prerogativa del Dipartimento selezionare i fornitori più allineati alla propria visione. Ma dato il valore sostanziale che la nostra tecnologia fornisce alle forze armate, speriamo che riconsiderino la decisione.”
Una formula diplomatica che riconosce il diritto del governo ma ne sottolinea il costo. Nelle stesse ore, dall’altro lato dello scacchiere, Sam Altman annunciava che OpenAI aveva raggiunto un accordo con il Dipartimento della Difesa per l’impiego dei propri modelli.
La coincidenza temporale parla da sola. Dove Anthropic ha tracciato una linea etica, OpenAI si è posizionata come partner disponibile. Due visioni opposte del rapporto tra intelligenza artificiale e potere militare, che ora si traducono in due traiettorie commerciali e politiche divergenti.
Quando i principi diventano un asset di mercato
La vicenda ribalta un assunto diffuso nel settore, OSSIA che i vincoli etici autoimposti siano un freno al business. Il rifiuto di Anthropic su sorveglianza e armi autonome si è anzi trasformato, nei fatti, in un acceleratore di popolarità.
Il segnale più eloquente non viene nemmeno dal mondo tech: poche ore dopo lo scontro, la cantante Katy Perry ha pubblicato sui social uno screenshot dell’abbonamento Pro di Claude, con un cuore sovrapposto. E quando una disputa sui termini d’uso dell’IA arriva nel feed di una popstar, significa che la questione è uscita dalla nicchia degli addetti ai lavori.
Resta una questione più ampia, che va oltre il caso Anthropic. Un governo che esclude un fornitore di tecnologia non per inadeguatezza tecnica ma per disallineamento politico, crea un precedente molto grave.
done pic.twitter.com/DkS9DmlUAR
— KATY PERRY (@katyperry) February 28, 2026
Ma per i clienti aziendali di Anthropic, la domanda diventa concreta: quant’è affidabile un fornitore che può essere tagliato fuori dall’ecosistema della difesa con un post su Truth Social?
Per i governi europei, il segnale è ancora più netto: la “sicurezza” di un fornitore di IA americano dipende oggi anche dalla sua relazione con l’inquilino della Casa Bianca. Una variabile che nessun contratto può controllare.
Fonte: CNBC


