La tensione tra Washington e le grandi aziende tecnologiche si è riaccesa, questa volta su un terreno che più sensibile non potrebbe essere: la regolamentazione dell’intelligenza artificiale.
Al centro dello scontro ci sono la Casa Bianca e Anthropic, la startup californiana fondata da ex ricercatori di OpenAI e nota per il chatbot Claude, uno dei principali rivali di ChatGPT.
Il caso è esploso dopo che Jack Clark, cofondatore e responsabile delle politiche pubbliche di Anthropic, ha pubblicato un breve saggio dal titolo traducibile in “Ottimismo tecnologico e paura appropriata”.
Nel testo, Clark accusa una parte della Silicon Valley di ignorare il potenziale distruttivo dell’intelligenza artificiale e invita a “riconoscere i rischi reali” per capire come “domarla e convivere con essa”. Un messaggio chiaro e diretto che, nel clima politico attuale, ha avuto l’effetto di una miccia accesa.
Technological Optimism and Appropriate Fear – an essay where I grapple with how I feel about the continued steady march towards powerful AI systems. The world will bend around AI akin to how a black hole pulls and bends everything around itself. pic.twitter.com/ZC6hx1Zacz
— Jack Clark (@jackclarkSF) October 13, 2025
David Sacks: “Cattura regolatoria basata sulla paura”
La risposta della Casa Bianca non si è fatta attendere. David Sacks, lo “zar” dell’intelligenza artificiale nominato dal presidente Donald Trump, ha replicato accusando Anthropic di portare avanti “una sofisticata strategia di cattura regolatoria basata sul terrorismo psicologico”.
Con “cattura regolatoria” si intende la pratica con cui un’azienda tenta di influenzare o controllare le norme che dovrebbero limitarne il potere. Nel caso dell’intelligenza artificiale, significa piegare la regolamentazione a proprio vantaggio, magari spingendo per standard di sicurezza che solo pochi colossi possono permettersi di rispettare.
Per Sacks, dunque, Anthropic non sarebbe tanto un baluardo della sicurezza tecnologica quanto una società che usa la paura per consolidare la propria posizione nel mercato.
L’accusa, in altre parole, è di ipocrisia: ossia di voler “proteggere l’umanità” mentre si costruiscono sistemi sempre più potenti e si raccolgono miliardi di dollari dagli investitori.
Anthropic e la moratoria voluta da Washington
Dietro lo scontro retorico si nasconde un dibattito più concreto: chi deve scrivere le regole dell’intelligenza artificiale? Il governo federale o i singoli Stati?
La Casa Bianca ha sostenuto una proposta di moratoria di dieci anni sulle leggi statali in materia di IA, inclusa nel pacchetto di riforme noto a Washington come Big Beautiful Bill. L’obiettivo era evitare che cinquanta Stati diversi adottassero cinquanta normative differenti, creando un mosaico di regole incompatibili che avrebbe reso difficile innovare e competere a livello globale.
Anthropic ha però definito quella proposta “troppo grossolana”, sostenendo che avrebbe bloccato qualsiasi iniziativa locale, anche quelle più responsabili.
Quando la moratoria è stata successivamente bocciata dal Congresso, la società di Dario Amodei ha deciso di appoggiare una delle prime grandi leggi statali sull’intelligenza artificiale, promossa in California: un segnale politico preciso, in direzione però opposta rispetto alla Casa Bianca.
Il nodo politico e le nuove alleanze
Lo scontro tra Anthropic e il governo Trump non riguarda solo la filosofia della regolamentazione ma anche la geografia del potere nella nuova economia dell’IA.
David Sacks, ex imprenditore e investitore della Silicon Valley, è noto per la sua visione libertaria e per il rifiuto di qualsiasi eccesso di burocrazia. La sua linea è quella di “lasciare lavorare chi innova”, limitando l’intervento dello Stato ai soli casi di reale pericolo.
È una visione in netto contrasto con quella di Dario Amodei, il CEO di Anthropic, che invece sostiene un approccio “safety-first” e una supervisione pubblica rigorosa.
Amodei, che in passato ha espresso sostegno a Kamala Harris come presidente, è rimasto assente dagli eventi tecnologici promossi dalla Casa Bianca, lasciando campo libero ai rivali come OpenAI. Una distanza politica che oggi si riflette anche nei toni dello scontro.
Per l’amministrazione Trump, Anthropic incarna il rischio di un’IA dominata dalle élite liberal della West Coast; per Anthropic, la Casa Bianca rappresenta l’incapacità del potere politico di comprendere fino in fondo i pericoli dell’intelligenza artificiale.
Un confronto destinato a durare
Il dibattito tra sicurezza e innovazione, controllo e libertà, è tutt’altro che nuovo ma con l’arrivo dell’IA assume una dimensione inedita.
Da un lato, il governo Trump intende mantenere un approccio deregolamentato per favorire la competitività americana; dall’altro, aziende come Anthropic invocano regole più chiare per prevenire i rischi sistemici dei modelli fondazionali.
La verità, probabilmente, è che entrambe le parti hanno qualcosa da perdere: la Casa Bianca rischia di apparire troppo vicina agli interessi della Silicon Valley, mentre Anthropic rischia di essere vista come un’azienda che parla di responsabilità per conquistare potere politico.
In ogni caso, una cosa è certa: il futuro dell’intelligenza artificiale, e forse anche dell’equilibrio tecnologico globale, passerà dalle regole che usciranno da questo braccio di ferro tra la Casa Bianca e una startup che non ha paura di sfidarla.
Fonte: Axios


