Sembrava l’ennesima storia di successo della Silicon Valley: un’app capace di rivoluzionare lo shopping online, un’interfaccia elegante che permetteva di acquistare da qualsiasi sito con un solo clic e, naturalmente, l’ingrediente magico di questi anni, l’intelligenza artificiale.
Ma dietro le promesse di Nate, la startup fondata da Albert Saniger nel 2018, si nascondeva qualcosa di ben diverso: centinaia di lavoratori in un call center nelle Filippine che, manualmente, eseguivano le operazioni che l’IA avrebbe dovuto automatizzare.
Mercoledì il Dipartimento di Giustizia americano ha formalizzato le accuse contro Saniger, imputandogli il reato di frode nei confronti degli investitori.
Nate aveva raccolto oltre 50 milioni di dollari in finanziamenti, facendo leva proprio sulla presunta sofisticazione del suo sistema basato su intelligenza artificiale. In realtà, come ha appurato il distretto meridionale di New York, l’automazione era “praticamente nulla”.
L’intelligenza tutta umana di Nate
Secondo quanto dichiarato dal DOJ, Saniger ha convinto gli investitori che Nate fosse in grado di completare acquisti online “senza intervento umano”, salvo rare eccezioni.
Eppure, nonostante l’azienda avesse effettivamente assunto data scientist e acquisito tecnologia IA, ogni singola transazione continuava a essere eseguita manualmente da un team offshore.
Una truffa già portata alla luce da un’inchiesta di The Information nel 2022, che aveva sollevato più di un sospetto sull’effettivo funzionamento dell’app.
Il castello è crollato nel gennaio 2023, quando Nate ha esaurito i fondi ed è stata costretta a vendere i propri asset, lasciando gli investitori con perdite quasi totali. Da allora, Saniger ha abbandonato il ruolo di CEO e ha evitato qualsiasi commento pubblico sull’accaduto.
Il bluff dell’IA non è un caso isolato
Il caso Nate non è un’anomalia ma parte di una tendenza più ampia che vede molte startup cavalcare l’onda dell’IA per attrarre investimenti, anche quando le soluzioni proposte si rivelano tutt’altro che intelligenti.
Nel 2023 The Verge ha svelato come una IA per drive-through fosse in realtà gestito anch’esso da lavoratori nelle Filippine.
E non finisce qui. Più recentemente, Business Insider ha indagato su EvenUp, una startup legal tech valutata oltre un miliardo di dollari.
L’azienda aveva promesso di rivoluzionare la gestione dei risarcimenti per incidenti stradali automatizzando l’analisi delle cartelle cliniche e dei fascicoli legali. In realtà, secondo numerosi ex dipendenti, l’IA veniva utilizzata pochissimo, e spesso veniva addirittura disattivata dai supervisori a causa dei numerosi errori.
Alcuni lavoratori hanno raccontato di aver dovuto lavorare fino alle tre del mattino per svolgere manualmente compiti che l’intelligenza artificiale avrebbe dovuto gestire in autonomia.
Tra gli errori segnalati figurano infortuni non rilevati, condizioni mediche inventate e appuntamenti medici riportati in modo errato.
Nessuno di questi è finito nei documenti finali, grazie all’intervento umano ma secondo gli ex dipendenti, senza un controllo manuale i risarcimenti per le vittime sarebbero potuti risultare significativamente inferiori.
L’età dell’oro dell’IA… o della sua finta promessa
Quella che sembra emergere con chiarezza è una distorsione sistemica: molte startup usano l’etichetta “IA” come leva narrativa per ottenere fondi, ben sapendo che dietro la facciata non c’è alcuna automazione reale.
Il caso Nate, con la sua patina futuristica costruita su un call center filippino, è solo la punta dell’iceberg.
E mentre i fondi continuano a investire in tecnologie che promettono miracoli, il rischio è che fenomeni come quelli che abbiamo appena raccontato non restino casi isolati.


