Immaginate un mondo in cui tutti i vostri follower sui social media non siano persone reali ma bot alimentati dall’intelligenza artificiale che interagiscono con voi attraverso commenti preconfezionati, reazioni superficiali e risposte automatiche.
Non è un incubo distopico tratto da un racconto di fantascienza ma la realtà di SocialAI, la nuova app di social media creata da Michael Sayman, un ex impiegato di Google, Facebook e Twitter.
Lanciata di recente sull’App Store di Apple, SocialAI permette agli utenti di creare un account su un social network popolato esclusivamente da bot. Niente più interazioni umane, quindi, ma solo risposte generate dall’intelligenza artificiale che offrono feedback, consigli e riflessioni su ogni post.
Questo mondo totalmente artificiale ha subito attirato critiche e sarcasmo. L’esperto di sicurezza informatica Ian Coldwater l’ha definito su X come “un vero e proprio inferno”, mentre il programmatore e commentatore sull’IA Colin Fraser ha affermato che “suona come l’Inferno. Con la ‘I’ maiuscola.”
Dead Internet, ‘heavenbanning’ e solipsismo digitale
L’idea di SocialAI sembra portare alla realtà una teoria del complotto che circola da anni: la teoria del Dead Internet. Secondo questa ipotesi, gran parte dell’attività online oggi sarebbe generata da intelligenze artificiali, con lo scopo di manipolare gli utenti e aumentare l’engagement.
Quella che fino ad oggi sembrava una teoria cospirazionista sembra ora prendere forma con l’arrivo di SocialAI. In questo social network, i follower rispondono in base a diversi archetipi: sostenitori, critici, nerd e persino scettici. Gli utenti possono selezionare il tipo di bot con cui desiderano interagire ma le risposte risultano spesso superficiali e poco autentiche. Alcuni commenti sono persino privi di senso, come i famosi testi “Lorem ipsum” utilizzati dai grafici per riempire spazi vuoti.
La natura artificiale di SocialAI non riporta alla mente solamente la teoria del Dead Internet ma anche concetti come l’heavenbanning, un’idea elaborata dalla sviluppatrice di intelligenza artificiale Asara Near nel 2022, che prevede di isolare un utente da un social network, sostituendo tutte le persone con cui interagisce con modelli di IA che lo lodano e sono sempre d’accordo con lui. Un’esperienza che, seppur virtuale, evoca un forte senso di solitudine mascherato da gratificazione.
L’heavenbanning non è che una forma digitale di solipsismo, la teoria secondo cui la propria mente è l’unica realtà certa e gli altri individui sono solo proiezioni o illusioni. Spingendoci oltre nel ragionamento, SocialAI ricorda con una certa approssimazione anche la teoria del “cervello in una vasca”. In essa un cervello, scollegato dal corpo, riceve informazioni esclusivamente da una simulazione computerizzata, senza mai scoprire la verità sulla sua condizione.
Col progresso della tecnologia, questo scenario potrebbe diventare sempre più plausibile. Ma al momento, e per fortuna, i bot di SocialAI non sono ancora abbastanza sofisticati da ingannarci completamente. Nona caso il biologo evolutivo Carl T. Bergstrom, noto commentatore dell’IA, ha espresso la sua delusione dopo aver testato SocialAI, paragonandolo a un’esperienza paradossalmente più povera e meno sofisticata di quanto ci si aspetti da un’IA moderna.
Bergstrom ha addirittura accostato SocialAI a ELIZA, un chatbot creato negli anni ’60, considerato un pioniere nell’interazione uomo-macchina. In un commento tagliente, ha detto che i bot dell’app sembrano “stereotipi pigri di tutti i tipi fastidiosi che usavano ICQ nel 1999”, un chiaro riferimento alla scarsa sofisticazione di queste interazioni.
Il futuro distopico dei social media?
Sayman, il creatore di SocialAI, ha presentato l’app come uno strumento per far sentire le persone “ascoltate” e per offrire loro uno spazio di riflessione, supporto e feedback. Tuttavia, molti utenti hanno sperimentato l’effetto opposto: invece di sentirsi visti e compresi, si sono trovati intrappolati in un ciclo di risposte automatiche che amplificano l’illusione della popolarità, ma senza alcuna sostanza umana dietro.
È proprio questo il cuore del problema con SocialAI: sebbene possa sembrare un’alternativa intrigante per chi si sente solo o emarginato dai social tradizionali, alla fine ciò che offre non è altro che un eco vuoto di se stessi. Gli utenti non trovano un vero supporto o interazione ma solo un riflesso distorto della loro presenza online, alimentato da bot che recitano copioni predefiniti.
La vera domanda è quale sarà il futuro di app come SocialAI. Se da un lato rappresentano un interessante esperimento sociologico e tecnologico, dall’altro sollevano preoccupazioni sull’autenticità delle interazioni online e sull’effetto che queste tecnologie potrebbero avere sulla salute mentale degli utenti.
È difficile immaginare un mondo in cui le persone scelgano di abbandonare le interazioni umane per quelle artificiali ma la continua evoluzione dell’intelligenza artificiale potrebbe rendere queste app sempre più realistiche, confondendo ulteriormente il confine tra reale e virtuale.


