Nel tentativo di non farsi cogliere impreparata da Microsoft e OpenAI, la scorsa settimana Google ha introdotto un importante cambiamento nella sua ricerca, AI Overview, portando di fatto l’intelligenza artificiale nelle risposte alle domande degli utenti.
Per quanto sappiamo tutti che i software raramente funzionano come dovrebbero al lancio, questa nuova funzionalità di Google ha generato una serie di errori tra l’imbarazzante e l’ingiustificabile, provocando un putiferio online.
Il termine “ingiustificabile” non lo usiamo a caso. Innanzitutto, perché le risposte errate di AI Overview hanno minano la fiducia in un motore di ricerca a cui oltre due miliardi di persone si affidano per ottenere informazioni autorevoli. E poi perché Google ultimamente sta inanellando figuracce una dietro l’altra.
Quando Google ha annunciato Bard nel febbraio dell’anno scorso, il chatbot pensato per contrastare ChatGPT ha condiviso informazioni errate nientemeno che nella presentazione di lancio, facendo perdere all’azienda 100 miliardi di dollari in valore di mercato.
Questo febbraio, invece, Google ha rilasciato il successore di Bard, Gemini, capace tra le altre cose di generare immagini. In questa occasione gli utenti hanno rapidamente notato che il sistema si rifiutava di generare immagini di persone bianche nella maggior parte dei casi e in nome del “bilanciamento del bias” rappresentava in modo inaccurato figure storiche che non erano certamente né di colore, né orientali, né native americane. Anche in quel caso, scuse, ammende e perdite miliardarie in Borsa.
Google AI overview suggests adding glue to get cheese to stick to pizza, and it turns out the source is an 11 year old Reddit comment from user F*cksmith 😂 pic.twitter.com/uDPAbsAKeO
— Peter Yang (@petergyang) May 23, 2024
Sebbene sappiamo tutti che i chatbot gestiti dall’intelligenza artificiale possono fornire informazioni inesatte o comportarsi in modo strano, questa sequela di errori restituisce l’immagine di un’azienda, Google, sotto pressione da parte della concorrenza. E che pur di tenere il passo di OpenAI, pare mettere in circolazione le sue novità quando in realtà avrebbero bisogno di un po’ di rodaggio in più.
Come riporta il New York Times, la portavoce di Google, Lara Levin, ha dichiarato che la stragrande maggioranza delle query di AI Overview ha prodotto “informazioni di alta qualità, con link per approfondire sul web”. Salvo poi aggiungere: “Molti degli esempi che abbiamo visto sono stati query non comuni, e abbiamo anche visto esempi che sono stati manipolati o che non siamo riusciti a riprodurre”.
Resta il fatto che sui social media gli utenti stanno postando screenshot di esempi che definire problematici è un eufemismo. E che riportano alla luce, una volta di più, anche il problema dell’addestramento delle IA. La bulimia delle aziende che creano le intelligenze artificiali addestrate su triliardi di dati, forse andrebbe contenuta. Meglio meno dati, ma di qualità.
Altrimenti si rischiano gaffe come queste di AI Overview che ci apprestiamo a raccontare, che ha detto ad alcuni utenti di mescolare colla non tossica nella salsa della pizza per impedire al formaggio di scivolare via. Una falsa ricetta, questa, tratta da un post ironico su Reddit di 11 anni fa di un utente dal nome che la dice lunga. O che ha suggerito ad altri utenti di ingerire almeno un sasso al giorno per ottenere il giusto apporto di vitamine e sali minerali. Qui, la paternità è di un post satirico di The Onion.
Altri utenti hanno condiviso esempi di Google che consiglia di pulire le lavatrici usando candeggina al cloro e aceto bianco. Peccato si tratti di una miscela che può creare gas di cloro piuttosto nocivo.
I couldn’t believe it before I tried it. Google needs to fix this asap.. pic.twitter.com/r3FyOfxiTK
— Kris Kashtanova (@icreatelife) May 23, 2024
Pare inoltre che AI Overview abbia avuto difficoltà con la storia presidenziale, affermando che 17 presidenti erano bianchi. Poi ha svoltato improvvisamente a destra verso Trump, affermando che Barack Obama è stato il primo presidente musulmano degli Stati Uniti.
Come poi accade in questi casi, è partita la gara tra gli utenti dei social media a mostrate le risposte più stravaganti di Google. Alle volte manipolando i risultati, come nel caso di uno screenshot che mostrava Google consigliare di curare la depressione saltando dal Golden Gate Bridge. Google, in questo caso, ha smentito dichiarando che AI Overview non ha mai restituito questo risultato.
Perché come ha appena ricordato Yann LeCun, gli LLM hanno l’intelligenza di un gatto domestico. Ma non è che la gente online sia molto più matura…


