A Los Angeles si è appena verificata una situazione che sta spopolando sui social. Un robotaxi Waymo, impegnato a trasportare un passeggero, ha pensato bene d’infilarsi direttamente nel mezzo di un arresto della polizia, rallentare per ‘guardarsi intorno’ e poi spostarsi con calma, come se fosse tutto perfettamente normale.
L’azienda conferma: l’intrusione è durata quindici secondi, poco all’atto pratico ma abbastanza da diventare l’ennesimo episodio surreale dell’automobilismo autonomo made in IA.
E qui verrebbe spontanea una domanda: ma davvero le auto senza conducente devono sviluppare anche l’istinto della curiosità? Perché la dinamica ha avuto lo stesso sapore di quella tipica scena da traffico: assembramento di curiosi, smartphone in mano, e un “fammi vedere che succede” che blocca mezza carreggiata. Solo che stavolta il curioso era un algoritmo.
Visualizza questo post su Instagram
Un fuoriprogramma (poco) sorprendente
Il problema è che Waymo comincia ad avere una collezione di episodi sempre più sostanziosa. Ci sono state le quasi 600 multe per divieto di sosta in un anno, numero che immaginiamo sia aumentato da quando abbiamo scritto l’articolo, accumulate a San Francisco come fossero figurine da collezionare.
Ufficialmente, infatti, i robotaxi “cercano la soluzione più sicura possibile” durante salita e discesa dei passeggeri. Peccato che questa soluzione, fin troppo spesso, sia parcheggiare in divieto come il più creativo dei corrieri espresso.
Poi è arrivato il robotaxi che ha tamponato un robot delle consegne di Serve Robotics a Los Angeles. Velocità ridicola, nessun danno, ma sufficiente per dimostrare che, nel dubbio, le macchine autonome faticano a distinguere i robot di un pedoni. Speriamo non viceversa…
E nel frattempo… Waymo vuole filmarci
Come se ciò non bastasse, Waymo ha chiesto l’autorizzazione a usare le riprese interne dei veicoli per addestrare i propri modelli di intelligenza artificiale. Con ciò s’intendono gesti, movimenti, posture e tutto ciò che accade nell’abitacolo, perché anche gli algoritmi, evidentemente, hanno bisogno di capire come si comportano gli umani.
Il caso di Los Angeles, preso da solo, sarebbe un episodio di cronaca bizzarra, destinato a dissolversi nel mare delle cose buffe che vediamo sui social. Ma inserito nel contesto generale diventa un segnale: quando questi sistemi scalano davvero, la quantità di situazioni impreviste cresce proporzionalmente.
Un’auto autonoma può sbagliare non perché “sbaglia a guidare” ma perché il mondo là fuori è pieno di imprevisti, oggetti, situazioni e persone borderline. Che un robotaxi rallenti dando la sensazione di voler curiosare un arresto è buffo, certo, ma è una coincidenza.
Però è anche la prova che siamo entrati nella fase più intrigante del rapporto tra città e intelligenza artificiale: quella in cui i robot cominciano a sembrarci sempre più umani. Con gli stessi difetti, purtroppo.
Fonte: The Verge


