Da uno studio condotto dalla Fudan University di Shangai, pubblicato online sulla piattaforma arXiv, è stato dimostrato che due IA sono state in grado di autoreplicarsi senza l’intervento dell’uomo.
I due modelli di AI sono Llama-3.1-70B-Instruct di Meta e Qwen2.5-72B-Instruct di Alibaba.
Mentre la prima si è autoreplicata con l’obiettivo di evitare il rischio di spegnimento, con una percentuale del 50% di successo del processo, la seconda si è autoreplicata all’infinito, creando copie di sé in grado a loro volta di autoreplicarsi, con una percentuale di riuscita dell’operazione del 90%.
Questo dimostra, come riferito dai ricercatori cinesi, che “gli attuali sistemi di intelligenza artificiale possiedono già la capacità di auto-replicazione e possono utilizzarla per migliorare ulteriormente la propria sopravvivenza”.
La relazione dei cinesi si chiude con la speranza di una collaborazione internazionale per garantire che l’AI non si autoreplichi in maniera incontrollata, prendendo il possesso di strutture informatiche e arrivando al punto di essere un pericolo effettivo per l’uomo.
I ricercatori considerano il risultato di questo studio come un “allarme tempestivo per la società umana, affinché si impegni maggiormente nella comprensione e nella valutazione dei potenziali rischi dei sistemi AI, e crei una sinergia internazionale per elaborare il prima possibile efficaci barriere di sicurezza”.
Tra realtà e fantascienza
Ma c’è un rischio reale che in futuro le IA causino problemi agli umani?
Il primo a porre il problema di macchine capaci di auto-replicarsi era stato John von Neumann alla fine degli anni ’40, ma la tecnologia dell’epoca era troppo immatura per destare preoccupazioni.
Nel 2017 le cose erano già molto diverse, tanto da portare migliaia di ricercatori ad approvare i principi di Asilomar, che mettevano in guardia dal rischio della capacità delle macchine di auto-replicarsi e auto-migliorarsi fino a sfuggire al controllo umano.
Fino a oggi, l’autoreplicazione delle macchine è stata comunemente indicata come una linea rossa invalicabile. Con questo studio è stato dimostrato che la linea rossa è stata già superata ma allo stato attuale rischi concreti non ne esistono.
In conclusione, sì, le AI sono andate oltre la soglia del pericolo ma non bisogna cadere in allarmismi e teorie complottiste. Sicuramente starà all’uomo mantenere il controllo della situazione e studiare sistemi di difesa in caso di autoreplicazione incontrollata.


