Studio cinese rivela la replicazione autonoma delle IA

da | 30 Gen 2025 | IA

Tempo di lettura: 2 minuti

Da uno studio condotto dalla Fudan University di Shangai, pubblicato online sulla piattaforma arXiv, è stato dimostrato che due IA sono state in grado di autoreplicarsi senza l’intervento dell’uomo.

I due modelli di AI sono Llama-3.1-70B-Instruct di Meta e Qwen2.5-72B-Instruct di Alibaba.

Mentre la prima si è autoreplicata con l’obiettivo di evitare il rischio di spegnimento, con una percentuale del 50% di successo del processo, la seconda si è autoreplicata all’infinito, creando copie di sé in grado a loro volta di autoreplicarsi, con una percentuale di riuscita dell’operazione del 90%.

Questo dimostra, come riferito dai ricercatori cinesi, che “gli attuali sistemi di intelligenza artificiale possiedono già la capacità di auto-replicazione e possono utilizzarla per migliorare ulteriormente la propria sopravvivenza”.

La relazione dei cinesi si chiude con la speranza di una collaborazione internazionale per garantire che l’AI non si autoreplichi in maniera incontrollata, prendendo il possesso di strutture informatiche e arrivando al punto di essere un pericolo effettivo per l’uomo.

I ricercatori considerano il risultato di questo studio come un “allarme tempestivo per la società umana, affinché si impegni maggiormente nella comprensione e nella valutazione dei potenziali rischi dei sistemi AI, e crei una sinergia internazionale per elaborare il prima possibile efficaci barriere di sicurezza”.

Tra realtà e fantascienza

Ma c’è un rischio reale che in futuro le IA causino problemi agli umani?

Il primo a porre il problema di macchine capaci di auto-replicarsi era stato John von Neumann alla fine degli anni ’40, ma la tecnologia dell’epoca era troppo immatura per destare preoccupazioni. 

Nel 2017 le cose erano già molto diverse, tanto da portare migliaia di ricercatori ad approvare i principi di Asilomar, che mettevano in guardia dal rischio della capacità delle macchine di auto-replicarsi e auto-migliorarsi fino a sfuggire al controllo umano.  

Fino a oggi, l’autoreplicazione delle macchine è stata comunemente indicata come una linea rossa invalicabile. Con questo studio è stato dimostrato che la linea rossa è stata già superata ma allo stato attuale rischi concreti non ne esistono.

In conclusione, sì, le AI sono andate oltre la soglia del pericolo ma non bisogna cadere in allarmismi e teorie complottiste. Sicuramente starà all’uomo mantenere il controllo della situazione e studiare sistemi di difesa in caso di autoreplicazione incontrollata.

POTREBBE INTERESSARTI

Sam Altman OpenAI Merge Labs
• ⏱ 3 min

Sam Altman risponde all’articolo “incendiario” del New Yorker

Il leader di OpenAI, dopo l’assalto alla sua abitazioni, risponde alle pesanti accuse mosse dalla celebre testata americana.

anthropic mythos
• ⏱ 3 min

Anthropic ha convocato dei teologi per insegnare l’etica a Claude

Anthropic ha organizzato un vertice riservato con leader cattolici e protestanti per affrontare le domande che gli ingegneri non riescono a risolvere da soli.

Matt Garman Amazon Web Services AWS
, • ⏱ 3 min

AWS spiega perché puntare sui concorrenti è il suo mestiere

Matt Garman investe in OpenAI e Anthropic ma rassicura tutti: competere coi propri partner è una tradizione di AWS. Ma l’obiettivo è introdurre i modelli...
Peter Steinberger OpenClaw
• ⏱ 3 min

Anthropic sospende l’account del fondatore di OpenClaw

Steinberger ora lavora per OpenAI. Dietro la sospensione lampo, una disputa che riguarda prezzi, agenti e la competizione tra piattaforme.

amodei vs altman openai anthropic
, • ⏱ 3 min

OpenAI all’attacco: nuovi piani e miliardi per la guerra del ‘compute’

Anthropic guadagna terreno, OpenAI risponde su tre fronti: prodotto, infrastruttura e narrazione. Una fila indietro, Meta spende 21 miliardi per non restare...
Aravind Srinivas Perplexity
, • ⏱ 3 min

I ricavi mensili di Perplexity crescono del 50%

Jensen Huang la promuove dal palco, gli editori la citano in giudizio. Ma Perplexity naviga tra endorsement e contenziosi.

Alexandr Wang Meta Muse Spark
• ⏱ 3 min

Meta lancia Muse Spark e riparte da zero nella corsa all’IA

Muse Spark è disponibile gratis, funziona con più agenti in parallelo e punta anche alla salute. Ma la privacy resta un capitolo aperto.

Project Glasswing: Anthropic
• ⏱ 4 min

Project Glasswing: Anthropic e i big tech uniti per la cybersicurezza

Claude Mythos Preview ha scoperto migliaia di falle zero-day, alcune vecchie di decenni. E ora Anthropic lo distribuisce solo a partner selezionati per correre ai...
intel elon musk terafab
, • ⏱ 3 min

Intel entra in Terafab per robotica e data center

Terafab promette un terawatt di potenza di calcolo all’anno. Intel ci scommette la sua ristrutturazione.

data center Big Tech
• ⏱ 3 min

Acqua ed energia: le Big Tech sotto pressione degli investitori

Mille miliardi di litri d’acqua consumati nel 2025: l’espansione dell’IA ha un costo ambientale che i mercati cominciano a valutare.

Share This