OpenAI ha deciso di sospendere la possibilità di generare video somiglianti a Martin Luther King Jr. attraverso Sora 2, il suo modello di intelligenza artificiale dedicato ai video.
La decisione è arrivata dopo la richiesta della fondazione che gestisce l’eredità del leader dei diritti civili, in seguito alla comparsa online di contenuti “irrispettosi” che ne distorcevano l’immagine.
Tra questi, secondo un’inchiesta del Washington Post, figuravano video in cui King veniva rappresentato mentre emetteva versi di scimmia o lottava con Malcolm X, un’altra icona del movimento per i diritti civili.
“Pur riconoscendo che esistono forti interessi legati alla libertà di espressione nella rappresentazione di figure storiche, OpenAI ritiene che i personaggi pubblici e le loro famiglie debbano avere, in ultima analisi, il controllo su come viene utilizzata la loro immagine”, ha spiegato l’azienda in un post ufficiale su X.
Un principio questo che introduce un precedente rilevante nel dibattito sulla proprietà e l’uso etico dell’identità digitale.
Statement from OpenAI and King Estate, Inc.
The Estate of Martin Luther King, Jr., Inc. (King, Inc.) and OpenAI have worked together to address how Dr. Martin Luther King Jr.’s likeness is represented in Sora generations. Some users generated disrespectful depictions of Dr.…
— OpenAI Newsroom (@OpenAINewsroom) October 17, 2025
La figlia di King, Bernice, aveva chiesto pubblicamente su Instagram di smettere di inviarle video IA che raffiguravano suo padre, unendosi alla voce della figlia di Robin Williams, che a sua volta aveva denunciato l’uso dell’immagine del comico in clip generate da Sora.
Due casi che, uniti, mostrano come il problema stia ormai travalicando il confine della libertà artistica per toccare la sensibilità e la dignità dei familiari dei soggetti rappresentati.
Marthin Luther King e i diritti d’autore postumi
Il caso riapre una questione giuridica complessa. Negli Stati Uniti, l’immagine di personaggi pubblici deceduti è spesso tutelata attraverso i cosiddetti posthumous rights of publicity, diritti di sfruttamento commerciale che vengono esercitati dagli eredi o da soggetti autorizzati.
Questi diritti, però, non erano mai stati pensati per l’era dell’intelligenza artificiale, dove l’immagine può essere manipolata e diffusa in scala globale nel giro di pochi secondi.
La scelta di OpenAI di introdurre un opt-out specifico per i “cameo” di personaggi pubblici va quindi oltre la gestione delle crisi reputazionali. È un riconoscimento formale del diritto di escludere la propria immagine, o quella dei propri cari, dal ciclo produttivo dell’IA.
Una misura che, nelle intenzioni dell’azienda, sarà estesa anche ad altri soggetti attraverso Sora 2, la nuova versione del modello in fase di sviluppo, che dovrebbe offrire controlli più granulari ai detentori di diritti e alle famiglie.
Sora, la memoria digitale e la nuova etica dell’IA
Il caso King mostra come OpenAI stia passando da una fase di espansione incontrollata a una di “ritaratura etica”. Il lancio di Sora, avvenuto solo poche settimane fa, aveva suscitato entusiasmi e timori in egual misura.
Da un lato, la possibilità di generare video realistici di personaggi storici o di sé stessi rappresentava un salto tecnologico; dall’altro, il rischio di banalizzare figure simboliche come King o Whitney Houston aveva acceso un dibattito acceso su cosa significhi “ricordare” nell’era dell’intelligenza artificiale.
Nel nostro editoriale su Substack avevamo già toccato questo tema partendo dal caso di Zelda Williams, figlia del compianto Robin Williams.
Anche la giovane attrice aveva chiesto pubblicamente ai fan di smettere di inviarle video generati con l’IA che ricreavano la voce e il volto del padre, portando alla luce il problema dello sfruttamento dell’immagine dei defunti nell’era dell’intelligenza artificiale.
Scrivevamo allora che “il diritto d’immagine muore con le persone, ma non muore la loro memoria digitale: resta accessibile, replicabile, manipolabile. E in assenza di leggi che proteggano i defunti dal diventare deepfake, l’unico limite rimasto, oggi, ci pare quello della decenza.”
Il caso di Martin Luther King Jr. conferma proprio questo: l’IA non si limita a riprodurre il passato, ma rischia di riscriverlo, trasformando la memoria in contenuto.
Da Hollywood a Silicon Valley: un cambio di paradigma
Da questo punto di vista, la decisione di OpenAI dimostra che l’azienda sembra finalmente riconoscere che, senza limiti, la generazione automatica di immagini e video può trasformarsi in una forma di appropriazione del passato (oltre che in numerosi grattacapo legali, s’intende).
Già a inizio ottobre OpenAI aveva annunciato di voler concedere ai detentori di copyright un controllo più preciso sui tipi di contenuti che possono essere generati con la loro immagine o le loro opere. Una mossa interpretata da molti come risposta al malcontento di Hollywood, che aveva accusato Sora di minacciare gli equilibri creativi e contrattuali dell’industria.
Ora, con il caso King, OpenAI compie un passo ulteriore. E se fino a ieri la Silicon Valley chiedeva al mondo di adattarsi alla tecnologia, oggi comincia a chiedersi come la tecnologia possa adattarsi al mondo. C’è solo da sperare che non resti un caso isolato.
Fonte: TechCrunch


