OpenAI introdurrà dei watermark nei metadati delle immagini create da DALL-E 3, in linea con l’adozione dello standard elaborato dalla Coalition for Content Provenance and Authenticity (C2PA).
Queste “filigrane” saranno presenti nelle immagini prodotte con ChatGPT e tramite l’API del modello DALL-E 3. Gli utenti dei dispositivi mobile inizieranno a vedere i watermark dal 12 febbraio; essi includeranno dei metadati non visibili e un simbolo visibile, posizionato nell’angolo superiore sinistro di ogni immagine.
Gli utenti potranno così verificare quale strumento di IA sia stato impiegato nella creazione delle immagini attraverso piattaforme online come Content Credentials Verify. Al momento sono in grado di includere il watermark solo le immagini statiche, non i video né i testi.
OpenAI afferma che l’aggiunta di questi metadati alle immagini avrà un impatto minimo sulla latenza e non comprometterà la qualità della generazione delle immagini. Ciò però potrebbe aumentare leggermente la dimensione delle immagini stesse.
Il C2PA, un consorzio di aziende tra cui figurano Adobe e Microsoft, sta promuovendo l’uso del watermark “Content Credentials” per identificare l’origine dei contenuti e distinguere se siano stati creati da esseri umani o attraverso l’intelligenza artificiale. Adobe ha sviluppato un simbolo di Content Credentials che ora viene incorporato da OpenAI nelle sue creazioni DALL-E 3. Anche Meta aggiungerà watermark ai contenuti generati dall’IA sulle sue piattaforme social.
Riconoscere i contenuti prodotti dall’intelligenza artificiale è uno degli obiettivi principali dell’amministrazione Biden in materia di intelligenza artificiale. Tuttavia l’utilizzo dei watermark non è una soluzione definitiva contro la disinformazione. OpenAI evidenzia come i metadati del C2PA possano essere “rimossi facilmente, sia accidentalmente che intenzionalmente”, in particolare considerando che molte piattaforme social tendono a eliminare i metadati dai contenuti caricati. Fare uno screenshot, ad esempio, comporta la perdita dei metadati.
“Riteniamo che l’adozione di questi metodi per stabilire la provenienza delle immagini sia essenziale per migliorare l’affidabilità delle informazioni digitali”, dichiara OpenAI sul proprio sito web. Basterà questo provvedimento a far tornare il sereno sulle intelligenze artificiali?


