Un gruppo di artisti visivi e di illustratori sta accogliendo con favore la decisione di un giudice federale che, questa settimana, ha permesso di proseguire a parti cruciali della loro causa collettiva contro i creatori di popolari generatori di immagini basati sull’intelligenza artificiale.
Gli artisti accusano diverse start-up tecnologiche, tra cui Midjourney e Stability AI, di aver violato diverse leggi utilizzando le loro opere per addestrare strumenti di IA senza il loro consenso. Sostengono inoltre che questi strumenti incoraggino gli utenti a creare immagini che imitano fedelmente lo stile di un determinato artista.
Il giudice distrettuale statunitense William Orrick ha emesso nei giorni scorsi una sentenza di 33 pagine in cui ha respinto alcune delle accuse mosse dagli artisti, ma ha lasciato in sospeso le questioni principali della causa. Ciò significa che il caso può ora procedere alla fase di indagine, che potrebbe rivelare dettagli sulle comunicazioni interne relative allo sviluppo degli strumenti di IA da parte delle aziende coinvolte.
In un contesto in cui le cause legali legate al copyright e all’IA sono sempre più numerose, questo caso è tra i più avanzati nel percorso verso uno scontro che potrebbe avere un impatto significativo sul futuro del settore. “Fino ad ora, questi casi erano rimasti fermi ai blocchi di partenza,” ha dichiarato Blake E. Reid, professore di diritto di internet e copyright presso l’Università del Colorado a Boulder, al The Washington Post. Sebbene sia “ancora troppo presto per prevedere” l’esito del caso, “questo rappresenta un passo importante lungo un percorso molto complesso”.
Il giudice Orrick aveva già respinto la maggior parte di una precedente causa intentata dagli stessi artisti lo scorso anno, spingendoli a modificarla e a ripresentarla, aggiungendo nuovi querelanti. Questa volta, il gruppo, che comprende artisti come Sarah Andersen, Kelly McKernan, Karla Ortiz e il pittore di paesaggi fantastici Greg Rutkowski, ha ottenuto risultati più favorevoli.
Anche se Orrick ha rigettato l’accusa secondo cui le aziende avrebbero violato il Digital Millennium Copyright Act, “ha permesso che le rivendicazioni più rilevanti per violazione del diritto d’autore proseguissero,” ha affermato James Grimmelmann, professore di diritto digitale e dell’informazione alla Cornell University. Tra queste accuse ci sono quelle che sostengono “che le aziende di IA abbiano copiato le opere degli artisti nei loro modelli e che siano responsabili degli output generati dagli utenti che violano il copyright.”
Questi contenuti includono opere d’arte, musica, video, articoli di notizie e post sui social media. Una questione cruciale, man mano che le cause legali avanzano, sarà determinare se l’uso di questi materiali per addestrare i modelli di IA costituisca un “fair use” o una violazione illegale.
Tuttavia, ha sottolineato Reid, i querelanti dovranno prima affrontare la sfida di dimostrare che le loro opere sono state effettivamente copiate in modo significativo. Questo potrebbe rivelarsi difficile per due motivi. Primo, non è sempre chiaro quali dati siano stati utilizzati per addestrare un determinato modello di IA. Secondo, le risposte generate da uno strumento di IA non sono spesso identiche alle opere su cui è stato addestrato, anche se possono presentare somiglianze evidenti.
In discussione c’è il modello di business alla base del boom dell’IA generativa, fondato in gran parte sull’uso libero e non autorizzato di opere di vario genere presenti su internet per addestrare software sofisticati capaci di produrre opere simili a quelle create dall’uomo.


