Come ben sapete se leggete TechTalking, il New York Times ha citato in giudizio OpenAI e Microsoft, accusandole di aver utilizzato i suoi articoli per addestrare ChatGPT senza autorizzazione.
La causa, avviata nel dicembre 2023, rappresenta una delle battaglie legali più significative sulla proprietà intellettuale nell’era dell’intelligenza artificiale.
Eppure, mentre il giornale combatte contro i colossi tecnologici per difendere i propri contenuti, ha deciso di integrare strumenti di IA nella sua redazione.
Il Times e l’IA (senza esagerare)
A darne la notizia è Semafor, secondo cui il celebre quotidiano ha recentemente approvato una serie di strumenti di IA per assistere i giornalisti nelle attività di editing, sintesi di informazioni, programmazione e persino scrittura.
Il tutto avverrà sotto precise linee guida: l’IA potrà suggerire revisioni, generare riassunti, creare testi promozionali per i social media e ottimizzare i titoli per la SEO, ma non potrà redigere o modificare in modo significativo un articolo.
Una delle novità più rilevanti è l’introduzione di Echo, un tool interno progettato per riassumere articoli, briefing e altre attività aziendali.
Inoltre, il personale del NYT riceverà una formazione specifica per l’utilizzo dell’IA, che includerà anche strumenti come GitHub Copilot per la programmazione, Google Vertex AI per lo sviluppo prodotto e alcuni servizi di Amazon.
Ma l’essere umano resta centrale
Nonostante l’adozione di questi strumenti, la direzione del quotidiano ha ribadito che “il giornalismo del Times sarà sempre riportato, scritto e modificato dai nostri esperti giornalisti” e che ogni utilizzo dell’IA dovrà essere supervisionato dai redattori.
Inoltre, sarà vietato impiegare l’IA per aggirare paywall o inserire materiali coperti da copyright di terze parti.
Questa svolta non è isolata. Molti editori stanno sperimentando l’IA nelle loro redazioni, con strumenti che vanno dal controllo ortografico fino alla generazione di interi articoli.
Il Times, tuttavia, sembra voler mantenere un equilibrio tra innovazione e integrità giornalistica, cercando di sfruttare le potenzialità dell’IA senza rinunciare al controllo umano sui contenuti.
Le nostre perplessità sul “giornalismo umano” del NYT
Chi scrive, pur avendo collaborato con alcuni prestigiosi quotidiani nazionali, non ha mai vissuto un giornalismo al livello di quello del New York Times. Eppure, è difficile soprassedere su alcune apparenti incongruenze del quotidiano newyorkese.
La prima, e più importante, è che il New York Times può anche stabilire le linee guida e le limitazioni che vuole, ma il controllo effettivo sull’uso dell’IA da parte dei giornalisti è tutt’altro che semplice.
Se un redattore utilizza uno strumento come Echo per generare un riassunto e poi lo modifica leggermente, dove finisce il contributo dell’IA e dove inizia quello umano? In teoria, si potrebbero tracciare le interazioni con questi strumenti, monitorando chi ha usato cosa e quando. Ma farlo comporterebbe altri problemi.
Se infatti il New York Times volesse davvero verificare in modo approfondito quanto i suoi giornalisti usano l’IA, dovrebbe implementare un sistema di monitoraggio capillare che, paradossalmente, finirebbe per rallentare il lavoro invece di velocizzarlo.
Immaginate un processo in cui ogni articolo venga analizzato per capire quali parti potrebbero essere state generate o rielaborate dall’IA. Ci vorrebbe un team dedicato solo a questo, con strumenti in grado di rilevare tracce di testo generato dall’IA, ammesso che siano affidabili.
Poi c’è il problema del tempo: un editor dovrebbe non solo controllare il contenuto finale ma anche risalire alla sua origine, confrontandolo con le prime bozze e con eventuali output dell’IA usati nel processo. Alla fine, il rischio è che questo meccanismo sia così macchinoso da vanificare i presunti vantaggi dell’uso dell’IA stessa.
Da ultimo, c’è anche un aspetto più sottile: se un giornalista sa che ogni suo passaggio verrà scrutinato, potrebbe sentirsi meno libero di sperimentare con l’IA, riducendone di fatto l’utilità.
Il NYT potrebbe dunque trovarsi di fronte a un paradosso: da un lato vuole usare l’IA per ottimizzare il lavoro, dall’altro per garantirne un uso “controllato” rischia di renderlo più inefficiente.
Più gli strumenti di intelligenza artificiale si affineranno, più sarà difficile riconoscere il loro contributo. Col risultato che il NYT può sì affermare che il suo giornalismo sarà sempre umano, ma nella pratica il confine diverrà sempre più sfumato.


