Mercati

Il New York Times fa causa a OpenAI e Microsoft: l’accusa è di violazione del copyright

Il New York Times ha avviato un’azione legale contro OpenAI e Microsoft per violazione del copyright. La causa, presentata presso il tribunale distrettuale di Manhattan, afferma che milioni di articoli pubblicati dal Times sono stati utilizzati per addestrare software che ora “competono” con il giornale come fonte di informazione affidabile.

Benché la causa non specifici un importo monetario esatto, si richiedono “miliardi di dollari in danni statutari e reali” e la cancellazione dei modelli e dei dati di addestramento che utilizzano materiale protetto da copyright – secondo quanto affermato dalla nota testata giornalistica.

I motivi della causa a Open AI e Microsoft da parte del New York Times

Secondo quanto riportato dal New York Times, le due società coinvolte (OpenAI e Microsoft) avrebbero utilizzato senza autorizzazione i contenuti della testata per creare e migliorare le proprie intelligenze artificiali, tra cui prodotti redditizi come ChatGPT e Copilot.

Non è il primo caso di questo tipo. A inizio anno, fu Getty Images, il famoso archivio di immagini stock, a portare in tribunale Stable IA Diffusion per aver copiato ed elaborato illegalmente milioni di immagini protette da copyright per addestrare l’IA. E probabilmente non sarà l’ultimo, poiché l’approccio di addestramento che consiste nel leggere milioni di pagine online è comune a molte intelligenze artificiali.

Il primo problema sollevato dal NYT, è la questione della proprietà delle fonti originarie utilizzate per l’addestramento di ChatGPT, Copilot e altri prodotti di OpenAI e Microsoft. Secondo il New York Times, tali fonti appartengono al giornale, che dovrebbe essere compensato per questo tipo di utilizzo o almeno informato dell’accaduto.

Il secondo problema è più ampio e riguarda l’uso che viene fatto di queste informazioni (contenute in articoli, foto e immagini mostrati online): raccolte in enormi database, vengono spesso rese disponibili gratuitamente a condizione che ne sia fatto un uso non a scopo di lucro, secondo il concetto di Fair Use. Ciò è in netto contrasto con l’approccio adottato da OpenAI e Microsoft con i loro prodotti.

Gli imputati cercano di approfittare gratuitamente del massiccio investimento del Times nel suo giornalismo» afferma il NYT, secondo cui OpenAI e Microsoft utilizzano «i contenuti del Times senza pagamento per creare prodotti che sostituiscono il Times e rubano a esso il pubblico».

Il bot di ChatGPT e quali giornali lo hanno bloccato

Qualcosa per bloccare ChatGPT era già stato fatto dal New York Times. Ad agosto di quest’anno, il famoso giornale aveva modificato la pagina robots.txt, un file presente in ogni sito web che contiene direttive volte ad indicare ai bot (dei motori di ricerca e non solo) quali parti del sito possono essere scansionate e quali no. Nel caso del New York Times, il giornale non consente l’utilizzo del GPTBot, il crawler introdotto da OpenAI all’inizio di agosto proprio per raccogliere online contenuti utili ad addestrare il modello linguistico dell’azienda. Lo stesso The Verge ha bloccato il bot, come anche il Guardian.

Anche diversi giornali e riviste italiane hanno seguito il NYT; analizzando il file robot.txt di Repubblica, anche in questo caso il bot di ChatGPT è disabilitato. Stessa cosa per l’Espresso. Anche il quotidiano “Il Manifesto” ha adottato misure restrittive nei confronti del bot di ChatGPT e di altri “crawler” utilizzati per alimentare le intelligenze artificiali, spiegando però che il  divieto non è retroattivo e influenzerà solo le versioni future di ChatGPT e simili.

Il Washington Post in un’inchiesta di aprile ha analizzato quali sono i siti che sono stati più “spiati” da ChatGPT. Al primo posto c’è patents.google, il sito che indicizza brevetti e domande di brevetto, seguito da Wikipedia, Scribd, il NYT e PLOS, una rivista scientifica di tipo open access.

Approvato l’IA Act, in cosa consiste

Una notizia che arriva pochi giorni dopo l’approvazione dell’IA Act, la normativa che regolamenterà l’intelligenza artificiale nel continente europeo, che rappresenta il primo regolamento di questo genere e con tale portata a livello mondiale. Nonostante non sia ancora definitiva, i tecnici stanno lavorando sulla stesura del testo definitivo dopo l’accordo politico, il quale sarà soggetto a voto finale da parte degli organismi europei. Se tutto procede come previsto, entrerà in vigore entro due anni.

La legge europea assicura che i diritti e le libertà siano prioritari nello sviluppo della tecnologia dell’intelligenza artificiale, cercando di trovare un equilibrio tra innovazione e protezione. Come nel caso della GDPR, il principio fondamentale sotteso è quello della responsabilizzazione e dell’autovalutazione. Tutte le società operanti nel settore all’interno dell’Unione Europea devono essere in grado di dimostrare che il processo di sviluppo della tecnologia non ledere i diritti fondamentali degli esseri umani e non costituisca un rischio per le persone.

La legge adotta un approccio “basato sul rischio” per la regolamentazione dell’intelligenza artificiale, focalizzandosi sulle applicazioni con il maggiore potenziale di causare danni umani. Questo quadro normativo storico mira a incentivare gli investimenti e l’innovazione nell’intelligenza artificiale in Europa, con l’obiettivo di promuovere lo sviluppo e l’adozione di un’intelligenza artificiale sicura e affidabile nel mercato unico dell’UE, coinvolgendo sia attori privati che pubblici.