Società

AI, Anu Bradford: “Regolamentazione necessaria per proteggersi dai rischi”

Questa notizia è stata scritta più di un anno fa old news

L’arrivo di ChatGPT di OpenaAI ha lanciato l’inizio della rivoluzione del campo dell’Intelligenza Artificiale.

Il celebre chatbot, ChatGPT, ha raggiunto 100 milioni di utenti in soli due mesi dal lancio, diventando così la seconda applicazione con la crescita più rapida nella storia di internet dopo Threads, recentemente lanciata da Meta Platforms.

Insieme ai progressi della società, le nuove frontiere della conoscenza e la produttività, l’IA pone dei rischi importanti per il mercato del lavoro e i diritti fondamentali degli esseri umani.

Insieme ad Anu Bradford, professoressa di diritto alla Columbia Law School approfondiamo i principali rischi e benefici dall’IA e, soprattutto, i diversi approcci nei confronti della regolamentazione del settore da parte delle tre potenze globali: gli Stati Uniti, la Cina e l’UE.

Quali sono i principali rischi derivanti dallo sviluppo dell’IA generativa?

Nel migliore dei casi, l’IA generativa permetterà agli esseri umani di raggiungere nuove frontiere di conoscenza e produttività, portando a livelli senza precedenti la crescita economica e il progresso sociale.

Allo stesso tempo, il ritmo dello sviluppo dell’IA sta inquietando sia l’ambito tech che i cittadini, così come le autorità di regolamentazione. Anche i più grandi sostenitori dello sviluppo tecnologico stanno ora lanciando avvertimenti su come l’IA non regolamentata possa portare a danni incontrollabili, rappresentando gravi minacce per individui e società. Le previsioni più cupe prevedono che l’IA possa cancellare la presenza umana sul mercato del lavoro e rendere gli esseri umani obsoleti o, nello scenario più estremo, distruggere addirittura l’umanità.

Sebbene sia difficile valutare la probabilità con cui si possano avverare queste previsioni estreme, molti rischi si materializzeranno con certezza quasi matematica.

In primo luogo, ci sono rischi per i diritti fondamentali, inclusi i diritti individuali alla privacy. Non dimentichiamoci infatti che le tecnologie guidate dall’IA possono essere sfruttate per l’identificazione biometrica e la sorveglianza, ad esempio.

Un’altra preoccupazione riguarda l’ambito della discriminazione. Se l’IA generativa dovesse venire addestrata con modelli basati su dati distorti, il rischio di discriminazione delle persone in contesti critici è alta. Si potrebbe arrivare ad una mal determinazione del loro accesso al credito, all’occupazione o ai benefici pubblici.

Inoltre, l’IA generativa può anche essere fonte primaria di disinformazione. Ricordiamoci che l’IA è uno strumento potente per fabbricare identità, immagini e persone. Dunque, diffondere disinformazione. In questo modo, l’IA può diventare un perfetto alleato delle attività fraudolente. Ma, soprattutto, se le informazioni fabbricate vengono utilizzate durante le elezioni, possono addirittura rappresentare una minaccia per le democrazie e, quindi, per le stesse fondamenta delle società.

Condivide le affermazioni secondo cui l’IA generativa potrebbe distruggere molti posti di lavoro. Lei come la percepisce, come una grande opportunità o una grande sfida per il mercato del lavoro?

L’IA generativa ha il potenziale per trasformare il mercato del lavoro. Indubbiamente, alcuni individui diventeranno più produttivi e quindi più preziosi per i datori di lavoro. Allo stesso tempo, alcuni individui diventeranno ridondanti e, senza troppi giri di parole, l’IA li sostituirà. Di conseguenza, l’IA è un’opportunità ma anche una sfida sociale importante. La perdita di posti di lavoro può causare turbolenze economiche e rivolgimenti sociali, soprattutto nel caso in cui le transizioni non vengono gestite in modo efficace.

Questi cambiamenti richiederanno politiche abili, che includeranno la riconversione dell’istruzione oltre che investimenti nella riqualificazione e nell’aggiornamento delle competenze dei dipendenti. I governi devono anche finanziare programmi sociali efficaci che aiutino le persone durante i periodi stessi di transizione. Allo stesso tempo, proteggere i posti di lavoro esistenti non può essere la risposta politica principale alla rivoluzione dell’IA.

 Vorrei entrare nel vivo della questione riguardante la regolamentazione. Nel suo libro “Digital Empires: The Global Battle to Regulate Technology” descrive i tre diverse approcci di regolamentazione dell’IA negli Stati Uniti, nell’UE e in Cina. Quali sono le differenze?

Il libro “Digital Empires” mostra che stanno emergendo tre modelli di regolamentazione, con le tre principali potenze digitali – gli Stati Uniti, la Cina e l’Unione Europea – che perseguono un approccio di governance che riflette i loro interessi e i loro valori. Gli Stati Uniti seguono un approccio orientato al mercato, la Cina un approccio orientato allo Stato e l’UE un approccio orientato ai diritti per la regolamentazione dell’IA.

Il modello statunitense si concentra sulla protezione della libertà di parola, di Internet e sugli incentivi all’innovazione. Il governo degli Stati Uniti vede l’IA come un’opportunità per generare progresso economico e solidificare la leadership tecnologica e militare americana in mezzo alla crescente guerra tecnologica tra Stati Uniti e Cina. La primazia del lato economico e geopolitico, ha reso la regolamentazione in secondo piano negli Stati Uniti. Di conseguenza, finora è emerso solo un insieme di standard volontari, affidando alla autoregolamentazione delle società tecnologiche la fiducia nella regolamentazione.

In contrasto, il governo cinese ha adottato un approccio orientato allo Stato per regolare l’economia digitale. La Cina sta intraprendendo uno sforzo ambizioso per rendere il paese la principale superpotenza tecnologica a livello globale. Inoltre, il governo si concentra sul rafforzamento del controllo politico del Partito Comunista Cinese attraverso l’uso di tecnologie digitali come strumento di censura, sorveglianza e propaganda. Questi istinti orientati allo Stato stanno guidando anche l’approccio del governo cinese all’IA. Il governo sta sovvenzionando pesantemente lo sviluppo dell’IA per potenziare le capacità dell’IA cinese. Inoltre sta utilizzando l’IA per la sorveglianza di massa dei cittadini per preservare la stabilità sociale. Il riconoscimento facciale alimentato dall’IA può servire direttamente alle esigenze del governo di esercitare il controllo politico, l’IA generativa di tipo ChatGPT, può minare tale controllo rendendo più difficile la censura. Questa preoccupazione è uno stimolo per la Cina a regolamentare l’IA.

L’Unione Europea si è distinta sia dagli Stati Uniti che dalla Cina, aprendo la strada al proprio modello di regolamentazione che si concentra sui diritti degli utenti e dei cittadini. Secondo l’UE, la trasformazione digitale non può essere lasciata alle aziende tecnologiche per essere governata, ma deve essere saldamente ancorata allo stato di diritto e alla governance democratica. L’UE sta estendendo il suo approccio orientato ai diritti fondamentali per regolamentare l’IA. I legislatori sono nelle fasi finali dell’adozione di una legge sull’IA, l’AI Act, che cerca di mitigare i rischi dell’IA e garantire la protezione dei diritti fondamentali delle persone. Secondo la bozza di legge, saranno vietati i sistemi di IA che sfruttano le vulnerabilità delle persone o manipolano il comportamento umano. Sarà vietata la sorveglianza predittiva, così come l’uso del riconoscimento facciale in tempo reale nei luoghi pubblici, poiché compromette i diritti e le libertà fondamentali degli esseri e mette gran parte della popolazione sotto costante sorveglianza. I sistemi di IA che possono portare a discriminazioni nell’accesso all’occupazione o ai benefici pubblici non saranno vietati, ma saranno strettamente regolamentati. Anche se allo stato attuale la legge è solo una bozza, secondo le previsioni l’UE avrà una regolamentazione vincolante sull’IA in vigore entro 2023.

Quale di questi tre modelli ritiene che sia il più efficiente per la protezione dei diritti umani e dei posti di lavoro?

Mentre gli Stati Uniti e la Cina lottano per la predominanza tecnologica e l’influenza globale, molti governi sono ancora preoccupati sia dal modello orientato al mercato americano che dal modello orientato allo Stato cinese, considerano il modello americano troppo permissivo e quello cinese troppo oppressivo. Per i vari paesi, il modello regolatorio orientato ai diritti dell’UE offre una terza via desiderabile: controlla il potere delle società, protegge i diritti fondamentali, preserva le strutture democratiche della società. Questi governi, che condividono le preoccupazioni dell’UE per i rischi associati all’IA non regolamentata, come risultato finale potrebbero adottare una variante dell’AI Act dell’UE.

Come vede evolvere il settore dell’IA nel prossimo futuro?

È impossibile prevedere gli sviluppi dell’IA e i modi specifici in cui cambierà le vite individuali e le società. Alcune delle trasformazioni potrebbero richiedere più tempo di quanto ci aspettiamo. Tuttavia, è chiaro che il nostro futuro non dovrebbe essere lasciato in mano agli sviluppatori di IA. Quest’ultima deve essere soggetta allo stato di diritto e alla supervisione democratica in modo che possiamo assicurarci collettivamente che la tecnologia possa esprimere il suo potenziale proteggendo anche l’umanità dai rischi insiti nell’uso dell’IA.

Allo stesso tempo, i governi hanno una grande responsabilità nel definire e garantire la giusta regolamentazione. Non possiamo permetterci di rinunciare ai benefici innovativi per le nostre economie e società. Ma le complessità e le incertezze non dovrebbero essere un’ostacolo ad una regolamentazione ponderata. Uno degli obiettivi del libro “Digital Empires” è stato quello di dare ai governi e agli individui gli strumenti per prendere delle scelte ponderate in materia di regolamentazione dell’intelligenza artificiale e delle altre tecnologie digitali.