Deloitte: la regolamentazione dell’AI diventerà più stringente. Ecco come e perché
Solitamente, la normativa “insegue” l’innovazione tecnologica, e finisce per disciplinarla “in ritardo”. Ma nel caso delle applicazioni dell’intelligenza artificiale (AI, quali machine learning, deep learning e reti neurali), pare che la legge stia tenendo il passo con l’innovazione. Ne è convinta Deloitte Global, che prevede che già quest’anno s’intensificheranno le discussioni su una regolamentazione più sistematica dell’AI. Le proposte saranno poi attuate probabilmente dal 2023 in poi. Con la regolamentazione del settore dell’AI che diventerà così più pervasiva e stringente.
I primi segnali di questa accelerazione in atto risalgono al 2021, quando sono arrivate una proposta di regolamento dell’AI da parte della Commissione europea e un policy paper della Federal Trade Commission (FTC, ovvero l’agenzia governativa Usa per la tutela del consumatore), finalizzati entrambi a regolamentare in maniera più decisa l’AI. Parallelamente, la Cina sta proponendo numerosi regolamenti sulle aziende tecnologiche, alcuni dei quali riguardanti anche l’AI. Dal canto suo, l’Italia ha lanciato il nuovo programma strategico, che grazie al lavoro congiunto di tre ministeri ha prodotto 24 raccomandazioni di azione, con un approccio collaborativo e inclusivo. Ma quali sono le motivazioni dietro a questa “corsa alla regolamentazione” su scala globale?
Le ragioni dietro all’accelerazione della normativa sull’AI
Innanzitutto, l’AI quest’anno sarà più potente rispetto a soli cinque anni fa, grazie a processori più veloci, software migliori e basi dati più grandi. Ecco perché, secondo Deloitte, l’intelligenza artificiale sta diventando pervasiva e onnipresente, attirando pertanto l’attenzione dei legislatori. Molti di loro sono preoccupati per le implicazioni dell’AI, e in particolare del machine learning, su pregiudizi, discriminazioni, privacy e correttezza. Infine, i regolamenti sull’intelligenza artificiale si sono trasformati in strumenti competitivi a livello geopolitico: il paese che riuscirà a imporre uno standard globale sul settore potrà offrire un vantaggio competitivo alle aziende locali e svantaggiare quelle estere.
I rischi dell’AI
La commissaria della FTC americana Rebecca Kelly paventa il rischio che “le decisioni algoritmiche possano produrre risultati distorti, discriminatori e ingiusti in una varietà di sfere economiche ad alta posta in gioco, tra cui l’occupazione, il credito, l’assistenza sanitaria e gli alloggi”. Sebbene la FTC abbia alcuni strumenti esistenti che possono essere utilizzati per regolare meglio l’AI, “una nuova legislazione potrebbe aiutare ad affrontare più efficacemente i danni generati dall’AI e dal processo decisionale algoritmico”. È, infatti, difficile comprendere le ragioni dietro alle decisioni di un algoritmo e questa mancanza di trasparenza rende la regolamentazione dell’AI più difficile rispetto a quella di altre tecnologie più spiegabili e verificabili. I regolamenti mirano a prevenire che le decisioni basate sull’ intelligenza artificiale abbiano esiti negativi, come parzialità e ingiustizia, ma poiché i sistemi di AI responsabili di tali decisioni sono difficili da comprendere e controllare, può essere difficile prevedere tali esiti. In particolare, i bias codificati dall’AI possono discriminare per sesso, razza, preferenze sessuali, ricchezza, dato che l’intelligenza artificiale è “addestrata” sulla base di una serie di dati, che possono riflettere i pregiudizi umani e amplificarli. Nell’ambito delle risorse umane, sono già numerosi i casi in cui le decisioni prese dell’AI su promozioni, licenziamenti e stipendi sono state problematiche. Un altro caso di algoritmi “opachi, non responsabili e poco comprensibili” riguarda i sistemi automatici di moderazione dei contenuti.
Un altro potenziale problema dell’intelligenza artificiale riguarda la quantità di dati necessaria all’apprendimento ai sistemi di machine learning. La bozza del regolamento dell’Unione europea sull’AI specifica che “i set di dati di formazione, convalida e test devono essere pertinenti, rappresentativi, privi di errori e completi”. Ma le ultime due caratteristiche alzano un po’ troppo l’asticella per la maggior parte delle aziende.
I settori più colpiti dalla regolamentazione dell’AI
L’intelligenza artificiale supporta numerosi settori. In primis quello pubblico, ad esempio con tecnologie come il riconoscimento facciale, utilizzato dalle forze dell’ordine e dalla giustizia penale. Peccato che i regolamenti europei intendano vietarlo, salvo alcune eccezioni. In Italia, nel marzo 2022 il Garante della privacy italiano ha comminato all’americana Clearview AI una multa da 20 milioni di euro, oltre al il divieto di raccogliere ancora dati di utenti italiani, usarli e cancellare quelli in suo possesso. Clearview AI allena algoritmi di riconoscimento facciale, poi venduti a forze di polizia e aziende private, basati su fotografie pescate a strascico in rete tramite il data scraping.
L’AI è impiegata anche per l’assistenza sanitaria e l’istruzione, e ha un impatto su voti, borse di studio, prestiti agli studenti e azioni disciplinari. Si avvale dell’intelligenza artificiale anche il settore finanziario, nello specifico per credit scoring, prestiti, mutui, assicurazione e gestione patrimoniale (roboadvisor e robo4advisor). Altri settori, quali logistica, estrazione mineraria, produzione e agricoltura, potrebbero subire un minore impatto, in quanto i possibili problemi dall’AI riguardano la precisione e non bias a danno delle persone, sebbene potrebbero creare problemi a livello ambientale.
Secondo l’Osservatorio Artificial Intelligence della School of Management del Politecnico di Milano, il mercato dell’AI in Italia nel 2021 valeva 380 milioni di euro, con un aumento di valore del 27% rispetto all’anno precedente. Si tratta oltretutto di un valore raddoppiato in appena due anni, per il 76% commissionato da imprese italiane (290 milioni di euro), per il restante 24% come export di progetti (90 milioni di euro). Visti i trend di crescita del settore, si comprende meglio la crescente attenzione del legislatore nei suoi confronti.
Gli scenari evolutivi dell’AI
Secondo Deloitte Global, sono 4 le possibili evoluzioni dell’AI nei prossimi 2 anni, a fronte di una regolamentazione più stringente:
- le società colpite dai regolamenti in alcune giurisdizioni potrebbero chiudere le funzioni abilitate dall’AI oppure le loro filiali; in alternativa, potrebbero proseguire i loro affari e pagare le relative multe;
- mercati grandi e importanti come Europa, Usa e Cina potrebbero approvare regolamenti sull’AI contrastanti, complicando la vita alle aziende che si troverebbero in difficoltà nel rispettarli tutti;
- potrebbe emergere un “gold standard” della normativa sull’AI, sulla falsariga di ciò che è già accaduto per il regolamento europeo sul GDPR;
- i venditori e le piattaforme di AI potrebbero riunirsi in un consorzio e autoregolamentarsi per diventare più trasparenti e verificabili.
Comunque vada, Deloitte suggerisce che sarà maggiormente efficace una regolamentazione dell’AI agile e basata sul miglioramento rispetto a una inflessibile.