La tecnologia porta sì grandi vantaggi ma anche grandi rischi per le aziende. A dirlo il uovo rapporto “The Rise of Artificial Intelligence: Future Outlook and Emerging Risks” stilato da Allianz Global Corporate & Specialty (AGCS), la compagnia del Gruppo Allianz specializzata nei grandi rischi, identifica sia i benefici sia i rischi emergenti legati alla crescente diffusione dell’IA nella società e nell’industria, compreso il settore assicurativo.
L’Intelligenza artificiale, nota anche come “machine learning” – dice il rapporto di Allianz – è essenzialmente un software in grado di pensare e imparare come un essere umano.
“L’IA presenta vantaggi e rischi potenziali in molti settori, come quello economico, politico, della mobilità, sanitario, della difesa e dell’ambiente. Per questo saranno necessarie strategie attive di gestione del rischio per massimizzare i benefici di una piena introduzione nella società di applicazioni avanzate di intelligenza artificiale”.
Così Michael Bruch, responsabile di Emerging Trends di AGCS. Il problema non è per le forme di oggi dell’Ia, che sono essenzialmente di base o weak, in grado di eseguire compiti specifici, ma per quelle future cosiddette “strong” che saranno in grado di risolvere problemi difficili ed eseguire transazioni complesse.
“L’IA sta trovando applicazione in quasi tutti i settori, dalle chatbot che offrono consulenza finanziaria all’aiuto ai medici nella diagnosi del cancro. (…) I maggiori rischi sono quelli informatici, visto che i software basati sull’IA potrebbero contribuire a ridurre il rischio informatico per le aziende rilevando meglio gli attacchi, ma potrebbero anche aumentarlo se gli hacker malintenzionati fossero in grado di assumere il controllo di sistemi, macchine o veicoli”.
Cinque le aree su cui si è concentrata l’Allianz per identificare i rischi emergenti dell’intelligenza artificiale e sono: accessibilità del software, sicurezza, accountability, responsabilità ed etica.
“In termini di sicurezza, ad esempio, la corsa all’immissione sul mercato dei sistemi di intelligenza artificiale potrebbe portare a controlli insufficienti, che sarebbero invece necessari per garantire l’impiego di sistemi di intelligenza artificiale sicuri, funzionali e cibernetici. Ciò potrebbe portare a un aumento dei prodotti difettosi con il conseguente ritiro dal mercato. Per quanto riguarda la responsabilità, in futuro i sistemi dell’IA potranno prendere molte decisioni al posto dell’uomo, ma non potranno essere ritenuti legalmente responsabili di esse. In generale, il produttore o il programmatore software dei sistemi IA è responsabile per i difetti che causano danni agli utenti. Tuttavia, le decisioni di IA che non sono direttamente correlate alla progettazione o alla produzione, ma che sono prese da un sistema IA a causa della sua interpretazione della realtà, non avrebbero alcuna parte responsabile esplicita, secondo la legge vigente. (…) Una soluzione alla mancanza di responsabilità giuridica consisterebbe nell’istituire agenzie o autorità competenti che elaborino un quadro di responsabilità in base al quale i progettisti, i fabbricanti o i venditori di prodotti IA siano soggetti a responsabilità civile limitata”.