L’intelligenza artificiale è una parola spesso usata nel mondo degli affari e dei media, ma sta già avendo effetti tangibili per una serie di industrie – non ultime quelle che si affidano a una notevole quantità di lavoro manuale. Man mano che l’intelligenza artificiale si avvicina alla maturità e che le imprese continueranno ad aumentare gli investimenti in questo settore, alcuni temono che non si presti sufficiente attenzione alle più ampie implicazioni sociali e morali della tecnologia artificiali.
Ecco quali sono secondo un gruppo di esperti a cui si è rivolta la CNBC i cinque scenari potenzialmente più spaventosi per il futuro dell’IA.
Disoccupazione di massa
La paura più comune tra gli analisti, e anche tra i lavoratori, è la probabilità che l’IA provochi una disoccupazione globale di massa, dato che i posti di lavoro diventano sempre più automatizzati e il lavoro umano non sarà più necessario. “La perdita di posti di lavoro è probabilmente la preoccupazione maggiore”, ha dichiarato Alan Bundy, professore alla scuola di informatica dell’Università di Edimburgo. Inoltre secondo Bundy, la perdita di posti di lavoro è la causa principale dell’aumento del populismo in tutto il mondo e cita come esempio l’elezione del presidente Donald Trump e la decisione del Regno Unito di ritirarsi dall’Unione europea, la Brexit.
Guerra
L’avvento dei cosiddetti “robot killer” e di altri usi dell’intelligenza artificiale nelle applicazioni militari ha suscitato forte preoccupazione tra gli esperti sul fatto che la tecnologia possa finire per sfociare in una guerra. Anche il CEO di Tesla, Elon Musk, ha avvertito l’anno scorso che la tecnologia potrebbe portare alla terza guerra mondiale. Il commento di Musk ha incanalato una paura molto reale per gli esperti.
“L’unico settore in cui penso veramente che la parola ‘spaventoso’ si applichi è quello dei sistemi d’arma autonomi … sistemi che possono sembrare o meno un robot”, ha detto Frank van Harmelen, ricercatore di AI alla Vrije Universiteit Amsterdam n.
Medici robotizzati
Altra preoccupazione per gli analisti quando si parla di Intelligenza Artificiale riguarda il settore sanitario. Se da una parte gli esperti sono per lo più d’accordo sui benefici che l’IA fornirà ai medici – come la diagnosi precoce delle malattie e l’accelerazione dell’esperienza sanitaria complessiva – alcuni medici e accademici temono che si possa andare troppo rapidamente verso una pratica medica basata che si basa solo sui dati. Un timore tra gli accademici è che le persone si aspettino troppo dall’intelligenza artificiale. “Tutte le applicazioni di AI di successo fino ad oggi sono incredibilmente efficaci, ma in un campo di applicazione molto limitato”, ha dichiarato Bundy dell’Università di Edimburgo.
Secondo Bundy, queste aspettative potrebbero avere conseguenze potenzialmente disastrose per un settore come quello sanitario.
Sorveglianza di massa
Gli esperti temono inoltre che l’IA possa essere utilizzata per la sorveglianza di massa. In Cina, questa paura sembra diventare realtà. In diversi comuni cinesi, la combinazione di tecnologia di riconoscimento facciale e IA viene utilizzata a beneficio delle autorità per reprimere la criminalità. Da qui i critici dicono che la spinta della nazione verso la sorveglianza totale è a dir poco uno scenario orwelliano.
Discriminazione
Infine la paura più grande che può derivare dall’IA è la discriminazione. Il pensiero va a Tay, “chat bot” di Microsoft, un algoritmo “parlante” dotato di intelligenza artificiale lanciato due anni fa per interagire su Twitter e su altre piattaforme con gli esseri umani ma ha causato grosse polemiche. Il motivo? La rete si sarebbe approfittata della modalità con cui Tay imparava – a pappagallo in pratica – e gli avrebbe insegnato messaggi razzisti, sessisti e offensivi. L’errore ha costretto Microsoft a tirare l’account e ha innescato un serio dibattito sul potenziale di pregiudizio dellIA. La questione, dicono gli esperti, si riferisce alla fattibilità di rendere AI un pensatore obiettivo, razionale, privo di pregiudizi a favore di una particolare razza, genere o sessualità.