Che in futuro lontano le intelligenze artificiali possano “far fuori” gli umani è roba da film fantascientifico ma che come gli umani, questi robot e algoritmi possano “peccare” e commettere reati non lo è. L’intelligenza artificiale oggi dipende dal deep learning, l’auto-apprendimento autonomo attraverso l’analisi di enormi volumi di dati per poi identificare relazioni non necessariamente «captabili» dall’intelligenza umana.
Non sono isolati gli episodi che ci sono stati a Wall Street e dintorni di sistemi intelligenti che, davanti alle istruzioni dei loro creatori di massimizzare il ritorno sugli investimenti che gestiscono, hanno sviluppato autonomamente meccanismi di collusione con altri computer realizzando condotte che, se realizzate da umani, sarebbero certamente illegali.
Quando un computer commette un crimine (per conto suo, autonomamente) di chi è la colpa? Questi sistemi si auto-programmano. È proprio per ciò chi li chiamano intelligenti. Come si fa a dimostrare il dolo, l’implicita colpevolezza che la dottrina penale richiede per la condanna? E, riuscendoci, come si punisce un computer? Gli si spegne l’elettricità per 18 mesi con la condizionale?
Sono queste le domande che si pone un articolo di ItaliaOggi riportando uno studio Ocse pubblicato sul Financial Times secondo cui la risposta a queste domande sono le prinicpali sfide per i regolatroi nel breve termine.
Trovare la maniera di prevenire la collusione tra algoritmi di auto-apprendimento potrebbe essere una delle più grandi sfide che i regolatori della concorrenza abbiano mai affrontato. Non c’è base legale per attribuire la responsabilità penale o civile al programmatore di un computer che in seguito, attraverso l’autoapprendimento, impari da solo come coordinare i prezzi con altre macchine.