L’IA e le leggi
Cosa è lecito per un robot?

E se commette un errore? Il robot umanoide “Pepper” viene impiegato in una casa di riposo a Erlenbach.
E se commette un errore? Il robot umanoide “Pepper” viene impiegato in una casa di riposo a Erlenbach. | Foto (dettaglio): © picture alliance / REUTERS / Kai Pfaffenbach

L’intelligenza artificiale ci facilita la vita sotto molti punti di vista. Ma di chi è la responsabilità se algoritmi e robot commettono degli errori? 

Di Johannes Zeller

Le intelligenze artificiali (IA) stanno trovando applicazione ovunque nella nostra quotidianità e le loro capacità stanno diventando sempre più simili a quelle umane, tanto che oggi gli algoritmi possono essere non soltanto logici, ma anche creativi e i robot sanno imparare da soli. Che significa questo in termini legali? Può un robot avere diritti e doveri come un essere umano?

Di chi è la colpa se l’auto a guida autonoma commette un errore? Questa e altre domande del genere sono al centro dei dibattiti politico-legislativi generati dai progressi dell’IA. Nel fumetto si legge: “Che noia questi rischi per la sicurezza nel traffico!”
Di chi è la colpa se l’auto a guida autonoma commette un errore? Questa e altre domande del genere sono al centro dei dibattiti politico-legislativi generati dai progressi dell’IA. Nel fumetto si legge: “Che noia questi rischi per la sicurezza nel traffico!” | Foto: © picture alliance/dieKLEINERT/Markus Grolik
Sono questioni al centro dei dibattiti etici, legali e governativi, perché errare è umano, ma non solo: se i programmi automatici possono prendere delle decisioni proprie, queste ultime possono anche essere sbagliate e neanche il miglior algoritmo può garantire che non accada. Un esempio in questo senso è l’automobile a guida autonoma: come tutti gli utenti della strada, deve sottostare a determinate regole e, contrariamente agli esseri umani, può essere anche programmata in maniera che non ceda alla tentazione di superare il limite di velocità o di effettuare un sorpasso rischioso. Che succede, però, se gli altri utenti della strada reagiscono in modo sbagliato? Per esempio, nel caso in cui improvvisamente sbucasse una bicicletta e la manovra per schivarla mettesse in pericolo un pedone sul marciapiede, come andrebbe programmata la macchina? Per rischiare la manovra? O per decidere autonomamente il da farsi? E se la sua decisione si dovessere poi rivelare errata, di chi sarebbe la responsabilità?

Bisognerebbe dare la personalità giuridica all’IA?

Per creare tempestivamente una base giuridica per casi di questa complessità, nel 2017 il Parlamento europeo ha proposto di conferire alle macchine intelligenti lo status di “persona elettronica”, riconoscendola come soggetto giuridico, similmente agli esseri umani e alle aziende. La reazione dei ricercatori del settore e degli esperti di diritto, tuttavia, non è stata entusiastica: in una lettera aperta alla Commissione europea, 250 esperti si sono espressi contro la proposta, considerandola fondata sul falso presupposto che non si possa risolvere la questione della responsabilità nel caso in cui i robot autonomi prendano decisioni sbagliate e frutto di un equivoco generato dalla rappresentazione fantascientifica e sensazionalista dei robot. Anche secondo il BMWi, Ministero Federale dell’Economia e dell’Energia, non sarebbe necessario creare lo status giuridico di una “e-person”. Il Ministero si esprime in questi termini in un rapporto sull’IA e la relativa regolamentazione giuridica nell’ambito dell’industria 4.0: “I sistemi di IA non hanno ancora raggiunto un grado di autonomia tale da non essere più ricollegabili a un comportamento umano”, e pertanto è ancora l’essere umano a detenere la responsabilità per le conseguenze dell’utilizzo dell’IA, e d’altronde la responsabilità non si può semplicemente scaricare su una macchina inanimata o un software.

Un robot autore?

A ciò si contrappone un’altra questione: a chi spetta il profitto quando un’IA crea proprietà intellettuale? La problematica non è del tutto nuova: negli anni ’60 se ne parlò in riferimento ai robot-pittori, benché i lavori da essi creati all’epoca fossero per lo più basati su algoritmi casuali e quindi neanche lontanamente paragonabili a un’opera dell’intelletto umano. Negli ultimi dieci anni, tuttavia, l’IA sembra aver “raggiunto una nuova fase di sviluppo”, ammette il BMWi nel rapporto già citato. Oggi i robot scrivono intere sceneggiature e compongono brani musicali che nulla hanno a che vedere con gli scarabocchi casuali del passato. E quindi? Può un robot diventare un autore?
 
Gli avvocati fanno volentieri riferimento a un precedente del mondo animale: nel 2008 il fotografo inglese David J. Slater ha dato la sua macchina fotografica a Naruto, un macaco, che si è scattato un selfie: tre anni dopo questo selfie è diventato virale e un’associazione animalista – la Peta – ha intentato una causa, chiedendo che i ricavi della foto andassero al macaco. La battaglia legale è durata anni negli USA e nel 2017 Slater ha accettato un accordo extragiudiziale, impegnandosi a donare alla Peta un quarto dei futuri ricavi dal selfie. La Corte d’Appello di San Francisco, tuttavia, non ha accettato l’accordo, respingendo il caso in quanto il macaco non aveva avuto voce in capitolo nell’accordo e considerando che si fosse trattato di un pretesto per creare un precedente, condannando la Peta al pagamento delle spese legali del fotografo, riconosciuto come autore della foto. E quest’ultimo ha successivamente fatto causa al gruppo punk tedesco Terrorgruppe per aver usato il famoso scatto sulla copertina di un album senza averne ottenuto i diritti. Lo US Copyright Office ha dichiarato che i diritti d’autore possono essere assegnati solo agli esseri umani, e pertanto non agli animali, né ai robot.
 
Per questi motivi, attualmente, tribunali e governi non sollevano gli esseri umani dalla responsabilità per l’IA che sviluppano, nemmeno se le loro invenzioni diventano loro stesse inventori. Diritti e doveri restano in capo a chi sfrutta o impiega l’IA. Il Copyright Designs and Patent Act britannico era già arrivato a questa decisione nel 1988, quando si era presentata la questione in seguito all’impiego dei primi “home computer”, generando dibattiti simili a quelli di oggi per i robot che imparano da soli. Nel frattempo, anche la Commissione dell’UE sembra avvalorare questo concetto: secondo una comunicazione di febbraio 2020 riguardo alla progettazione del futuro digitale dell’Europa, la tecnologia deve sempre essere usata al servizio dell’umanità e rispettarne le leggi.

Top