Robotica sociale
Imparare a vivere con i robot

Una donna anziana siede a mani unite di fronte a un robot
I robot “sociali”: spesso hanno qualcosa di umano | Foto (dettaglio): picture alliance / BSIP | BSIP

Quando le macchine iniziano a prendere parte alla nostra vita, si rende necessaria la definizione di nuove regole per la società. Una conversazione con la filosofa Johanna Seibt, che lavora all'Università di Aarhus nel nuovo settore di ricerca della “Robofilosofia” e su questo argomento ha dato vita a una conferenza svoltasi online dal 18 al 21 agosto di quest'anno.

Di Stefan Heidenreich

Signora Seibt, i robot stanno iniziando a partecipare alla nostra vita. Cosa dobbiamo aspettarci?
 
Da circa vent'anni esiste all'interno della robotica un nuovo ramo della ricerca, la social robotics, la robotica sociale; a differenza dei robot industriali, i cosiddetti robot “sociali” sono costruiti e programmati in modo tale che per il loro aspetto, i loro modelli di movimento, le reazioni linguistiche e le loro prestazioni funzionali interattive danno l'impressione di essere partner di interazione sociale.
 
È interessante il fatto che in origine le motivazioni per lo sviluppo di robot con un'“intelligenza sociale” erano puramente teoriche, mentre le prospettive pratiche sono state ben presto evidenti. I robot che possiamo gestire “come se fossero persone”, come nel 2002 Cynthia Breazeal ha formulato il “sogno” della robotica sociale, offrono prima facie la possibilità di sostituire gli esseri umani, o per lo meno i servizi individuali umani nel contesto della cooperazione con altre persone.
 
In effetti, gli ultimi sviluppi dell'Intelligenza Artificiale (IA), soprattutto nel campo del riconoscimento delle emozioni e dell'elaborazione del linguaggio, sembrano avvicinare la robotica “sociale” a questo sogno, e i decisori politici stanno già iniziando a pensare concretamente all'uso dei robot sociali nei settori dell'assistenza agli anziani, dell'istruzione, di alcuni servizi forniti dalle amministrazioni comunali, e così via. In Giappone, lo sviluppo della robotica sociale è stato esplicitamente collegato all'invecchiamento della società e alla corrispondente carenza di lavoratori qualificati - si veda il libro di Jennifer Robertson Robot Sapiens Japanicus (2018). 

A differenza dei robot industriali, i cosiddetti robot “sociali” sono costruiti e programmati in modo tale che per il loro aspetto, i loro modelli di movimento, le reazioni linguistiche e le loro prestazioni funzionali interattive danno l'impressione di essere partner di interazione sociale.

Johanna Seibt

La discussione pubblica è attualmente incentrata principalmente sulle prestazioni e i pericoli dell'uso di programmi di software di intelligenza artificiale, ma non appena a questo software “vengono date delle gambe”, sorgono dimensioni completamente diverse di intervento nei campi di azione umana, positive e negative. Lo slogan dell'industria 4.0 oscura la dimensione politica dell'era dell'automazione (McKinsey, 2017, A Future that Works, trad. lett. Un futuro che funziona), nel quale per ogni attività viene calcolato un automation potential, un potenziale di automazione. Attualmente, il potenziale di automazione delle attività con un'alta percentuale di interazione sociale è piuttosto basso, ma più si fanno progressi nella robotica sociale, più aumenta il potenziale di automazione di queste attività sociali.
 
La pandemia di COVID-19 ha aperto una prospettiva completamente nuova sui possibili impieghi dei robot “sociali”, nel campo delle telecomunicazioni. Tutti noi negli ultimi tempi abbiamo sperimentato quanto sia importante per la comunicazione che il nostro cervello possa percepire il partner dell'interazione in modo tridimensionale, fisico. Il semplice trasferimento di informazioni può essere possibile anche tramite Zoom, ma i processi decisionali e il pensiero creativo tra di loro sono molto più difficili, secondo la mia esperienza. I cosiddetti robot di comunicazione, che permettono di “incarnare” altrove i segnali di interlocutori fisicamente lontani, offrono nuove forme di “telepresenza”.
 
Lei cita un “sogno” e menziona la parola d'ordine “rivoluzione robotica” - la robotica “sociale” è un'utopia?
 
Spero davvero che riusciremo a non lasciare che l'uso dei cosiddetti robot “sociali” sia deciso dal mercato, ma piuttosto che potremo introdurli e regolarli come provvedimento politico, attraverso un discorso pubblico sui valori che sia democraticamente legittimato. Per rendere possibile tutto questo, tuttavia, dobbiamo creare nuove strutture di ricerca interdisciplinari, rami di formazione e profili professionali che possano garantire che il discorso sui valori sociali non si perda nell'allarmismo o nei sogni tecno-utopici, ma possa restare basato sulla conoscenza. In politica oggigiorno, in diversi paesi europei, c'è una combinazione tra gestione dell'innovazione basata sulla tecnologia da un lato e discipline umanistiche dall'altro, con il risultato che le discipline umanistiche sono considerate socialmente poco importanti e quindi meno degne di sostegno. Se vogliamo che la robotica “sociale” abbia successo come misura politica, allora abbiamo bisogno di competenze culturali come componente centrale. In parole povere, le scienze sociali e umanistiche non sono mai state così importanti come lo sono ora: più la tecnologia penetra direttamente, nel ruolo di agente sociale, negli spazi fisici e simbolici dell'interazione umana, più è necessaria una competenza di cui gli ingegneri non dispongono.

La realtà della robotica “sociale” è estremamente complessa e solleva profonde questioni sociali e politiche di valore che non siamo ancora in grado di formulare, e tanto meno di rispondere, in modo ragionevole.

Johanna Seibt


Per spiegarlo con più precisione, mi lasci ritornare al “sogno” del robot “sociale”. Cosa stiamo sognando veramente? Non si tratta di qualcosa di nuovo, il sogno umano dell'assistente meccanico è antichissimo, attraversa l'immaginario culturale occidentale e orientale dalla prima antichità ad oggi. È il sogno dell'aiutante instancabile e indistruttibile che spesso possiede poteri o abilità sovrumane. Hollywood oggi offre versioni fedeli - vedi R2D2 e C3PO di Star Wars - o autoironiche - vedi TARS di Interstellar – di questo sogno, che può sembrare infantile dal punto di vista psicologico. Ma la longevità storico-culturale di un sogno non è garanzia della sua fattibilità politica. I sogni non sono coerenti, e soprattutto i sogni non sono completi. La realtà della robotica “sociale” è estremamente complessa e solleva profonde questioni sociali e politiche di valore che non siamo ancora in grado di formulare, e tanto meno di rispondere, in modo ragionevole.
 
Non dobbiamo lasciare modellare le nostre future relazioni sociali (solo) dall'immaginazione culturale dei giovani robotizzatori, che naturalmente hanno le migliori intenzioni. Ci sono molti studi individuali, ma siamo ancora lontani dal poter stimare le conseguenze psicologiche, sociologiche e politiche di un uso diffuso. L'inclusione delle competenze nel settore delle discipline umanistiche può aiutarci a sviluppare una forma culturalmente sostenibile di robotica sociale che possa essere implementata anche politicamente.
 
La “Human-Robot Interaction Research” esiste da circa un decennio e mezzo. A che punto è la discussione sul suo impiego pratico?
 
In realtà, dovrebbe essere chiaro che se si interviene nella realtà sociale con un nuovo tipo di agente quasi sociale, si dovrebbe ricorrere alle competenze di tutte le discipline scientifiche rilevanti. Tuttavia, ancora oggi si lavora alla robotica “sociale” e all'HRI - Human Robot Interaction Research - soprattutto con discipline come la robotica, la psicologia e gli studi di design, che non rendono giustizia alla complessità della nostra realtà socio-culturale.
 
Detto in modo molto semplice: inaspettatamente, i contributi che l'antropologia e la filosofia possono dare all'analisi delle nuove pratiche sociali non sono stati presi quasi mai sul serio, e altrettanto inaspettatamente molti antropologi e filosofi, al contrario, non hanno ancora colto gli importanti compiti da svolgere nel campo della robotica “sociale”. G. Verruggio nel 2004 ha sollecitato l'istituzione della Robo-Ethics, e io e i miei colleghi nel 2014 abbiamo istituito il nuovo campo della Robofilosofia, poiché non si tratta solo di questioni etiche, ma anche di questioni teoriche di vasta portata. Le Robophilosophy Conference Series, che ho fondato e organizzo insieme al mio collega Marco Nørskov, sono diventati i più grandi eventi sulla Humanities Research in and on Social Robotics. Attualmente stiamo preparando la conferenza Robophilosophy 2020: Culturally Sustainable Robotics che si terrà dal 18 al 21 agosto 2020, questa volta come evento online. In Danimarca siamo arrivati al punto che le raccomandazioni del Ministero ai finanziamenti comunitari per la ricerca nel campo della tecnologia robotica tengono esplicitamente conto della dimensione culturale, e anche in Germania si comincia a comprendere che applicazioni culturalmente sostenibili possono essere create solo da team di sviluppo interdisciplinari in cui gli studiosi di scienze umanistiche abbiano un ruolo stabile fin dall'inizio.
 
Può farci un esempio che chiarisca quali questioni solleva la robotica “sociale”?
 
Immaginate che McDonalds introduca in tutte le sue filiali dei robot di vendita che abbiano l'aspetto di una donna attraente. Quali segnali culturali e socio-politici invierebbe? E quali segnali verrebbero inviati alle persone bisognose di cure e ai loro parenti se nelle case di riposo venissero acquistati robot di sollevamento con l'aspetto di grandi orsacchiotti? Per affrontare queste questioni con competenza, sono necessari concetti analitici e metodi di etica e competenza culturale che non sono ancora saldamente radicati nel repertorio multidisciplinare della robotica sociale. 
 
La robotica ha da tempo richiamato l'attenzione su questi effetti di richiamo socio-politici provocati dalle decisioni progettuali, ma ci sono dei problemi di fondo. I robot sociali con determinate caratteristiche innescano nelle persone meccanismi di cognizione sociale preconscia. A causa del nostro “cervello sociale” tendiamo a equivocare i robot che hanno un determinato aspetto e certi modelli di movimento come esseri della nostra stessa specie e persino come soggetti morali. Abbiamo la tendenza ad attribuire intenzioni coscienti, sentimenti e persino diritti a questi robot - che non devono nemmeno sembrare umani. La robotica sociale ha cercato inizialmente di sfruttare in modo mirato questa tendenza all'antropomorfismo. Nel frattempo, si è diventati un po' più cauti. Il fatto di includere così prontamente i robot nella cerchia degli agenti sociali e persino dei soggetti morali, di provare empatia per loro, di provare simpatia per loro stessi, ci pone di fronte a un problema fondamentale che va al di là dell'etica, un problema di descrizione. I robot sociali non sono strumenti - sono qualcosa per cui non abbiamo ancora una categoria.

A causa del nostro “cervello sociale” tendiamo a equivocare i robot che hanno un determinato aspetto e certi modelli di movimento come esseri della nostra stessa specie e persino come soggetti morali.

Johanna Seibt

La nostra cognizione sociale ci predispone all'uso di descrizioni che sono al tempo stesso false e non del tutto false. Un robot non “riconosce”, “risponde”, “vede”, “chiede”, “va a prendere”, “sceglie” nulla – per far questo avrebbe bisogno della coscienza e di altre capacità cognitive, che finora abbiamo considerato come capacità esclusivamente umane. Tali descrizioni sono quindi sbagliate. D'altra parte, se queste descrizioni fossero corrette, i termini per l'azione sociale umana si ridurrebbero a denotare un comportamento puramente esterno: il robot “mi riconosce” è una descrizione adeguata se “riconoscere” è equiparato all'esecuzione di un determinato comportamento. Con gli animali usiamo spesso interpretazioni così riduttive: un cane riconosce e saluta il suo padrone. Ma qui è chiaro che si tratta di un “riconoscere” e di un e “salutare” diversi, metaforici, perché il cane non dice: “È bello che sei finalmente tornato!”
 
Nel caso dei robot “sociali”, invece, dobbiamo chiederci come procedere in termini concettuali e normativi: dobbiamo togliere le virgolette dai robot “sociali”? Dobbiamo cioè abbandonare i vecchi concetti di azione sociale e permettere che tutto ciò che si comporta secondo certi schemi sia un agente sociale? Se gli animali hanno dei diritti, perché non i robot? Oppure dobbiamo mantenere il vecchio modo di intendere i concetti e insistere sul fatto che solo chi sperimenta la fenomenologia della coscienza ed è in grado di parlarne ha dei diritti?

Veniamo qui alle questioni di filosofia teorica, cioè della filosofia della mente, dell'ontologia e della filosofia politica. Le società democratiche occidentali legittimano l'autorità politica con l'aiuto di un concetto di persona che ha avuto origine all'epoca dei Lumi. Questo concetto di persona, strettamente legato alle capacità della soggettività sociale umana, è oggi messo in discussione dalla robotica “sociale”. Nel maggio 2016 il Parlamento Europeo ha proposto di conferire ai robot altamente sviluppati lo status di persone elettroniche. La discussione che ne è seguita ha mostrato quanto il nostro pensiero politico sia scosso quando ciò che è sempre appartenuto a noi - persona, soggetto sociale, ragione, intelligenza, sentimento - va improvvisamente in pezzi.
 
Si parla spesso di robot che ci portano via il lavoro. Cosa ne pensa?
 
Questa è la dimensione socio-politica della robotica “sociale”, a cui ho già accennato in precedenza. Con un uso prudente dei robot “sociali”, sviluppati secondo i principi della robotica culturalmente sostenibile, penso che sarà piuttosto il contrario: emergeranno nuovi profili professionali e l'attenzione si concentrerà sulla cooperazione con i robot “sociali”. Sarà importante indagare esattamente quali forme di cooperazione siano possibili e vantaggiose. Le parole chiavi saranno mera coordinazione contro cooperazione contro lavoro di squadra. Soprattutto, è importante il modo in cui questi verranno descritti, perché in realtà, ed è questo il paradosso, i robot (in inglese: workers) non possono effettivamente “lavorare”.

Emergeranno nuovi profili professionali e l'attenzione si concentrerà sulla cooperazione con i robot “sociali”.

Johanna Seibt


Le competenze della filosofia saranno sempre più richieste, soprattutto se i responsabili politici sceglieranno il modello della Robotica Sociale Integrativa, ma anche indipendentemente da questo. Le aziende di IA come Deep Mind sono già alla ricerca di esperti di etica. La robotica “sociale” però, e questo è intrinseco nella definizione del nuovo campo della filosofia robotica come filosofia della, per, e dalla robotica sociale, permette anche alla filosofia di assumere nuove forme. I robofilosofi possono proporre soluzioni tecniche a problemi etici e indagare in modo sperimentale su di essi. Ad esempio ad Aarhus stiamo attualmente indagando se l'ingiustizia sociale che deriva da pregiudizi di genere, o altri pregiudizi riguardanti l'aspetto dei candidati nei colloqui di lavoro può essere ridotta utilizzando un robot di telecomunicazione con un aspetto umano neutro.

Si sente parlare molto di bot nella comunicazione politica. Rispetto al suo modello con cosa abbiamo a che fare?
 
Si tratta di cose diverse. Nel nostro modello di ISR (Integrative Social Robotics) si affronta lo sviluppo di applicazioni culturalmente sostenibili di robot fisici e “sociali”, in un processo trasparente, basato sui valori e partecipativo, che include le competenze di tutte le discipline rilevanti e soprattutto le competenze culturali. I bot che attualmente stanno sconvolgendo i nostri processi politici, dalla comunicazione ai brogli elettorali, sono esattamente l'opposto: processi segreti e manipolativi guidati da interessi di potere.

Indipendentemente dai problemi di sicurezza politica che la profilazione automatica crea, credo che sottovalutiamo il modo in cui gli algoritmi di apprendimento dell'attuale IA potrebbero minare la nostra comprensione, così come l'abbiamo intesa sinora, della giustificazione dei processi decisionali politici e legali. Finora questi processi decisionali sono stati guidati da norme etiche, che a loro volta, come il dibattito degli esperti, sono state stabilite da pratiche normative. Ora stiamo cominciando a sostituire “l'equilibrio riflessivo del dibattito degli esperti” con un processo automatico di induzione della norma basato sulle intuizioni etiche di alcuni non esperti che potrebbero non essere affatto rappresentativi. Fondamentalmente si pone la questione di quanto possiamo congedarci, sia a livello pratico sia teorico, dalla ragione umana e dai processi discorsivi che per lungo tempo abbiamo utilizzato per prendere decisioni razionali.

Stefan Heidenreich (carta.info) ha condotto l'intervista via e-mail.

Top