Social Robotics
Nauczyć się żyć z robotami

Starsza kobieta z założonymi rękami siedzi naprzeciw robota
Roboty „społeczne”: często mają w sobie coś ludzkiego. | Foto (fragment): picture alliance / BSIP | BSIP

Kiedy maszyny zaczynają uczestniczyć w naszym życiu, społeczeństwo potrzebuje nowych zasad. Rozmowa z Johanną Seibt, filozofką prowadzącą badania w nowej dziedzinie nauki – filozofii robotyki – na uniwersytecie w Aarhus oraz pomysłodawczynią organizowanej co dwa lata konferencji, która w 2020 roku odbyła się w dniach 18–21 sierpnia online.

Stefan Heidenreich

Czego możemy się spodziewać, gdy roboty uczestniczą w naszym życiu?

Około dwóch dekad temu z robotyki wyodrębniła się nowa dyscyplina social robotics, czyli socjorobotyka. W przeciwieństwie do robotów przemysłowych tak zwane roboty „społeczne” zbudowano i zaprogramowano w taki sposób, by przez swój wygląd, sposób poruszania się, reakcje językowe i funkcje interaktywne sprawiały wrażenie partnera interakcji społecznych.

Co ciekawe, tworzenie robotów wyposażonych w „inteligencję społeczną” miało pierwotnie czysto teoretyczne podłoże, ale praktyczne zastosowania szybko stały się oczywiste. Roboty, które możemy traktować, „jakby były ludźmi” – tak w 2002 roku sformułowała „marzenie” socjorobotyki Cynthia Brazeal – umożliwiają prima facie zastępstwo ludzi, a przynajmniej niektórych czynności wykonywanych we współpracy z innymi ludźmi.

Wydaje się, że najnowsze osiągnięcia w dziedzinie sztucznej inteligencji, szczególnie związane z rozpoznawaniem emocji i przetwarzaniem mowy, coraz bardziej zbliżają socjorobotykę do realizacji tego marzenia, a polityczni decydenci już zaczynają myśleć o konkretnym wykorzystaniu robotów „społecznych” w opiece nad osobami starszymi, w wychowaniu dzieci, w niektórych usługach w administracji komunalnej i tak dalej. Rozwój socjorobotyki w Japonii wyraźnie łączy się ze starzeniem się społeczeństwa i związanym z tym niedoborem wykwalifikowanych pracowników. Odsyłam w tym miejscu do książki Jennifer Robertson Robot Sapiens Japanicus z 2018 roku.

W przeciwieństwie do robotów przemysłowych tak zwane roboty „społeczne” zbudowano i zaprogramowano w taki sposób, by przez swój wygląd, sposób poruszania się, reakcje językowe i funkcje interaktywne sprawiały wrażenie partnera interakcji społecznych.

Johanna Seibt

Trwająca obecnie debata publiczna skupia się przede wszystkim na korzyściach i zagrożeniach ze strony sztucznej inteligencji, ale gdy tylko oprogramowanie „staje na nogi”, otwierają się zupełnie nowe – pozytywne i negatywne – wymiary ingerencji w przestrzeń człowieka. Hasło Przemysł 4.0 zakrywa polityczny wymiar automation age (jak pisał McKinsey w A Future that Works, 2017), w którym dla każdej czynności oblicza się automated potential. Obecnie potencjał automatyzacji czynności z dużym udziałem interakcji społecznych jest raczej niski, jednak w miarę postępów w socjorobotyce systematycznie rośnie.
 
Pandemia COVID-19 przynosi zupełnie nowe możliwości wykorzystania robotów „społecznych” w telekomunikacji. Bodaj wszyscy doświadczyliśmy, jak ważna w procesie komunikacji jest dla naszego mózgu możliwość postrzegania partnera trójwymiarowo i w fizycznej obecności. Prosty przekaz informacji przez Zooma jest możliwy, ale nieporównanie trudniejsze są procesy decyzyjne i myślenie kreatywne – wiem o tym z autopsji. Tak zwane roboty komunikacyjne, które „ucieleśniają” sygnały odległych fizycznie rozmówców, oferują nowe formy zdalnej obecności.
 
Przytacza pani „marzenie” socjorobotyki. Czy socjorobotyka zajmuje się utopią?

Mam ogromną nadzieję, że uda nam się sprawić, by o wykorzystaniu robotów „społecznych” nie zadecydował rynek. Liczę, że wprowadzenie ich do użytku będzie środkiem politycznym i zostanie uregulowane w publicznej debacie o wartościach, w oparciu o zasady demokratyczne. Aby to umożliwić, musimy stworzyć nowe interdyscyplinarne struktury badawcze, gałęzie kształcenia i profile zawodowe, które zagwarantują, że społeczna debata o wartościach nie będzie siała paniki czy snuła technologiczno-utopijnych fantazji, lecz będzie się opierać na wiedzy. Obecnie polityka kilku krajów europejskich stanowi kombinację z jednej strony zarządzania skupionego na innowacjach technologicznych, z drugiej zaś humanities bashing, czego konsekwencją jest społeczne postrzeganie nauk humanistycznych jako nieważnych i dlatego mniej wartych wsparcia. Jeśli socjorobotyka ma odegrać rolę środka politycznego, musimy posiadać kulturową wiedzę ekspercką jako jej centralny element. Krótko mówiąc, jeszcze nigdy nauki społeczne i humanistyczne nie miały tak dużego znaczenia, jak mają obecnie – im bardziej technologia przenika bezpośrednio, w roli aktora społecznego do fizycznych i symbolicznych przestrzeni ludzkich interakcji, tym większa jest potrzeba tego typu eksperckiej wiedzy, którą inżynierowie nie dysponują.

Rzeczywistość socjorobotyki jest nad wyraz wielowarstwowa i rodzi głębokie pytania o kwestie społeczne i wartości polityczne, których jak na razie nie potrafimy nawet sensownie sformułować, a co dopiero na nie odpowiedzieć.

Johanna Seibt


Aby wyjaśnić to dokładniej, muszę powrócić do „marzenia” o robocie „społecznym”. Co nam się tutaj właściwie roi? Nic nowego – fantazja człowieka o mechanicznym pomocniku jest prastara i przewija się w świecie wyobrażeń Zachodu i Wschodu od wczesnego antyku aż po współczesność. To marzenie o niezmordowanym, niezniszczalnym pomagierze, który często posiada nadludzkie moce i zdolności. Hollywood oferuje nam dziś dobroduszne (R2D2 i C3PO z Gwiezdnych wojen), a nawet autoironiczne (TARS z Interstellar) wersje tego odwiecznego marzenia, które z punktu widzenia psychologii może się wydawać infantylne. Kulturowo-historyczna długowieczność jakiegoś marzenia w kulturze nie stanowi jednak gwarancji jego politycznej wykonalności. Marzenia są niespójne, a przede wszystkim nie są kompletne. Rzeczywistość socjorobotyki jest nad wyraz wielowarstwowa i rodzi głębokie pytania o kwestie społeczne i wartości polityczne, których jak na razie nie potrafimy nawet sensownie sformułować, a co dopiero na nie odpowiedzieć.
 
Kształtowania naszych przyszłych relacji społecznych nie możemy pozostawić (wyłącznie) kulturowej wyobraźni młodych specjalistów od robotyki, którzy oczywiście mają jak najlepsze chęci. Choć istnieje wiele opisów pojedynczych przypadków, daleko nam jeszcze do możliwości oceny psychologicznych, socjologicznych i politycznych skutków wykorzystania robotów na masową skalę. Uwzględnienie wiedzy humanistycznej może nam pomóc w kulturowo zrównoważonym rozwoju takiej formy socjorobotyki, którą można implementować politycznie.
 
Projekt „Human-Robot Interaction Research” trwa od około półtorej dekady. W jakim punkcie znajduje się obecnie dyskusja na temat praktycznego wykorzystania robotów?
 
Właściwie powinno być oczywiste, że ingerując w rzeczywistość społeczną przy użyciu nowego typu quasi-społecznych pośredników, należy posiłkować się wiedzą ekspercką ze wszystkich istotnych dyscyplin naukowych. Mimo to do dziś socjorobotykę oraz HRI (Human Robot Interaction Research) opisuje się zasadniczo przy użyciu terminologii dyscyplin takich, jak robotyka, psychologia i design studies, które nie oddają złożoności naszej społeczno-kulturowej rzeczywistości.
 
O dziwo, wkład, jaki antropologia i filozofia mogą wnieść do analizy nowych praktyk społecznych, nie został potraktowany poważnie. Zdumiewa mnie też, że i odwrotnie: wielu antropologów i filozofów nie zauważyło jeszcze licznych ważnych zadań, które należałoby rozwiązać w dziedzinie socjorobotyki. W 2004 roku Gianmarco Veruggio zaapelował o utworzenie „etyki robotyki”. Z kolei ja oraz koledzy z uniwersytetu w Aarhus stworzyliśmy w 2014 roku nową dyscyplinę, filozofię robotyki, gdyż mowa tu nie tylko o zagadnieniach etycznych, ale również o pytaniach teoretycznych dotyczących przyszłości. Robophilosophy Conference Series, które uruchomiłam wraz z Marco Norskovem i które organizuję, stały się tymczasem największym wydarzeniem w dziedzinie humanities research in and on social robotics. Przygotowujemy się właśnie do konferencji Robophilosophy 2020: Culturally Sustainable Robotics, która ma się odbyć online w dniach 18-21 sierpnia 2020 r. W Danii dotarliśmy już do etapu, w którym zalecenia ministerstwa kierowane do europejskich urzędów wsparcia finansowego badań w obszarze technologii robotów wyraźnie uwzględniają wymiar kulturowy. Również w Niemczech coraz silniej dochodzi do głosu pogląd, że zastosowania o charakterze kulturowo zrównoważonego rozwoju mogą powstać jedynie w interdyscyplinarnych zespołach projektantów, w których stałe miejsce od samego początku mają humaniści.
 
Czy może pani przybliżyć, jakie pytania stawia socjorobotyka?
 
Proszę sobie wyobrazić, że McDonald’s we wszystkich swoich filiach wprowadza roboty-sprzedawców o wyglądzie atrakcyjnej kobiety. Jaki wysłanoby w ten sposób kulturowy i społeczno-polityczny sygnał? A jaki sygnał wysłanoby pod adresem osób wymagających opieki i ich krewnych, gdyby do domów starców zakupiono roboty-dźwigaczy wyglądające jak wielkie pluszowe misie? Aby kompetentnie przeanalizować te kwestie, potrzeba analitycznych pojęć i metod z zakresu etyki i wiedzy o kulturze, które nie są jeszcze mocno zakorzenione w wielodyscyplinarnym repertuarze socjorobotyki. 

Etyka robotyki już od jakiegoś czasu zwraca uwagę na społeczno-polityczne skutki sygnałów wysyłanych wraz z decyzją o designie. Istnieją jednak głębsze problemy. Roboty społeczne o określonych własciwościach uruchamiają w człowieku przedświadome mechanizmy procesów poznawczych. Jako posiadacze „mózgu społecznego” mamy tendencję do fałszywego postrzegania robotów o pewnym wyglądzie i poruszających się w określony sposób jako naszych pobratymców bądź wręcz jako jednostki obdarzone moralnością. Jesteśmy skorzy przypisywać im świadome zamiary, uczucia, a nawet przyznawać prawa. Początkowo socjorobotyka miała na celu wykorzystanie tej skłonności do antropomorfizacji. Z czasem stała się nieco ostrożniejsza. Fakt, iż tak chętnie wciągamy roboty do kręgu aktorów, a nawet podmiotów społecznych, stawia nas przed fundamentalnym problemem, wykraczającym poza dziedzinę etyki – problemem opisu. Roboty społeczne nie są narzędziami – są zjawiskiem, dla którego nie mamy jeszcze żadnej kategorii.

Jako posiadacze „mózgu społecznego” mamy tendencję do fałszywego postrzegania robotów o pewnym wyglądzie i poruszających się w określony sposób jako naszych pobratymców bądź wręcz jako jednostki obdarzone moralnością.

Johanna Seibt

Nasze poznanie społeczne predysponuje nas do używania opisów, które są zarówno błędne, jak i nie do końca błędne. Robot nic nie „rozpoznaje”, „odpowiada”, „widzi”, „pyta”, „przynosi”, „wybiera” – w tym celu musiałby mieć świadomość i inne zdolności poznawcze, które do tej pory uważaliśmy za zdolności wyłącznie ludzkie. Takie określenia są zatem niewłaściwe. Z drugiej strony, gdyby były one właściwe, wówczas określenia dotyczące działań społecznych człowieka zredukowalibyśmy do zachowań stricte zewnętrznych. Robot „rozpoznaje mnie” jest słusznym określeniem, jeśli utożsamiamy „rozpoznanie” z określonym zachowaniem. Tego typu zredukowane interpretacje często stosujemy w przypadku zwierząt – pies rozpoznaje i wita właściciela. Jednak w tym przypadku jest jasne, że chodzi o inne, metaforyczne „rozpoznanie” i „przywitanie”, bo pies nie mówi przecież: „Jak miło, że wreszcie jesteś z powrotem”.
 
Co do robotów „społecznych”, musimy zadać sobie pytanie, jak dalej postępować w kwestiach normatywnych i pojęciowych. Czy usunąć cudzysłów w określeniu roboty „społeczne”? Innymi słowy, czy mamy pożegnać się z dawnymi pojęciami opisującymi działania społeczne i dopuścić, by wszystko, co zachowuje się według określonych wzorców, było aktorem społecznym? Jeśli zwierzęta mają prawa, to dlaczego nie roboty? A może powinniśmy używać pojęć w dawnym znaczeniu i upierać się, że tylko ten ma prawa, kto doświadcza fenomenologii świadomości i może o tym mówić?
 
W tym miejscu wkraczamy w obszar filozofii teoretycznej, czyli filozofii umysłu oraz ontologii i filozofii polityki. Demokratyczne społeczeństwa Zachodu legitymizują autorytet polityczny za pomocą oświeceniowego pojęcia osoby. Właśnie to pojęcie, które ściśle wiąże się ze społecznym subiektywizmem człowieka, podaje obecnie w wątpliwość socjorobotykę. W maju 2016 roku Parlament Europejski zaproponował, aby zaawansowanym robotom nadać status Electronic Person. Dyskusja, która się potem wywiązała, pokazała, jak bardzo mogą zadrżeć fundamenty myślenia politycznego, jeśli to, co zawsze przynależało do siebie – osoba, podmiot społeczny, rozum, inteligencja, uczucie – nagle zostanie rozdzielone.
 
Często mówi się, że roboty odbiorą nam pracę. Jak pani postrzega tę kwestię?
 
Przejawia się tutaj społeczno-polityczny wymiar socjorobotyki, który zasygnalizowałam wcześniej. Jeśli wykorzystanie robotów „społecznych” będzie rozważne i oparte na zasadach robotyki o kulturowo zrównoważonym rozwoju, moim zdaniem będzie raczej na odwrót: powstaną nowe profile zawodowe, a nacisk będzie położony na współpracę między robotami „społecznymi”. Staniemy przed zadaniem dokładnej analizy możliwych form współpracy – ujmując hasłowo: koordynacja versus kooperacja versus praca zespołowa. Przede wszystkim chodzi o to, jak powinno się je opisać, ponieważ właściwie – na tym polega paradoks – roboty (pracownicy) nie mogą tak naprawdę „pracować”.

Powstaną nowe profile zawodowe, a nacisk będzie położony na współpracę między robotami „społecznymi”.

Johanna Seibt

Coraz częściej będzie pożądana ekspercka wiedza z zakresu filozofii, zwłaszcza jeśli polityka opowie się za modelem socjorobotyki integracyjnej, ale też niezależnie od niego. Już teraz firmy zajmujące się sztuczną inteligencją, np. Deep Mind, poszukują etyków. Jednakże – tkwi to już w definicji nowego obszaru badawczego filozofii robotyki jako philosophy of, for, and by social robotics – socjorobotyka umożliwia także filozofii przybieranie nowych form. Filozofowie robotyki mogą proponować techniczne rozwiązania dla problemów etycznych i badać je w eksperymentach. Dla przykładu, w Aarhus zajmujemy się obecnie zagadnieniem, czy nierówne traktowanie, które w trakcie rozmów kwalifikacyjnych wynika z uprzedzeń genderowych lub innych związanych z wyglądem kandydatki/kandydata, można zredukować, wykorzystując robota telekomunikacyjnego o neutralnym wyglądzie.

Wiele się słyszy o botach w komunikacji politycznej. Z czym mamy tu do czynienia w porównaniu do pani modelu?
 
Chodzi o dwie różne rzeczy. W naszym modelu ISR (socjorobotyka integracyjna) skupiamy się na kulturowo trwałym wykorzystaniu fizycznych robotów „społecznych” w transparentnym, opartym na wartościach, partycypacyjnym procesie, który obejmuje wiedzę ekspercką z zakresu wszystkich istotnych dyscyplin, a zwłaszcza kultury. W przypadku botów, które dziś zaburzają procesy polityczne – od komunikacji aż po fałszerstwa wyborcze – chodzi o coś odwrotnego, o ukryte, manipulacyjne procesy, które służą interesom władzy.
 
Niezależnie od problemu bezpieczeństwa politycznego, które stwarza automatyczne profilowanie, nie doceniamy, jak bardzo uczące się algorytmy współczesnej sztucznej inteligencji mogłyby podważyć nasze dotychczasowe rozumienie uzasadnienia politycznych i prawnych procesów decyzyjnych. Do tej pory procesy te opierały się na normach etycznych, które ze swojej strony ustalono dzięki praktykom normatywnym, jak debaty eksperckie. Obecnie zaczynamy zastępować „refleksyjną równowagę dyskursu eksperckiego” automatycznym procesem indukowania norm kierującym się etycznymi intuicjami pewnej liczby nie-ekspertów, którzy przypuszczalnie nie są reprezentatywni. Nasuwa się zasadnicze pytanie, do jakiego stopnia pożegnamy się, praktycznie i teoretycznie, z ludzkim rozumem i procesami dyskursywnymi, którymi posługiwaliśmy się od tak dawna w podejmowaniu racjonalnych decyzji.


Stefan Heidenreich (carta.info) przeprowadził wywiad drogą mailową.