Sztuczna inteligencja
Etyka dla maszyn

Co zrobić, gdy decyzje podejmuje maszyna, na przykład w ruchu ulicznym?
Co zrobić, gdy decyzje podejmuje maszyna, na przykład w ruchu ulicznym? | Foto (Fragment): © RioPatuca Images – Fotolia.com

W toku cyfryzacji człowiek ceduje część odpowiedzialności na urządzenia techniczne. Jakie decyzje mogą podejmować maszyny i jak radzimy sobie z konsekwencjami? Kwestią tą zajmuje się w Niemczech komisja etyczna.

Kierowca jedzie szosą. Nagle dostrzega zbliżający się z naprzeciwka samochód wyprzedzający inny pojazd. Ma tylko dwie możliwości uratowania się: albo gwałtownie skręci kierownicę, z impetem zjedzie na pobocze i wypadnie na łąkę prosto w grupkę bawiących się dzieci, albo pozostanie na jezdni, mając nadzieję, że drugi kierowca zjedzie z drogi. Niezależnie od tego, jak ostatecznie postąpi, decyzja, jaką podejmie, już choćby z uwagi na krótki czas na tę reakcję, nie będzie świadoma, lecz instynktowna. Żaden sąd na świecie nie wpadłby na pomysł, by go za to skazać.
 
Sytuacja przedstawiałaby się inaczej, gdyby kierowcą był robot. Czyli gdyby chodziło o jeden z pojazdów autonomicznych, które już od lat poruszają się po drogach w ramach jazd testowych dla Google’a czy Audi. Wyposażony w superszybkie procesory komputer miałby dość czasu na podjęcie decyzji, która musiałaby być już jednak wpisana w jego oprogramowanie, w algorytm. Ale jaką decyzję należy podjąć w takiej sytuacji? I kto ponosi za nią odpowiedzialność?

Wytyczne dla algorytmów

Aby rozstrzygnąć takie dylematy, rząd niemiecki powołał jesienią 2016 roku tak zwaną komisję etyczną do spraw jazdy autonomicznej. Pod kierunkiem byłego sędziego Federalnego Trybunału Konstytucyjnego Udo Di Fabio kilkunastu naukowców, informatyków, inżynierów i filozofów roztrząsa kwestie odpowiedzialności za podejmowane decyzje w przypadku pojazdów autonomicznych i opracowuje standardy, których jak dotąd jeszcze nie ma. „Dopóki nie będzie w tej dziedzinie bezpieczeństwa prawnego, żadne przedsiębiorstwo nie zainwestuje w taką technologię” – mówi Armin Grunwald, fizyk i filozof, który jest członkiem komisji etycznej, a ponadto prowadzi Biuro Oceny Skutków Postępu Technicznego przy Bundestagu.
 
Wraz z pojazdami autonomicznymi społeczeństwo wkracza na nieznany teren. Człowiek ceduje część odpowiedzialności na komputer, który prowadzi pojazd. „Na wyzwania rewolucji w mobilności odpowiemy tylko wtedy, gdy stworzymy klarowne wytyczne dla algorytmów” – wyjaśnia niemiecki minister transportu Alexander Dobrindt na wstępnym posiedzeniu komisji etycznej w październiku 2016 roku. Na podstawie jej zaleceń ma zostać uchwalona ustawa, która zezwoli na użytkowanie pojazdów autonomicznych na drogach publicznych. Dokument ma określić, jaką odpowiedzialność ponosi człowiek, a jaką komputer, a także zapewnić bezpieczeństwo prawne zarówno klientom, jak i kierowcom, uczestnikom ruchu drogowego oraz producentom pojazdów. Armin Grunwald jest przekonany, że za tym pierwszym krokiem zrównującym człowieka i maszynę nastąpią kolejne. „Nadszedł już czas, by stworzyć etykę dla sztucznej inteligencji”.

Science-fiction przeciera szlaki

Szlaki przetarł rosyjsko-amerykański biochemik i autor science-fiction Isaac Asimov. W 1942 roku opublikował opowiadanie Zabawa w berka, w którym sformułował słynne prawa robotów. Pierwsze z nich mówi, że robot nie może wyrządzić krzywdy człowiekowi albo dopuścić do niej przez zaniechanie. W drugim i trzecim prawie jest mowa o tym, że robot musi wykonywać rozkazy człowieka i chronić swoje własne życie, o ile tylko nie stoi to w sprzeczności z pierwszym prawem.
 
W 1983 roku, wraz z powstaniem prototypów broni autonomicznej, Asimov rozwinął nadrzędne, tak zwane zerowe prawo robotów: „Robot nie może skrzywdzić ludzkości lub doprowadzić do uszczerbku ludzkości poprzez zaniechanie działania”. Prawo to jest podstępne, maszyny mogłyby bowiem wywieść z niego daleko idące wolności, choćby decyzję o zabiciu kogoś, kto zagraża dobru ludzkości.

Nierozwiązywalny dylemat

Niemiecka komisja etyczna do spraw jazdy autonomicznej nie musi jeszcze snuć tak daleko idących rozważań. Obszarem jej działań jest przede wszystkim ryzyko odpowiedzialności. Zgodnie z dzisiejszym rozumieniem to właściciel odpowiada zawsze za szkody: posiadacz psa za swego pupila, rodzice za dzieci. A co będzie, jeśli szkode spowoduje błąd w oprogramowaniu? Wówczas roszczenia spadłyby na producenta. Planuje się więc obowiązkowe instalowanie w samochodzie tak zwanej czarnej skrzynki, która rejestrowałaby dane przejazdu. W razie wypadku można by stwierdzić, kto prowadził: człowiek czy komputer.
 
Komisja sformułowała już kilka zasad: algorytm komputera powinien przedkładać szkody materialne nad szkody poniesione przez ludzi. Nie może też kategoryzować ludzi, choćby według wzrostu czy wieku. W przypadku drobnych stłuczek stosunkowo łatwo wdrożyć te zasady. Inaczej przedstawia się kwestia przejaskrawionego dylematu opisanego na wstępie. Czy życie wielu osób można przeliczyć na życie kilku osób?
 
Również nad takim przypadkiem obszernie debatowała komisja etyczna – opowiada Armin Grunwald. Sęk w tym, że w takiej sytuacji nie można sobie wyobrazić decyzji, którą dałoby się etycznie uzasadnić, ponieważ ludzkiego życia nigdy nie można wartościować. Mówi o tym choćby zasada równości zawarta w Powszechnej Deklaracji Praw Człowieka i w niemieckiej konstytucji. Producenci mogliby rozwiązać ten dylemat technicznie, wbudowując w pojazd generator przypadku. On miałby decydować w takich sytuacjach. Tylko kto chciałby jechać takim samochodem?