Na skróty:

Przejdź bezpośrednio do treści (Alt 1) Przejdź bezpośrednio do menu głownego (Alt 2)

AI i prawo
Co wolno robotowi?

A co, jeśli popełni błąd? Robot humanoidalny „Pepper” pracuje w domu opieki w Erlenbach.
A co, jeśli popełni błąd? Robot humanoidalny „Pepper” pracuje w domu opieki w Erlenbach. | Foto (fragment): © picture alliance / REUTERS / Kai Pfaffenbach

Sztuczna inteligencja ułatwia nam życie na wiele sposobów. Ale na kim ciąży odpowiedzialność, gdy algorytmy i roboty popełniają błędy?

Johannes Zeller

Sztuczna inteligencja znajduje zastosowanie we wszystkich dziedzinach życia codziennego. I jeśli chodzi o jej umiejętności, w coraz większym stopniu upodabnia się do nas ludzi: algorytmy potrafią nie tylko logicznie myśleć, ale mogą być również kreatywne, a roboty samodzielnie uczą się nowych rzeczy. Co to oznacza w kontekście porządku prawnego? Czy robot może mieć takie same prawa i obowiązki jak każdy z nas?
Kto ponosi winę, kiedy pojazd autonomiczny popełni błąd? Tego typu kwestie związane ze sposobem traktowania sztucznej inteligencji zajmują prawników i prawniczki, a także rządy wielu krajów. Kto ponosi winę, kiedy pojazd autonomiczny popełni błąd? Tego typu kwestie związane ze sposobem traktowania sztucznej inteligencji zajmują prawników i prawniczki, a także rządy wielu krajów. | Foto: © picture alliance/dieKLEINERT/Markus Grolik Kwestiami tego typu zajmują się etycy, prawnicy i rządy wielu krajów. Błądzenie bowiem jest rzeczą nie tylko ludzką: autonomiczne programy samodzielnie podejmują decyzje, a te mogą być chybione. Przed popełnieniem błędu nie uchroni ich nawet najdoskonalszy algorytm. Jako przykład można wymienić pojazdy autonomiczne. Podobnie jak wszyscy uczestnicy ruchu drogowego również one muszą przestrzegać przepisów. Co prawda, w przeciwieństwie do ludzi można je zaprogramować w taki sposób, by nie poczuły nawet najmniejszej pokusy przekroczenia dozwolonej prędkości bądź wykonania niebezpiecznego manewru wyprzedzania. Co się jednak stanie, jeśli niewłaściwie zareagują użytkownicy innych pojazdów? Na przykład gdy na jezdnię wtargnie rowerzysta. Wyobraźmy sobie, że manewr ominięcia naraziłby na utratę życia osobę idącą po chodniku. Czy pojazd należy wyposażyć w program, który pozwoli mu podjąć takie ryzyko i wykonać ten groźny manewr? Może powinien o tym sam zdecydować? A jeśli decyzja okaże się zła, to kto poniesie odpowiedzialność?

Czy sztuczna inteligencja powinna mieć osobowość prawną?

Ażeby zawczasu stworzyć podstawy prawne dla tak skomplikowanych przypadków, w 2017 roku Parlament Europejski przedstawił propozycję nadania inteligentnym maszynom statusu  „osoby elektronicznej” – podobnie jak ludziom i przedsiębiorstwom – i uznania ich za podmioty prawne. Jednak badacze sztucznej inteligencji oraz prawoznawcy nie powitali tego pomysłu ze szczególnym entuzjazmem. W liście otwartym do Komisji Europejskiej dwieście pięćdziesięcioro ekspertów sprzeciwiło się tej inicjatywie. Ich zdaniem opiera się ona na fałszywym założeniu, że nie można odpowiedzieć na pytanie, na kim spoczywa odpowiedzialność w sytuacji, gdy złe decyzje podejmują roboty autonomiczne. Jak piszą nadawcy listu, to nieporozumienie wzięło się ze sposobu  przedstawiania robotów w fantastyce naukowej oraz w żądnych sensacji doniesieniach prasowych. Również niemieckie Ministerstwo Gospodarki i Energii nie widzi potrzeby ustanawiania statusu prawnego „e-osoby”. W dokumencie końcowym panelu na temat sztucznej inteligencji i prawa w kontekście Przemysłu 4.0 sformułowano wniosek, że sporne kwestie związane z wykorzystaniem inteligentnych maszyn można rozwiązać w ramach obowiązującego porządku prawnego. Autorzy tekstu konkludują: „Systemy sztucznej inteligencji jak dotąd nie osiągnęły stopnia autonomii, który uniezależniałby je całkowicie od działań człowieka”. W związku z tym za skutki korzystania z technologii sztucznej inteligencji odpowiedzialność nadal musi ponosić człowiek. Ostatecznie nie można jej zrzucić ot tak na nieożywioną maszynę lub program komputerowy.

Robot jako twórca?

Na przeciwległym biegunie jest pytanie, kto miałby czerpać zyski z własności intelektualnej będącej wytworem sztucznej inteligencji. Temat nie jest całkowicie nowy. Podobne pytania pojawiły się już w latach sześćdziesiątych XX wieku, kiedy eksperymentowano z robotami-malarzami. Tyle że stworzone przez nie wówczas prace opierały się zazwyczaj na algorytmach probabilistycznych, których żadną miarą nie można porównywać z ludzką inteligencją. Wydaje się jednak, że przez ostatnie dziesięć lat sztuczna inteligencja zdołała osiągnąć nowy poziom rozwoju, co we wspomnianym dokumencie uznaje Ministerstwo Gospodarki i Energii. Obecnie roboty piszą całe scenariusze filmowe i komponują utwory muzyczne. Nie sposób nawet porównać tych zdolności z ówczesnym gryzmoleniem na chybił trafił. Czy robot może zatem zostać twórcą?
 
Prawnicy i prawniczki chętnie wskazują na pewien precedens ze świata zwierząt. W 2008 r. angielski fotografik David J. Slater wręczył swój aparat fotograficzny makakowi Naruto, który przy jego użyciu zrobił sobie „małpie selfie”. Trzy lata później zdjęcie obiegło internet i rozpowszechniło się na całym świecie. Międzynarodowa organizacja walcząca o prawa zwierząt PETA usiłowała dochodzić roszczeń przed sądem i sprawić, by dochody związane z rozpowszechnianiem zdjęcia przekazywano na rzecz Naruto. W konsekwencji rozpoczął się długotrwały spór prawny, który toczył się na terytorium Stanów Zjednoczonych. W 2017 roku Slater przystał na niecodzienną ugodę pozasądową i zobowiązał się do przekazywania jednej czwartej przyszłych zysków z udostępniania selfie na konto PET-y. Jednakże sąd apelacyjny w San Francisco ugody tej nie uznał. W uzasadnieniu wyroku podkreślono, że Naruto nie miał prawa głosu przy zawieraniu porozumienia oraz że w ten sposób dąży się do ustanowienia precedensu. Ponadto PETA musiała pokryć koszty honorarium adwokata wynajętego przez Slatera. Fotografika uznano za autora zdjęcia. Później zresztą zaskarżył on niemiecki zespół punkowy Terrorgruppe, który wykorzystał na okładce płyty rzeczone zdjęcie bez jego zgody. Urząd Praw Autorskich USA orzekł, że prawa autorskie przysługują tylko i wyłącznie ludziom, a zatem nie mogą ich posiadać ani zwierzęta, ani roboty.
 
Obecnie ani sądy, ani rządy nie zwalniają człowieka z odpowiedzialności za konsekwencje korzystania z opracowanej przez niego sztucznej inteligencji nawet wtedy, gdy ich wynalazki same stają się wynalazcami. Prawa i obowiązki nadal dotyczą użytkowników sztucznej inteligencji względnie tych, którzy ją wdrażają. Takie zapisy znalazły się w brytyjskiej Ustawie o prawach autorskich, wzorach i patentach z 1988 roku, kiedy to pojawienie się na rynku komputerów domowych zrodziło podobne pytania, jakie rodzą się dziś wobec uczących się robotów. Także Komisja Europejska powoli zaprzyjaźnia się z tą ideą. W 2020 roku opublikowała komunikat na temat kształtowania cyfrowej przyszłości Europy, w którym stwierdza, że technologii zawsze należy używać w służbie ludzkości i kierować się jej prawami.