Sztuczna inteligencja
Algorytmy są jak przepisy kulinarne

Kod źródłowy działa niemal tak samo jak przepis kulinarny: algorytmy wpływają na nasze codzienne życie.
Kod źródłowy działa niemal tak samo jak przepis kulinarny: algorytmy wpływają na nasze codzienne życie. | Foto (Detail): © Adobe

Aby danie smakowało, należy starannie dobrać składniki. Rozmowa z ekspertem od algorytmów Sebastianem Schelterem o tym, jak sztuczna inteligencja zwalnia nas z obowiązku podejmowania decyzji i jaki ma to wpływ na nasze życie.

Johannes Zeller

Sztuczna inteligencja i samodzielnie uczące się komputery to coś, co wciąż jeszcze trąci fantastyką naukową, mimo że już dawno weszło do naszej codzienności. Algorytmy decydują nie tylko o tym, co proponują nam do oglądania i słuchania serwisy streamingowe. Coraz częściej to one rozstrzygają o przyznaniu komuś kredytu albo przewidują prawdopodobieństwo popełnienia kolejnego przestępstwa przez więźnia. Ale czym w istocie jest algorytm i jaki wpływ ma sztuczna inteligencja na nasze życie?

Podstawowy przepis: algorytm

„Algorytm to przede wszystkim sekwencja kroków. Można go sobie wyobrazić jako przepis kulinarny. Mamy zatem składniki, w tym przypadku wprowadzone do programu komputerowego dane. Przepis mówi nam, co należy po kolei zrobić, by prawidłowo przyrządzić potrawę” – wyjaśnia ekspert od algorytmów Sebastian Schelter, który na Uniwersytecie Amsterdamskim prowadzi badania w zakresie zarządzania danymi i uczenia maszynowego.

W takim ujęciu algorytmy nie są niczym nowym, wszak każdy program komputerowy działa na tej zasadzie. Ale gdy obecnie mówi się o coraz większym wpływie algorytmów, w gruncie rzeczy mamy na uwadze uczenie maszynowe. „W przypadku zwykłego programu komputerowego to człowiek zapisuje wszystkie kroki prowadzące do rozwiązania określonego problemu. Istnieją jednak problemy, które nastręczają trudności z zapisaniem dokładnych instrukcji tak, by komputer mógł je rozwiązać” – mówi ekspert. W uczeniu maszynowym stosuje się więc inne podejście. Sebastian Schelter doktoryzował się na Uniwersytecie Technicznym w Berlinie, a następnie prowadził badania w New York University i w Centrum Badań Amazon. Jest pracownikiem naukowym na Uniwersytecie w Amsterdamie i zajmuje się problemami na styku zarządzania danymi i uczenia maszynowego. Sebastian Schelter doktoryzował się na Uniwersytecie Technicznym w Berlinie, a następnie prowadził badania w New York University i w Centrum Badań Amazon. Jest pracownikiem naukowym na Uniwersytecie w Amsterdamie i zajmuje się problemami na styku zarządzania danymi i uczenia maszynowego. | Foto: © Sebastian Schelter

Gotowanie dla zaawansowanych: uczący się algorytm

„Prostego przykładu dostarcza filtr spamu, który ma odróżniać maile reklamowe od wiadomości prywatnych. Dla informatyka piszącego dlań program zadanie wcale nie jest takie proste. Można ustalić rozmaite kryteria i zasady, według których teoretycznie da się rozpoznać maile zawierające reklamy: godzinę ich wysłania albo określone słowa występujące w tekście wiadomości. Jednak w którymś momencie człowiek dociera do granic swoich możliwości umysłowych” – wyjaśnia naukowiec.

Uczenie maszynowe opiera się nie na programowaniu komputera explicite, lecz na pokazywaniu mu przykładów – najlepsze rozwiązanie znajduje on sam. Programista nie podsuwa mu całego przepisu kulinarnego, tylko pożądany wynik, którego ma mu dostarczyć program.

„W tym przypadku można wprowadzić tysiąc maili, które chce się otrzymywać, oraz cały szereg negatywnych przykładów maili reklamowych, które mają trafić do spamu” – kontynuuje badacz. „Na podstawie dostarczonych przykładów algorytm ocenia prawdopodobieństwo, czy nowa wiadomość jest reklamą, czy też nie. Ogromna różnica polega na tym, że w zwykłych programach to człowiek dokładnie ustala kolejne kroki, podczas gdy uczące się algorytmy same tworzą kryteria wyboru w oparciu o przykłady i statystyczne prawdopodobieństwo”.

Ograny przez sztuczną inteligencję

Uczące się algorytmy potrafią rozwiązać pewne problemy nie tylko szybciej, ale również lepiej niż człowiek. Kiedy w 2019 roku program „Pluribus” pokonał w grze profesjonalnych pokerzystów, sztuczna inteligencja pokazała, że może nauczyć się nawet blefować lepiej niż ludzie. Wraz z coraz większymi umiejętnościami algorytmów rośnie też ich wpływ. Choćby w systemie ochrony zdrowia, finansach i wymiarze sprawiedliwości.

Również w Niemczech większość ludzi styka się na co dzień z decyzjami bystrych algorytmów. „Z naukowego punktu widzenia mamy do czynienia z abstrakcyjnymi procesami matematycznymi, które można zastosować w wielu dziedzinach. Na przykład w celu określenia, jakie jest prawdopodobieństwo spłaty kredytu przez określoną osobą” – wyjaśnia Schelter.

W krajach takich, jak Stany Zjednoczone i Australia, algorytmy podejrzewa się o to, że przy podejmowaniu decyzji dyskryminują mniejszości etniczne. „Po części bierze się to stąd, że dyskryminacja zawarta jest w przykładowych danych przedstawionych algorytmowi. Jeśli pozwoli mu się działać na ślepo, będzie tę dyskryminację reprodukował” – wyjaśnia autor sedno problemu.

Algorytm z wyczuciem?

Pytanie o to, gdzie przebiegają granice wykorzystania algorytmów i sztucznej inteligencji, nie ma charakteru technicznego, lecz etyczny. A czy można nauczyć algorytm „wyczucia”?

„Kwestia ta pozostaje na razie otwarta. Osobiście uważam, że w niektórych dziedzinach fałszywa decyzja algorytmu nie niesie ze sobą poważniejszych skutków. Tak się dzieje na przykład, gdy serwis streamingowy podsunie mi złą piosenkę. Są jednak i takie obszary, w których można wykorzystać zalecenie algorytmu, ale ostateczną decyzję winien podjąć człowiek. Są wreszcie i takie sfery, które powinno się pozostawić wyłącznie ludzkiemu osądowi” – mówi Schelter.

„W Stanach Zjednoczonych algorytmów używa się do oceny prawdopodobieństwa popełnienia kolejnego przestępstwa przez osadzonego. Sądy i różnorakie gremia uzyskują dostęp do tych danych, kiedy mają podją decyzję w sprawie przedterminowego zwolnienia”. Nasuwa się pytanie: czy to jest sprawiedliwe?

„Trudno ująć kwestię sprawiedliwości w kategoriach matematycznych, ponieważ obraca się ona wokół zagadnień filozoficznych, politycznych i prawnych. Każdy rozumie coś innego przez pojęcie sprawiedliwości czy niesprawiedliwości. Za pomocą matematyki nie można wypełnić treścią wszystkich definicji sprawiedliwości na raz”.

Z badań poświęconych uczciwości decyzji algorytmów wynika, że w sprawie wyczucia jest jeszcze sporo do nadrobienia. Istnieje wiele obszarów, w których musimy uzgodnić kwestie etyczne, polityczne i prawne, w jaki sposób będzie się „słusznie” rozstrzygało określone przypadki. Dopiero wówczas można powierzyć to zadanie algorytmowi. „Ale nadal pozostanie filozoficzna i polityczna kwestia, czy w ogóle chcemy tak zrobić” – podsumowuje badacz.