Mesterséges intelligencia
Az algoritmusok olyanok, mint a konyhai receptek

A forráskód úgy működik, mint a konyhai recept: az algoritmusok nagyban meghatározzák életünket.
A forráskód úgy működik, mint a konyhai recept: az algoritmusok nagyban meghatározzák életünket. | Fotó (részlet): © Adobe

De hogy jól sikerüljön az étel, nagy gonddal kell kiválasztani a hozzávalókat. Beszélgetés Sebastian Schelter algoritmus-szakértővel arról, hogy milyen döntéseket hoz helyettünk a mesterséges intelligencia, és miképpen befolyásolja az életünket.

Mesterséges intelligencia és önálló tanulásra képes számítógép – ez egy kicsit még mindig scifinek hangzik, de igazából már itt van a mindennapjainkban. Az algoritmusok nem csak azt határozzák meg, hogy mit látunk és hallunk a streamingszolgáltató oldalakon, hanem bizonyos helyeken már azt is ők döntik el, ki kaphat hitelt, és azt is előre meg tudják mondani, mi a valószínűsége, hogy egy elítélt újra szembekerül a törvénnyel. De tulajdonképpen mi az az algoritmus, és milyen hatással van a mesterséges intelligencia az életünkre?

Az alaprecept: az algoritmus

„Az algoritmus először is lépések sorozata. Úgy lehet elképzelni, mint egy konyhai receptet: vannak a hozzávalók, ezek esetünkben a számítógépes programhoz betáplált információk. És aztán a recept lépésről lépésre megmondja, minek kell történnie ahhoz, hogy elkészüljön az étel” – magyarázza Sebastian Schelter algoritmus-szakértő, aki az Amszerdami Egyetemen az adatmenedzsment és a gépi tanulás kutatója.
 
Ebből a szempontból az algoritmusok nem jelentenek újdonságot, minden számítógépes program ennek az elvnek az alapján működik. Ami igazán foglalkoztat bennünket, amikor manapság az algoritmusok növekvő befolyásáról beszélünk, az a gépi tanulás: „Egy hagyományos számítógépes program esetében az ember minden lépést megad, hogy meg lehessen oldani egy bizonyos problémát. De vannak olyan problémák, amelyeknél nem igazán tudjuk pontosan megmondani a számítógépnek, hogyan oldja meg őket” – mondja a szakértő. A gépi tanulásnál ezért más lesz a kiindulópont.

Sebastian Schelter a berlini Műszaki Egyetemen doktorált, utána a New York University és az Amazon Research kutatója volt. Az Amszterdami Egyetem juniorprofesszoraként az adatmenedzsment és a gépi tanulás összefüggésének problémáival foglalkozik.
Sebastian Schelter a berlini Műszaki Egyetemen doktorált, utána a New York University és az Amazon Research kutatója volt. Az Amszterdami Egyetem juniorprofesszoraként az adatmenedzsment és a gépi tanulás összefüggésének problémáival foglalkozik. | Fotó: © Sebastian Schelter

Főzőcske haladóknak: a tanulékony algoritmus

„Egyszerű példa erre a spamszűrő, amelynek meg kell különböztetnie a reklámleveleket a személyes üzenetektől. Annak az embernek a számára, aki ilyen programot ír, ez nem könnyű probléma. Meg lehet adni bizonyos kritériumokat és szabályokat, amelyek alapján elvben fel lehet ismerni a reklám-emaileket – például az időpont, amikor elküldik őket, vagy bizonyos szavak, amelyek előfordulnak a levél szövegében. Csakhogy egy idő után elérkezünk az emberi képességek határához” – ecseteli Schelter a nehézségeket.
 
A gépi tanuláshoz ezért nem programozzák explicit módon a számítógépet, hanem példákat mutatnak neki. A legjobb megoldást aztán ő találja meg. Az egész recept helyett a programozó csak a kívánt eredményt adja meg, amelyet a programnak elő kell állítania.
 
„Ebben az esetben azt adjuk meg, hogy ezer emailt szeretnénk fogadni, és betöltünk jó néhány negatív példát olyan reklámüzenetekből, amilyeneket nem szeretnénk fogadni – mondja Schelter. – Az algoritmus aztán a példákból kiindulva megbecsüli annak valószínűségét, hogy egy új üzenet reklám vagy nem reklám. A nagy különbség abban áll, hogy a hagyományos programozásnál az ember pontosan megadja az egyes lépéseket, míg a tanulékony algoritmus a példák és a statisztikai valószínűségek alapján saját kiválasztási kritériumokat állít fel.”

A mesterséges intelligencia csele

A tanulékony algoritmusok bizonyos problémákat nemcsak gyorsabban oldanak meg az embereknél, hanem jobban is. Amikor 2019-ben a Pluribus nevű program profi pókerjátékosokat győzött le, kiderült, hogy a mesterséges intelligencia azt is képes megtanulni, hogy jobban blöfföljön, mint egy ember. A képességeivel együtt a befolyása is növekszik. Például az egészségügyben, a pénzvilágban és az igazságszolgáltatásban.
 
Németországban is naponta szembesül az emberek túlnyomó többsége az okos algoritmusok döntéseivel. „Tudományos szempontból ezek absztrakt matematikai eljárások, amelyeket sokféle területen lehet alkalmazni. Például, hogy kiderítsék, mennyire valószínű, hogy egy bizonyos személy visszafizeti a hitelt” – mondja Sebastian Schelter.
 
Az Egyesült Államokban és Ausztráliában felmerült a gyanú, hogy bizonyos algoritmusok etnikai diszkriminációt érvényesítenek a döntéseikben. „Ez részben annak köszönhető, hogy már azokban a példákban is benne van a diszkrimináció, amelyeket az algoritmusnak megadnak. Ha aztán csak vakon futtatják az algoritmust, akkor az reprodukálja a diszkriminációt” – magyarázza a szakértő a probléma gyökerét.

Egy tapintatos algoritmus?

Mindenekelőtt szögezzük le, hogy az algoritmusok és a mesterséges intelligencia határainak kijelölése nem technikai, hanem etikai kérdés. Vagy esetleg meg lehet tanítani a tapintatra egy algoritmust?
 
„Ez a kérdés pillanatnyilag nyitott probléma. A személyes véleményem az, hogy vannak területek, ahol az algoritmus hibás döntésének nincsenek súlyos következményei – például ha a streamingszolgáltató oldal nem megfelelő dalt játszik le a számomra. Aztán vannak olyan területek, ahol jól lehet használni az algoritmust arra, hogy ajánlatot tegyen, de a végső döntést az embernek kell meghoznia. És olyan területek is vannak, amelyeket egyszerűen át kell engedni az emberi ítélőerőnek“ – véli Schelter.
 
„Az Egyesült Államokban használnak olyan algoritmusokat, amelyek megbecsülik, mekkora a valószínűsége, hogy egy elítélt visszaesővé válik. A bíróságok és a döntéshozó testületek hozzáférnek ezekhez az adatokhoz, amikor az elítéltek feltételes szabadlábra bocsátásáról döntenek.“ Felmerül a kérdés: igazságos dolog ez?
 
„Az igazságosság témáját matematikai szempontból nem lehet megközelíteni, mert az filozófiai, politikai, jogi kérdéseket érint. Mindenkinek más elképzelése van arról, mi az igazságos és mi nem, és matematikai módszerekkel nem lehet az igazságosság valamennyi definícióját egyszerre érvényesíteni.
 
Azok a kutatások, amelyek az algoritmusok döntéseit abból a szempontból vizsgálták, mennyire mentesek a részrehajlástól, szintén azt mutatták ki, hogy a tapintat ügyében van még tanulnivaló. Sok területen előbb etikai, politikai és jogi érvekkel kell megegyezésre jutni abban, hogy bizonyos esetekben mi a „helyes” döntés. Csak utána lehetne rábízni a feladatot egy algoritmusra. „De még akkor is válaszra vár az a filozófiai és politikai kérdés, hogy egyáltalán akarjuk-e ezt” – mondja befejezésül Sebastian Schelter.