Emotion Recognition Technologies
„Nem beszélhetünk előnyökről”

Mivel jár az, ha a számítógép képes felismerni és dekódolni az érzelmeket? Interjú Alexa Hagerty kutatóval, aki a Cambridge-i Egyetemen a mesterséges intelligencia etikai vonzataival foglalkozik.

Hagerty asszony, Ön más tudósokkal együtt létrehozta az Emojify.info elnevezésű weboldalt, amely sok pozitív visszajelzéssel büszkélkedhet. Mi a weboldal célja?

Az „Emojify”-t azért fejlesztettük ki, hogy animációk, ún. komoly játékok (serious games) és kérdések segítségével érthető közelségbe hozzuk az érzelemfelismerő technológiák (ERT) korlátait és hatását. Bemutatja például, hogy hogyan képes a számítógép észlelni, majd leolvasni az arckifejezéseket azért, hogy felismerje és dekódolja érzelmeinket. Azt szeretnénk feltárni, hogy mennyire van tudatában, mennyire érti a közvélemény ezeket az érzelemfelismerő technológiákat, ill. hogy hogyan viszonyul ezekhez. Nem titkolt célunk az is, hogy nyilvános vitát kezdeményezzünk ezek lehetséges társadalmi hatásairól.

Hogyan működik a weboldal?          

Gyakorlati tapasztalattal szolgál a játékosoknak arról, hogy hogyan is működnek az ERT-vel való interakciók, miközben azt a kérdést feszegeti, hogy valóban helyesen képes-e leolvasni érzéseinket ez a technológia? Az első játék, amelynek a Szem/Pilla nevet adtuk, képeket dob fel, amelyek esetében azt kell eldönteni a játékosoknak, hogy az adott szituációban pislogásról vagy kacsintásról van-e szó – mintegy azt bizonyítva ezzel, hogy egy ERT-modell nem tudja megtenni ugyanezt, mivel képtelen megérteni azokat a kontextuális információkat, amelyek a kettőt megkülönböztetik egymástól. A „Hamis vigyor” nevű játékban a játékosoknak be kell csapniuk a számítógépes modellt azáltal, hogy gyorsan váltogatják a különböző arckifejezéseket, rácáfolva ezzel arra az MI-elméletre, amely szerint a kívülről látható grimaszok megfeleltethetőek bizonyos belső érzelmi állapotoknak. A játék végeztével a felhasználóknak kérdéseket tesznek fel, amelyek az ERT-ről szerzett újdonsült tudásukat hivatottak ellenőrizni.

Miben látja az esetleges kockázatokat?

Ami a faji elfogultságot illeti, egy tanulmány kimutatta, hogy a rendszerek hajlamosak a színesbőrű emberek arcát dühösebb érzelmekkel összefüggésbe hozni, mint fehér társaikét. Az ERT-k, csakúgy, mint minden mesterséges intelligencián alapuló arcfelismerő rendszer, gyakran elfogultak, diszkriminatívak, és tévesen azonosítanak be, ill. értelmeznek helyzeteket, ha olyan emberekről van szó, akik eltérnek a „fehér európai férfi” egyezményesen feltételezett megjelenési normájától.

Mindazonáltal az ERT-k is egy elméleten alapulnak, mégpedig azon, amelyet először Paul Ekman pszichológus fogalmazott meg az 1960-as években. Eszerint az emberi érzelmek biológiai eredetűek, és nem különböznek kultúrák szerint. Ekman hat alapvető érzést különít el – az örömet, a szomorúságot, a félelmet, a haragot, a meglepetést és az undort –, amelyeket nemcsak hogy egyetemesen élünk meg, de egyetemesen egységes mimikával is fejezünk ki. Ezt a leegyszerűsítő elméletet az utóbbi években egyre gyakrabban kérdőjelezték meg, sőt, egyenesen meg is cáfolták – ám ez nem akadályozta meg, hogy az olyan nagyvállalatok, mint a Microsoft, az IBM vagy az Amazon ne dobják piacra saját érzelemfelismerő technológiáikat, amelyek ráadásul nem átallották azt is állítani, hogy ők pontosan képesek felismerni ezeket az ún. egyetemes kifejeződéseket. "Ez az emberi érzelmek redukcionista felfogása" - érvel Igor Rubinov antropológus, aki többek között az „Emojify” fejlesztését is vezette. Az ilyen technológiáknak a való életben történő használatával rendkívül óvatosan kell bánni, állítja, sőt, még azt is megkockáztatja, hogy határozatlan időre fel kellene függeszteni azt.

Ezt a technológiát tudományos felülvizsgálatnak, és politikai szabályozásnak kell alávetni.

Alexa Hagerty

Hogyan lehetne csökkenteni az ERT negatív hatásait?

Ezt a technológiát tudományos és szigorú emberi jogi felülvizsgálatnak, illetve politikai szabályozásnak kell alávetni, bizonyos felhasználásokat pedig – talán az összeset is – be kellene tiltani, mivel azok összeegyeztethetetlenek az emberi jogokkal.

Van-e egyáltalán előnye az ERT-nek?

Nem beszélhetünk előnyökről, ha egy technológia alapvetően hibás, diszkriminatív, és még nem szabályozták megfelelően.

Milyen esetekben használják az ERT-t?

Sok vállalat használja az ERT-t arra, hogy lemérje, hogyan reagálnak termékeikre az ügyfelek. Használható olyan helyzetekben is, mint például a munkaerő-toborzás, vagy a repülőtéri biztonság biztosítása, amennyiben megpróbálják kiszűrni azokat az arcokat, amelyek megtévesztésre vagy félelemre utaló mimikát mutatnak. Ugyanígy bevethető a határellenőrzések során, vagy a rendőrségnél, veszélyes személyek azonosítására. Az oktatásban pedig annak megfigyelésére, hogy a diákok milyen fokú elköteleződést mutatnak a házi feladatok elvégzése közben.

Melyik vállalatok használják legnagyobb arányban az ERT-t?

Ezt nem kötik a nyilvánosság orrára. A legtöbb esetben nem tudjuk, hol és hogyan vetik be ezt a technológiát. Nagyrészt a nyilvánosság tudomása vagy beleegyezése nélkül használják, ráadásul gyakran a biometrikus technológia más formáinak részeként jelenik meg, például arcfelismerő rendszerekbe integrálva. Kutatásaink során azonban sikerült azonosítanunk néhány felhasználási területét napjainkban, ezek az emojify.info/resources oldalon találhatóak meg.
 

Alexa Hagerty a Drezdában megrendezett „Amikor a gépek jövőt álmodnak – A mesterséges intelligenciával való együttélés fesztiválja” elnevezésű programsorozat egyik előadója.

When Machines Dream the Future © schech.net

Amikor a gépek jövőt álmodnak
2021. november 12–14.
Deutsches Hygiene-Museum, Dresden
és online