Ausgesprochen ... posthuman Deepfake-tehnoloogia toob kaasa identiteedikriisi

Deepfake
Kas see juhtus päriselt? Inimesed võivad kaotada oma identiteedi deepfake’ile kiiremini, kui neile meeldiks. | Foto (fragment): Christian Gertenbach © Unsplash

Inimesed, kes oma pilte internetti riputavad, võivad kergesti deepfake’i sihtmärgiks langeda. Arvutid suudavad tänapäeval kasutada fotodelt pärit nägusid valeuudistes ja võltsitud pornovideotes. Liwen Qin tunneb muret tehnika uute võimaluste pärast.

Kas olete näinud 2016. aasta filmi „Rogue One: A Star Wars Story“? Kui jah, siis kas mäletate Grand Moff Tarkinit ja noort printsessi Leiat? Mõlemad on hästi mängitud rollid, kuid nad ei ole „päris“. Filmitegijad kasutasid näovahetus- ja videosünteesitehnoloogiat ning rekonstrueerisid nende abil elavate näitlejate näod ja asetasid need kunstlike dublantide peale. Mitte keegi ei näinud seda trikki läbi. See tehnoloogia paneb ühiskonna nüüd lahendamatute probleemide ette.

Arvutid õpivad üha paremini võltsima

Tehnoloogiat, mis loob tehisintellekti abil pilti ja heli, nimetatakse deepfake’iks (tuleb ingliskeelsetest sõnadest deep learning ja fake). See võlutrikk on olnud nii meelelahutus- kui ka pornograafiatööstuses aastaid laialt levinud. Nüüd läheb asi veel sammu võrra edasi: inimese miimika abil – see saadakse piltidelt ja videotelt – saab tehisintellekt luua inimesest täiesti uue mudeli. Tehnoloogia suudab luua näomudeli koguni üheainsa pildi alusel, kuigi tulemused pole veel väga veenvad. Deepfake’e luuakse avatud lähtekoodiga platvormidel ning neid töödeldakse ja parandatakse seal iga päev.

Võimalik on teha võltsitud alastipilte ja pornot

Deepfake-tehnoloogia kergemad sihtmärgid on poliitikud ja kuulsused, kellest on rohkelt avalikult kättesaadavaid pilte. Nende nägusid võidakse kasutada valeuudistes ja võltsitud pornovideotes. Kui inimesed avaldavad endast internetis selfisid ja lühivideoid, saab seda tehnoloogiat ka nende vastu kurjasti ära kasutada. Sellised juhtumid üha sagenevad. USA Virginia osariik oli hiljuti sunnitud täiendama nn kättemaksuporno seadust, lisades sinna ka deepfake’i. Sellega soovitakse takistada kättemaksuhimulistel inimestel kasutamast tehnoloogiat selleks, et oma endistele abikaasadele või kallimatele kahju tekitada. Hiljuti muutus internetis kättesaadavaks rakendus nimega DeepNude, millega saab naistest teha valealastipilte.

Kas see presidendikandidaat pooldab tõesti surmanuhtlust?

Oma identiteedi kaotamine deepfake’ile on inimeste jaoks piisavalt murettekitav. Veel murettekitavam on aga võimalus, et deepfake’i kasutatakse valeuudiste tootmiseks. Selle tehnoloogia sihipärane kasutamine poliitilistel eesmärkidel võib raputada demokraatia alustalasid ning seega ühiskondliku konsensuse saavutamise mehhanismi. Kas presidendikandidaat pooldas eravestluses tõesti surmanuhtlust? Mitte keegi ei saa tõestada, kas see tegelikult nii oli.

Kuna tehisintellekt suudab äärmiselt kiiresti õppida, pole endiselt tehnoloogiat, mis suudaks deepfake’i pikemas perspektiivis paljastada. Kohe kui mõni võltsitud video tunnistatakse mingitel põhjustel ebaloomulikuks, näiteks seetõttu, et inimene ei pilguta piisavalt tihti silmi, luuakse algoritm, mis seda aspekti parandab.

Samal ajal kui teadlased ja seadusandjad näevad vaeva deepfake’i väärkasutamise ennetusmeetmetega, saab üksikisik aidata parandada teadlikkust nendest tehnoloogiatest. Oma silm ei ole enam kuningas. Peame välja töötama keerukamad meetodid tõelise äratundmiseks.
 

„Ausgesprochen …“

Meie kolumnisarjas „Ausgesprochen …“ kirjutavad igal nädalal vaheldumisi Liwen Qin, Maximilian Buddenbohm, Dominic Otiang’a ja Gerasimos Bekas. Liwen Qin jälgib oma kolumnis „Ausgesprochen … posthuman“ tehnika edusamme ja seda, kuidas need meie elu ja ühiskonda mõjutavad, olgu siis autos, kontoris või poes.