Ātrā piekļuve:

Pāriet tieši uz saturu (Alt 1)Pāriet tieši uz apakšizvēlni (Alt 3)Pāriet tieši uz galveno izvēlni (Alt 2)

Deepfake tehnoloģijas un mūsu identitātes krīze

Deepfake
Vai tā ir īstenība? Deepfake indivīdiem atņem identitāti ātrāk, nekā viņi to var iedomāties. | Foto (Detail): Christian Gertenbach © Unsplash

Cilvēks, ievietojot savus attēlus internetā, var kļūt par vieglu deepfake mērķi. Datorprogrammas no fotogrāfijām spēj ievietot sejas viltus ziņās vai viltus porno. Līvenu Kvinu (Liwen Quin) satrauc jauno tehnoloģiju iespējas.
 

Līvena Kvina

Vai esat redzējuši 2016. gada filmu Rogue One: A Star Wars Story (Zvaigžņu karu stāsts)? Ja esat, tad varbūt atceraties lielmofu Tarkinu un jauno princesi Leiju? Abu lomu atveidotāji ir lieliski, bet viņi nav „īsti“. Filmas veidotāji izmantoja sejas nomaiņas un video sintēzes tehnoloģijas, lai rekonstruētu sākotnējo lomas atveidotāju sejas un tādējādi radīja mākslīgus dublierus. Neviens šo triku nespēja atmaskot. Mūsdienās šī tehnoloģija cilvēku sabiedrībai ir radījusi neatrisināmu problēmu.

Datori iemācās radīt arvien labākus viltojumus

Vārds „deepfake“ ir saliktenis no vārdiem: „deep learning“ – mākslīgā intelekta padziļināts mašīnmācīšanās veids un „fake“ – viltus. Tā ir tehnoloģija, kurā ar mākslīgā intelekta palīdzību tiek ģenerēts attēls un skaņa. Šis burvju triks gadiem ilgi ticis izmantots izklaides industrijā un pornogrāfijā. Nu tas ir attīstījies vēl vairāk: izmantojot personas mīmiku (no attēliem vai video), mākslīgais intelekts spēj no tās sintezēt pilnīgu jaunu viņa/viņas modeli. Pietiek ar vienu fotogrāfiju, lai radītu sejas modeli, kaut arī iznākums nebūs ļoti pārliecinošs. Deepfake tiek izstrādāts atvērtā koda programmatūrā, kurā to katru dienu pārskata un uzlabo.

Viltoti kailfoto un viltoti porno atriebībai

Par deepfake tehnoloģiju viegliem mērķiem kļūst cilvēki, kuru fotogrāfijas ir pieejamas publiski, piemēram, slavenības un politiķi/politiķes. Viņu sejas var ielikt viltus ziņās vai viltus porno. Tā kā tagad cilvēki arvien biežāk internetā ievieto savus selfijus un īsus video, tad šīs tehnoloģijas var vērsties pret viņiem ar ļaunu nolūku. Šādu gadījumu skaits palielinās. ASV Virdžīnijas štats nesen bija spiests izdarīt grozījumus likumā par „Atriebības porno“, lai tajā iekļautu arī regulējumu par deepfake. To darīja tāpēc, lai atturētu aizvainotus cilvēkus izmantot tehnoloģijas ar nolūku atriebties savam bijušajam laulātajam vai mīļākajam/bijušajai laulātajai vai mīļākajai. Bet nesen internetā apritē nonāca jauna lietotne DeepNude, kura ļauj izveidot viltotus sieviešu kailfoto.

Vai patiešām šis prezidenta amata kandidāts atbalsta nāvessodu?

Deepfake atņem identitāti – tas pietiekams iemesls uztraukumam. Tomēr vēl uztraucošāka ir iespēja, ka deepfake varētu tikt izmantots viltus ziņu radīšanā. Šo tehnoloģiju izmantošana politiskiem mērķiem var satricināt demokrātijas pamatus un līdz ar to sociālās vienprātības veidošanas mehānismu. Vai šis prezidenta amata kandidāts privātajā sarunā patiešām atbalstīja nāvessoda ieviešanu? Neviens nevar pierādīt, ka tā tiešām bija.

Mākslīgais intelekts mācās ārkārtīgi ātri, un diemžēl joprojām nav tehnoloģijas, kura pastāvīgi spēj atpazīt visus viltojumus. Tiklīdz viltus videoklips tiek kaut kādā veidā atpazīts kā neīsts, piemēram, ja persona pārāk reti mirkšķina acis, tad šī aspekta uzlabošanā tiek iesaistīts algoritms.

Kamēr zinātne un likumdošana vēl meklē preventīvus pasākumus pret deepfake ļaunprātīgu pielietojumu, ikviens cilvēks var dot savu ieguldījumu, palielinot izpratni par šīm tehnoloģijām. Princips „Tici savām acīm“ vairs nedarbojas. Lai atpazītu patiesību, mums ir nepieciešamas sarežģītākas, iedarbīgākas metodes.