Ātrā piekļuve:
Pāriet tieši uz saturu (Alt 1)Pāriet tieši uz apakšizvēlni (Alt 3)Pāriet tieši uz galveno izvēlni (Alt 2)

Patiesība un meli
Neticiet savām acīm

Ilustrācija: Neticiet savām acīm
© Polityka Insight

Kas vieno Polu Volkeru no “Ātri un bez žēlastības 7” un Keriju Fišeri no “Rogue One: Zvaigžņu karu stāsts”? Abi divi nespēlēja ainās, kurās tos varēja redzēt skatītāji. Volkers vairs nebija dzīvs, kad nofilmēja filmas pēdējos 350 kadrus, savukārt sešdesmitgadīgā Fišere bija pārliecināta, ka filmā tika izmantoti viņas iepriekšējie ieraksti. Tikai vēlāk viņa uzzināja, ka viņas tēls tika izveidots datorā.

Mihals Zeliņskis, Polityka Insight

Specefekti kinostudijās tiek izmantoti jau desmitiem gadu, bet vēl nesen manipulēšana ar attēlu un skaņu bija dārga, sarežģīta un to spēja veikt tikai speciālisti. Tehnoloģiju attīstība nodrošina līdzīgus rīkus ikvienam prasmīgam un zinošam datora lietotājam. Piemēram, programmētāji var izmantot atvērtā pirmkoda programmatūras mākslīgā intelekta bezmaksas bibliotēku TensorFlow, lai seksa video iemontētu izraēliešu aktrises, Brīnumsievietes lomas atveidotājas Galas Gadotas seju. Tā arī izdarīja kāds no diskusiju foruma Reddit lietotājiem ar segvārdu “Deepfakes”. Tas deva vārdu parādībai, kuras pamatā ir audiovizuālā manipulācija ar mākslīgā intelekta palīdzību. Tagad ir sācies jauns posms, kurā teju jebkurš portatīvā datora un standarta kameras lietotājs, pateicoties aizvien lielākai gatavu algoritmu pieejamībai, varēs manipulēt ar attēlu un skaņu. 

Jaunās manipulācijas metodes

Programmatūra FakeApp ļauj nomainīt seju filmas fragmentā. Ir nepieciešami apmēram 500 vienas personas portreti, lai mākslīgais intelekts varētu “iemācīties” tā attēlu. Pēc tam lietotne spēj atpazīt seju citos attēlos un tādējādi pārveidot citas personas attēlu, lai saglabātu sākotnējās sejas iezīmes. 2016. gadā uzņēmums Adobe prezentēja skaņas rediģēšanas sistēmu, ar kuru var sagatavot jebkādu runu. Pašmācošie algoritmi, citā starpā, jau spēj izveidot trīs dimensiju sejas modeļus uz 2D kadru pamata, patstāvīgi mainīt apgaismojuma avotu un ēnas uz attēliem, automātiski piemeklēt atbilstošas skaņas, pamatojoties uz filmas skaņu celiņa analīzi, un (kaut arī vēl mazliet neveikli) radīt attēlu, pamatojoties uz aprakstu.

Zinātniskais projekts Face2Face parāda kā reāllaikā mainīt cilvēka sejas izteiksmi. Tas arvien nav tik vienkārši kā viedtālruņa lietotnes izmantošana, bet ar laiku noteikti tā arī būs. Saskaņā ar Pega pētījumiem līdz pat 77 procentiem patērētāju lieto pakalpojumu vai ierīci, kas izmanto mākslīgā intelekta algoritmus, kaut arī puse no lietotājiem par to nezina.

Ikvienā nuļļu un vieninieku virknē var ieviest mums neredzamas izmaiņas. Tas nozīmē, ka populārākais audiovizuālās informācijas izplatīšanas medijs ir kļuvis vairāk manipulējams.

 
Saskaņā ar pētījumu “Media use in the European Union” [Plašsaziņas līdzekļu patērēšana Eiropas Savienībā], kas bija balstīts uz Eirobarometra datiem, 2017. gadā 84% no Eiropas iedzīvotājiem katru vai gandrīz katru dienu skatījās televīziju, tas ir par 2 procentpunktiem vairāk nekā 2016. gadā. Televīzijas digitalizācija noris pilnā sparā un eksperti uzskata, ka raidījumi kļūs aizvien interaktīvāki jeb digitāli. Taču ikvienā nuļļu un vieninieku virknē var ieviest mums neredzamas izmaiņas. Tas nozīmē, ka populārākais audiovizuālās informācijas izplatīšanas medijs ir kļuvis vairāk manipulējams. Kā vienīgais nemanipulējamais informācijas izplatīšanas veids paliek saruna vaigu vaigā.

Kārtējais manipulētāju rīks

Jaunās tehnoloģijas ir kļuvušas pieejamas visiem, tātad arī noziedzniekiem, teroristiem vai politiskiem manipulētājiem. Servisā BuzzFeed tika publicēta filma, kurā Baraks Obama brīdina par manipulētiem videoierakstiem. Filmas beigās izrādās, ka prezidents tās tapšanā nemaz nepiedalījās, bet viņa lūpas kustina komiķis Džordans Pīls.
 
Sabiedrību var satricināt arī ar viltus ziņām, kas sastāv tikai no tekstiem. 2013. gadā hakeri uzlauza informācijas aģentūras Associated Press tvitera kontu un publicēja ierakstu: “KARSTĀS ZIŅAS: Divi sprādzieni Baltajā namā, Baraks Obama ir ievainots”. Divas minūtes vēlāk akciju vērtība Ņujorkas biržā kopumā zaudēja 136 miljardu dolāru. Mjanmā ar Facebook ievietotajiem ierakstiem izdevās izraisīt rohindžu grautiņu.

Līdz pat nesenam laikam tie tika uzskatīti par neapstrīdamiem pierādījumiem, jo ir neviltoti. Mūsdienās videosižets varbūt tikpat nepatiess kā daži teikumi Facebook vietnē, kam lietotāji nav sagatavoti.

Bet video un audio ierakstiem mēs uzticamies vēl vairāk. Līdz pat nesenam laikam tie tika uzskatīti par neapstrīdamiem pierādījumiem, jo ir neviltoti. Mūsdienās videosižets varbūt tikpat nepatiess kā daži teikumi Facebook vietnē, kam lietotāji nav sagatavoti. Varvikas universitātes pētījumi ir pierādījuši, ka dalībnieki 30% no safabricētajiem attēliem nav atpazinuši kā viltotus.
 
Iedomāsimies, ka divas dienas pirms parlamenta vēlēšanām parādās videoieraksts, kurā redzams, kā kukuli pieņem kāds ar savu godīgumu slavens politiķis. Pierādīt, ka sižets bijis viltojums, un paziņot par to sabiedrībai varēs tikai pēc vēlēšanām. Politiķus kompromitējoši audioieraksti “uzpeld” jebkurā valstī, bet mūsdienās vairs nevar izslēgt, ka tie ir viltoti. Publiskās drošības eksperti norāda, ka lielāko apdraudējumu rada viltotu elementu pievienošana patiesiem video vai audio ierakstiem, dokumentiem.
 
Neuzticība video vai audio ierakstiem var radīt nopietnas sekas. Pierādījumu izvērtēšana tiesās kļūs sarežģītāka, savukārt žurnālistiem būs papildus jāveic materiālu īstuma pārbaude. Jaunās tehnoloģijas nedemokrātisko režīmu rokās palīdzēs tām palikt pie varas, ļaujot izplatīt pārliecinošus, kaut arī safabricētus attēlus, bet cenzēti mediji neinformēs sabiedrību par maldiem. 

Labs un ļauns mākslīgais intelekts

Valdības, uzņēmēji un zinātnieki jau izmanto mākslīgā intelekta algoritmus, lai tas varētu atpazīt citu algoritmu manipulēšanu. Var cerēt, ka kriptogrāfija jeb saziņas kanālu šifrēšana ierobežos iejaukšanos tiešraidē raidītos attēlos. Parastajiem lietotājiem tiks nodrošināti interneta pārlūkprogrammu paplašinājumi, kas brīdina par iespējami viltotiem attēliem vai videoierakstiem tīmekļa vietnēs.
 
Varas iestādes apsver iespēju ierobežot piekļuvi video un audio rediģēšanas rīkiem vai to funkcijām. Piemēri tam var būt Francija, kur, lai cīnītos ar anoreksiju, tika aizliegta modeļu fotoattēlu retušēšanu uz modes žurnālu vākiem, vai starptautiskā fotokopēšanas iekārtu ražotāju vienošanās par banknošu kopēšanas bloķēšanu. Viens no risinājumiem var būt digitālo platformu saukšana pie atbildības par safabricēta satura publicēšanu, kas noteikti veicinātu automātiskās satura analīzes sistēmu izstrādi.

Turklāt eksperti šobrīd diskutē par blokķēdes tehnoloģijas – kriptovalūtu darbības pamata – izmantošanu interneta satura autentificēšanai. Tā varētu nodrošināt digitālu ūdenszīmi ar informāciju par satura autoru. Tomēr svarīgāka ir lasītāju kritiskā attieksme pret saturu. Ja video izraisa spēcīgas emocijas, tas ir pirmais brīdinājuma signāls, jo tieši to parasti vēlas panākt manipulētāji.