Datu aizsardzība
Sabiedrība ir kaut kas vairāk nekā indivīdu summa

Ko darīsim, ja lietotnes kļūs par pilsētas jaunajiem arhitektiem? Tas ir viens no iemesliem, kāpēc ir steidzami jāpielāgo digitālo ierīču lietojuma regulējums.
Ko darīsim, ja lietotnes kļūs par pilsētas jaunajiem arhitektiem? Tas ir viens no iemesliem, kāpēc ir steidzami jāpielāgo digitālo ierīču lietojuma regulējums. | Foto (fragments): © picture alliance/Goldman

Facebook, Siri vai Alexa – visur, kur izmanto mākslīgā intelekta tehnoloģijas, sabiedrība bieži sūdzas par privātuma aizsardzības trūkumu. Taču inteliģentajām sistēmām interese par personiskajiem datiem ir ļoti niecīga, salīdzinot ar vispārinātajiem un standartizētajiem dzīves kontekstiem, kurus tās automatizē. 

Lorēna Žauma-Palasī

Zoom un Skype, sociālie mediji, viedpulksteņi, kā arī viedtālruņi, bankas vai apdrošināšanas sistēmas izmanto kompleksu algoritmisko sistēmu, ko mēs ierasti mēdzam dēvēt par „sistēmām ar mākslīgo intelektu“. Lai tās varētu labi funkcionēt, dažas no tām par jums ievāc ļoti daudz datu – tas attiecas uz tādiem pakalpojumu sniedzējiem kā SpotifyGoogle meklētājs, Instagram, Siri vai Alexa.
 
No šiem datiem var izdarīt noteiktus secinājumus, kas nebūt neaprobežojas tikai ar lietotāju mūzikas gaumi vai ar visbiežāk meklēto informāciju. Piemēram, ja persona klausās mūziku, kas ir populāra LGTBQI+ lokā, vai no tā var secināt, kāda ir personas seksuālā orientācija? Cik patiess ir šis minējums? Pie kādas kultūras pieder cilvēks, kurš klausās „melno“ jeb afroamerikāņu mūziku, R&B vai mūziku tikai noteiktā valodā? 
 
Daudzi ievāktie dati, kas pirmajā mirklī, šķiet, neko neizsaka, noteiktā kontekstā kļūst sensitīvi – tieši tāpēc presē un sabiedrībā tiek runāts par privātās sfēras izzušanu. Tomēr bieži tiek piemirsts, ka šīs infrastruktūras pašas par sevi nav ieinteresētas iegūt konkrētus, personiskus cilvēku datus. Arī tad, kad tās ievāc un izmanto privātu informāciju – kā, piemēram, Spotify, kas piedāvā personai īpaši izvēlētu mūzikas izlasi –, konkrētie, personiskie dati kopumā sistēmai ir mazsvarīgi.

Matemātiskā datu putra

Jēdziens „mākslīgais intelekts“ apzīmē sociāltehniskas sistēmas, kurās grūti nošķirt cilvēcisko no mašinizētā. Šīs sistēmas pamatā ir pieņēmumi par pasauli un cilvēku, viņa nospraustajiem mērķiem un nolūkiem, kuri savukārt balstās uz cilvēciskajām izvēlēm. Tieši tas ir nepieciešams pārstrādei datu formā. Dati par cilvēkiem līdzīgi kā puzlē tiek pārtulkoti par datu – puzles – gabaliņiem. Datus apstrādājošās formulas visu samaisa vienā putrā – indivīdam tiek piešķirts vidējais un statistiskais profils: smalki graudains, bet „vispārīgs“ kādai atvilktnei atbilstošs indivīds. 
 
Skaidrības labad tēlains piemērs: uzmanība tiek centrēta nevis uz atsevišķu koku mežā (uz indivīdu), bet gan uz pašu mežu (sabiedrību). Tomēr cilvēka dzīves ambivalence un daudznozīmība neļaujas viennozīmīgi iztulkoties datos un algoritmos. Šīs infrastruktūras nemaz nav tam domātas – tās drīzāk ir tendētas uz cilvēka dzīves veidošanu, kā to ir raksturojis britu tiesībzinātnieks Maikls Vīls (Michael Veale). Šīs sistēmas tiek ieviestas, lai automatizētu noteiktus procesus. Tas nozīmē, ka procesos, kuros bija dažādas manuālas iespējas un ceļi, tiek ieviesti standarti, kuri šo elastību vairs nepieļauj. Sākot ar lēmumu par to, kas ir dati un kas nav, piemēram, kas noder kā datums un kādā formātā, ir lēmums par to, ko sistēma pamanīs, un to, kas sistēmā neeksistēs, ja netika datēts. Tādējādi sistēmu standarti, datu formāti, lēmumi par datēšanu u. tml. nosaka veidu, kādā pakalpojuma ietvaros tiek izveidota piekļuve, līdzdalība un mijiedarbība.
 
Tieši šeit arī parādās šīs sistēmas regulēšanas galvenā problēma: pamattiesības un datu aizsardzība ir individuālās tiesības; visa pamattiesību sistemātika un konkretizējošās vienkāršās tiesības izriet no indivīda. Citiem vārdiem sakot, Vācijas tiesību sistēma pamattiesībās pazīst tikai kokus, bet mežu ne. Tehnoloģijas tiek regulētas ar šībrīža tiesību instrumetāriju tā, it kā mežu varētu kontrolēt ar atsevišķa koka regulēšanu. 

Atpazīt pūlī noziedzību 

Labs piemērs šādai neatbilstībai starp tiesību un funkcionējošu MI sistēmu ir Predictive-Policing sistēmas – sauktas par „iepriekš paredzamo policijas iesaisti“. Tās identificē dažādus noziedznieku uzvedības modeļus, lai, balstoties uz šo informāciju, novērstu līdzīgas noziedzīgas darbības. Tā kā šīs tehnoloģijas atbilst infrastruktūrai, bet datu aizsardzībā tiek noteiktas individuālās tiesības, tad dažas no Vācijā izmantotajām programmām izvairās no pašreizējā tiesiskā regulējuma. Piemēram, vairākos reģionos Vācijā Valsts policija izmanto Precobs programmatūru, kas pēc noteikta modus operandi zināmā laika posmā un pēc ģeogrāfiskajiem parametriem spēj veikt prognozi, izmantojot anonīmus datus par noziedzīgās darbības veidu, norises laiku un ģeogrāfisko vietu. Programmatūra ir ieviesta ar atbildīgo Valsts datu aizsardzības iestāžu atļauju, jo tajā netiek apstrādāti kādas personas dati un līdz ar to tā nav viņu atbildība. 
Tomēr sistēmas izmantošana rada jautājumus: ja pēkšņi kādā no pilsētas rajoniem manāma pastiprināta policijas patruļu klātbūtne, vai iedzīvotāji jutīsies drošāk? Vai tieši otrādi – tas novedīs pat pie tā, ka notiks iedzīvotāju masveida pārcelšanās uz citiem šīs pilsētas rajoniem – pārcelsies gan tikai tie, kuri var to atļauties? Pētījumi liecina, ka policijas patruļu klātbūtne futbola spēlēs ir iemesls huligānu vardarbīgai uzvedībai. Šī iemesla dēļ policisti tērpjas civilajā apģērbā. 

Jautājums par sociālo ietekmi, ko rada tādas programmas kā Precobs, nav apskatīts ne no politiskā redzējuma, ne no juridiskā. No juridiskā viedokļa uzmanība tika pievērsta tikai tam, vai (saskaņā ar datu aizsardzības likumu) ar programmatūru netiek pārkāptas individuālās tiesības. Te atklājas: visas pilsētas sociālo stabilitāti nevar uzturēt ne ar Predictive-Policing instrumentiem, ne ar individuāliem noteikumiem.

Ņemt vērā sabiedrībā atzītas vērtības

Tādas sociāltehniskās sistēmas kā Predictive-Policing ir pierādījums tam, ka individualizētā sabiedrībā kolektīvu neuzskata par vienotu veselumu. Sabiedrība ir kaut kas vairāk nekā tikai tās indivīdu summa, un tajā nevar aprobežoties tikai ar individuālajām tiesībām, tās jāsabalansē arī ar sociālajām vērtībām. Tas vienmēr jāņem vērā, apsverot algoritmiskās sistēmas. Šo aspektu demokrātija ir atstājusi novārtā. Tas ir mūsu mājasdarbs nākotnei.