Mākslīgais intelekts
Algoritmi ir kā ēdienu receptes
Taču, lai ēdiens būtu baudāms, tā sastāvdaļas ir jāizvēlas ļoti piesardzīgi. Algoritmu eksperts Sebastians Šelters stāsta par mākslīgo intelektu – par to, kā tas mums atņem izvēles iespējas un ietekmē mūsu dzīvi.
Johaness Cellers
Mākslīgais intelekts (MI) un datori, kas mācās patstāvīgi – tas vēl aizvien skan mazliet utopiski, tomēr jau labu laiku ir mūsu ikdienas sastāvdaļa. Algoritmi ne tikai nosaka, ko mēs skatīsimies vai klausīsimies straumēšanas pakalpojumu vietnēs, bet dažviet arī izlemj, kam var piešķirt kredītu, un jau iepriekš izanalizē, vai ieslodzītais brīvībā pārkāps likumu vēlreiz. Bet kas īsti ir algoritms un cik ļoti MI ietekmē mūsu dzīvi?
Algoritms kā pamatrecepte
„Pirmkārt un galvenokārt algoritms ir darbību secība. To var iztēloties kā ēdiena gatavošanu pēc receptes: vispirms jāatrod nepieciešamās datorprogrammu sastāvdaļas, bet pēc tam jāseko aprakstam, kas ir darāms soli pa solim un kam ir jānotiek, lai “ēdiens” tiktu pareizi pagatavots,“ izskaidro algoritmu eksperts Sebastians Šelters, Amsterdamas Universitātes datu vadības un mašīnmācīšanās pētnieks.
Ja raugās šādi, tad algoritmi nav nekas jauns, pēc šī principa darbojas jebkura datorprogramma. Bet, runājot par algoritmu ietekmes palielināšanos, mūs interesē mašīnmācīšanās: „Parasti datorprogrammā cilvēks ievada visus variantus problēmas atrisināšanai. Tomēr ir tādas problēmas, kuru risinājumu mums grūti datoram aprakstīt,“ saka eksperts. Tāpēc mašīmācīšanās pieprasa citu pieeju.
Sebastians Šelters zinātnisko grādu ieguvis Berlīnes Tehniskajā universitātē, nodarbojas ar pētniecību Ņujorkas Universitātē un Amazon Research. Kā jaunākais profesors Amsterdamas Universitātē viņš strādā ar jautājumiem par datu pārvaldības un mašīnmācīšanās saskarni.
| Foto: © Sebastian Šelters
Pavārmāksla cilvēkiem ar priekšzināšanām: algoritms, kas mācās
„Vienkāršs piemērs ir surogātpasta filtrs, kam jāatšķir reklāmas no personiskajām vēstulēm. Cilvēkam nav vienkārši izveidot šādu datorprogrammu, tā ir liela problēma. Var noteikt dažādus kritērijus un likumus, pēc kuriem reklāmas vēstules teorētiski varētu atpazīt – tas varētu būt pulksteņlaiks, kurā vēstule tikusi sūtīta, vai šim tekstam raksturīgi noteikti vārdi. Taču agrāk vai vēlāk atduramies pret cilvēcisko resursu kapacitāti,“ Šelters izskaidro problēmu.
Tāpēc dators mašīnmācīšanās procesā vairs netiek detalizēti ieprogrammēts – tam tikai parāda piemērus. Labāko risinājumu dators atrod pats. Gatavas receptes vietā programmētājs iedod vēlamo rezultātu, uz ko programmai vajadzētu tiekties.
„Šajā gadījumā ievaddati varētu būt tādas 1000 e-pasta vēstules, kuras saņēmējam ir vēlamas, bet kā negatīvais piemērs – vesela virkne reklāmas vēstuļu, kuras nav vēlamas,“ skaidro Šelters. „Algoritms tad ar šo piemēru palīdzību, saņemot jaunu vēstuli, izvērtē ticamību, vai šī vēstule ir ziņa vai reklāma. Lielākā atšķirība ir tāda, ka parasti cilvēks programmējot precīzi ievada veicamos soļus, bet algoritmi ar piemēru un statistisko varbūtību palīdzību paši mācās izveidot izvēles kritērijus.“
MI viltīgā daba
Algoritmi, kas mācās, noteiktas problēmas spēj atrisināt ne tikai ātrāk, bet arī labāk nekā cilvēki. Kad programma Pluribus 2019. gadā pārspēja profesionālus pokera spēlētājus, MI nodemonstrēja, ka tas pat var iemācīties blefot prasmīgāk nekā cilvēks. Līdz ar MI spējām pieaug tā ietekme, visbiežāk veselības un juridiskajā nozarē, tāpat arī finanšu pasaulē.
Arī Vācijā lielākā daļa cilvēku katru dienu saskaras ar viedo algoritmu lēmumiem. „No zinātniskā viedokļa tie ir abstrakti matemātiski procesi, kurus var pielietot dažādās jomās. Piemēram, lai uzzinātu, cik liela varbūtība pastāv, ka konkrēta persona atmaksās kredītu,“ stāsta Šelters.
Tādās valstīs kā ASV un Austrālijā algoritmi tiek turēti aizdomās par diskriminējošiem lēmumiem attiecībā pret noteiktām etniskām grupām. „Problēma daļēji ir tajā, ka diskriminējoši ir bijuši algoritmam piedāvāto piemēru dati. Ja algoritmam ļauj vienkārši akli darboties, tad tas reproducē diskrimināciju.“
Smalkjūtīgs algoritms?
Jautājums par to, kur novilkt algoritmu un MI robežas, ir ne tik daudz tehnisks, cik ētisks. Bet tomēr – vai ir iespējams iemācīt algoritmam kaut ko līdzīgu „smalkjūtībai“?
“Šobrīd tā ir aktuāla problēma. Manuprāt, ir jomas, kurās kļūdains algoritma lēmums nenodara īpašu ļaunumu – piemēram, ja man straumēšanas pakalpojumā nospēlē nepareizo dziesmu. Vēl ir tādas jomas, kurās algoritmus pilnīgi noteikti var izmantot ieteikumu radīšanai, taču galīgo lēmumu vajadzētu pieņemt cilvēkam pašam. Taču ir jomas, kuras vajadzētu atstāt tikai cilvēka spriestspējas ziņā,“ uzskata Šelters.
„ASV tiek izmantoti algoritmi, kuri izvērtē, cik liela ir varbūtība, ka ieslodzītais pēc atbrīvošanas no cietuma atkal izdarīs noziegumu. Apspriežot attiecīgās personas pirmstermiņa atbrīvošanas iespēju, tiesai un tiesībaizsardzības iestādēm tiek dota piekļuve šiem datiem.“ Līdz ar to rodas jautājums: vai tas ir taisnīgi?
„Taisnīguma tēmu apskatīt matemātiski gandrīz nemaz nav iespējams, jo tā vairāk skar filozofiskos, politiskos un juridiskos aspektus Katram cilvēkam ir savs priekšstats par to, kas ir vai nav taisnīgi, un matemātiski iekļaut visas taisnīguma definīcijas nav iespējams.“
Arī pētījumos, kuros algoritms palīdz izvērtēt kāda pieņemtā lēmuma taisnīgumu, ir pierādījies, ka šajā procesā ir nepieciešama vēl smalkjūtīgāka pieeja. Daudzās jomās vispirms ir jāvienojas par to, kādam, raugoties no etniskā, politiskā un juridiskā skatījuma, jābūt „pareizi pieņemtam lēmumam“. Tikai pēc tam šo uzdevumu varētu uzticēt algoritmam. „Bet arī tad atklāts paliks filozofiskais un politiskais jautājums, vai to vispār drīkst darīt,“ piebilst Šelters.