Rýchly prístup:

Preskočiť priamo na obsah (Alt 1)Preskočiť priamo na sekundárnu navigáciu (Alt 3)Preskočiť priamo na hlavnú navigáciu (Alt 2)

Ochrana osobných údajov
Spoločnosť je viac ako súčet jej jednotlivcov

Čo ak sa aplikácie stanú novými architektmi mesta? Prečo je potrebné urýchlene upraviť reguláciu digitálnych aplikácií.
Čo ak sa aplikácie stanú novými architektmi mesta? Prečo je potrebné urýchlene upraviť reguláciu digitálnych aplikácií. |

Či ide o Facebook, Siri alebo Alexu – pri technológiách umelej inteligencie sa verejnosť často sťažuje na nedostatočnú ochranu súkromia. Inteligentné systémy sa však nezaujímajú ani tak o údaje jednotlivcov, ako skôr o zovšeobecnenie a štandardizáciu životných kontextov, ktoré automatizujú.
 

Zoom a Skype, sociálne médiá, smart hodinky, ale aj smartfóny. Banky alebo poisťovne používajú komplexné systémy algoritmov, ktoré bežne nazývame aj „umelou inteligenciou“. Aby mohli dobre fungovať, niektoré z nich zbierajú veľké množstvá údajov – to sa týka napríklad poskytovateľov ako je Spotify, vyhľadávač Google, Instagram, Siri alebo Alexa.

Z týchto údajov možno vyvodiť určité uzávery, ktoré niekedy ďaleko prekročujú hudobný vkus používateľov alebo informácie o tom, čo zvyknú vyhľadávať. Napríklad: ak niekto počúva hudbu, ktorá je populárna v komunite LGTBQI+, dá sa z toho usúdiť niečo o jeho/jej sexuálnej orientácii? Nakoľko istý je tento predpoklad? Ako to vyzerá s kultúrnym pozadím osoby, ktorá počúva Black Music, R&B alebo hudbu v určitom jazyku?

Mnohé z týchto zhromaždených údajov, ktoré sa na prvý pohľad zdajú byť banálne, sa v určitom kontexte môžu zmeniť na citlivé, a preto sa tlač a verejnosť vo všeobecnosti už teraz sťažuje na koniec súkromia. Často sa však zabúda na to, že tieto infraštruktúry samy o sebe sa zvyčajne nezaujímajú o konkrétne súkromné osoby, ktoré sa za týmito údajmi skrývajú. Aj keď zhromažďujú a využívajú osobné údaje – napríklad keď Spotify ponúka konkrétnej osobe výber hudby presne na jej mieru –, pre systém ako celok sú takéto konkrétne, osobné údaje irelevantné.

MATEMATICkÁ DÁtová kaša

Pojem „umelá inteligencia“ označuje socio-technické systémy, pri ktorých je ťažké oddeliť to, čo je prirodzené pre človeka, od toho, čo je prirodzené pre stroj. Tieto systémy sú založené na predpokladoch o svete a ľuďoch, ich cieľoch a zámeroch, ktoré vychádzajú z ľudských rozhodnutí. Platí to aj pre spracovanie údajov, ktoré je na to potrebné. Údaje o ľuďoch sa prekladajú do kúskov dátovej skladačky ako pri puzzle. Matematické vzorce, ktoré spracúvajú údaje, všetko zhŕňajú do kaše – z jednotlivcov sa stávajú priemery a štatistické profily: jemne granulárni, ale „všeobecní“ jednotlivci v škatuľkách.

Môžeme to ilustrovať na tomto príklade: pozornosť sa nezameriava na jednotlivé stromy v lese (na indivíduum), ale na les ako taký (spoločnosť). Na druhej strane, ambivalentnosť a nejednoznačnosť ľudského života sa nedá úplne previesť do dát a algoritmov. Ako poznamenáva britský právnik Michael Veale, na to tieto infraštruktúry ani nie sú určené, skôr slúžia na to, aby formovali životy ľudí. Tieto systémy sa používajú na automatizáciu určitých postupov. To znamená, že pre postupy, pri ktorých sa manuálne mohli používať rôzne spôsoby a prostriedky, sa stanovujú normy, ktoré už túto flexibilitu neumožňujú. Počnúc rozhodnutím o tom, čo sú a čo nie sú dáta: napríklad to, čo sa považuje za dátum a v akom formáte, je to rozhodnutie o tom, čo systém vidí a čo v systéme neexistuje, pretože nebolo spracované ako údaj o dátume. Štandardy, formáty údajov, rozhodnutia o ukladaní údajov atď. v systémoch teda určujú spôsob prístupu, účasti a interakcie v rámci služby.

Práve tu sa prejavuje základný problém pri regulácii týchto systémov: základné práva a ochrana údajov sú právami jednotlivca; celý systém základných práv a konkretizácia jednoduchého práva vychádzajú z jednotlivca. Inak povedané, pokiaľ ide o základné práva, nemecký právny systém pozná len strom, ale nie les. Technológie sú regulované súčasným súborom právnych nástrojov, ako keby sa les mohol riadiť predpismi o jednotlivých stromoch.

rozoznanie zločinu v húfe

Dobrým príkladom tohto nesúladu medzi právnym systémom a fungujúcimi systémami umelej inteligencie sú tzv. predictive policing systémy, teda systémy na prediktívnu policajnú činnosť. Tie identifikujú vzorce správania pre rôzne kategórie trestných činov s cieľom využiť tieto informácie na prevenciu podobných trestných činov. Keďže tieto technológie zodpovedajú infraštruktúre, zatiaľ čo ochrana údajov upravuje len individuálne práva, niektoré z programov používaných v Nemecku sa vymykajú súčasnej právnej regulácii. V niektorých častiach Nemecka napríklad štátna polícia používa softvér Precobs, ktorý na základe anonymných údajov o type trestného činu, časovom rámci a geografických parametroch predpovedá vlámania s určitým modusom operandi v určitom časovom rámci a geografických parametroch. Príslušné štátne orgány na ochranu údajov povolili používanie softvéru, pretože sa v ňom nespracúvajú žiadne osobné údaje, a preto nespadá do ich právomoci.
Softvér Precobs sa okrem iného používa v Bádensku-Württembersku a v Severnom Porýní-Vestfálsku a jeho cieľom je zabraňovať vlámaniam. Softvér Precobs sa okrem iného používa v Bádensku-Württembersku a v Severnom Porýní-Vestfálsku a jeho cieľom je zabraňovať vlámaniam. | Foto (Detail): © picture alliance / Zoonar / Robert Kneschke Tento systém pritom vyvoláva niekoľko otázok: Ak bude v určitých mestských častiach odrazu vidieť väčšiu prítomnosť polície, budú sa obyvatelia cítiť bezpečnejšie? Alebo to dokonca vedie k masívnemu odlivu obyvateľov, ktorí si môžu dovoliť byt v inej časti mesta? Tieto otázky nie sú v zákone zohľadnené. Výskum ukazuje, že prítomnosť policajtov na futbalových zápasoch zvyšuje sklon chuligánov k použitiu násilia. Z tohto dôvodu sú policajti nasadení v civilnom oblečení.

Otázka sociálneho účinku programov, ako je Precobs, ešte nikdy nebola politicky zvážená ani právne upravená. Z právneho hľadiska sa pozornosť sústreďovala výlučne na to, či softvér porušil alebo neporušil individuálne práva (na ochranu údajov). Tu sa ukazuje, že sociálna stabilita celého mesta sa nedá mapovať pomocou prediktívnych policajných nástrojov na jednej strane a jednotlivých nariadení na strane druhej. Preto sa naň pravidelne neprihliada.

ZOHĽADNenie SOCIÁLNych hodnôt

Sociálno-technické systémy, ako napríklad prediktívna polícia, ukazujú, že v individualistickej spoločnosti sa komunita nevníma ako celok. Spoločnosť je viac než len súčet jednotlivcov a potrebuje nielen individuálne práva, ale musí ich vyvážiť spoločenskými hodnotami. Pri posudzovaní algoritmických systémov to treba vždy zohľadniť. Demokracie zanedbali poslednú možnosť. Je to naša domáca úloha do budúcnosti.