Απρίλιος 2022
Προστασια δεδομενων. Μια κοινωνια δεν ειναι απλως το αθροισμα των ατομων της.

Τι θα συμβεί αν τα apps γίνουν οι νέοι αρχιτέκτονες της πόλης; Να ποιοι είναι οι λόγοι για τους οποίους η νομοθεσία των ψηφιακών εφαρμογών πρέπει επειγόντως να αναπροσαρμοστεί. Φωτογραφία (Απόκομμα): © picture alliance/Goldman
Τι θα συμβεί αν τα apps γίνουν οι νέοι αρχιτέκτονες της πόλης; Να ποιοι είναι οι λόγοι για τους οποίους η νομοθεσία των ψηφιακών εφαρμογών πρέπει επειγόντως να αναπροσαρμοστεί. Φωτογραφία (Απόκομμα): © picture alliance/Goldman | © picture alliance/Goldman

Είτε πρόκειται για το Facebook, είτε για τη Siri ή την Alexa, η κοινή γνώμη συχνά διαμαρτύρεται για την ελλιπή προστασία της ιδιωτικής σφαίρας στο πεδίο της τεχνολογίας Τεχνητής Νοημοσύνης. Ωστόσο, τα έξυπνα συστήματα δεν ενδιαφέρονται τόσο για τα προσωπικά δεδομένα του ατόμου όσο, πολύ περισσότερο, για τη γενίκευση και την τυποποίηση των συμφραζομένων ζωής τα οποία αυτοματοποιούν.  
 

Lorena Jaume-Palasí

Το zoom και το skype, τα μέσα κοινωνικής δικτύωσης, τα smartwatches αλλά και τα smartphones, οι τράπεζες και οι ασφαλιστικές χρησιμοποιούν σύνθετα αλγοριθμικά συστήματα, που στην καθομιλουμένη τα λέμε και συστήματα «Τεχνητής Νοημοσύνης». Για να μπορούν να λειτουργήσουν καλά, ορισμένα από αυτά συλλέγουν μεγάλο όγκο δεδομένων – αυτό ισχύει, για παράδειγμα, για παρόχους υπηρεσιών όπως το Spotify, η μηχανή αναζήτησης της Google, το Instagram, η Siri ή η Alexa.

Από τα δεδομένα αυτά μπορούν να εξαχθούν συγκεκριμένα συμπεράσματα, τα οποία πολύ γρήγορα μπορούν να επεκταθούν πέρα από τα μουσικά γούστα ή τις συνήθειες αναζήτησης των χρηστών. Παραδείγματος χάρη: Όταν ένα άτομο ακούει μουσική που είναι δημοφιλής στην queer κοινότητα, μπορεί να γίνουν υποθέσεις για τον σεξουαλικό του προσανατολισμό; Πόσο πιθανό είναι οι υποθέσεις αυτές να αντιστοιχούν στην πραγματικότητα; Και τι γίνεται με το πολιτισμικό υπόβαθρο του ατόμου που ακούει μαύρη μουσική, R&B ή μουσική σε μια συγκεκριμένη γλώσσα;  

Πολλά από τα δεδομένα που συγκεντρώνονται και σε πρώτη ματιά θεωρούνται ίσως ασήμαντα θα μπορούσαν να γίνουν ευαίσθητα σε συγκεκριμένα συμφραζόμενα. Αυτός είναι ο λόγος για τον οποίο τόσο στον Τύπο όσο και στο ευρύ κοινό υπάρχουν διαμαρτυρίες για το τέλος της ιδιωτικής σφαίρας. Εκείνο που συχνά λησμονείται, ωστόσο, είναι πως αυτές οι υποδομές τις πιο πολλές φορές δεν ενδιαφέρονται για τα συγκεκριμένα άτομα, τους ιδιώτες πίσω από τα δεδομένα. Ακόμη και αν συλλέγουν και χρησιμοποιούν προσωπικά δεδομένα –ας πούμε όταν το Spotify προτείνει μια μουσική κομμένη και ραμμένη στα γούστα του κάθε ατόμου–, οι συγκεκριμένες προσωπικές πληροφορίες είναι άνευ σημασίας για το σύστημα ως όλον.

Ένας μαθηματικός χυλός δεδομένων

Ο όρος «Τεχνητή Νοημοσύνη» αναφέρεται σε κοινωνικοτεχνολογικά συστήματα στα οποία το ανθρώπινο στοιχείο δύσκολα διαχωρίζεται από το μηχανικό. Αυτά τα συστήματα βασίζονται σε παραδοχές για τον κόσμο και τον άνθρωπο, τους στόχους και τις επιδιώξεις του, που στηρίζονται σε ανθρώπινες αποφάσεις. Το ίδιο ισχύει για την απαραίτητη εδώ επεξεργασία με τη μορφή των δεδομένων. Τα δεδομένα για ανθρώπους μεταφράζονται σε δεδομένα που μοιάζουν με τα κομμάτια ενός παζλ. Οι μαθηματικοί τύποι που επεξεργάζονται τα δεδομένα τα συγκεντρώνουν όλα σε έναν χυλό – από άτομα προκύπτουν έτσι μέσοι όροι και στατιστικά προφίλ: κατηγορίες ανθρώπων που μπορεί να έχουν περάσει από ψιλό κόσκινο αλλά στο τέλος κρατούν μόνο τις πολύ βασικές πληροφορίες.

Για να το διασαφηνίσουμε με μια εικόνα: Η προσοχή δεν είναι στραμμένη στο ένα και συγκεκριμένο δέντρο στο δάσος (το άτομο) αλλά στο δάσος αυτό καθαυτό (την κοινωνία). Αντίθετα, η αντιφατικότητα και η αμφισημία της ανθρώπινης ζωής δεν μπορούν να αποτυπωθούν πλήρως σε δεδομένα και αλγόριθμους. Άλλωστε, οι υποδομές αυτές δεν έχουν καν σχεδιαστεί με αυτόν τον στόχο – στόχος τους είναι πολύ περισσότερο να διαμορφώσουν τη ζωή των ανθρώπων, όπως επισημαίνει ο Βρετανός νομικός Michael Veale. Αυτά τα συστήματα χρησιμοποιούνται για να αυτοματοποιήσουν συγκεκριμένες διαδικασίες. Πράγμα που σημαίνει ότι για διαδικασίες στις οποίες στο χειρωνακτικό πλαίσιο θα υπήρχαν πιθανότατα διάφορες επιλογές και τρόποι, καθορίζονται πρότυπα που δεν επιτρέπουν πια αυτή την ευελιξία. Κι αυτό ξεκινά από την απόφαση του τι θα μετατραπεί σε δεδομένα και τι όχι: Π.χ., το τι θα θεωρηθεί δεδομένο και σε ποια μορφή είναι μια απόφαση περί του τι θα «βλέπει» το σύστημα και του τι δεν θα υπάρχει στο σύστημα αφού δεν μετατράπηκε σε δεδομένα. Μέσω των προτύπων, των μορφών δεδομένων, των αποφάσεων «δεδομενοποίησης» κ.λπ. των συστημάτων υπαγορεύεται έτσι με ποιον τρόπο θα γίνεται η πρόσβαση, η συμμετοχή και η διάδραση στο πλαίσιο μιας υπηρεσίας.

Εδώ ακριβώς εμφανίζεται το βασικό πρόβλημα για τη νομοθεσία των συστημάτων αυτών: τα θεμελιώδη δικαιώματα και η προστασία των προσωπικών δεδομένων είναι ατομικά δικαιώματα. Όλη η συστηματικότητα των θεμελιωδών δικαιωμάτων και το συγκεκριμενοποιημένο απλό δικαίωμα απορρέουν από το άτομο. Με άλλα λόγια: Το γερμανικό νομοθετικό σύστημα αναγνωρίζει στα θεμελιώδη δικαιώματα μόνο δέντρα – δεν βλέπει το δάσος. Με την υφιστάμενη δέσμη εργαλείων οι τεχνολογίες ρυθμίζονται κατά τέτοιο τρόπο, θαρρείς και το δάσος θα μπορούσε να ελεγχθεί μέσω των νόμων που υπάρχουν για το κάθε δέντρο.

Αναγνώριση εγκλημάτων μέσα σε μια «συστάδα»

Ένα καλό παράδειγμα για αυτή την ασυμφωνία ανάμεσα στο νομικό σύστημα και τα συστήματα Τεχνητής Νοημοσύνη που λειτουργούν σήμερα είναι τα Predictive-Policing-Systems, στα ελληνικά  «συστήματα προγνωστικής αστυνόμευσης». Αυτά αναγνωρίζουν πρότυπα συμπεριφοράς για διάφορες κατηγορίες εγκλήματος, προκειμένου βάσει αυτών των πληροφοριών να αποτραπούν παρόμοια εγκλήματα. Επειδή αυτές οι τεχνολογίες αντιστοιχούν σε υποδομές, ενώ στην προστασία των δεδομένων είναι ρυθμισμένα μόνο τα ατομικά δικαιώματα, κάποια από τα προγράμματα που χρησιμοποιούνται στη Γερμανία διαφεύγουν από τη σημερινή νομοθετική ρύθμιση. Σε πολλά μέρη της Γερμανίας, λόγου χάρη, η αστυνομία των ομόσπονδων κρατιδίων χρησιμοποιεί το λογισμικό Precobs, που προβλέπει διαρρήξεις με ένα συγκεκριμένο modus operandi στο πλαίσιο ενός συγκεκριμένου χρονικού πλαισίου και με γεωγραφικές παραμέτρους, αξιοποιώντας ανώνυμα δεδομένα για το είδος της αξιόποινης πράξης, τη χρονική εξέλιξη και τα γεωγραφικά δεδομένα. Οι αντίστοιχες υπηρεσίες προστασίας δεδομένων των κρατιδίων έχουν επιτρέψει τη χρήση του λογισμικού – μια και δεν γίνεται επεξεργασία προσωπικών δεδομένων και επομένως δεν εμπίπτει στον τομέα της αρμοδιότητάς τους. Εδώ, αναδύονται ορισμένα ερωτήματα: Όταν σε μια περιοχή της πόλης παρατηρείται ξαφνικά πιο ισχυρή αστυνομική παρουσία, νιώθουν οι κάτοικοι πιο ασφαλείς; Ή μήπως αυτό μπορεί να οδηγήσει ακόμη και σε μια μαζική έξοδο των κατοίκων που έχουν την οικονομική δυνατότητα να βρουν σπίτι σε μια άλλη περιοχή της πόλης; Αυτά τα ερωτήματα δεν αποτυπώνονται στη νομοθεσία. Έρευνες δείχνουν, λόγου χάρη, ότι η παρουσία της αστυνομίας σε ποδοσφαιρικούς αγώνες αυξάνει τη ροπή των χούλιγκαν προς τη βία. Γι’ αυτό και οι αστυνομικοί που επιστρατεύονται στις περιστάσεις αυτές φορούν πολιτικά.  

Το ερώτημα για τον κοινωνικό αντίκτυπο προγραμμάτων όπως το Precobs ούτε εξετάστηκε σε πολιτικό πλαίσιο ούτε και αντιμετωπίστηκε νομοθετικά. Από νομική άποψη, η προσοχή στράφηκε αποκλειστικά στο εάν θίγονται ή όχι από το λογισμικό τα ατομικά δικαιώματα (τα δικαιώματα προστασίας προσωπικών δεδομένων). Εδώ φαίνεται καθαρά ότι η κοινωνική σταθερότητα μιας ολόκληρης πόλης δεν μπορεί να αποτυπωθεί αφενός με εργαλεία προγνωστικής αστυνόμευσης και αφετέρου με ατομικές νομοθετικές ρυθμίσεις. Εξού και συνήθως παραβλέπεται απλώς.

Πρέπει να ληφθούν υπόψη οι κοινωνικές αξίες

Κοινωνικοτεχνολογικά συστήματα όπως το Predictive Policing δείχνουν πως σε μια εξατομικευμένη κοινωνία η κοινότητα δεν εξετάζεται στην ολότητά της. Μια κοινωνία δεν είναι απλώς το άθροισμα των ατόμων της και δεν χρειάζεται μόνο ατομικά δικαιώματα, αλλά πρέπει να εξισορροπεί τα ατομικά δικαιώματα με κοινωνικές αξίες. Η συγκεκριμένη πτυχή πρέπει πάντα να λαμβάνεται υπόψη στην εξέταση των αλγοριθμικών συστημάτων. Οι δημοκρατίες έχουν παραμελήσει την πτυχή αυτή. Κι αυτό καλούμαστε να κάνουμε στο μέλλον.