Schnelleinstieg:

Direkt zum Inhalt springen (Alt 1) Direkt zur Hauptnavigation springen (Alt 2)

April 2022
Datenschutz. Eine Gesellschaft ist mehr als die Summe ihrer Individuen.

Was, wenn Apps die neuen Architekten der Stadt werden? Weshalb die Regulierung von digitalen Anwendungen dringend angepasst werden muss. Foto (Detail): © picture alliance/Goldman
Was, wenn Apps die neuen Architekten der Stadt werden? Weshalb die Regulierung von digitalen Anwendungen dringend angepasst werden muss. Foto (Detail): © picture alliance/Goldman | © picture alliance/Goldman

Ob bei Facebook, Siri oder Alexa – bei Künstlicher-Intelligenz-Technologie wird in der Öffentlichkeit oft der mangelnde Schutz der Privatsphäre beklagt. Doch intelligente Systeme sind weniger an individuellen Daten interessiert als vielmehr an der Verallgemeinerung und Standardisierung der Lebenskontexte, die sie automatisieren.
 

Von Lorena Jaume-Palasí

Zoom und Skype, Soziale Medien, Smartwatches aber auch Smartphones, Banken oder Versicherungen verwenden komplexe algorithmische Systeme, die wir landläufig auch Systeme mit „künstlicher Intelligenz“ nennen. Damit sie gut funktionieren können, sammeln einige von ihnen sehr viele Daten – das gilt beispielsweise für Anbieter wie Spotify, die Google-Suchmaschine, Instagram, Siri oder Alexa.

Aus diesen Daten können bestimmte Schlüsse gezogen werden, die beizeiten weit über den Musikgeschmack oder die Suchgewohnheiten der Nutzer*innen hinausgehen. Zum Beispiel: Wenn eine Person Musik hört, die in der queeren Community populär ist, kann dadurch etwas über ihre sexuelle Orientierung vermutet werden? Wie sicher ist diese Vermutung? Wie sieht es aus mit dem kulturellen Hintergrund der Person, die Black Music, R&B oder Musik in einer bestimmten Sprache hört?

Viele der gesammelten Daten, die auf den ersten Blick belanglos erscheinen, können in einem bestimmten Kontext sensibel werden, weshalb in der Presse und der allgemeinen Öffentlichkeit schon das Ende der Privatsphäre beklagt wird. Doch dabei wird oft vergessen, dass diese Infrastrukturen an sich meist nicht an den konkreten, privaten Menschen hinter den Daten interessiert sind. Auch wenn sie persönliche Daten sammeln und nutzen – etwa wenn Spotify eine auf die Person zugeschnittene Musikauswahl anbietet –, sind die konkreten, persönlichen Daten für das System als Ganzes irrelevant.

Ein mathematischer Datenbrei

Der Begriff „Künstliche Intelligenz“ steht für sozio-technische Systeme, in denen das Menschliche schwer vom Maschinellen getrennt werden kann. Diese Systeme basieren auf Annahmen über die Welt und den Menschen, seine Zielsetzungen und Absichten, die auf menschlichen Entscheidungen beruhen. Dasselbe gilt für die hierfür notwendige Verarbeitung in Form von Daten. Daten über Menschen werden dabei wie bei Puzzles in Daten-Puzzleteile übersetzt. Die mathematischen Formeln, die die Daten verarbeiten, aggregieren alles zu einem Brei – aus Individuen werden Durchschnitte und statistische Profile: fein granulare, aber „generische“ Schubladen-Individuen.

Um es an einem Bild zu verdeutlichen: Das Augenmerk liegt dabei nicht auf dem einzelnen Baum im Wald (dem Individuum), sondern auf dem Wald (der Gesellschaft) an sich. Die Ambivalenz und Ambiguität menschlichen Lebens hingegen lassen sich nicht vollständig in Daten und Algorithmen übersetzen. Darauf sind diese Infrastrukturen auch gar nicht ausgerichtet – sie sind eher darauf gerichtet, das Leben von Menschen zu gestalten, wie der britische Rechtswissenschaftler Michael Veale anmerkt. Diese Systeme werden eingesetzt, um bestimmte Verfahren zu automatisieren. Das bedeutet, dass für Verfahren, in denen es manuell womöglich verschiedene Möglichkeiten und Wege gab, Standards gesetzt werden, die diese Flexibilität nicht mehr ermöglichen. Angefangen bei der Entscheidung, was verdatet wird und was nicht: Was etwa als Datum gilt und in welchem Format, ist eine Entscheidung über das, was vom System gesehen wird, und das, was im System nicht existiert, weil es nicht verdatet wurde. Durch die Standards, Datenformate, Verdatungsentscheidungen etc. der Systeme wird somit diktiert, auf welcher Art und Weise Zugang, Teilhabe und Interaktionen innerhalb einer Dienstleistung zustande kommen.

Genau hier zeigt sich das Grundproblem bei der Regulierung dieser Systeme: Grundrechte und Datenschutz sind Individualrechte; die gesamte Grundrechtssystematik und das konkretisierende einfache Recht gehen vom Individuum aus. Anders ausgedrückt: Das deutsche Rechtssystem kennt bei Grundrechten nur Bäume, keinen Wald. Die Technologien werden mit dem derzeitigen Rechtsinstrumentarium so reguliert, als könnte der Wald durch Einzelbaumregelungen kontrolliert werden.

Verbrechen im Schwarm erkennen

Ein gutes Beispiel für diese Unstimmigkeit zwischen Rechtssystem und den operierenden KI-Systemen sind Predictive-Policing-Systeme, auf Deutsch auch „Vorhersagende Polizeiarbeit“ genannt. Diese identifizieren Verhaltensmuster für verschiedene Verbrechenskategorien, um anhand dieser Informationen ähnliche Verbrechen zu verhindern. Da diese Technologien einer Infrastruktur entsprechen, während im Datenschutz nur individuelle Rechte geregelt sind, entziehen sich einige der in Deutschland verwendeten Programme der gegenwärtigen gesetzlichen Regulierung. In mehreren Teilen Deutschlands etwa setzt die Landespolizei die Software Precobs ein, die Einbrüche mit einem bestimmten Modus Operandi innerhalb eines bestimmten Zeitrahmens und geografischer Parameter vorhersagt, indem sie anonyme Daten über die Art der Straftat, den zeitlichen Ablauf sowie geografische Daten verwendet. Die entsprechenden Landesdatenschutzbehörden haben den Einsatz der Software erlaubt – da keine personenbezogenen Daten verarbeitet werden und sie somit nicht in ihre Zuständigkeit fällt.Dabei wirft das System einige Fragen auf: Wenn in bestimmten Stadteilen plötzlich eine größere Polizeipräsenz zu beobachten ist, fühlen sich die Bewohner*innen dann sicherer? Oder führt dies sogar zu einer massiven Abwanderung von Bewohner*innen, die sich eine Wohnung in einem anderen Teil der Stadt leisten können? Diese Fragen werden rechtlich nicht abgebildet. Die Forschung zeigt, dass gerade die Präsenz von Polizist*innen bei Fußballspielen die Gewaltbereitschaft von Hooligans steigert. Aus diesem Grund werden Polizist*innen in Zivilbekleidung eingesetzt.

Die Frage über den sozialen Effekt von Programmen wie Precobs wurde weder politisch berücksichtigt, noch war sie rechtlich vorgesehen. In rechtlicher Hinsicht wurde das Augenmerk ausschließlich darauf gerichtet, ob (datenschutzrechtliche) Individualrechte durch die Software verletzt werden oder nicht. Hier zeigt sich: Die soziale Stabilität einer gesamten Stadt kann mit Predictive-Policing-Werkzeugen einerseits und individuellen Regelungen andererseits nicht abgebildet werden. Sie wird deshalb regelmäßig außer Acht gelassen.

Gesellschaftliche Werte berücksichtigen

Soziotechnische Systeme wie Predictive Policing zeigen, wie in einer individualistischen Gesellschaft die Gemeinschaft als Ganzes nicht gesehen wird. Eine Gesellschaft ist mehr als die Summe ihrer Individuen und braucht nicht nur Individualrechte, sie muss diese vielmehr mit gesellschaftlichen Werten ausbalancieren. Dies muss bei der Betrachtung algorithmischer Systeme stets berücksichtigt werden. Letzteres haben Demokratien vernachlässigt. Es sind unsere Hausaufgaben für die Zukunft.
 

Top