Algorithmen und Entscheidungsfreiheit Das errechnete Ich

Computerdaten
Computerdaten | Foto: © Dmitry Nikolaev – Fotolia.com

Computerprogramme erstellen Nutzerprofile und bestimmen unsere Rolle und unser Verhalten im Netz. Verlieren wir durch Algorithmen unsere Entscheidungsfreiheit? Diese Diskussion trifft auch in Deutschland auf Nutzer, die vor allem die Vorteile sehen.

Algorithmen, auf bestimmten Anweisungsketten basierende Programme, berechnen aufgrund der Datenspuren, die wir im Internet hinterlassen, unsere Konsumgewohnheiten und unser Kommunikationsverhalten. Sie steuern Suchergebnisse im Netz oder geben anhand unserer Adresse, aus der sich mit gewisser Wahrscheinlichkeit auf unsere Finanzlage schließen lässt, die Zahlungsarten in Internet-Shops vor.

Auch in Deutschland wird immer wieder über die Wirkung von Algorithmen diskutiert. Denn viele Menschen fragen sich, ob sie von Computern fremdbestimmt werden. Die Vorstellung, von etwas beeinflusst zu sein, das nicht greifbar und für Laien nicht verständlich ist, erzeugt Verunsicherung und manchmal sogar Angst.

Maschinen entscheiden mit

Algorithmen sind wirksam: Mit mathematisch-statistischen Verfahren lassen sich aus dem bisherigen Nutzerverhalten Wahrscheinlichkeitsaussagen über beliebige Sachverhalte treffen. Was wir auf Facebook sehen, ist das, was der Algorithmus von Facebook für uns errechnet hat – je nachdem, wie wir mit den Inhalten auf der Plattform interagieren.

So wäre es theoretisch sogar möglich, politische Meinungsbildung zu beeinflussen. Lange schon diskutiert, ist dieses als Filterbubble bezeichnete Phänomen als These des US-Netzaktivisten Eli Pariser berühmt geworden. In seinem gleichnamigen Buch aus dem Jahr 2011 stellte Pariser fest, dass der personalisierte News-Stream von Facebook ihm vor allem Beiträge anzeigte, die mit seiner eigenen politischen Meinung übereinstimmten. Auf diese Weise wird ein Nutzer in einer „Blase“ isoliert, die Informationen ausschließt, die seinen Ansichten widersprechen. Doch der Einfluss von Algorithmen geht noch weiter: Heute entscheiden bereits maschinelle Prognosen mit darüber, ob eine Person kreditwürdig ist oder welchen Versicherungsbeitrag sie zu leisten hat. Aus dem Wohnort wird ein Zahlungsausfallrisiko, aus dem Gesundheitszustand ein Krankheitsrisiko errechnet.

Aber besteht wirklich Grund zur Sorge, Menschen hätten die Kontrolle über ihre Entscheidungen verloren? Was mit Algorithmen errechnet werden kann, sind keine sicheren Prognosen, sondern Wahrscheinlichkeitswerte. Algorithmen bilden auch nicht unser komplexes Wertesystem ab, mit dem wir situativ entscheiden: Sie bleiben auf der Ebene einfacher Handlungen, etwa ob wir einen Text anklicken oder ein Produkt kaufen werden.

Forderung nach Transparenz

Auch die gefilterte Realität eines Facebook-Streams ist kein Problem, das Algorithmen neu geschaffen hätten. „Im Grunde ist die Filterbubble nur eine Blase unter vielen. Auch unser soziales Umfeld formt unsere Wahrnehmung in einer ganz bestimmten Weise“, sagt Ben Wagner, Direktor der Forschungsstelle Internet und Menschenrechte an der Europa-Universität Viadrina in Frankfurt an der Oder. „Entscheidend ist nur, dass wir uns dessen jeweils bewusst sind.“ Doch viele Algorithmen, wie etwa die von Facebook und Google, sind nicht transparent. Die Nutzer dieser Dienste wissen nicht, wie hier für sie „vorentschieden“ wird. „Im Augenblick besteht die Gefahr, dass man Randgruppen ausgrenzt, also zum Beispiel Menschen, die aufgrund ihrer Gesundheitsdaten keinen Krankenversicherungsvertrag bekommen“, warnen deshalb Wissenschaftler wie Ben Wagner. Die Forderung nach mehr Transparenz bleibt deshalb die Hauptaufgabe einer „Algorithmen-Ethik“.

Eine deutsche Debatte

In der deutschen Öffentlichkeit sind die Kritiker einer „Algorithmisierung“ des Menschen stark vertreten. Zu den prominentesten Mahnern gehörte der im Sommer 2014 verstorbene Journalist und Mitherausgeber der Frankfurter Allgemeinen Zeitung, Frank Schirrmacher. In seinen Bestsellern Payback (2009) und Ego (2013) vertrat er die Meinung, das Internet sei eine Droge und Computer veränderten unser Denken. Auch deutsche Politiker warnen schon seit Jahren vor der „Diktatur der Daten“. In seinem Buch Finger weg von meinen Daten (2014) sieht der Europaabgeordnete der Partei Die Grünen, Jan Philipp Albrecht, den Menschen zunehmend entmündigt, degradiert zu einem sich selbst optimierenden und mathematisch errechenbaren System.

Demgegenüber stehen Versuche, diese Kritik selbst wiederum kritisch zu hinterfragen. Wie groß ist die Macht der Algorithmen wirklich? Warum richten wir uns mit unserer Kritik auf vermeintlich negative Entwicklungen, die teilweise noch gar nicht eingetreten sind, statt auch positive Aspekte der Digitalisierung zu betonen, fragt die Autorin Kathrin Passig im Netzkultur-Magazin Berliner Gazette. Der Wissenschaftshistoriker Klaus Mainzer, Professor an der TU-München, plädiert wiederum für eine „Enttechnisierung“ der Diskussion. Algorithmen seien weder eine Erfindung des Silicon Valley noch per se „böse“. Sie wurzelten, so schreibt er sinngemäß in seinem 2014 erschienenen Buch Die Berechnung der Welt, in der Suche nach der mathematischen Beschreibbarkeit von Phänomen und dem wissenschaftlichen Wunsch nach einer Theoriebildung über die Welt. Und dies würden Menschen schon seit Jahrtausenden praktizieren.

Zugleich fällt auf, dass die deutschen Bürgerinnen und Bürger zwar die Intransparenz von Google und Facebook beklagen, deren Dienste jedoch immer intensiver nutzen. Ein breites Bewusstsein für die Risiken, gar eine politische Bewegung, ist aktuell nicht in Sicht. Warum das so sei, wurde die deutsche Rechtsprofessorin Indra Spiecker von der Frankfurter Allgemeinen Zeitung gefragt. Ihre Antwort: „Die Technik ist einfach zu schön.“ Vielleicht ist es aber noch viel einfacher: Der konkrete Nutzen, Kontakte und Netzwerke über große Distanzen mit wenig Aufwand zu pflegen, übersteigt für viele die recht abstrakten Risiken.