Aus dem Leben der Algorithmen „Wie ist diese Blackbox aufgebaut? Wir können nur raten“

Darüber, wie Algorithmen für politische Zwecke Menschen trennen, Konzerne die Benutzer von Sozialen Netzwerken entmachen und was sich tun lässt, sprach Dmitri Bezuglow mit den Wissenschaftlerin Lila Zemnuchowa und Grigorij Asmolow. Ein Beitrag im Rahmen des Spezprojektes des Goethe-Instituts und портала Colta.ru.

Von Dmitri Bezuglow

Grigorij Asmolow, Dozent an der Fakultät für digitale Geisteswissenschaften am King‘s College London, und Lilia Zemnuchowa, Wissenschaftlerin am STS-Zentrum der Europäischen Universität in St. Petersburg, Autorin des Kanals @WrongTech, sind Sozialforscher, die sich für die Probleme der Diskommunikation und der Interaktion zwischen Mensch und Maschine interessieren. Grigory erforscht die Polarisierung in sozialen Netzwerken, Lilia Ingenieure, die KI-Systeme trainieren.  Sowohl Asmolow als auch Zemnuchowa untersuchen dabei die Verzerrungen und das Befreiungspotential von Technologien und Medien. Dmitri Bezuglow sprach mit Grigori und Lilia für die Colta-Rubrik „Aus dem Leben der Algorithmen“, die vom Goethe-Institut in Moskau unterstützt wird.

— Im Allgemeinen schlage ich vor, unser Gespräch den Möglichkeiten der Steuerung von Algorithmen zu widmen und der Frage, wie Algorithmen und Systeme, die als KI bezeichnet werden, an der Manipulation der politischen Agenda beteiligt und mit der Verbreitung von Fehlinformationen verbunden sind, was zu einer Polarisierung der Interessen verschiedener Gruppen führen kann, oder auch nicht. Soweit ich weiß, Grigorij, interessieren Sie sich nicht für Fehlinformationen als solche, sondern eher für die Polarisierung, die innerhalb von bedingt miteinander befreundeten Gruppen stattfindet.

Григорий Асмолов Григорий Асмолов | © King's College London Grigorij Asmolow: Meine Kollegen und ich versuchen wirklich, Fehlinformation nicht als eine Methode zur Konstruktion eines falschen Weltbilds zu verstehen, sondern als einen Versuch, soziale Phänomene ins Leben zu rufen, an denen bestimmte politische Kräfte interessiert sind.  Die Fehlinformation, die das Weltbild manipuliert, wird von uns als Werkzeug, als eine Technologie der Macht betrachtet, die soziale Effekte erzeugen kann. 

— Kann ich nach diesen zeitverzögerten Folgen fragen? Worin manifestieren sie sich, was kennzeichnet sie?

Asmolow: Die Fehlinformation beeinflusst die Struktur der sozialen Kommunikation. Wir sprechen viel darüber, wie Technologien Menschen mobilisieren können. Es kam der Begriff „Connected Actions“ (zusammenhängende Handlungen) auf, der aufzeigt, dass heute nicht Organisationen, sondern digitale Technologien und Medien die Hauptagenten der Mobilisierung werden. Und im Gegensatz zu dieser Entwicklung erscheint eine andere, verbunden mit der Desintegration, Trennung,  dem Zerfall, die auf Englisch als  Disconnectivity bezeichnet wird. Dementsprechend haben auf Trennung abzielende Handlungen auch ihre eigene Logik und ihr eigenes Spektrum sozialpolitischer Funktionen.

Und wir sehen, dass staatliche Institutionen, die die politischen Risiken verringern wollen, die mit konnektiven Handlungen verbunden sind, versuchen, horizontale Verbindungen zu zerstören und die sich Mobilisierenden zu trennen. Zum Beispiel sehen wir eine Tendenz zum Zerfall sozialer Netzwerke, zu massenhaften Löschungen von Freunden, die durch Veröffentlichungen und das Weiterposten in Krisensituationen verursacht werden – auf diese Weise reagieren die Benutzer auf die Entstehung und Verbreitung von Fehlinformationen. Ein neues Thema, das in das Informationsfeld eingeführt wurde, kann Personen trennen, die einer einheitlichen sozialen Gruppe angehören oder politisch verbunden sind. In mehreren Studien habe ich die Rolle der Desinformation analysiert, die darauf abzielt, die potenziellen Risiken aus der Mobilisierung zu neutralisieren.

Einerseits gibt es hier nichts Neues. Die Parole „Teile und herrsche“ ist so alt wie die Welt. Neu ist, dass wir sehen, wie sich traditionelle Institutionen an die Informationsrealität anpassen, indem sie verschiedene Formate von Netzwerk- und digitalem Autoritarismus schaffen. Krisen, die mit einem Anstieg der politischen Risiken verbunden sind, tragen einerseits zur Entwicklung neuer Technologien für die horizontale Mobilisierung und andererseits zur Entwicklung vertikaler Kontrolle einschließlich sozialer Desintegration bei.

— Lilia, wie ich das verstehe, konzentriert sich Deine Forschung weniger auf das Trennen horizontaler Verbindungen, und Du schenkst Störungen der Interaktion mehr Aufmerksamkeit, die durch Technik verursacht werden, aber im weitesten Sinne nicht direkt mit dem politischen Aspekt zusammenhängen?

Лилия Земнухова Лилия Земнухова | © Европейский университет в Санкт-Петербурге Lilia Zemnuchowa: 
Ja, ich versuche, den politischen Aspekt zu umgehen, weil die Entwickler in unseren Interviews explizit versuchen, ihn zu nivellieren. Wenn man beispielsweise einen Ingenieur fragt, welche politischen Konsequenzen die Verwendung seines Algorithmus bewirken kann, erhält man folgende Antwort: „Nein-nein, keine Politik. Ich möchte nichts entscheiden, ich schaffe nur Technologien." Die fehlende Bereitschaft, über Politisches zu sprechen, der Verzicht auf Überlegungen, dass Technologien politisch gefärbt sein können, deuten darauf hin, dass Entwickler versuchen, sich von der Verantwortung für ihre Implementierung zu befreien. Als würden sich ihre Benutzer in einem Vakuum befinden. Der Konflikt, der mich interessiert, liegt darin, wie unterschiedlich der Sinn ist, den die Entwickler und Benutzer in Technologien einfließen lassen.

Wenn wir zum Beispiel über KI sprechen: Das System wird anhand von konkreten Datenbanken trainiert – das System kann lernen, Gesichter zu erkennen, aber es wird dies mit unterschiedlichem Erfolg für verschiedene Kategorien der Bevölkerung tun. Und es stellt sich eine Frage für Entwickler: Sehen sie die Muster, nach denen die Systeme trainiert werden? Schließlich sind diese Muster für kognitive Fehler verantwortlich, die sogenannten Bias. Und oft führen Fehler nicht nur zu Fehlinformation: Sie reproduzieren die vorherrschenden, etablierten Stereotypen, die auf vortechnologischer Ebene existieren und einfach in der Technologie verankert werden. Und die Entwickler versuchen, dies zu verleugnen und zu zeigen, dass sie nichts damit zu tun haben.

In diesem Zusammenhang gibt es für mich ein interessantes politisches Thema, das mit der Regulierung zusammenhängt. Und zwar die Frage der Rechenschaftspflicht der Plattformen, der sozialen und unternehmerischen Verantwortung, nämlich der Regeln, die sowohl Benutzer als auch Entwickler und auch Staaten bereit sind zu akzeptieren. Vorerst befindet sich dieser Bereich in einem wackeligen Zustand und es gibt keine strenge Regulierung. Die Rechtssysteme bieten unterschiedliche Regulierungsvarianten, aber in Wirklichkeit erfordert jeder neue Fall, jeder neue Algorithmus, jede neue Datenbank zusätzliche Eingriffe und Überarbeitungen – und dieser Prozess wird meines Erachtens immer ereignisreich sein.

— Verstehe ich recht, dass dieses Problem mit der Politik der Artefakteл verglichen werden kann, über die Langdon Winner geschrieben hat? Quasi „Oh, wir haben ein Objekt erstellt und es schließt eine bestimmte Gruppe von Benutzern aus?“

Zemnuchowa: Jein. Du beziehst Dich auf den klassischen Fall mit der Brücke, die von Architekten unter der Leitung von Robert Moses gebaut wurde. Für diejenigen, die es nicht wissen: Als die Architekten die Höhe der Brücke auslegten, berechneten sie diese so, dass der Bus, der normalerweise von Vertretern rassischer Minderheiten und bedürftiger Gesellschaftsschichten benutzt wird, nicht unter der Brücke hindurchfahren konnte. Und dies war eine bewusste Entscheidung.

Wir sprechen hingegen über Algorithmen, die häufig Bias reproduzieren. Das Einbetten von Stereotypen ist nicht beabsichtigt, aber es wird trotzdem mögliche Verzerrungen verankern und nachfolgend reproduzieren, unabhängig davon, ob die Entwickler davon wissen oder nicht. Mit den digitalen Artefakten ist es nicht ganz so einfach wie mit den physischen. Das Brückenproblem kann verhindert werden, indem man irgendwann darauf hinweist; bei Algorithmen ist dies nicht so offensichtlich – sie funktionieren wie Black Boxes. Oft wollen die Entwickler selbst nicht verstehen, wo genau der Wiedergabefehler aufgetreten ist. Das, was für einen Gesetzeshüter normal ist, wird zum Beispiel für gefährdete Gruppen diskriminierend sein. Wo verläuft diese Grenze? Das Problem ist, dass es oft unmöglich ist, zu verstehen, wie und wo sie verläuft.

Ich glaube, dass die Versuche von Facebook, Nachrichten zu moderieren und die Verbreitung von Falschmeldungen zu unterbinden, für Dich und Grigorij gleichermaßen interessant sein können. Möglicherweise habt ihr beide euch mit diesem Fall auseinandergesetzt. Wenn ja, würde ich gerne wissen, unter welchen Gesichtspunkten ihr diese Frage erörtert habt.

Asmolow: Schauen Sie: Mir scheint, dass hier die Frage der Algorithmen, die Sie im Zusammenhang mit Facebook ansprechen, von Bedeutung ist. Grundsätzlich sollte diese nicht nur im Zusammenhang mit Fehlinformationen diskutiert werden, sondern auch damit, wie sich das Weltbild bei den Social-Media-Nutzern gestaltet. Die Dänin  Taina Bucher hat ungefähr vor sieben oder acht Jahren den Begriff  „algorithmische Macht“ (algorithmic power): vorgeschlagen: Er weist auf den erheblichen Einfluss hin, den Algorithmen auf unser Weltbild ausüben.

Kommunikationsforscher untersuchen seit Jahrzehnten, wie unsere Nachrichtenagenda gestaltet wird, wie das Weltbild von vielen Akteuren beeinflusst wird – Algorithmen sind kürzlich in ihren Kreis eingetreten. Sie sind zu einem der wichtigsten Mechanismen geworden, die sich auf das auswirken, was wir in unserem Newsfeed sehen. Angesichts der Tatsache, dass der Nachrichtenkonsum von Medienplattformen zu sozialen Netzwerken gewechselt ist, wird unser Newsfeed zunehmend von eben der Black Box gebildet, deren Aufbau auch Forscher nicht verstehen. Wir können versuchen zu sehen, was sich in dieser Box befindet, aber wir werden nie genug Werkzeuge dafür haben. Wir können nur raten.

Zum Beispiel wissen wir, dass die Anzahl der Likes und der Grad der Aktivität um ein bestimmtes Informationssegment dessen Sichtbarkeit beeinflussen. Oder wenn Facebook algorithmische Verbesserungen ankündigt, die die sichtbare Menge an Fehlinformationen reduzieren, bedeutet dies die Anpassung von Algorithmen auf der Basis maschinellen Lernens: Es bestimmt so oder so die Klassifizierungsstruktur dessen, was als Fehlinformation angesehen wird. Inwieweit dieses Lernen vom Menschen kontrolliert wird, ist jedoch unklar.

Daher entsteht hier einerseits ein neuer Informationsraum für politische Manipulationen, andererseits verstehen wir immer weniger, wie unser Informationsbild der Welt entsteht. In gewissem Maße ist die Erforschung von Algorithmen schwieriger als die Erforschung von lebendigen Menschen.

Zemnuchowa: Ich würde an dieser Stelle ergänzen, dass es einerseits Präzedenzfälle gibt, wo Entwickler über ihre Algorithmen erzählen, wie der Feed gebildet wird usw. Andererseits hat Facebook solche Algorithmen und TikTok andere, und sie unterliegen unterschiedlichen Mechanismen. Gleichzeitig haben Benutzer eine verschwommene Vorstellung davon, wie diese Dienste funktionieren, und sie haben fast keinen Einfluss darauf, wie sie an ihre Bedürfnisse angepasst werden können.

In solchen Fällen spricht man von symbolischer Benutzermacht. Sie ist symbolisch, weil wir in unseren eigenen Feeds nur wenige Einstellungen vornehmen können. Dies unterscheidet sich stark von der Customisierung, die in der Frühzeit der sozialen Medien verfügbar war, als Benutzer in der Lage waren, buchstäblich alles zu konfigurieren, was sie sehen wollten. Die Frage nach der symbolischen Macht der Benutzer hat sich vom Zentrum zur Peripherie verlagert und stellt sich wie folgt dar: Unternehmen ermöglichen Benutzern das Erstellen von Inhalten, aber Benutzer geraten trotzdem in eine Falle, wenn sie glauben, zu verstehen, wie der Algorithmus funktioniert und dass sie ihn beeinflussen können. Tatsächlich steht ihnen nur das Sichtbare zur Verfügung, sie haben keinen Zugang und kein Fachwissen.

– Es ist interessant, dass im Rahmen unseres Gesprächs bereits zwei Arten von Macht aufgekommen sind, die jedoch nicht auf einer Achse angeordnet werden können: „algorithmische Macht“ und „symbolische Benutzermacht“. Ich möchte jetzt zur echten Benutzermacht übergehen. Wenn ich richtig verstehe, hatte Grigorij Erfahrung mit der Erstellung einer Crowdsourcing-Plattform, und Lilia, Du hast bedeutende Erfahrung mit dem „Treibhaus der sozialen Technologien“. Wie ist es, wenn man etwas absichtlich Offenes entwickelt, an dem jeder mögliche Benutzer beteiligt werden soll?

Zemnuchow
a: Grischa, man kann wahrscheinlich mit der Erstellung der Hilfskarte für Brandgeschädigte beginnen, wie bei der ersten großen Initiative.

Asmolow: Mir scheint, dass die Karte mit dem „Treibhaus“ verbunden ist, denn nachdem wir mit Alexej Sidorenko (dem Leiter des „Treibhauses der sozialen Technologien“Red.) an der Hilfskarte gearbeitet haben, stellten wir fest, dass wir Organisationen brauchen, die die digitale Alphabetisierung innerhalb der NGO-Gemeinschaft, der horizontal aufgebauten Strukturen, unterstützen und entwickeln. Die Einführung der Brandkarte im Jahr 2010 hat gezeigt, dass Technologien der Zivilgesellschaft helfen können, Probleme zu lösen. Das „Treibhaus“ schafft eine Umgebung, in der man lernen, diese Technologien erörtern und somit Wissen ansammeln kann.

Hier möchte ich die jüngsten analytischen Arbeiten des „Treibhauses“ erwähnen, die darauf gerichtet waren, die Vorstellung von den neuen Chancen und Risiken zu erweitern, die mit Technologien entstehen. Dieses Projekt namens  „Horizont-Scanning“  widmet sich der Rolle der Technologien bei der Gestaltung der Zivilgesellschaft. Die Schlüsselidee des Projekts ist, dass nur die Reichweite unserer Vorstellungskraft den möglichen Einsatz von Technologien einschränkt. Wenn wir uns etwas nicht vorstellen können, können wir es nicht reflektieren und nutzen, um bestimmte Ziele zu erreichen. Darum ist es wichtig, nicht nur den Umgang mit Technologien zu lernen, sondern auch Trends zu analysieren, die mit den möglichen Auswirkungen von Technologien in fünf bis zehn Jahren verbunden sind.

Wir wollen für eine Sekunde zu den Algorithmen zurückkehren. Sie können als neutrale Technologie dargestellt werden, die möglicherweise sowohl positive Lösungen zur Erleichterung der Ausführung eines bestimmten Aufgabenspektrums als auch negative Risiken enthalten. Wenn wir über Crowdsourcing sprechen, auf dessen Grundlage die Hilfskarte funktioniert hat, werden wir feststellen, dass diese Palette an digitalen Praktiken im Zusammenhang mit der Mobilisierung von Humanressourcen es uns ermöglicht, zeitnah auf Krisen zu reagieren, was natürlich den Menschen auf die eine oder andere Weise helfen und die Folgen von Notsituationen minimieren kann. Die fehlende Transparenz der Algorithmen führt jedoch zur Entstehung von Risiken, weshalb „Horizont-Scanning“ versucht, beide Seiten aufzuzeigen. Lilia hat übrigens einen der Texte für die Sammlung geschrieben.

Zemnuchowa: Mir scheint, dass bei einer Bürgertechnologie (civic tech) Benutzer – normale Bürger, die bestimmte Probleme lösen wollen – sich auf verschiedenen Ebenen – lokalen, persönlichen, nachbarschaftlichen – zusammenschließen können. Die Tools, die ihnen dabei helfen, werden zu einem zusätzlichen Informationsanlass, um Algorithmen transparenter und zugänglicher zu machen, damit Bürger mehr mit Technologien arbeiten können. Der Erfolg wird eine stärkere Beteiligung und die Möglichkeit sein, mit Technologien zu arbeiten, ohne über große Ressourcen zu verfügen.

Daher ist Open Source für diesen Sektor wichtig: die Arbeit mit offenem Quellcode oder verfügbarer freier Software, mit der eigene Basisinitiativen unterstützt und erstellt werden können. Im gleichen Kontext existiert auch die Zivilwissenschaft (civic/citizen science), die die Sammlung von Wissen durch die Beteiligung normaler Bürger ermöglicht, obwohl es bei ihr an aktivistischem Sinn mangelt. Dies ist ein gemeinsamer Topf, der sowohl normale Menschen, als auch Ingenieure und Programmierer beherbergt, die sich gegen autoritäre, unverständliche Werkzeuge durchzusetzen versuchen, die vom Staat oder der Großindustrie aufgezwungen werden.

Natürlich möchte ich jetzt nicht behaupten, dass der Staat oder die Industrie nur das Aufzwingen betreiben und die Benutzer nichts verstehen. Die Polarisierung betrifft in einem gewissen Maße immer die Technologien, insbesondere die Ziviltechnologien. Einerseits möchten wir Transparenz und die Erfüllung der Rechenschaftspflicht seitens der Entwickler; andererseits möchte man, dass Benutzer auch ihre Rechte und Möglichkeiten verstehen, damit sich Technologien durch niedrige Einstiegsanforderungen für verschiedene Benutzer auszeichnen.

— Lilia, Du hast über die fehlende Bereitschaft der Ingenieure, die Verantwortung für das Politische zu übernehmen, gesprochen, und ich erinnerte mich an ein Beispiel, das ich gerade in meinem Facebook-Feed gefunden habe: Wheely weigerte sich, Benutzerdaten an die Moskauer Verkehrsabteilung zu übergeben, und der Gründer des Dienstes schrieb einen Programmtext darüber, was Unternehmer an den Staat weitergeben sollten und was nicht. Dieses Beispiel hat mich tief berührt. Ich weiß nicht, ob ihr davon gehört habt oder nicht.

Asmolow: 
Dieses Beispiel wirft eine interessante Frage auf: Wie ändern sich in einer Krisensituation die Spielregeln, die bestimmen, was legitim ist und was nicht. In der Situation mit dem Coronavirus hat das Interesse an Giorgio Agambens Konzept des Ausnahmezustands (state of exception) zugenommen. Dieses Konzept legt nahe, dass der Staat in Krisensituationen über die traditionellen Spielregeln hinausgehen und neue diktieren kann. Wir sehen, dass in vielen Staaten, nicht nur in Russland, dieser Ausnahmezustand unter anderem die Verwendung von Informationstechnologien betrifft, insbesondere die Art und Weise der Datenerfassung und -analyse. Der Fall von Wheely und die Handlungen von Anton Tschirkunow zeigen: Dies ist ein Kampf zur Festsetzung von Grenzen, und er weist auf die Frage hin – welchen Preis sollen wir dafür zahlen? Soweit ich weiß, verlor Wheely aufgrund der Tatsache, dass er nicht bereit war, den Behörden Informationen herauszugeben, seine Arbeitslizenz, was mit ernsthaften finanziellen Risiken verbunden war. Andererseits kommt es auch auf den Ruf an, insbesondere wenn es um ein Unternehmen geht, das unter anderem außerhalb Russlands tätig ist.

Dieser Fall weist auf ein allgemeineres Thema im Zusammenhang mit der Regulierung und Souveränisierung des Internets hin: Inwieweit folgen globale Unternehmen dem russischen Recht und kommen der Aufforderung nach, Daten von russischen Nutzern in der Russischen Föderation unterzubringen, und welcher Preis für die Nichterfüllung dieser Anforderungen käme für sie in Frage? Wir sehen, dass viele Unternehmen, einschließlich Facebook, nicht gewillt sind, diese Anforderungen zu erfüllen. Dabei hat bisher nur LinkedIn, das in Russland gesperrt wurde, einen hohen Preis dafür gezahlt. Wheely ist eine symbolische Geschichte, die auf die Dilemmata in den Beziehungen zwischen Staatsbehörden und globalen Unternehmen hinweist.

Zemnuchowa: Es sei noch darauf hingewiesen, dass diese Geschichte mit den russischen Gegebenheiten zusammenhängt.  Die Versuche, an Datenbanken, Korrespondenz und andere vertrauliche Informationen zu gelangen, prägen seit vielen Jahren unser Umfeld, und dies gehört in das Gebiet des Rechts. Es ist interessant zu sehen, wie versucht wird, Rechtsfragen über technische Lösungen vorzugeben und vorzubestimmen.  So handelt beispielsweise Telegram: Mit seiner technologischen Lösung kann sichergestellt werden, dass die Daten der Benutzer die Smartphones nicht verlassen.  Dies ist eine technologische Antwort auf gesetzliche Beschränkungen.

Es ist wichtig, dass jeder Widerstandsversuch, jede Reaktion der Dienste, die Daten sammeln, mit dem Rahmen der russischen Gesetzgebung konfrontiert wird. Dies ist ein Kampf um die Verteidigung der Grenzen, das Recht, frei über eigene Daten verfügen zu können: zu sammeln oder nicht zu sammeln, zu teilen oder nicht zu teilen, eine Zustimmung oder ebene keine Zustimmung zu erteilen. Wir sehen verschiedene Szenarien, die Entwickler als Reaktion auf behördliche Anforderungen anbieten.

— Verstehe ich richtig, dass das russische Umfeld für Gespräche über die Ethik in den Technologien quasi noch unausgereift ist? Und dass es noch zu früh ist, hier über Ethikkommissionen zu sprechen?

Zemnuchowa: 
Ich antworte kurz. Soweit ich weiß, entstanden erste Ethikkommissionen in IT-Unternehmen erst im Jahr 2018. Große Unternehmen wie Microsoft, Facebook, Google und andere versuchten, sie umzusetzen, um ihre Aktivitäten irgendwie zu regeln, aber in der Hälfte der Fälle sind diese Versuche gescheitert. Wir haben einen solchen Versuch im Jahr 2019 erlebt: Es war  der Vortrag „Ethik und „Digitales“ des Zentrums für die Ausbildung von Führungskräften der digitalen Transformation bei RANEPA. Sie brachten alle Experten zusammen, die verstehen, was mit Ethik in Bezug auf KI zu tun ist, aber ihre Empfehlungen wurden (noch) nicht auf gesetzlicher Ebene akzeptiert. Deswegen haben wir bisher kein gültiges Beispiel.

Asmolow: Die Ethik beginnt zu funktionieren, wenn bei der Nichteinhaltung der Regeln Reputations- oder Geschäftsrisiken drohen, die auf jeden Fall miteinander verbunden sind. Wir können zum Beispiel sehen, dass die Handlungen großer, nicht rechenschaftspflichtiger Unternehmen wie Facebook bereits dazu führen, dass sich ihre Entscheidungen auf das Geschäft als solches auswirken und die Kurse beeinflussen.

In den USA hat Rebecca MacKinnon  beispielsweise den Corporate Accountability Index für Plattformen von Internet-Großunternehmen erstellt. Im Westen sind solche Indizes wichtig, weil sie das Image des Unternehmens beeinflussen. Inwieweit wirkt sich die Einhaltung ethischer Regeln auf das Geschäft russischer Unternehmen aus? Das ist eine rhetorische Frage...

— Das heißt, bis jetzt werden ethische Probleme im russischen Kontext in sehr kleinen Gruppen im Bereich ziviler Technologien gelöst?

Zemnuchowa:
 Es sei daran erinnert, dass die Logik der raschen Entwicklung von Technologien langsamen Versuchen entgegensteht, die Anforderungen und Empfehlungen für diese Technologien zu kodifizieren. Die Maschinerie der ethischen Regulierung kann sich nicht schnell, einfach und flexibel umstellen.  Wir können grundlegende ethische Koordinaten nehmen, zum Beispiel uns auf Kant stützen, aber das wird nicht funktionieren, da ethische Prinzipien kulturell und lokal bedingt sind. Was für 15 Länder relevant ist, wird für 25 nicht relevant sein. Dieses System sollte also immer auf der Tagesordnung stehen. Es sollte regelmäßig besprochen und regelmäßig überprüft werden.

Asmolow: Lilia spricht gerade über sehr wichtige Dinge. Warum ist es nicht immer offensichtlich, dass es wichtig ist, über Ethik zu sprechen? Weil diese Gespräche oft der Gespräche halber geführt werden, als eine Art Tribut an den obligatorischen Tagesordnungspunkt, der die eigentliche Bedeutung dieser Diskussion nivelliert. Allem Anschein nach beeinflussen die ethischen Aspekte digitaler Plattformen alle Aspekte unseres Lebens. Das, was wir jetzt besprechen, ist so oder so die Diskussion über den Grad der Wahlfreiheit, die wir als Benutzer von Informationsplattformen behalten. Dies kann die Wahl eines Verbrauchers oder eine politische Wahl sein.

Diese Freiheit wird durch die Technologien eingeschränkt, die Bedingungen für die Entstehung neuer Formen möglicher und zunehmend weniger transparenter Manipulationen schaffen. Die Ethik ist erforderlich, um unseren Raum der Wahlfreiheit zu regeln und sogar in geringfügiger Weise zu schützen. Ich fand die These von Lawrence Lessig von der Harvard University gut, die ich letzten Dezember auf einer Konferenz in Kopenhagen hörte: Er sagte, er könne die Zerstörung der Demokratie hinnehmen, um den Klimawandel zu stoppen, aber er sei nicht bereit, die Zerstörung zu akzeptieren, die durch den Wunsch nach einem effektiveren Verkauf der Werbung diktiert wird. Die Frage ist, wofür wir bereit sind, die Freiheit aufzugeben.

Nach Shoshanna Zuboffs Konzept des Überwachungskapitalismus (Shoshanna Zuboff) werden Algorithmen verwendet, um ein endloses kapitalistisches Wachstum zu erzielen, das unsere Rechte und Freiheiten beeinträchtigt. Die Kontexte sind unterschiedlich, aber das Problem der Wahlfreiheit steht immer im Vordergrund. Wenn man sowohl Benutzer als auch Unternehmen davon überzeugt und ihnen klar macht, dass die Nichteinhaltung dieser Regeln zu einer Abwanderung der Benutzer führt, beginnt eine echte und nicht vorgetäuschte Arbeit rund um die Ethik.

– Wie können sie überzeugt werden? Welche Methoden sind euch bekannt? Denn gerade male ich mir ein schreckliches Bild aus: Es gibt große kapitalistische Walfische, sie werden von anderen kapitalistischen Walfischen angegriffen und ein kleiner Krill – der Benutzer – schwimmt einfach in einem Fischbein mit und beeinflusst den Prozess in keiner Weise.

Zemnuchowa: 
Arbeiter können sich trotzdem noch vereinigen. Zum Beispiel lehnten Facebook-Mitarbeiter Zuckerbergs Vorschlag vehement ab, nach einer technischen Lösung für eine Teilnahme an militärischen Entwicklungen zu suchen. Dies ist eine der Möglichkeiten, auf Prozesse im Unternehmen zu reagieren und diese zu regeln. Es gibt auch andere Mechaniken. Einerseits den Aktivismus unter Verwendung von Ziviltechnologien. Andererseits die Bewegung, die für die Rechenschaftspflicht von Plattformen eintritt und in Europa und einigen US-Bundesstaaten aktiv ist.

Ich habe übrigens einen Text über die Rechenschaftspflicht von Plattformen geschrieben. Darin finden sich zwei grundlegende Botschaften: Staats- und Führungsstrukturen im Allgemeinen sollten transparenter werden und Benutzer neugieriger: Auf diese Weise können sie Fragen stellen, warum dies so funktioniert und nicht anders. Wir brauchen eine gegenseitige Dynamik sowohl seitens der Benutzer als auch seitens des Staates und der Industrie.

Asmolow: Ich möchte an Lilias Artikel „Zivilgesellschaft und Kontrolle der sozialen Auswirkungen von Technologien“ erinnern, in dem sie ausführlich darüber berichtet. Ich werde jetzt als Dozent der Fakultät für digitale Geisteswissenschaften am King´s College London antworten. Ein wichtiges Ziel unserer Lehrtätigkeit ist es, die Möglichkeiten zur Selbstreflexion gerade im Bereich des Einflusses von Technologien auf alle Aspekte unseres Lebens zu erweitern. Die Informationsplattformen bringen uns zu vielen Entscheidungen: der Wahl, wofür man Geld ausgibt, wo man das Wochenende verbringt, welche Anwendung man kauft und so weiter. All dies erfordert mehr Rechenschaftspflicht und somit eine Reflexion über die Entscheidungen, die wir treffen. Daher ist die Informationskompetenz für mich nicht nur die Fähigkeit, die Technologien zu nutzen, sondern vor allem die Entwicklung von zwei Arten des Denkens, die mit ihrer Verwendung verbunden sind: kritisches Denken zur Reflexion über ihre Rolle in unserem Leben und kreatives Denken, das es uns ermöglicht, neue Modelle zu entwickeln, wie diese Technologien zur Lösung gesellschaftspolitischer Probleme eingesetzt werden können.

Die Bildung spielt hier also eine wichtige Rolle, aber es gibt auch technische Ebenen, d.h. die Entwicklung von Plattformen, mit denen wir zumindest in einem gewissen Maße die Kontrolle darüber zurückholen können, wie sich unsere Daten und Algorithmen auf unser tägliches Leben auswirken. Tim Berners-Lee hat zum Beispiel vor einigen Jahren die Initiative Solid gestartet, mit der Benutzer und nicht Plattformen ihre persönlichen Daten kontrollieren können. Die Benutzer haben das Recht, selbst zu entscheiden, welche Daten sie teilen und mit wem. Diese Initiative schafft mehr Möglichkeiten zur Reflexion. Heute können wir unsere digitalen Spuren nicht mehr kontrollieren. Darum sollten wir über technologische Lösungen nachdenken und sprechen, die die Architektur von Informationssystemen verändern, sodass wir mehr Kontrolle über unsere Daten erlangen.