Schnelleinstieg:

Direkt zum Inhalt springen (Alt 1) Direkt zur Hauptnavigation springen (Alt 2)

Aus dem Leben von Algorithmen
Michael Puntschuh: „Einige der Fehler, die Algorithmen zulassen, würde sogar ein Kind nicht machen“

Michael Puntschuh
© Hessen-Caritas

Algorithmen sind auf eigene Art eine Terra Incognita. Wie man diese Erde erschließt, damit sie uns mehr Nutzen als Schäden bringt, erzählt der deutsche Experte aus dem Projekt Algo.Rules Michael Puntschuh. Das Material wurde im Rahmen eines Sonderprojekts des Goethe-Instituts in Moskau und des Portals Сolta.ru vorbereitet, in dem wir weiterhin diskutieren, wie KI-Technologien in unser Leben eindringen und wie wir sie zu unserem eigenen Besten erziehen und eindämmen können.

Von Dmitrii Muraviev

- Was ist das allgemeine Ziel des Algo.Rules-Projekts?

- Wir sehen immer öfter, wie algorithmische Systeme den Alltag beeinflussen - in sozialen Medien, bei der Kreditgewährung, bei vorhersagender Polizeianalyse und in anderen Bereichen. In den Vereinigten Staaten werden beispielsweise Algorithmen verwendet, um die Höhe von Haftstrafen zu bestimmen.

In den letzten Jahren haben viele Forscher versucht, Regelsätze zu entwickeln, welche die Entscheidungsfindung mit Hilfe von algorithmischen Systemen steuern könnten. Bei Algo.Rules wollten wir uns auf eine bestimmte Phase konzentrieren - auf Prozesse ihrer Entwicklung und des Designs. Unser Projekt hat rund 500 Experten aus verschiedenen Wissensgebieten einbezogen - von den Computerwissenschaften bis zu sozialen und humanitären Disziplinen.

Infolgedessen haben wir neun Verfahrenskriterien entwickelt, die den Entwicklungsprozess steuern sollten. Diese Grundsätze sollten die Grundlage für die Erörterung ethischer Fragen sein, beinhalten jedoch kein spezifisches Verständnis der moralischen Werte. Die Idee hier ist, dass, wenn man unseren Kriterien folgt, diese beispielsweise Grundlagen für Diskussionen darüber geben, was "Ehrlichkeit" ist, aber sie definieren es nicht an Ihrer Stelle.

Unser prozessualer Ansatz hat sicherlich seine Begrenzungen. Wir können uns zum Beispiel ein algorithmisches System vorstellen, das gezielt auf Diskriminierung ausgerichtet ist. Dabei kann es durchaus unseren Kriterien entsprechen: Es ist verständlich, seine Ziele wurden viel diskutiert, es gibt einen Mechanismus, um Beschwerden über dessen Arbeit einzureichen. Wenn also aus verfahrenstechnischer Sicht alles korrekt ist, liegt es an der Öffentlichkeit. In der Gesellschaft sollte eine Diskussion darüber stattfinden, was die Menschen von einem algorithmischen System erwarten. Wir bieten lediglich eine Reihe von Richtlinien.

- Was meinen Experten normalerweise, wenn sie über "ethische KI" sprechen? Welche konkreten Maßnahmen werden hier vorgeschlagen?

- Im Allgemeinen ist der Begriff "ethische KI" selbst ziemlich problematisch, da er darauf hindeutet, dass lernende algorithmische Systeme in der Lage sein werden, selbstständig ethische Überlegungen zu berücksichtigen. Dies ist definitiv nicht das, was wir bei Algo.Rules meinen. Es sind Menschen, die immer bestimmen, wie algorithmische Systeme funktionieren. Deshalb müssen wir sowohl über die ethischen Voraussetzungen als auch über die Konsequenzen unseres Handelns nachdenken. Dies ist ein mehrstufiger Prozess, der mit der Definition der Ziele des Systems und seiner Funktion beginnen und mit Feldversuchen fortgesetzt werden sollte. Um ein solches System zu bewerten, muss man verstehen, wie es funktioniert, um dann die Möglichkeit zu haben, es in Frage zu stellen und zur öffentlichen Diskussion zu bringen.

Ich führe ein Beispiel an. Einer unserer vorgeschlagenen Grundsätze lautet - überzeugen Sie sich von der Verständlichkeit des Systems (ensure intelligibility). Der Zweck dieses Kriteriums besteht darin, den Menschen, deren Leben von einem algorithmischen System beeinflusst wird, zu ermöglichen, den gesamten Entscheidungsprozess zu verstehen. Für uns sind mehrere Elemente zur Verständlichkeit des Systems hinterlegt. Vor allem schlagen wir vor, zwischen externer und interner Verständlichkeit zu unterscheiden. Angenommen, das System filtert Kandidaten für eine offene Position heraus. Interne Verständlichkeit bedeutet, dass die Personalabteilung versteht, wie der Algorithmus funktioniert. Externe Verständlichkeit gibt dem Kandidaten wiederum eine Vorstellung davon, warum eine solche Entscheidung ihn betreffend getroffen wurde. Dies ist wichtig für die Mitarbeiter der Personalabteilung, da sie so ihre Arbeit besser erledigen können. Für einen Kandidaten ist dies eine Gelegenheit herauszufinden, warum er beispielsweise abgelehnt wurde.

Nach diesem Kriterium machen wir eine zweite Unterscheidung - zwischen allgemeiner und spezifischer Verständlichkeit. Der erste Begriff bezieht sich auf das Verständnis des Systems als Ganzes: Welche Daten werden verwendet, welche Faktoren werden berücksichtigt, ist der Algorithmus selbstlernend, wie geschieht dies? Gibt es eine verantwortliche Person, die den Entscheidungsprozess selbst überwacht? Spezifische Verständlichkeit ist die Fähigkeit, ein bestimmtes vom Algorithmus empfohlenes Ergebnis zu bewerten.

Gleichzeitig muss gesagt werden, dass es eine große Herausforderung ist, algorithmische Systeme mit einer Selbstlernkomponente verständlich zu machen. Das Lernen einer Maschine unterscheidet sich stark von der Art und Weise, wie Menschen lernen. In einigen Fällen basieren Algorithmen ihre Entscheidungen auf Mustern, die sie in Daten finden, die für den Menschen schwer zu verstehen sein können. Trotzdem können wir versuchen, solche Systeme verständlicher zu machen. Man kann sich Fragen stellen: Welcher Faktor wurde vorrangig berücksichtigt? Was könnte man im System modifizieren, damit sich das Ergebnis ändert? Die Antworten auf diese Fragen geben nicht immer eine vollständige Erklärung, bringen uns aber dennoch zu ihr näher.

- „Transparenz“ und „Rechenschaftspflicht“ tauchen häufig in Diskussionen über Algorithmen auf. Können Sie uns erzählen, wie Sie in Ihrem Projekt mit diesen Ideen arbeiten?

-„Transparenz“ ist ein Begriff, den wir selbst nicht verwenden, da er sich auf viele verschiedene Dinge bezieht und ziemlich vage ist. Im Rahmen von Algo.Rules wird die Transparenz eines Algorithmus genau als dessen "Verständlichkeit" definiert. In Bezug auf "Rechenschaftspflicht" sprechen wir dann von Verantwortung für die Ergebnisse der Arbeit des algorithmischen Systems. Algorithmen sind niemals vollständig autonom, sie können nicht für sich selbst verantwortlich sein, daher sollte die Rechenschaftspflicht auf der Seite des Menschen oder Organisation liegen, der/die hinter ihnen steht/stehen. Wir können sagen, dass es genau der Algorithmus war, der „die Entscheidung getroffen hat“. Aber jemand hat dieses System geschaffen und dann entschieden, wie es verwendet werden soll.

- Gibt es einen Konflikt zwischen der Rechenschaftspflicht und dem kommerziellen Charakter vieler algorithmischer Systeme? Algorithmen werden häufig von Unternehmen entwickelt, die möglicherweise nicht davon profitieren, wenn sie einer öffentlichen Prüfung unterzogen werden.

- Ja, es gibt wirklich ein solches Problem bei der Implementierung von Algo.Rules. Privatunternehmen möchten häufig nicht, dass die Gestaltung von Entwicklungen veröffentlicht wird, da sie dies als Risiko bezüglich Verlust eines Wettbewerbsvorteils betrachten. Dies wirft die umfassendere Frage auf, wie unser digitales Ökosystem insgesamt aussehen sollte, eine Frage, die über die engeren Diskussionen über Algorithmen hinausgeht. Es scheint uns jedoch möglich zu sein, die Funktionsweise eines Systems offenzulegen, ohne Informationen über den Quellcode zu fordern. Sie können beispielsweise die Verständlichkeit eines Systems für die verschiedenen betroffenen Parteien überprüfen, seine langfristigen und kurzfristigen Auswirkungen untersuchen.

Wir bei Algo.Rules sind der Meinung, dass ein Gleichgewicht zwischen öffentlichen und privaten Interessen gefunden werden kann; darüber hinaus ist dies notwendig, da nur so unerwünschte Folgen für uns im Bereich des Rechtsschutzes, der Ethik und der Menschenrechte vermieden werden können. Private Unternehmen interessieren sich übrigens auch nicht für Algorithmen, die falsch funktionieren. Wenn das System Personen aus irgendeinem Grund diskriminiert, können sie Beschwerden hinterlassen, keine Produkte mehr von diesem Unternehmen kaufen und so weiter. In gewissem Sinne ist das Unternehmen selbst daran interessiert, über das richtige Design algorithmischer Systeme nachzudenken.

- Philosophen besprechen oft KI als "Moralmaschine". Laut dieser Idee kann Ethik zu einer internen Eigenschaft des Algorithmus selbst gemacht werden. In welcher Beziehung stehen das allgemeine Konzept und die Grundsätze von Algo.Rules zu dieser Problemstellung?

- Ich habe eine Reihe von Vorwürfen an eine solche Denkweise. Erstens sind Algorithmen derzeit doch noch relativ begrenzt. Sie können sich nicht an unterschiedliche Kontexte anpassen und nur die Probleme lösen, die ihnen auf bestimmte Weise präsentiert werden. Einige der Fehler, die Algorithmen zulassen, würde sogar ein Kind nicht machen. Daher bin ich nicht davon überzeugt, dass die Fähigkeit, mit komplexen moralischen Dilemmata umzugehen, eine wesentliche Eigenschaft des Designs von Algorithmen selbst werden kann. Zweitens macht die Diskussion über "Moralmaschinen" die Algorithmen zu unabhängigen Agenten, aber wie gesagt, das ist falsch. Wenn wir Maschinen als autonom betrachten, nehmen wir den Menschen die Verantwortung ab. Meine dritte Überlegung hat mit der Natur des ethischen Denkens zu tun: Es ist eine Aktivität, die Reflexion, Kenntnis der Kultur und des Kontextes erfordert. Solche Dinge lassen sich schwer in Zahlen darstellen, daher glaube ich nicht, dass Algorithmen dies alleine tun können.

Wenn man über KI-Ethik spricht, denkt man oft an das Trolley-Problem. Ich verstehe, warum dies geschieht - es macht das ganze Problem leicht vorstellbar. Vergessen Sie jedoch nicht, dass dies alles jedoch imaginäre Szenarien sind. Wir können nachdenken, wer von einem selbstfahrenden Auto angefahren würde, wenn es eine solche Wahl treffen müsste - ein Kind, eine Frau, einen Mann oder eine ältere Person. In der Praxis treten solche Szenarien jedoch sehr selten auf, wir werden uns immer mit einer Vielzahl von Parametern befassen, beispielsweise mit der Überlebensrate. Meiner Meinung nach führt uns das Nachdenken über ethische KI in Begriffen des Trolley-Problems von den wirklich wichtigen Fragen weg. Wie werden wir diese Systeme gestalten? Wofür werden wir sie verwenden? Wie werden wir mit den Machtverhältnissen hinter solchen Systemen umgehen?

- Die Expertengemeinschaft diskutiert momentan aktiv, wie Unternehmen den Ethikdiskurs nutzen, um sich selbst weißzuwaschen (ethics-washing). Ethik wird von IT-Unternehmen auf vereinfachte Weise instrumentalisiert und angewendet - durch die Schaffung von Ausschüssen, Aufsichtsräten und Ethik-Kodizes, die keinen wirklichen Einfluss auf den Entwurfsprozess haben. Auf diese Weise wollen Unternehmen Verantwortung vermeiden. Ist diese Kritik für Algo.Rules wichtig? Und welche Folgen hat dies für die Zukunft der ethischen KI?

- Eine solche Kritik ist sehr wichtig, und wir diskutieren dies viel im Algo.Rules-Team. Wir sehen hier ein Dilemma. Einerseits gibt unsere Arbeit an Richtlinien den Unternehmen eine Reihe von Grundsätzen, auf denen sie eine aussagekräftige Diskussion aufbauen können - und dies lässt uns behaupten, dass sie allein mit der internen Revision nicht auskommen. Andererseits ist der Ethikdiskurs selbst heute nicht nur im privaten, sondern auch im staatlichen Sektor präsent. Und hier entsteht Verwirrung, denn ethisches Design hat immer noch nichts mit dem Rechtsschutz zu tun, den gerade der Staat bieten sollte. Hier entstehen die Probleme der staatlichen Verwaltung und des Rechts, für die Ethik allein nicht ausreicht - es ist notwendig, Fragen zu stellen, wie diese Algorithmen im Allgemeinen geregelt werden. Es ist wirklich sehr schwierig, hier ein Gleichgewicht zu finden. Wir möchten die Bedeutung der Ethik in Diskussionen über KI bewahren, aber auch andere Themen nicht aus den Augen verlieren.

Letztendlich bieten uns algorithmische Systeme viele neue Möglichkeiten, wenn wir sie richtig gestalten. In gewissem Sinne ähneln unsere Standards in Bezug auf Menschen denen, die wir auf Algorithmen anwenden. Wir möchten, dass die Entscheidungen, die Menschen treffen, uns klar sind, wir möchten oft, dass wir die Auswirkungen dieser Entscheidungen beurteilen und verstehen können, wer für sie verantwortlich ist. Dies sind ziemlich grundlegende Fragen, aber die Antworten darauf sind in Situationen mit Algorithmen wichtig. Ohne sie wird es für uns schwierig sein, eine bessere Zukunft für alle zu schaffen.

Top