Schnelleinstieg:

Direkt zum Inhalt springen (Alt 1) Direkt zur Hauptnavigation springen (Alt 2)

Künstliche Intelligenz
Die schreckliche KI

Künstliche Intelligenz ist keineswegs so fair oder neutral, wie es scheinen mag.
Künstliche Intelligenz ist keineswegs so fair oder neutral, wie es scheinen mag. | Foto (Detail): © Adobe

In der heutigen Welt kann nichts der digitalen Revolution entgehen. Wie wir uns bewegen, kommunizieren und konsumieren, wird durch Code gesteuert, und dieser Code wird immer intelligenter. Doch ist Künstliche Intelligenz (KI) keineswegs so fair oder neutral, wie es scheinen mag.
 

Von David Dao

Auf Kollisionskurs

„KRITISCHER FEHLER“: Auf dem Armaturenbrett Ihres selbstfahrenden Autos blinkt es rot. Sie nähern sich einer Ampel und plötzlich versagen die Bremsen. In wenigen Sekunden wird das Auto einen Unfall verursachen. Wird die Software Ihr selbstfahrendes Auto anweisen, weiterzufahren und die Fußgänger*innen vor Ihnen zu töten? Oder wird es einen neuen Weg berechnen, ausweichen, in einen Pfosten fahren und dabei möglicherweise Sie töten? Könnte irgendjemand auf dieser Welt, geschweige denn ein Computerprogramm, in diesem Szenario die richtige Entscheidung treffen?

Mein Interesse an ethischer künstlicher Intelligenz begann mit diesem modernen Äquivalent des bekannten Weichenstellungsproblems. 2016 arbeitete ich im Silicon Valley an einer Steuerungssoftware für selbstfahrende Autos. Dieses Dilemma war für uns nicht nur ein philosophisches Gedankenexperiment: Es war das, was wir in der Informatik ein Worst-Case-Szenario nennen.

Nichts kann mehr der digitalen Revolution entgehen. Wie wir uns bewegen, kommunizieren und konsumieren, wird im Jahr 2022 alles durch Software gesteuert, die von Ingenieur*innenteams entwickelt wurde. Sie ist deshalb unweigerlich von deren Ideen, Überzeugungen und Vorurteilen über den Lauf der Welt geprägt. Algorithmische Voreingenommenheiten waren in der Informatik schon immer ein Thema. 1976 warnte Computerpionier Joseph Weizenbaum vor den (un-)beabsichtigten schädlichen Folgen von Code. Wenig später wurden erste Fälle ethisch bedenklicher Programme bekannt. Zwischen 1982 und 1986 wurde mehr als 60 Frauen und Angehörigen ethnischer Minderheiten die Zulassung zur St. George’s Hospital Medical School verweigert. Grundlage der Entscheidung waren in ein automatisiertes Bewertungssystem eingeschriebene Vorurteile. Leider hätte nicht einmal Joseph Weizenbaum die Dimension dieses Problems voraussagen können, wenn irgendwann ausgereifte KI ins Spiel kommen und die nächste technologische Revolution antreiben würde.

Große Macht, große Verantwortung?

Anfang der 2010er-Jahre veränderten KI und maschinelles Lernen das Schreiben von Code in fundamentaler Weise. Statt mit einer deterministischen Abfolge von Anweisungen (ähnlich einem Kochrezept) dem Computer zu sagen, was zu tun ist, können wir heute mit Methoden des maschinellen Lernens Code aus großen Datenmengen generieren (analog zu einem ausgebildeten Koch, der aus Erfahrung gelernt hat). So können Entwickler*innen Anwendungen erstellen, die zuvor für unmöglich gehalten wurden, etwa für die genaue Erkennung von Sprache und Bildern oder eben Programme, die eines Tages in der Lage sein werden, ein selbstfahrendes Auto durch komplexen Verkehr zu steuern. Doch alles hat seinen Preis. Und das gilt in besonderem Maße für die spektakulären Ergebnisse der KI, da diese auf Blackbox-Modellen beruhen. Im aktuellen Zustand spiegelt KI nicht nur die Vorurteile ihrer Programmierer*innen, sondern in der Entwicklungsphase auch Verzerrungen, die sich aus den verwendeten Trainingsdaten ergeben. Und weil wir noch nicht wirklich verstehen, wie so eine Blackbox funktioniert, sind KI-Programme recht anfällig für böswillige Angriffe und als schwer kontrollierbar verschrien.

Im aktuellen Zustand spiegelt KI nicht nur die Vorurteile ihrer Programmierer*innen, sondern in der Entwicklungsphase auch Verzerrungen, die sich aus den verwendeten Trainingsdaten ergeben.

Die neuesten technologischen Fortschritte schaffen ethische Dilemmata, die direkt aus einem Science-Fiction-Roman stammen könnten. Die KI in selbstfahrenden Autos könnte ihre Entscheidung, ob nun ausgewichen wird oder nicht, auf die verwendeten Trainingsdaten stützen. Sie könnte lernen, Menschen zu zählen und nur anhand der Zahlen zu entscheiden. Die Programme könnten sich aber auch auf die bildgestützte Erkennung von Eigenschaften wie Geschlecht, Alter oder Nationalität stützen (mehr dazu beim Moral-Machine-Projekt des MIT).

Die Arbeit an diesem Problem hat mich gelehrt, dass es entscheidend ist, diese möglichen Ausfälle und versteckten algorithmischen Wertungen zu berücksichtigen. Möglicherweise wird es niemals möglich sein, dass ein selbstfahrendes Auto bei einem Weichenstellungsproblem auch nur irgendeine richtige Entscheidung trifft. Aber als Gesellschaft wissen wir, dass KI ihre Entscheidungen nicht auf diskriminierende Merkmale wie ethnische Herkunft oder Geschlecht stützen darf.

Der Gedanke an die immense Verantwortung, die mit der Programmierung von KI einhergeht, kann einen schon einschüchtern. Die Arbeit einiger ausgewählter Ingenieur*innen kann sich potenziell auf das Leben von Milliarden Menschen auswirken. Doch es gibt keinen Grund zur Sorge, dachte ich. Bestimmt können wir den Wenigen da oben zutrauen, dass sie sich kritischer Systemfehler bewusst sind und ihre Macht nicht nutzen, um Anwendungen mit (un-)beabsichtigten schädlichen Folgen zu erstellen. Leider lösten meine Hoffnungen sich bei genauerem Hinsehen sofort in Luft auf.

Die Arbeit einiger ausgewählter Ingenieur*innen kann sich auf das Leben von Milliarden auswirken.

KI ist längst da, und sie ist schrecklich

Ich verließ das Silicon Valley, um über KI zu promovieren. Mein oberstes Ziel war es, KI vertrauenswürdiger zu machen. Irgendwann las ich einen Nachrichtenartikel über ein Startup, das behauptete, KI-basierte Videoerkennung für eine „vorurteilsfreie“ Bewerber*innenauswahl zu nutzen. Sofort lief es mir kalt den Rücken herunter. Es ist erschreckend, wenn einer Technologie, die wir selbst noch kaum verstehen und durchdringen, eine der wichtigsten Entscheidungen im Leben von Personen überlassen wird. Zu behaupten, man könne mit KI tatsächlich die menschliche Voreingenommenheit umgehen, ist nicht nur falsch, sondern auch sehr gefährlich.

Nichts könnte weiter von der Wahrheit entfernt sein. Vielfach verstärken KI-basierte Systeme und ihre Vorhersagen tatsächlich bestehende Vorurteile in beispiellosem Ausmaß, anstatt diese zu vermeiden. Wer diese Phänomene verstehen will, muss tiefer in die geheimen Zutaten eines KI-Programms blicken: die historischen Daten, aus denen das Programm seine Informationen bezieht. Im Allgemeinen werden Datensätze von jenen erstellt, gesammelt und ausgewählt, die gesellschaftliche Macht ausüben. Bei KI-basierter Personalgewinnung bestehen die Daten aus Aufzeichnungen aller bisherigen Einstellungen. Sie sind also ein Spiegelbild der Vorurteile, Überzeugungen und Weltanschauungen der Personen, die sie gesammelt haben, und der Umgebung, in der sie gesammelt wurden. Eine Liste früherer Einstellungen kann Jahrzehnte zurückreichen – in eine Gesellschaft, die wir heute als äußerst unfair gegenüber bestimmten Geschlechtern und Minderheiten betrachten.

Daher überraschte es mich nicht, als Forscher*innen zeigten, dass sich KI-basierte Recruitingtools nach kurzer Zeit selbst beibringen, Bewerber gegenüber Bewerberinnen zu bevorzugen. In einigen Fällen gingen sie sogar so weit, Lebensläufe zu bestrafen, die das Wort „Frauen“ enthielten, wie etwa in „Leiterin des Frauen-Schachklubs“. In der Hoffnung, das Bewusstsein für dieses Thema zu schärfen, startete ich eine Liste namens Awful AI. Im Laufe der Jahre ist diese Liste auf Hunderte von Anwendungen angewachsen aus Kategorien wie Diskriminierung, Desinformation, Überwachung und Waffen.

Die Automatisierung von Rassismus

Die schädlichen Folgen von KI-Anwendungen sind von ihren Schöpfer*innen oft nicht beabsichtigt. Sie resultieren aus einem mangelnden Verständnis und Bewusstsein für ethische Fragen und technische Einschränkungen. Nehmen wir zum Beispiel Tay, einen Microsoft-Chatbot, der aus Twitter-Daten gelernt hat. Innerhalb eines Tages nach seiner Veröffentlichung musste Microsoft Tay deaktivieren, weil er anfing, antisemitische Nachrichten abzusondern. Ein weiteres Beispiel ist die Google-Bilderkennung. Sie beschriftete die Gesichter mehrerer Schwarzer Menschen als Gorillas. Amazons Gesichtserkennungssystem mit dem Namen Recognition hielt dunkelhäutige Frauen in 31 Prozent der Fälle für Männer. Bei den Frauen mit hellerer Haut waren nur sieben Prozent davon betroffen.

Es ist bekannt, dass alle groß angelegten Bilderkennungsdienste mit dem Problem des automatisierten Rassismus zu kämpfen haben. Forscher*innen haben in den vergangenen Jahren Methoden entwickelt, die helfen sollen, solche schädlichen Auswirkungen zu verringern. Doch während diese Methoden in Einzelfällen gut funktionieren, sind sie nicht in der Lage, ein größeres Problem zu verhindern: Wir nähern uns einem Zeitalter der Automatisierung, und voreingenommene Vorhersagen werden heute in zentralen Bereichen der Gesellschaft, wie etwa der Strafverfolgung, als Bausteine verwendet.

Wie Diskriminierung verstärkt wird

PredPol zum Beispiel ist ein KI-basiertes Programm für Vorhersagende Polizeiarbeit, mit dem die Polizei von Los Angeles versucht, potenzielle kriminelle Brennpunkte im Voraus zu identifizieren. Das Programm empfiehlt dann, dass Polizist*innen an den identifizierten Orten auf Streife gehen. Es ist wieder die gleiche, gefährliche Idee: Weil die Menschen unvollkommen sind, sollten wir mit einer objektiven KI entscheiden, wo wir patrouillieren und anschließend mithilfe der Vorhersagen Verdächtige festnehmen. Inzwischen sehen Sie vielleicht das eigentliche Problem: KI-Forscher*innen waren nicht überrascht, als Studien zeigten, dass PredPol vor allem Orte zur Patrouille empfahl, an denen es auch zuvor schon viele Einsätze gegeben hatte. Dies führte zu einer übermäßigen Konzentration auf Stadtviertel, in denen vor allem nichtweiße Menschen leben. Die KI wurde mit historischen Daten über frühere Verhaftungen in den USA gefüttert, in denen der systemische Rassismus innerhalb des Justizsystems deutlich zum Ausdruck kommt. Das Ergebnis: PredPol nahm nicht nur den Rassismus durch seine Trainingsdaten auf, sondern automatisierte ihn auch in großem Stil und verstärkte dessen Auswirkungen für die Zukunft.

Ein derartiges System ist gefährlich für die Gesellschaft, weil die Vorstellung von einer komplexen, aber objektiven KI Polizist*innen dazu verleitet, die Vorhersagen ungeprüft zu übernehmen. Doch die Vorhersagen von PredPol sind weit davon entfernt, objektiv zu sein. Sie können verwendet werden, um bestehenden Rassismus gegenüber nichtweißen Minderheiten zu rechtfertigen und zu verstärken. So entsteht ein Teufelskreis: Die KI begünstigt höhere Verhaftungszahlen in Gegenden mit vielen nichtweißen Menschen. Dies fließt in die neuen Datensätze ein, die wiederum den Algorithmus trainieren.

Die Europäische Union (EU) experimentiert mit eigenen Programmen zur Strafverfolgung, wie etwa KI-basierten Polygraphentests für Reisende, die in die EU einreisen, oder KI-basierten Betrugserkennungssystemen. Immerhin steigt das Bewusstsein für die Problem der Technik und erste Großstädte haben angefangen, KI-Technologie in der Strafverfolgung zu verbieten. Aber was ist, wenn Diskriminierung und automatisierte Kontrolle der Agenda eines Staates zugutekommen? Stellen Sie sich einen Staat vor, der die Probleme einer voreingenommenen KI nicht bekämpft, sondern für seine Zwecke nutzt – wie würde eine Gesellschaft dann aussehen?

Autokratische Regierungen haben die Grenzen der KI-Nutzung für Überwachung und unethische Zwecke immer wieder neu definiert. Diverse technische Durchbrüche ermöglichen es nun, die Überwachung in Echtzeit so zu skalieren, dass sie jeden digitalen und physischen Fußabdruck erfasst. Diese Überwachung beschränkt sich nicht nur darauf, die Identität einer Person zu erkennen. Derzeit wird KI entwickelt, die Erkenntnisse zum Sexualleben gewinnen soll, zu möglichen Erkrankungen der Zielperson oder zur Wahrscheinlichkeit, dass diese Straftaten begeht. Alleinige Grundlage der Vorhersagen sind die Gesichtszüge der Zielperson. Die Kommunistische Partei Chinas will noch weiter gehen und via KI reale Konsequenzen für diejenigen festlegen, die bestimmte Regeln nicht befolgen. Sozialkredit-Systeme geben allen Bürger*innen automatisiert Punkte und damit bestimmte Rechte, die von der individuellen Punktzahl abhängen. Derzeit werden diese in vielen Regionen Chinas als Anreiz- und Bestrafungssystem erprobt sowie zur Verfolgung ethnischer Minderheiten eingesetzt.

Den Missbrauch von Daten verhindern

Dieser Artikel zeichnet ein düsteres Bild von KI. Doch nicht alle Hoffnung ist verloren – ein wichtiger Teil des Wandels ist die Sensibilisierung dafür, dass diese Anwendungen schon bald existieren werden oder könnten. Damit keine schrecklichen KI-Anwendungen die Kontrolle über unser Leben übernehmen, muss die ganze Gesellschaft zusammenarbeiten. Wir Ingenieur*innen und Programmierer*innen müssen uns klarmachen, was für Anwendungen wir entwickeln und welche Verantwortung wir haben, wenn wir sie in der realen Welt einsetzen. Mögliche Fehler sowie ethische und soziale Richtlinien sind dabei unbedingt zu berücksichtigen.

Neuere Untersuchungen zeigen, dass wir den Missbrauch von Daten verhindern können. Dezentrale Technologien und unsere eigenen Forschungsprojekte wie etwa Kara eröffnen Möglichkeiten, die KI-Entwicklung ohne Zustimmung der Dateneigentümer*innen automatisch einzuschränken. Initiativen wie  Stop Killer Robots setzen sich auf höchster politischer Ebene dafür ein, schädliche KI-Anwendungen zu verbieten und Entscheider*innen zu schulen. Die politisch Verantwortlichen müssen die Grenzen des aktuellen Fortschritts verstehen und eine sichere KI-Entwicklung regulatorisch ermöglichen.

Die führenden Köpfe in der Wirtschaft müssen ihrerseits verhindern, dass wir um des schnellen Geldes wegen dem Hype um allmächtige, intelligente Roboter verfallen. KI ist kein Allheilmittel, mit dem alle Probleme der Welt gelöst werden können. Sie ist ein Instrument, das neue, skalierbare Lösungen ermöglicht, doch sie verstärkt zugleich bestehende Probleme. Es gibt viel zu tun und wir haben keine Zeit, uns zu fürchten.

Top