Ausgesprochen … posthuman  Warum wir endlich Diversität in der Tech-Branche brauchen

Emojis
Wir brauchen diversere Teams in der Tech-Branche – denn nur so entstehen diskriminierungsfreie Apps und Programme. Foto (Ausschnitt): © picture alliance/AP Photo

Mit Künstlicher Intelligenz verbinden viele Menschen immer noch düstere Zukunftsvisionen. Unsere Kolumnistin Aya Jaff erklärt uns, wovor wir beim Thema KI wirklich Angst haben sollten – und wovor nicht.

Als Programmiererin habe ich bereits an verschiedensten Projekten mitgearbeitet und durfte mit vielen neuen Tech-Trends spielen: Ob ich nun Drohnen mit vier Code-Zeilen dazu brachte, Loopings zu drehen, oder im Finanzbereich Robo-Advisor entwarf – ich habe viele Dinge in sehr jungen Jahren ausprobieren dürfen. Mit der Zeit wurde ich häufiger auf Podien bekannter Konferenzen eingeladen und durfte einer breiten Öffentlichkeit meine Arbeit erklären. Immer wenn ich dabei von Augmented Reality, Blockchain und anderen Trends auf das Thema Thema Künstliche Intelligenz (KI) kam, merkte ich, dass sich die Laune des Publikums schlagartig verschlechterte. Mit dieser Kolumne möchte ich erläutern, wovor wir beim Thema KI wirklich Angst haben sollten – und welche Themen wir erst mal getrost ignorieren können. 

Mit Künstlicher Intelligenz verbinden viele Menschen immer noch große Verunsicherung und oft auch düstere Zukunftsvisionen. Vorurteile, dass Künstliche Intelligenz einzig und allein dafür designt wurde, den Menschen sämtliche Jobs zu nehmen, halten sich wacker. Dabei wurde das Konzept der Künstlichen Intelligenz bereits 1955 zum ersten Mal offiziell erwähnt – und sollte vorwiegend der Erleichterung bestimmter Prozesse dienen. Mittlerweile ist die Technologie längst und unwiderruflich zu einem festen Bestandteil unseres Alltags geworden: Von der Gesichtserkennung zum Entsperren des Smartphones bis hin zu Online-Banking- und Social-Media-Tools wird KI bereits jeden Tag angewandt und damit auch immer intelligenter. Denn KI, also ein Mechanismus, der menschliche Intelligenz nachempfinden soll, funktioniert im Prinzip wie eine stetig wachsende Datensammlung. Auf Basis dieser Daten soll die KI Auswertungen vornehmen und intelligente Entscheidungen treffen. Allerdings müssen diese Informationen erst von Menschen zur Verfügung gestellt werden – also von den Verbraucher*innen, Nutzer*innen und Forscher*innen. 

Reproduktion rassistischer Stereotype

Damit Künstliche Intelligenz jedoch wirklich für alle funktioniert, muss die Technologie dahinter genauso uneingeschränkt funktionieren. Und dies kann nur dann gewährleistet werden, wenn beim Konzipieren der Technologie, etwa von Algorithmen oder Gesichtsfiltern, möglichst inklusiv gedacht wird. Weil Inklusion jedoch auch in der Tech-Branche noch ein großes Manko ist, ist beispielsweise die Social-Media-Plattform Snapchat schon des Öfteren in Skandale verwickelt gewesen: ein Face-Filter, der nur bei weißen Personen funktioniert, nicht aber bei Schwarzen? Oder einer, der rassistische Stereotype reproduziert? Alles schon vorgekommen. Der Fehler? Es wurden beim Programmieren eben nicht alle Nutzer*innen bedacht.

Der Grund? Fehlende Vielfalt in den Teams der Tech-Unternehmen. Sogenannte Blind Spots, also Aspekte einer Entscheidung, die eine Person unter Umständen vernachlässigt, weil sie selbst nicht davon betroffen oder damit konfrontiert ist, kommen nun zum Tragen – und beeinträchtigen die Qualität der Technologie: Wenn es, wie im Falle der Filter, nicht genügend ethnische und kulturelle Repräsentation innerhalb eines Teams gibt, fehlt es an Weitblick und an Sensibilisierung für Rassismus.

So ist Anfang 2020 erstmals ein afroamerikanischer Mann in den USA fälschlicherweise verhaftet worden, weil sich die Polizeibeamt*innen auf das Ergebnis der KI – beziehungsweise der Gesichtserkennung – verlassen hatten. Solche Fälle machen mir persönlich Angst, da der Rassismus durch eine schlechte Zusammenarbeit von Mensch und Software verfestigt wird.

Wir brauchen vielfältigere Teams

Inklusiver sollte auf vielen Ebenen gedacht werden. Argumente hierfür lassen sich etwa in der Autoindustrie finden: Auch hier wird zunehmend auf Mechanismen gesetzt, die auf KI-Technologie basieren, etwa wenn es darum geht, selbstfahrende Kraftfahrzeuge oder Parktechnologien zu konzipieren.

Für diese Technologien werden menschliche Maße analysiert, um die Bewegungsabläufe eines Autos zu programmieren. Ignorieren diese Maße – also jene Schlüsselinformationen, die die KI-Technologie braucht, um für alle zu funktionieren – etwa Personen, die im Rollstuhl sitzen, sind diese im Straßenverkehr potenziell gefährdet, wenn sie etwa vom Erkennungsmechanismus eines Autos nicht früh genug erkennt werden. Umgangen werden kann das Ganze also eigentlich ganz einfach: durch vielfältiger aufgestellte Teams. Denn, und das ist bereits mehrfach belegt: Diversität und Inklusion führen nicht nur zu diskriminierungsarmen Räumen und Endprodukten, sondern erhöhen in der Regel auch den Erfolg der Konzerne. 

Ich hoffe wirklich sehr, dass sich die Diskussionen, zu denen ich in Zukunft eingeladen werde, mehr mit diesen realistischen Szenarien beschäftigen – und wir mehr über Lösungsansätze als über Probleme reden. 
 

„Ausgesprochen …“

In unserer Kolumnenreihe „Ausgesprochen …“ schreiben im wöchentlichen Wechsel Aya Jaff, Maximilian Buddenbohm, Dominic Otiang’a und Margarita Tsomou. Aya Jaff beobachtet in „Ausgesprochen … posthuman“ den technischen Fortschritt und wie er unser Leben und unsere Gesellschaft beeinflusst.