Artificially
correct

Künstliche Intelligenz, Bias, Text

Wie kommt Bias in einen Text und was können wir dagegen tun? 

 

Eine schwarze und eine weiße Person vor orangefarbenem Hintergrund, auf dem die englischen Pronomen "they", "them", "sier" und "xier" zu lesen sind. © Goethe-Institut. llustration: EL BOUM.

Künstliche Intelligenz & Textproduktion

Ob im Journalismus, auf Social Media, bei der Lektüre von Romanen oder im Klassenzimmer. Künstliche Intelligenz prägt die Sprache in unserem Alltag. Sie kann Bias reproduzieren – aber auch dabei helfen, gegen Diskriminierung vorzugehen. Wie sich künstliche Intelligenz auf Sprache und Textproduktion auswirkt, und wieso diskriminierende Sprache schon in Schulen thematisiert werden muss, dazu sind in diesem Dossier verschiedene Perspektiven zusammengestellt. Sie sind der Auftakt zu Veranstaltungen, mit denen wir die Themen von Artificially Correct öffnen möchten und die Diskussion bereits dort beginnen, wo Textproduktion für viele beginnt: In der Schule.
 

Weitere Artikel

Mehr erfahren? In unserem Dossier findest du weitere Artikel rund um Künstliche Intelligenz, Bias und Textproduktion.

Einblicke in unseren Hackathon

Im Oktober 2021 kamen 12 Teams aus aller Welt digital zusammen, um ein Wochenende lang neue Ideen zu entwickeln, wie man Bias in Übersetzungen bekämpft. Was ist dabei heruasgekommen? Hier findest du Einblicke in unseren Hackathon.
Artificially Correct Hackathon © Goethe-Institut. Illustration: EL BOUM

Artificially Correct Hackathon

Wie kommt Bias in eine Übersetzung und was können wir dagegen tun? Um Antworten und Lösungen auf diese Frage zu finden, luden wir Aktivist*innen, Übersetzer*innen,  Softwareentwickler*innen und alle anderen Interessierten vom 1.-3. Oktober 2021 zu einem Online-Hackathon ein. [Zusammenfassung]

Screenshot aus dem Video-Interview mit den Hackathon-Gewinner*innen Aïcha Konaté, Lauri Laatu und Marvin Mouroum. © Goethe-Institut

Im Gespräch mit Word 2 Vec

Word 2 Vec konzentrierte sich beim Artificially Correct Hackathon auf eine Schwachstelle von Google Translate und anderen Deep-Learning Systemen: die Schwierigkeit, komplexe Inhalte zu verstehen. Der Lösungsvorschlag des Teams ist ein Tool, das Bias reduziert, indem es Nutzer*innen anzeigt, wie anfällig ein Satz für Bias in Bezug auf Gender und Race ist. Hier könnt ihr mehr über ihren Lösungsansatz und ihre Hackathon-Erfahrung hören!

Screenshot aus dem Video-Interview mit Bettina Koch, Bhargavi Mahesh, Janica Hackenbuch, Joke Daems und Shrishti Mohabey. © Goethe-Institut

Im Gespräch mit Bias By Us

Das Team BiasByUs entwickelte beim Artificially Correct Hackathons eine Website, die als „Bibliothek“ für Bias in Übersetzungen dient. Sie sammeln vorurteilsbelastete Übersetzungsbeispiele, die typischerweise in Übersetzungsprogrammen auftreten, mithilfe von Crowdsourcing. Im Video-Interview sprechen Sie über die Problematik von Bias in Übersetzungen, ihren Lösungsansatz, wie es war, am Artificially Correct Hackathon teilzunehmen und vieles mehr.

Über das Projekt

Sprache definiert die Welt. Das Goethe-Institut steht für eine inklusive Sprache – und damit für eine inklusive Welt.

Mit Artificially Correct entwickeln wir mit Expert*innen Tools, die den Bias in Texten minimieren und erhöhen das Bewusstsein für einen kritischen Umgang mit Sprache.

Konkret beschäftigt sich Artificially Correct mit KI-basierten Übersetzungs- und Schreibtools und den Verzerrungen (z.B. gender-/racial-Bias), die sie generieren können. Artificially Correct schafft ein aktives Netzwerk an Menschen, die dieses Problem betrifft – Übersetzer*innen, Aktivist*innen und Expert*innen – und identifiziert Partner, die das Thema gemeinsam mit uns langfristig verfolgen. Wir bündeln Perspektiven, schaffen Aufmerksamkeit, vermitteln Wissen und regen die Diskussion an.