Schnelleinstieg:

Direkt zum Inhalt springen (Alt 1) Direkt zur Hauptnavigation springen (Alt 2)
Artificially Correct© El Boum

Artificially Correct

Ob im Journalismus, auf Social Media, bei der Lektüre von Romanen oder im Klassenzimmer. Künstliche Intelligenz prägt die Sprache in unserem Alltag. Sie kann Bias reproduzieren – aber auch dabei helfen, gegen Diskriminierung vorzugehen. 

Wie sich künstliche Intelligenz auf Sprache und Textproduktion auswirkt, und wieso diskriminierende Sprache schon in Schulen thematisiert werden muss, dazu sind in diesem Dossier verschiedene Perspektiven zusammengestellt. Sie waren der Auftakt zu Veranstaltungen, mit denen wir die Themen von Artificially Correct öffnen möchten und die Diskussion bereits dort beginnen, wo Textproduktion für viele beginnt: In der Schule.
 


KI & Textproduktion

Wir wissen zwar nicht, was uns die Algorithmen von morgen sagen werden, aber ihre Antworten basieren auf den Fragen, die wir stellen, und den Maßnahmen, die wir heute ergreifen. Es ist unsere Pflicht uns selbst und der Zukunft gegenüber sicherzustellen, dass sie gut sind.

Adam Smith


Sprache und Machtverhältnisse

Die Schule als Institution trug und trägt dazu bei, dass gewisse Menschen unsichtbar waren oder sind. Es muss ein Umfeld geschaffen werden, in dem junge Menschen ihr Coming-out wagen und dafür nicht gemobbt werden – und das ist derzeit leider nicht der Fall.

Sovia Szymula

Nahaufnahme einiger Bücher von oben © Pixabay

Neue Konzepte, neue Ideen
Interkulturelle Vielfalt in finnischen Deutschlehrwerken

Wie kulturell divers ist das Deutschlandbild, welches finnische Lehrwerke heutzutage vermitteln, und welche Gestaltungsmöglichkeiten haben Lehrende?

Jun.-Prof.in Dr.in Nina Simon Can Kınalıkaya

Nina Simon im Gespräch
„Rassismuskritischer Unterricht geht weit über diversitätssensible Lehrwerke hinaus.“

In ihrer Forschung beschäftigt sich Jun.-Prof.in Dr.in Nina Simon unter anderem mit der Frage, wie Lehrmaterialien dazu beitragen, Rassismus zu reproduzieren.


KÜNSTLICHE INTELLIGENZ UND ÜBERSETZUNG


Schwierig zu übersetzende Begriffe

Mensch vs. Künstliche Intelligenz: Harte Konkurrenz oder netter Partner?Philippos Vassiliades | CC-BY-SA

K.I. und literarische Übersetzung

Ist künstliche Intelligenz soweit, auch literarische Werke in all ihrer sprachlichen Vielfalt zu erfassen, zu verarbeiten und in eine andere Sprache zu übersetzen? Wird sie jemals so weit sein? Oder bleibt sie „künstlich” statt „künstlerisch”? Dieses Dossier fragt die Expert*innen.


Über dieses Projekt

Sprache definiert die Welt. Das Goethe-Institut steht für eine inklusive Sprache – und damit für eine inklusive Welt.

Mit Artificially Correct entwickeln wir mit Expert*innen Tools, die den Bias in Texten minimieren und erhöhen das Bewusstsein für einen kritischen Umgang mit Sprache.

Konkret beschäftigt sich Artificially Correct mit KI-basierten Übersetzungs- und Schreibtools und den Verzerrungen (z.B. gender-/racial-Bias), die sie generieren können. Artificially Correct schafft ein aktives Netzwerk an Menschen, die dieses Problem betrifft – Übersetzer*innen, Aktivist*innen und Expert*innen – und identifiziert Partner, die das Thema gemeinsam mit uns langfristig verfolgen. Wir bündeln Perspektiven, schaffen Aufmerksamkeit, vermitteln Wissen und regen die Diskussion an.

Screenshot aus dem Video-Interview mit Bettina Koch, Bhargavi Mahesh, Janica Hackenbuch, Joke Daems und Shrishti Mohabey. © Goethe-Institut

Im Gespräch mit
Bias By Us

Das Team BiasByUs entwickelte beim Artificially Correct Hackathons eine Website, die als „Bibliothek“ für Bias in Übersetzungen dient. Sie sammeln vorurteilsbelastete Übersetzungsbeispiele, die typischerweise in Übersetzungsprogrammen auftreten, mithilfe von Crowdsourcing. Im Video-Interview sprechen Sie über die Problematik von Bias in Übersetzungen, ihren Lösungsansatz, wie es war, am Artificially Correct Hackathon teilzunehmen und vieles mehr.

Screenshot aus dem Video-Interview mit den Hackathon-Gewinner*innen Aïcha Konaté, Lauri Laatu und Marvin Mouroum. © Goethe-Institut

Im Gespräch mit
Word 2 Vec

Word 2 Vec konzentrierte sich beim Artificially Correct Hackathon auf eine Schwachstelle von Google Translate und anderen Deep-Learning Systemen: die Schwierigkeit, komplexe Inhalte zu verstehen. Der Lösungsvorschlag des Teams ist ein Tool, das Bias reduziert, indem es Nutzer*innen anzeigt, wie anfällig ein Satz für Bias in Bezug auf Gender und Race ist. Hier könnt ihr mehr über ihren Lösungsansatz und ihre Hackathon-Erfahrung hören!

Datenbank BiasByUs
Wie ging es nach dem Hackathon weiter?

Janiça Hackenbuchner vom Team BiasByUs gewann den Hackathon mit der Idee einer Datenbank, die das Bewusstsein für geschlechtsspezifische Verzerrungen in der maschinellen Übersetzung schärft. Wie das genau funktioniert und wie es seit dem Hackathon weitergegangen ist, das erzählt sie auf medium.com.

Wollt ihr die Datenbank selbst verwenden? Hier findet ihr die Seite.

Top