Artificially
correct

Künstliche Intelligenz, Bias,
Übersetzung

Wie kommt Bias in eine Übersetzung und was können wir dagegen tun? 

 

Eine schwarze und eine weiße Person vor orangefarbenem Hintergrund, auf dem die englischen Pronomen "they", "them", "sier" und "xier" zu lesen sind. © Goethe-Institut. llustration: EL BOUM.
Artificially Correct Hackathon © Goethe-Institut. Illustration: EL BOUM

ARTIFICIALLY CORRECT HACKATHON

Wie kommt Bias in eine Übersetzung und was können wir dagegen tun? Um Antworten und Lösungen auf diese Frage zu finden, luden wir Aktivist*innen, Übersetzer*innen,  Softwareentwickler*innen und alle anderen Interessierten vom 1.-3. Oktober 2021 zu einem Online-Hackathon ein. 

Mehr Kontext

Weitere Artikel

Mehr erfahren zu Übersetzung und Bias, zu Künstlicher Intelligenz und Übersetzung.

Über das Projekt

Sprache definiert die Welt. Das Goethe-Institut steht für eine inklusive Sprache – und damit für eine inklusive Welt.

Mit Artificially correct entwickeln wir mit Expert*innen ein Tool, das den Bias in Übersetzungen minimiert. Wir möchten die Stellung von Übersetzer*innen und einen bewussten Umgang mit Übersetzungsmaschinen stärken und in diese die Realität möglichst vieler Menschen inkludieren.    

Konkret beschäftigt sich Artificially correct mit KI-basierten Übersetzungstools und den Verzerrungen (z.B. gender/racial-Bias), deren Übersetzungen sie generieren. Artificially correct schafft ein aktives Netzwerk an Menschen, die dieses Problem betrifft – Übersetzer*innen, Verlage, Aktivist*innen und Erfahrungsexpert*innen – und identifiziert Partner, die das Thema gemeinsam mit uns langfristig verfolgen. Wir bündeln Perspektiven, schaffen Aufmerksamkeit, vermitteln Wissen und regen die Diskussion an.