Artificially
correct

Künstliche Intelligenz, Bias,
Übersetzung

Wie kommt Bias in eine Übersetzung und was können wir dagegen tun? 

 

Eine schwarze und eine weiße Person vor orangefarbenem Hintergrund, auf dem die englischen Pronomen "they", "them", "sier" und "xier" zu lesen sind. © Goethe-Institut. llustration: EL BOUM.

Mach bei unserem Hackathon mit!

Bist du Aktivist*in und beschäftigst dich mit Race, Gender, Identität oder Sprache? Bist du Übersetzer*in?  Hast du Diskriminierung erlebt? Bist du Softwareentwickler*in oder Social Media Expert*in? Du interessierst dich einfach für das Thema und möchtest aktiv werden?  

Dann mach mit bei unserem Hackathon Anfang Oktober! 
Artificially Correct Hackathon © Goethe-Institut. Illustration: EL BOUM

ARTIFICIALLY CORRECT HACKATHON

1.-3. Oktober 2021 | Online
Wie kommt Bias in eine Übersetzung und was können wir dagegen tun? Um Antworten und Lösungen auf diese Frage zu finden, brauchen wir euren Input! 

Mehr Kontext

Weitere Artikel

Mehr erfahren zu Übersetzung und Bias, zu Künstlicher Intelligenz und Übersetzung.

Über das Projekt

Sprache definiert die Welt. Das Goethe-Institut steht für eine inklusive Sprache – und damit für eine inklusive Welt.

Mit Artificially correct entwickeln wir mit Expert*innen ein Tool, das den Bias in Übersetzungen minimiert. Wir möchten die Stellung von Übersetzer*innen und einen bewussten Umgang mit Übersetzungsmaschinen stärken und in diese die Realität möglichst vieler Menschen inkludieren.    

Konkret beschäftigt sich Artificially correct mit KI-basierten Übersetzungstools und den Verzerrungen (z.B. gender/racial-Bias), deren Übersetzungen sie generieren. Artificially correct schafft ein aktives Netzwerk an Menschen, die dieses Problem betrifft – Übersetzer*innen, Verlage, Aktivist*innen und Erfahrungsexpert*innen – und identifiziert Partner, die das Thema gemeinsam mit uns langfristig verfolgen. Wir bündeln Perspektiven, schaffen Aufmerksamkeit, vermitteln Wissen und regen die Diskussion an.