|

14:00 Uhr, EET

How to Fix Bias in Machine Translation

Podiumsdiskussion|

  • Online Online

  • Sprache Englisch
  • Preis kostenlos

Eine Illustration. Eine Figur steht auf einer Wolke und hält sich an einem Baum fest. © Goethe-Institut

Sprache definiert die Welt. Maschinen, die sie übersetzen, arbeiten an dieser Definition zwangsläufig mit. Obwohl KI-basierte Übersetzungstools stetig bessere Ergebnisse hervorbringen: In Bezug auf „Gender“ oder „Race“ weisen sie viele Mängel und Verzerrungen auf. Wörtlich übersetzt heißt beispielsweise Lightness auf Deutsch Helligkeit oder Leichtigkeit (im Sinne von ohne Gewicht). In Texten mit Bezug auf Race wird in Übersetzungen stattdessen aber häufig „helle Haut“ verwendet. Mit diesem expliziten Bezug auf ein körperliches Merkmal werden im Deutschen Konstruktionen in Bezug auf Race weiterhin biologisiert. Weitere Beispiele finden sich hier.

Das Goethe-Institut, das für eine inklusive Sprache steht, entwickelt im Projekt Artificially correct zusammen mit Expert*innen neue Tools, die den Bias in Übersetzungen minimieren. Damit soll die Stellung von Übersetzer*innen und ein bewusster Umgang mit Übersetzungsmaschinen gestärkt sowie die Realität möglichst vieler Menschen in den Übersetzungsprozess inkludiert werden. Bei diesem Panel zeigen Teilnehmer*innen und Jurymitglieder eines Artificially correct Hackathons wie man das Bias‑Problem konkret angehen kann.

Das Panel findet auf Englisch statt. 



Referent*innen: Danielle Saunders, Informatikerin, Cambridge; Janiça Hackenbuchner, Masterstudentin, Köln; Marvin Mouroum, Computervisionsingenieur, Berlin
Moderation: Simon Caton, Professor für Informatik, University College Dublin

Danielle Saunders ist wissenschaftliche Mitarbeiterin mit einem Schwerpunkt auf maschineller Übersetzung bei der RWS Group. Ihr Hauptforschungsinteresse gilt der Steuerung des Verhaltens von automatisierten Übersetzungssystemen in Reaktion auf unerwartete oder ungewöhnliche Sprache. Mit diesem Thema setzte sie sich auch im Rahmen ihrer Dissertation auseinander, die sie an der University of Cambridge erfolgreich abgeschlossen hat.

Marvin Mouroum arbeitet als Computer Vision Ingenieur bei iFab Ottobock und ist Absolvent des European Institute of Innovation & Technology. Er gehört zum Team „A Word2Vec solution“, das beim Artificially correct Hackathon gewann. Die Gruppe beschäftigte sich mit der Tatsache, dass automatisierte Übersetzungstools wie Google Translate oder DeepL oft Schwierigkeiten mit komplexeren Inhalten haben. Ihre Lösung hierfür war die Entwicklung einer Webplattform, welche den Word2Vec-Algorithmus nutzt, um Wörter zu vergleichen und festzustellen, wie stark diese mit dem jeweiligen Kontext übereinstimmen. Die Idee erhielt Zuspruch dafür, dass sie eine sehr vollständige Lösung darstellt, die auf zusätzliche Sprachen und Bias erweitert werden kann.
  
Janiça Hackenbuchner arbeitet derzeit an einer Masterarbeit zum Thema „Gender Bias in der maschinellen Übersetzung“ an der TH Köln.  Sie gewann ebenfalls den Hackathon zum Thema „Bias in Machine Translation“ gewonnen. Ihr Team „BiasByUs“ erstellte eine Website, die gleichzeitig als Crowdsourcing-Datenbank mit Beispielen für Bias sowie als Informationsquelle über die Auswirkungen von Bias dienen soll. In Zukunft könnte eine solche Datenbank beispielsweise als Browser-Plug-in implementiert werden. „BiasByUs“ wurde aufgrund seines kollaborativen Charakters und seines Potenzials für weiterführende Projektarbeiten ausgewählt.

Simon Caton ist Professor für Informatik am University College Dublin (UCD). Zuvor war er als Dozent für Datenanalyse am National College of Ireland (NCI) und als wissenschaftlicher Mitarbeiter am Karlsruhe Institute of Technology (KIT) tätig. 2010 promovierte er im Fach Informatik. Die Schwerpunkte seiner Forschung betreffen Grid- und Cloud-Computing im Zusammenhang mit automatisierten Prozessen und sozialen Netzwerken.