Hackathon Artificially Correct Hackathon

Illustration, auf der linken Seite eine Lupe, auf der rechten Seite ein Computerbildschirm, auf dem ein Gehirn abgebildet ist. © Goethe-Institut. Illustration: EL BOUM

Fr, 01.10.2021 –
So, 03.10.2021

Online

Mach mit bei unserem Hackathon!

Wie kommt Bias in eine Übersetzung und was können wir dagegen tun? Um Antworten und Lösungen auf diese Frage zu finden, brauchen wir euren Input! 

Bist du Aktivist*in und beschäftigst dich mit Race, Gender, Identität oder Sprache? 

Bist du Übersetzer*in? 

Hast du Diskriminierung erlebt? 

Bist du Softwareentwickler*in oder Social Media Expert*in? 

Du interessierst dich einfach für das Thema und möchtest aktiv werden?  

Dann mach mit bei unserem Hackathon Anfang Oktober! 

Wir bieten dir: 

  • Zeit, eine Idee/ein Übersetzungstool zu entwickeln 
  • Expert*innen, die dich dabei beraten 
  • Die Möglichkeit, deine Ideen zu pitchen und dein Tool nach dem Hackathon weiterzuentwickeln 
  • Ein Preisgeld von 2 x 2500€ für die Gewinner-Pitches 
  • Input-Vorträge zu verschiedenen Themen von internationalen Expert*innen 
  • Internationale Expert*innen als Berater*innen und Jurymitglieder 

Challenges:

Challenge 1: Interaktive Station für die Aufnahme und Crowdsourcing eines mehrsprachigen Sprachdatensatzes. Durchgeführt vom ZKM (Zentrum für Kunst und Medien, Karlsruhe). In dieser Challenge entwickelt ihr ein Set von Tools und eine Schnittstelle für Crowdsourcing, einen Sprachdatensatz, der in eine interaktive Station eingebettet werden kann.  

Challenge 2: Genderfaires Post-Editing maschineller Übersetzung. Durchgeführt von Universität Graz und Universität Wien. In dieser Challenge entwickelt ihr Strategien zum Post-Editing und zur Verbesserung von MT-Outputs, um Übersetzungen zwischen den Sprachen Englisch und Deutsch genderfair zu gestalten. 
 
Challenge 3: Datenbank und Erkennung von Gender Bias bei maschinellen Übersetzungen. Durchgeführt von IfM (Institut für Medien- und Kommunikationspolitik) und FCAI (Finnish Centre for Artificial Intelligence). Ziel dieser Challenge ist es, Gender Bias in maschinellen Übersetzungssystemen zu definieren und zu analysieren und eine Datenbank zu erstellen, in der alle Benutzer*innen Fälle von Bias sammeln, beschreiben und diskutieren können.
 
Challenge 4: Identifizieren von Sätzen, die anfällig für Verzerrungen bei der maschinellen Übersetzung sind. Durchgeführt von Danielle Saunders. In dieser Challenge geht es darum, Wege zu finden, Bias-anfällige Sätze automatisch zu identifizieren - bestenfalls in einer Art und Weise, die andere Sprachen als Englisch zum Ausgangspunkt nimmt. 
 
Challenge 5: Wird Bias in Sammlungen und Archiven durch Übersetzung und Mehrsprachigkeit überliefert? Durchgeführt von Cultural A.I. In dieser Challenge experimentierst du mit dem niederländischen Tool SABIO (SociAl BIas Observatory), das Verzerrungsmuster in Museumssammlungen und Kulturarchiven untersucht, und arbeitest an Erweiterungen für sprachübergreifende und mehrsprachige Kontexte.
 
Challenge 6: Messung der Auswirkungen von Repräsentationsbias. Durchgeführt von EQUITBL und WASP-WARA-Media and Language. Das Ziel dieser Challenge ist es, einen Weg zu finden, automatisch zu testen, ob die Menge der unausgewogenen Repräsentation von Geschlechtern die Qualität der resultierenden Tools beispielsweise in Bezug auf Bias beeinflusst. 


Partnerorganisationen:

ZKM – Zentrum für Kunst und Medien; IfM – Institut für Medien- und Kommunikationspolitik, Cultural AI Netherlands; University of Helsinki, University College of Dublin, WASP Wallenberg AI, Antirasistiska Akademin, Gender FairMT 


Anmeldung:

 


Über das projekt:

Sprache definiert die Welt. Das Goethe-Institut steht für eine inklusive Sprache – und damit für eine inklusive Welt. 

Mit Artificially Correct entwickeln wir mit Expert*innen ein Tool, das den Bias in Übersetzungen minimiert. Wir möchten die Stellung von Übersetzer*innen und einen bewussten Umgang mit Übersetzungsmaschinen stärken und in diese die Realität möglichst vieler Menschen inkludieren.     

Konkret beschäftigt sich Artificially Correct mit KI-basierten Übersetzungstools und den Verzerrungen (z.B. gender/racial-Bias), deren Übersetzungen sie generieren. Artificially Correct schafft ein aktives Netzwerk an Menschen, die dieses Problem betrifft – Übersetzer*innen, Verlage, Aktivist*innen und Erfahrungsexpert*innen – und identifiziert Partner*innen, die das Thema gemeinsam mit uns langfristig verfolgen. Wir bündeln Perspektiven, schaffen Aufmerksamkeit, vermitteln Wissen und regen die Diskussion an. 
 

Zurück