Schnelleinstieg:

Direkt zum Inhalt springen (Alt 1) Direkt zur Hauptnavigation springen (Alt 2)

Die Macht der Sprache in maschineller Übersetzung

Auge, Sprechblasen und Mund.
© Goethe-Institut. Illustration: EL BOUM

Sprache ist ein integraler Teil von Kommunikation, Kunst, Kultur und sozialen Strukturen. Einzelne Wörter können dabei eine enorme Macht ausüben.

 

Sprache besteht nicht nur aus Wörtern, Sprache ist auch ein Machtmittel. Oft wird sie zum Instrument, das repressive Systeme aufrechterhält. Soziale Hierarchien werden durch die Medien subtil aufgedeckt und verstärkt. Boris Johnsons Gebrauch von kriegsähnlicher Sprache im Zusammenhang mit dem Brexit wurde dafür kritisiert, die Gewalt in Großbritannien angeheizt zu haben. In den Niederlanden wiederum wurde der Lockdown während der Coronavirus-Pandemie als “intelligent” bezeichnet und damit als „überlegen“ dargestellt. Das sind nur zwei Beispiele dafür, wie das Framing von Sprache und Medien zu sowohl nationalen als auch internationalen Gräben beitragen kann.

Bei Identitätsmerkmalen ist ein ähnlich spaltendes und unterdrückendes Framing durch Sprache zu beobachten. Warum wird eine Frau als temperamentvoll, rechthaberisch oder als „Mutter von" bezeichnet – während ihr männliches Pendant mit denselben Eigenschaften wahrscheinlich als ehrgeizig und führungsstark bezeichnet wird, und wohl kaum jemals „Vater von" als ausschlaggebendes Merkmal angesehen wird? Warum werden bei der Beschreibung von weißen Amokläufer*innen meist mildere Worte gefunden als bei den Taten von Schwarzen oder Hispanischen Personen? Die in den Medien und auch von jedem und jeder Einzelnen von uns verwendete Sprache hat die Macht, bedenkliche Stereotype aufrechtzuerhalten.

Artificially correct
Verbindungen zwischen historischer Ungerechtigkeit und der heutigen Sprache müssen angesprochen werden, um zu verhindern, dass Vorurteile in der Gesellschaft verankert bleiben. Dies gilt auch für Übersetzungen, bei denen der Kontext genauso wichtig ist wie der Inhalt. Es erfordert ein scharfes Auge der übersetzenden Person, die sozialen und historischen Konnotationen der gewählten Wörter zu erkennen. Auch bei maschineller Übersetzung unter Einsatz von künstlicher Intelligenz (KI) taucht das Problem auf. Maschinelle Übersetzung ist ein nützliches Werkzeug und wird es von Tag zu Tag mehr, allerdings macht sie oft Fehler, beispielsweise wenn es um Gender geht. Laut Danielle Saunders, Wissenschaftlerin bei RWS, einem internationalen Anbieter für technologiefähige Sprachdienstleistungen, machen maschinelle Übersetzungen sogar in eindeutigen Fällen Fehler – und das aus zwei Gründen;
Algorithmische Entscheidungen, z. B. wenn der Algorithmus den Anreiz hat, Übersetzungen mit einem gebräuchlicheren Wortschatz zu erstellen
Datenentscheidungen, z. B. in den für das Training verfügbaren Datensätzen ist ein überwiegend maskuliner Wortschatz enthalten.Wenn künstliche Intelligenz beispielsweise mit Reden aus dem EU-Parlament trainiert wurde, was meistens der Fall ist, spiegelt die KI den Bias innerhalb der Reden in ihren eigenen Übersetzungen wider, z. B. bei der Übersetzung von Berufsrollen, indem die männliche Form „Arzt“ gegenüber der weiblichen Form „Ärztin“ bevorzugt wird. Dies wird durch die traditionell oft männlich geprägte Sprache noch verstärkt.
Es gibt zahlreiche Möglichkeiten, das noch recht junge Problem des Bias in künstlicher Intelligenz anzugehen: Der vielleicht offensichtlichste Startpunkt wäre es, Trainingsdaten ausgeglichener zu gestalten: aber mehr Trainingsdaten sind teuer und beinhaltet das Risiko, dass der Bias sogar noch vergrößert wird. Ein wichtiges Thema sind auch die alternativen, non-binären Pronomen, die von der maschinellen Übersetzung oft falsch übersetzt werden. Non-binäre, alternative Pronomen sowie Neopronomen müssen stärkeren Einzug in die Praxis erhalten und mehr und mehr Teil eines kulturellen Dialogs werden. Zu dieser Komplexität trägt zudem das Problem bei, dass „maschinelle Übersetzungstools schnell lernen und schnell vergessen” erklärt Saunders, ein Phänomen, das als „katastrophales Vergessen” bezeichnet wird und vorkommen kann, wenn die KI neue Information erlernen muss. Auch wenn es eine Option ist, das Risiko des „katastrophalen Vergessens” in Kauf zu nehmen, ist es wahrscheinlich, dass das Training mit neuen Daten die Qualität der maschinellen Übersetzung beeinträchtigt. Eine praktikable Lösung wäre, Gender wie die Rechtschreibprüfung zu behandeln – also den Nutzer*innen mehrere Optionen anzubieten, die non-binäre Pronomen wie die deutschen Xier-Pronomen beinhalten könnten.

“Wahrheiten neu etablieren”
Es ist notwendig, „Wahrheiten neu zu etablieren“ und sich von den repressiven Systemen auf wahrheitsgemäße Weise abzuwenden, sagt Emilia Roig, Gründerin und Leiterin des „Center for Intersectional Justice”. Bei der Dekonstruktion von Wörtern sowie von Kontexten, die wir als unangenehm empfinden, könnten uns Übersetzer*innen dabei helfen, die richtigen Wörter zu finden. Zum Beispiel wird im Portugiesischen mittlerweile das Wort „escravizado/escravizada“ - „versklavt” - im Vergleich zum originalen Ausdruck „escravo/escrava“ - „Sklave” - bevorzugt, was zeigt, in welche Position jemand versetzt wurde. Die Wörter, die wir wählen, können die Missstände in unserer Gesellschaft aufdecken. Unsere Wortwahl kann auch dabei helfen, bessere Konstrukte zu erstellen, unsere Gespräche zu leiten und uns mit Hilfsmitteln für einen gleichberechtigten Diskurs auszustatten. Bei Übersetzungen, sowohl menschlichen als auch maschinellen, wie auch im Alltag müssen wir uns fragen: Was sind die richtigen Wörter und welche Macht haben sie?
Eine weitere Ebene der Komplexität kommt hinzu, wenn wir in Betracht ziehen, dass unsere heutige Sprache nicht dieselbe ist, wie die, die wir in 20, 50 oder 100 Jahren benutzen werden. Sprache ist nichts, was wir im Voraus bestimmen können, sondern entwickelt sich ständig. Die sich fortlaufend verändernde Natur der Sprache muss sich auch in der Entwicklung von KI-Anwendungen widerspiegeln, um schnelle und einfache Anpassungen der Sprache in den kommenden Jahren zu ermöglichen.

Ein Text von Alana Cullen und Priyanka Dasgupta im Rahmen des Workshops zu Künstlicher Intelligenz, Bias und Übersetzung (23.-24.4.2021).

Deutsche Übersetzung: Johanna Hildinger
 

Top