Schnelleinstieg:

Direkt zum Inhalt springen (Alt 1) Direkt zur Hauptnavigation springen (Alt 2)

Vorurteile von Künstlicher Intelligenz
Übersetzungstools sensibler gestalten

Eine weiße Roboterhand neben einer Taste mit Sprechblasen und der deutschen und britischen Flagge daneben.
Konzept der künstlichen Intelligenz im Einsatz als Übersetzer für Deutsch und Englisch. | Foto (Detail): Alexander Limbach © picture alliance / Zoonar

Um Texte schnell in eine andere Sprache zu übersetzen, nutzen viele nahezu täglich eine Übersetzungssoftware wie „Google Translate“. Aber auch diese Tools geben in den übersetzten Sprachversionen häufig gesellschaftliche Vorurteile wieder. Anna von Rath ist Teil des Teams von poco.lit., einer Plattform für postkoloniale Literatur, und setzt sich mit dem Projekt „macht.sprache.“ für sensiblere Sprachgebräuche und Übersetzungen ein.

Frau von Rath, wie ist das Projekt „macht.sprache.“ entstanden?

Ich arbeite eigentlich als Übersetzerin und Diversity-Trainerin und habe zusammen mit Lucy Gasser vor ungefähr zwei Jahren poco.lit. gegründet, eine Plattform für postkoloniale Literatur, auf der wir postkoloniale Literatur oder Themen, die in dieses Spektrum fallen, besprechen. Die Plattform ist bilingual, Englisch und Deutsch. Dabei sind wir eigentlich überhaupt auf das Thema Übersetzen gekommen. Wir arbeiten viel mit Übersetzungen und übersetzen oft Inhalte für poco.lit. und gerade im postkolonialen Bereich tauchen häufig Begriffe auf, die etwas mit Diskriminierung oder kolonialen Machtverhältnissen zu tun haben und überaus schwer zu übersetzen sind.

Für unsere Arbeit haben wir auch Onlinetools ausprobiert und gemerkt, dass vieles total problematisch war. So bekamen wir die Idee, uns genauer damit zu beschäftigen. Zum Team stießen dann noch Timur Çelikel und Kolja Lange dazu, die das Thema auch interessant fanden und die nötige technische Expertise mitbrachten. Es gab eine Ausschreibung vom Berliner Senat für Digitalisierung im Kulturbereich und wir haben uns mit macht.sprache. darauf beworben.

Was sind überhaupt „sensible Begriffe“ bei Übersetzungen und welche Probleme hat Künstliche Intelligenz bei Übersetzungssoftwares damit?

Wir bezeichnen als „sensible Begriffe“ alle Begriffe, die einen Bezug zu Diskriminierung haben oder auch bestimmte Personen- oder Gruppenbezeichnungen. Hier ein paar Beispiele: Das englische Wort „nurse“, das meistens als Krankenschwester übersetzt wird, enthält Gender-Vorurteile. „Race“ wird im Deutschen häufig immer noch als „Rasse“ übersetzt. Es gehören auch subtilere Dinge dazu, wie zum Beispiel Ausdrücke, die ableistisch sind – wie „blind für etwas sein“.

Mein eigener Schwerpunkt liegt auf den Race- und Gender-Themen und ein bisschen auf Ableismus. Aber wir haben auch Nutzer*innen, die sich auf macht.sprache. angemeldet haben, die antisemitische Begriffe mit reingebracht haben. Das kann natürlich noch ausgedehnt werden. Das soll im Prozess auch passieren, weil unser Projekt so ausgelegt ist, dass sich Leute dran beteiligen können.

Wieso hat Künstliche Intelligenz bei der Übersetzung Vorurteile und was sind die Gründe dafür, dass Künstliche Intelligenz (KI) teils noch Begriffe verwendet, die nicht mehr zeitgemäß sind?

Die Programme werden mit unterschiedlichen Korpora trainiert. Das Übersetzungsprogramm Linguee zum Beispiel wurde mit Texten der Europäischen Union trainiert. Die enthalten eher bürokratische Sprache. Das sind also keine Fachtexte, die sich mit diesen Diskriminierungsthemen beschäftigen. Das, was die KI wiedergibt, ist nur das, was sie gelernt hat. Hier zeigen sich die gesellschaftlichen Normen und üblichen Verwendungsweisen.

Dadurch, dass KI zu einem bestimmten Punkt trainiert wurde, ist die auch immer ein bisschen hinterher, weil Sprache sich ständig verändert. In der Gesellschaft sieht man, dass Sprachveränderungen häufig aus aktivistischen Kontexten kommen. Dann sind es meistens Universitäten, die irgendwann sagen: „Das nehmen wir auch mit auf und untersuchen es genauer und diskutieren es ausführlich.“ Bis Sprachveränderungen in der breiten Masse der Gesellschaft ankommen, vergehen Jahre. Und bis sie in den Übersetzungsprogrammen angekommen sind, noch ein paar weitere.

Gibt es Sprachen, die besonders betroffen sind von diesen sensiblen Begriffen beziehungsweise eher Gefahr laufen, Vorurteile zu reproduzieren?

Bei poco.lit. arbeiten wir mit Deutsch und Englisch, was unser Ausgangspunkt war, um überhaupt die Idee für macht.sprache. zu entwickeln. Was im Deutschen besonders ist – und das gilt eigentlich für Französisch, Spanisch, Italienisch und so weiter auch – ist, dass allen Substantiven ein grammatikalisches Geschlecht zugeschrieben wird. In Sprachen, in denen das passiert, ist es besonders schwierig, sich genderfrei oder genderinklusiv auszudrücken.

Das ist im Englischen, zumindest grammatikalisch betrachtet, erst einmal einfacher. Aber wenn wir uns genauer damit auseinandersetzen, sind da die Genderdimensionen oft nur weniger offensichtlich. Auch „nurse“ ist im Englischen ein Beruf, der im Kopf vieler Leute eher als weiblich verstanden wird. Da stecken gesellschaftliche Normen mit drin.

Ich denke, dass jede Sprache und auch jeder geografische Kontext eine ganz eigene Geschichte hat, wie Begrifflichkeiten genutzt werden, wie die Sprache gewachsen ist und wie sie sich heute entwickelt. Das kann automatisierte Übersetzung schlecht abbilden.

Wie wurden die Plattform und die Browser-Erweiterung für „Google Translate“ entwickelt? Worauf wird hingewiesen, wenn ich einen Text einfüge beziehungsweise übersetzen lasse?

Wir haben das Projekt in drei Phasen umgesetzt. In der ersten Phase haben wir eine Diskussionsplattform entwickelt. Auf dieser Plattform, machtsprache.de, können alle Leute, die Lust haben, mitdiskutieren oder sich die Inhalte nur anschauen. Es geht darum, Begriffe zu sammeln, die potenziell sensibel sind, Übersetzungsoptionen einzutragen und sie zu bewerten. Übersetzungen oder eine Begriffswahl sind immer kontextabhängig. Deshalb haben wir macht.sprache. so gebaut, dass Nutzer*innen auch Übersetzungsbeispiele aus Büchern, Zeitungen oder Filmen eintragen können, um zu besprechen, warum sie einen Begriff in diesem Kontext passend finden oder nicht. Diese erste Phase der Diskussionsplattform, die weiterhin existiert, war die Grundvoraussetzung für alles, was danach gekommen ist, und dient auch dazu, dass wir im Austausch mit anderen Personen dazulernen.

Die zweite Phase ist dann ein spezifischeres Weiterbilden gewesen. Wir haben unter anderem mit den Goethe-Instituten der Region Nordwesteuropa Veranstaltungen organisiert, bei denen es konkret um Race, um Gender und um Ability/Disability in Übersetzung ging. Dafür haben wir verschiedene Expert*innen eingeladen, die uns Input geben konnten, der auch in die dritte Phase einfließen sollte, in die Entwicklung des tatsächlichen Tools. Auf machtsprache.de gibt es den „Text Checker“, den wir entwickelt haben. Leute, die einen Text übersetzen wollen, können ihn in den „Text Checker“ hineinkopieren und Hinweise zu bestimmten Begriffen bekommen.

Wir haben direkt eine Anschlussförderung vom Prototype-Fund erhalten, um die Browser-Erweiterung entwickeln zu können, weil wir es wichtig finden, dass macht.sprache. so niedrigschwellig wie möglich ist. Die Hürde ist geringer, wenn macht.sprache. in die Programme integrierbar ist, die Menschen sowieso für ihre Arbeit verwenden. Unser „Text Checker“ übersetzt nicht, sondern zeigt Übersetzungsoptionen und gibt Tipps. Eine Neuerung der Erweiterung von Google Translate ist auch, dass alle Personenbegriffe hervorgehoben werden, was dazu einladen soll, über die Geschlechtszuschreibung oder mögliche genderinklusive oder genderfreie Varianten nachzudenken.

Ist es geplant, die Erweiterung noch auf andere Sprachen auszuweiten und für andere Übersetzungstools zur Verfügung zu stellen?

Wir sind gerade dabei, einen neuen Fördermittelantrag zu stellen. Bei dem würde es eher darum gehen, auch noch eine Browser-Erweiterung für DeepL zu entwickeln und andere Browser zu unterstützen. Unsere Eweiterung für Google Translate funktioniert aktuell nur in Google Chrome.

Wenn wir die Gelder und die Zeit auftreiben können, dann würden wir gern weitere Sprachen in das Programm integrieren. Ich spreche Spanisch, eine Kollegin spricht Französisch und ein Kollege Italienisch, also wären das die naheliegenden Sprachen. Aber trotzdem müssten wir dafür das Team erweitern oder Expert*innen finden, weil diese Arbeit sehr ins Detail geht.

Sprache wandelt sich und Begriffe, die wir heute verwenden, sind vielleicht schon in ein paar Jahren veraltet. Wie kann sich KI und auch das Projekt samt Browser-Erweiterung mitentwickeln?

In Bezug auf unser Projekt ist es einfach so, dass es konstante Betreuung braucht. Dass sich Sprache wandelt, ist nur ein Aspekt davon. Je größer so ein Projekt wird, desto mehr besteht die Gefahr, dass Trolls auftauchen und das gesamte Projekt gefährden. Davon abgesehen ist das Projekt auf Crowdsourcing ausgelegt und die Community ist gefragt mitzumachen. Unsere Hoffnung ist, dass, je länger die Plattform existiert, immer mehr Leute mitmachen. Dadurch passt sich die Datenbank automatisch an den aktuellen Sprachgebrauch an und ist somit tatsächlich auch ein bisschen näher am Puls der Zeit, als existierende Übersetzungsprogramme es momentan sein können. Auf diese Kollaboration legen wir viel Wert, denn unser Team ist relativ klein und wir haben eine bestimmte Sicht auf die Welt. Es ist uns sehr wichtig, dass wir verschiedene Perspektiven einholen und dadurch nicht nur selbst lernen, sondern auch die gesamte Anwendung besser gestalten können.

Das Interview führte Juliane Glahn, „Zeitgeister“-Volontärin.

Top