Artificially Correct

Artificially Correct © El Boum

Ob im Journalismus, auf Social Media, bei der Lektüre von Romanen oder im Klassenzimmer. Künstliche Intelligenz prägt die Sprache in unserem Alltag. Sie kann Bias reproduzieren – aber auch dabei helfen, gegen Diskriminierung vorzugehen. 

Wie sich künstliche Intelligenz auf Sprache und Textproduktion auswirkt, und wieso diskriminierende Sprache schon in Schulen thematisiert werden muss, dazu sind in diesem Dossier verschiedene Perspektiven zusammengestellt. Sie waren der Auftakt zu Veranstaltungen, mit denen wir die Themen von Artificially Correct öffnen möchten und die Diskussion bereits dort beginnen, wo Textproduktion für viele beginnt: In der Schule.
 

KI & Textproduktion

Wir wissen zwar nicht, was uns die Algorithmen von morgen sagen werden, aber ihre Antworten basieren auf den Fragen, die wir stellen, und den Maßnahmen, die wir heute ergreifen. Es ist unsere Pflicht uns selbst und der Zukunft gegenüber sicherzustellen, dass sie gut sind.

Adam Smith

Smartphone Foto (Detail): © colourbox.com

Künstliche Intelligenz und Falschmeldungen
Wenn Roboter verzerrte Inhalte in den sozialen Medien erzeugen

Weltweit setzen Organisationen Systeme Künstlicher Intelligenz (KI) in großem Umfang ein. Jedoch werden diese Systeme nicht immer vorteilhaft genutzt und treffen auch nicht immer die besten Entscheidungen. In diesem Artikel behandle ich anhand von drei Beispielen drei Typen Roboter, die voreingenommene Inhalte erzeugen können: Social Bots, die Desinformation verbreiten, verzerrende KI‑Tools und synthetische Profile.
 


„Bounding Boxes“, die Max Gruber hier künstlerisch humorvoll dargestellt hat Foto (Detail): Max Gruber © Better Images of AI / Ceci n'est pas une banane / CC-BY 4.0

Datenjournalismus
Auf der Jagd nach verborgenen Mustern

Künstliche Intelligenz (KI) spielt im Journalismus schon heute eine wichtige Rolle: Algorithmen finden Geschichten in großen Datensätzen und erzeugen automatisch Tausende Texte. Schon bald könnte KI zu einer kritischen Infrastruktur der Medienproduktion werden.


Said Haider Foto (Detail): Stephanie Hesse © Goethe-Institut Finnland

Mit Künstlicher Intelligenz kommunizieren
Meta – ein Chatbot gegen Diskriminierung

Said Haiders Vision ist es, die 110 bei Diskriminierung zu entwickeln. Mit seinem Team hat der Gründer und Geschäftsführer von Meta den ersten Chatbot entwickelt, der Diskriminierte, die Rat suchen, über ihre Rechte informiert – 24 Stunden am Tag, sieben Tage in der Woche.
 


Mit Künstlicher Intelligenz (KI) können automatisch Texte generiert werden, die sich von Menschen geschriebenen Texten kaum unterscheiden lassen. Alina Constantin / Better Images of AI / Handmade A.I / CC-BY 4.0

Der künstliche Autor
Wie KI unser Schreiben über Fakten und Fiktionen verändern könnte

Künstliche Intelligenz (KI) könnte unser Schreiben grundlegend verändern. KI kann zu jedem Thema riesige Mengen umfangreicher Inhalte erzeugen, Fakten von Fiktion trennen und Dichter*innen und Drehbuchautor*innen kreative Impulse geben. Aber was sollen wir von diesem revolutionären Tool halten? Und könnte der endlose Output von Rechnern etwas enthüllen, was uns selbst verborgen ist?
 


Von links nach rechts: Prof. Dr. Mascha Kurpicz-Briki, Uli Köppen, Dr. Phil. Aljosha Burchardt, Dr. Stefanie Ullmann, Laura Hollink Fotos (Detail): © privat, Uli Köppen: Lisa Hinder, BR

Expert*innen-Statements
„Die Zusammenarbeit von Menschen und Maschinen muss neu definiert werden“

Welche Arten von Bias lassen sich in Texten finden, die mit Hilfe von Künstlicher Intelligenz entstanden? Und welche Lösungsansätze gibt es, um Realitätsverzerrungen abzuschwächen oder gar zu vermeiden? Darüber haben wir mit fünf Expert*innen aus Großbritannien, Deutschland, den Niederlanden und der Schweiz gesprochen.


Sprache und Machtverhältnisse

Die Schule als Institution trug und trägt dazu bei, dass gewisse Menschen unsichtbar waren oder sind. Es muss ein Umfeld geschaffen werden, in dem junge Menschen ihr Coming-out wagen und dafür nicht gemobbt werden – und das ist derzeit leider nicht der Fall.

Sovia Szymula

Englische Übersetzung "Speaking & Being" von Kübra Gümüşay Profile Books

Im Gespräch mit Gesche Ipsen
Übersetzen kann Machtverhältnisse ausgleichen

In „Sprache und Sein“ geht Kübra Gümüşay der Frage nach, wie Sprache unser Denken prägt und Machtverhältnisse unserer Gesellschaft bestimmt. Nun erschien das Buch in englischer Übersetzung. Wir haben uns mit der Übersetzerin, Gesche Ipsen, über ihre Arbeit am Buch und die sprachliche Macht des Übersetzens unterhalten.
 


Sophia Szymula Foto (Detail): © Patrick Steck

Sovia Szymula im Gespräch
„Es braucht mehr als gegendertes Unterrichtsmaterial“

Wie gehen Lehrende mit geschlechtersensibler Sprache um? Finden nicht‑binäre Personen ihren Platz in der Schule? Im Gespräch berichtet Lehramtsstudent*in und queere*r Rapper*in Sovia Szymula alias LILA SOVIA über persönliche Erfahrungen.


Das Team von We A.R.E., von links nach rechts: Griselda Welsing, Linda Schulz, Aster Oberreit, Kira Römer Foto (Detail): Georgina Fakunmoju © We A.R.E.

Rassistische Sprache in der Schule
„Sprache schafft Wirklichkeit“

Diskriminierende Sprache ist in vielen Schulen Alltag. Die Aktivistinnen des Hamburger Vereins We A.R.E. wollen sich damit nicht länger abfinden. In einem Interview hat sich unsere Autorin erklären lassen, was rassistische Sprache mit Kindern macht.





KÜNSTLICHE INTELLIGENZ UND ÜBERSETZUNG

Eine weiße Roboterhand neben einer Taste mit Sprechblasen und der deutschen und britischen Flagge daneben. Foto (Detail): Alexander Limbach © picture alliance / Zoonar

Vorurteile von Künstlicher Intelligenz
Übersetzungstools sensibler gestalten

Um Texte schnell in eine andere Sprache zu übersetzen, nutzen viele nahezu täglich eine Übersetzungssoftware wie „Google Translate“. Aber auch diese Tools geben in den übersetzten Sprachversionen häufig gesellschaftliche Vorurteile wieder.


Michal Měchura entwickelte das Plug-in Fairslator, um Bias in Maschinenübersetzungen zu entdecken und zu vermindern privat

Im Gespräch mit Michal Měchura
Wenn die Maschine den Menschen fragt

Der Sprachtechnologe Michal Měchura wollte immer schon ein Tool, das es Übersetzungsmaschinen ermöglicht, in Zweifelsfällen den Menschen Fragen zu stellen. Mit Fairslator hat er selbst solch ein Tool entwickelt. Michal spricht mit uns über Bias und Mehrdeutigkeit in maschinellen Übersetzungen.
 


Schwierig zu übersetzende Begriffe

Auge, Sprechblasen und Mund. © Goethe-Institut. Illustration: EL BOUM

Die Macht der Sprache in maschineller Übersetzung

Sprache ist ein integraler Teil von Kommunikation, Kunst, Kultur und sozialen Strukturen. Einzelne Wörter können dabei eine enorme Macht ausüben.

 


Zwei persons of colour, eine mit Kopftuch und Brille, eine mit Dreads, vor einem beigem Hintergrund, auf denen die beiden Wörter "Empowerment" und "Selbstermächtigung" zu lesen sind. © Goethe-Institut. llustration: EL BOUM.

Othering ~ Andern
10 schwierig zu übersetzende Begriffe in Bezug auf Identitäten

Übersetzungen sind wahnsinnig herausfordernd: Historische, geographische, politische und soziale Kontexte müssen mitgedacht werden. In ihrem Gastbeitrag beschäftigen sich die beiden Literaturwissenschaftlerinnen und Herausgeberinnen der Plattform „poco.lit.“ Lucy Gasser und Anna von Rath mit den Sprachen Deutsch und Englisch und thematisieren 10 schwierig zu übersetzende Begriffe in Bezug auf Identitäten.



Es sind die Büsten zweier persons of colour abgebildet, wovon einer als männlich und die andere als weiblich gelesen werden kann. Der Mann hat kurze, schwarze Haare, die Frau ertwas längere, ebenfalls schwarze, gewellte Haare und Ohrringe. Im Hintergrund sind die Ausdrücke "Menschen mit Rassismuserfahrung" und "people of colour" zu lesen. © Goethe-Institut. llustration: EL BOUM.

Race ≠ Rasse
10 schwierig zu übersetzende Begriffe in Bezug auf Race

Übersetzungen sind wahnsinnig herausfordernd: Historische, geographische, politische und soziale Kontexte müssen mitgedacht werden. In ihrem Gastbeitrag beschäftigen sich die beiden Literaturwissenschaftlerinnen und Herausgeberinnen der Plattform „poco.lit.“ Lucy Gasser und Anna von Rath mit den Sprachen Deutsch und Englisch und thematisieren 10 schwierig zu übersetzende Begriffe in Bezug auf Race.


Über dieses Projekt

Sprache definiert die Welt. Das Goethe-Institut steht für eine inklusive Sprache – und damit für eine inklusive Welt.

Mit Artificially Correct entwickeln wir mit Expert*innen Tools, die den Bias in Texten minimieren und erhöhen das Bewusstsein für einen kritischen Umgang mit Sprache.

Konkret beschäftigt sich Artificially Correct mit KI-basierten Übersetzungs- und Schreibtools und den Verzerrungen (z.B. gender-/racial-Bias), die sie generieren können. Artificially Correct schafft ein aktives Netzwerk an Menschen, die dieses Problem betrifft – Übersetzer*innen, Aktivist*innen und Expert*innen – und identifiziert Partner, die das Thema gemeinsam mit uns langfristig verfolgen. Wir bündeln Perspektiven, schaffen Aufmerksamkeit, vermitteln Wissen und regen die Diskussion an.

Illustration, auf der linken Seite eine Lupe, auf der rechten Seite ein Computerbildschirm, auf dem ein Gehirn abgebildet ist. © Goethe-Institut. Illustration: EL BOUM

Zusammenfassung der Ergebnisse
Artificially Correct Hackathon 2021

Zwischen dem 1. und 3. Oktober 2021 kamen Übersetzer*innen, Aktivist*innen und Softwareentwickler*innen aus der ganzen Welt zusammen, um am Artificially Correct Hackathon des Goethe-Instituts teilzunehmen. 12 Teams hatten 52 Stunden Zeit (in denen sie viel Kaffee brauchten), um eine Mission zu erfüllen: innovative, zukunftsweisende Ideen und Projekte zu entwickeln, die helfen, Bias in Sprache und maschineller Übersetzung zu bekämpfen.


Screenshot aus dem Video-Interview mit Bettina Koch, Bhargavi Mahesh, Janica Hackenbuch, Joke Daems und Shrishti Mohabey. © Goethe-Institut

Im Gespräch mit
Bias By Us

Das Team BiasByUs entwickelte beim Artificially Correct Hackathons eine Website, die als „Bibliothek“ für Bias in Übersetzungen dient. Sie sammeln vorurteilsbelastete Übersetzungsbeispiele, die typischerweise in Übersetzungsprogrammen auftreten, mithilfe von Crowdsourcing. Im Video-Interview sprechen Sie über die Problematik von Bias in Übersetzungen, ihren Lösungsansatz, wie es war, am Artificially Correct Hackathon teilzunehmen und vieles mehr.

Screenshot aus dem Video-Interview mit den Hackathon-Gewinner*innen Aïcha Konaté, Lauri Laatu und Marvin Mouroum. © Goethe-Institut

Im Gespräch mit
Word 2 Vec

Word 2 Vec konzentrierte sich beim Artificially Correct Hackathon auf eine Schwachstelle von Google Translate und anderen Deep-Learning Systemen: die Schwierigkeit, komplexe Inhalte zu verstehen. Der Lösungsvorschlag des Teams ist ein Tool, das Bias reduziert, indem es Nutzer*innen anzeigt, wie anfällig ein Satz für Bias in Bezug auf Gender und Race ist. Hier könnt ihr mehr über ihren Lösungsansatz und ihre Hackathon-Erfahrung hören!


Top