Lina Harder
Einsatz von KI kritisch reflektieren
Lina Harder ist Doktorandin am Center for Digital Narrative an der Universität Bergen. Sie forscht rund um die Schnittstelle zwischen Künstlicher Intelligenz (KI) und historischem Reenactment. Wir sprechen mit ihr über ihre Hoffnungen und Befürchtungen beim Einsatz von Künstlicher Intelligenz.
Du hast mehrere Jahre in Berlin und Leipzig für die Stiftung Haus der Geschichte gearbeitet und promovierst nun an der Universität Bergen in Norwegen. Was hat dein besonderes Interesse geweckt, dich mit dem Einsatz von Künstlicher Intelligenz in der Museumsarbeit zu beschäftigen?
Als Online-Redakteurin habe ich über mehrere Jahre hinweg Texte, Bilder und Videos über Ausstellungen, Museumsobjekte und historische Jahrestage entwickelt, vor allem für die sozialen Medien und multimediale Online-Projekte. Als dann Ende 2022 generative KI-Tools wie ChatGPT für ein breiteres Publikum nutzbar wurden, kamen bei mir direkt einige Fragen auf: Lässt sich meine Arbeit automatisieren? Was passiert, wenn Algorithmen Geschichte vermitteln oder auch historische Persönlichkeiten „auferstehen” lassen? Gerade im Kontext der deutschen Erinnerungskultur, die so stark auf Zeitzeugenschaft basiert, finde ich das enorm spannend und auch ziemlich heikel.
Für das Goethe-Institut hast du kürzlich einen Onlineworkshop der Reihe Art meets Tech geleitet: Was ist bei der Begegnung von Kunst und KI möglich? Was kann Künstliche Intelligenz inzwischen in der Kunst alles leisten?
Künstliche Intelligenz wird heute bereits in vielen Bereichen kreativ genutzt, für Text, Bild- und Videokunst. Am Center for Digital Narrative in Bergen, wo ich arbeite, experimentieren Künstler*innen und Forschende mit KI als Co-Creator für Poesie (ReRites, David Jhave Johnston) oder als poetischer “Übersetzer” für Vogelgesang (The Songbird Speaks, Alinta Krauth) oder forschen zum Einsatz von KI in Computerspielen. Und ich habe im letzten Jahr einen experimentellen Chatbot-Prototypen entwickelt. KI schreibt auch schon Drehbücher oder generiert Popstars. Und in Museen können wir bereits mit Vincent Van Gogh (Musée d’Orsay), Salvador Dalí (Salvador-Dalí-Museum) oder den Gemälden von Femmes fatales (Hamburger Kunsthalle) sprechen oder texten.
Wie wird sich durch den Einsatz von KI mittel- und langfristig die uns vertraute Museumslandschaft verändern?
KI wird Museen prägen, in der internen Arbeit ebenso wie im Ausstellungsraum. Automatisierte Bild- und Textanalysen können Forschung und Sammlung unterstützen, sprechende Avatare und personalisierte Rundgänge verändern das Besuchserlebnis.
Doch Museen sollten mehr sein als Schaufenster neuer Technik. Als dritte Orte können sie Räume eröffnen, in denen wir den Einsatz von KI gemeinsam, öffentlich und kritisch reflektieren.
„Deepfakes“, also künstlich veränderte Fotos, Videos oder Sprachaufzeichnungen, werden nicht zuletzt auch als problematisch diskutiert, was die Persönlichkeitsrechte angeht. Wird hier genug getan, um entsprechende Rechte zu wahren?
Nein, es wird noch nicht genug getan. Online kursieren zahlreiche KI-Chatbots, die etwa Popstars, Politiker*innen oder historische Figuren imitieren. Es ist kaum vorstellbar, dass Taylor Swift oder Angela Merkel zugestimmt haben, dass ihre Stimme, ihr Bild oder ihre Aussagen durch KI simuliert werden. Besonders bedenklich finde ich die Zunahme von sexualisierten Deepfakes, die gezielt Frauen betreffen, oder den Einsatz von Deepfakes für politische Einflussnahme. Der EU AI Act bringt zwar mit einer klaren Kennzeichnungspflicht erste wichtige Regeln auf den Weg, aber die rechtliche Umsetzung hinkt der rasanten technischen Entwicklung hinterher.
Den Einsatz von Künstlicher Intelligenz sehen die einen als vielversprechend, die anderen als besorgniserregend an. Was ist auf diesem Feld deine größte Hoffnung, was deine schlimmste Befürchtung?
Ich hoffe, dass der Einsatz von KI längst überfällige Debatten anstößt und zu gerechteren Systemen führt. Etwa darüber, wessen Daten durch KI-Tools zum Vorschein kommen und wessen Perspektiven fehlen. KI macht sichtbar, wie tief rassistische, geschlechtsspezifische oder koloniale Muster in unserer Gesellschaft und somit in unseren digitalen Systemen verankert sind. Wenn ich zum Beispiel ein KI-Tool um das Bild eines Arztes bitte, bekomme ich ein Bild von einem weißen und normschönen Mann. Gleichzeitig fürchte ich, dass wir daran wenig ändern und gleichzeitig die sozialen und ökologischen Folgen ausblenden: etwa den hohen Ressourcenverbrauch in ohnehin belasteten Regionen oder die prekären Arbeitsbedingungen von Datenannotator*innen (die informative Tags zu einem Datensatz hinzufügen) im Globalen Süden.
Plus 1-Frage:
Welchen Beruf hättest du gewählt, wenn du nicht Wissenschaftlerin geworden wärst
Ich wäre wahrscheinlich noch im Museum. Museen sind Orte, an denen Geschichte(n) erzählt, Fragen gestellt und demokratische Werte vermittelt werden. Gerade jetzt, wo demokratische Prinzipien vielerorts unter Druck stehen und gleichzeitig leider auch massiv im Kulturbereich gespart wird, brauchen wir solche Räume mehr denn je.