Allerhand zu lernen: Ein Interview mit Stephanie Hankey

Impressionen von Tactical Techs „The Glass Room“-Projekt Foto (Detail): © David Mirzoeff / Tactical Tech

Was müssen junge Menschen über Künstliche Intelligenz (KI) wissen, um sie verantwortungsvoll nutzen zu können? Stephanie Hankey, Mitbegründerin der Nichtregierungsorganisation Tactical Tech, spricht über ihre Erfahrungen mit jungen Digital Natives und die Notwendigkeit, dass Bildungsinstitutionen und Zivilgesellschaft gemeinsam digitale Kompetenz fördern. 

Harald Willenbrock

Frau Hankey, auf der EUNIC’s AI Week im Dezember 2020 sagten Sie, das Ziel von Tactical Tech sei es, „junge Menschen auf eine Weise an Technologien heranzuführen, die weder zu enthusiastisch, noch zu schwarzmalerisch ist.“ Was genau hoffen Sie damit zu erreichen? 
 
Wir wollen zu kritischem Denken gegenüber Technologien und KI ermutigen. Wenn wir zu optimistisch sind und die Problemlösungsfähigkeiten von Technologieüberschätzen – oder auch andersherum, wenn wir zu negativ sind und misstrauisch glauben, dass sie unsere Art zu leben zerstören könnten –, dann sind wir nicht mehr in der Lage, uns realistisch und durchdacht mit den wahren Herausforderungen von technologischen Entwicklungen zu befassen. Wir bei Tactical Tech glauben, dass der komplizierte Mittelweg der eigentlich fruchtbarere und interessantere ist. Technologien sind manchmal großartig und manchmal grauenhaft; manchmal lösen sie Probleme und manchmal verschlimmern sie alles nur. Wir müssen beide Extreme betrachten, wenn wir ethisch vertretbare, faire Technologien entwickeln wollen, die der Gesellschaft dienen. 
 
Als Tactical Tech Anfang dieses Jahrhunderts gegründet wurde, schauten viele noch optimistisch auf digitale Technologien. Diese wurden als ausgleichende Kraft gesehen, die Demokratie und öffentlichen Diskurs fördern könnten. Das hat sich als falsch erwiesen – warum? 
 
Die datengestützten Technologien, die heute dominieren, sind im Wesentlichen darauf ausgerichtet, das Vermögen einer überschaubaren Anzahl von Unternehmen zu steigern. Sie wurden nicht für soziale Zwecke entwickelt. Die Technologien wurden durch Modelle wie das Anzeigengeschäft entscheidend geprägt, genauso wie durch Verhaltens- oder Emotionsprofilierung und Aufmerksamkeitsalgorithmen. Doch sie sind nicht nur von diesen Geschäftsmodellen beeinflusst, sie spiegeln damit auch die Ideale und Werte unserer Zeit wider, wie Konsumverhalten, Individualismus, Effizienz und Skalierung. Zudem wurden sie für eine am Reißbrett entworfene ideale, archetypische und standardisierte Welt erschaffen, die mit der realen in ihrer Komplexität rein gar nichts gemein hat.  Porträt: Stephanie Hankey Stephanie Hankey | © Stephanie Hankey
 
Können Sie die Unterschiede etwas genauer erklären? 
 
Viele dieser Technologien wurden für spezielle Anwenderszenarien entwickelt, für imaginäre Idealpersonen, -leben und –szenarien, die wenig mit dem Chaos und der Komplexität der realen Welt zu tun haben. Konkret bedeutet das, dass ein Unternehmen etwa WhatsApp entwickelt, damit die Menschen sich vernetzen können, ohne dabei zu bedenken – und es ist schwer zu sagen, ob aus Naivität oder Nachlässigkeit –, dass die Menschen es auch zur politischen Manipulation oder Hassrede nutzen könnten. Oder jemand entwickelt eine Plattform für live Video-Streaming, damit Geburtstagspartys übertragen werden können, und übersieht dabei, dass damit sehr wahrscheinlich auch kriminelles Verhalten und Gewalttaten übertragen werden können. Leider haben wir gesehen, dass genau das passieren kann.
 
Gilt das auch für KI und Maschinelles Lernen (ML)? 
 
Ja, es ist das gleiche Problem. Die gängigsten Methoden für Softwaredesign und -entwicklung sind grundlegend fehlerhaft. Es gibt zwei wesentliche Probleme. Eines ist, wie bereits erwähnt, dass sie für eine ideale Welt und nicht für die reale Welt geschaffen wurden. Für Maschinelles Lernen etwa wurden unzählige Algorithmen mit verzerrten Daten gefüttert, inklusive sexistischer und frauenfeindlicher Inhalte. Sie verstärken in den Ergebnissen diese Verzerrung. Der zweite Punkt ist, dass die Technologien für individuelle Nutzer*innen entwickelt wurden, dabei brauchen wir eigentlich Ansätze für die „Gesellschaft als Nutzerin “. Solange wir diese beiden Probleme nicht überwunden haben, werden wir die gleichen Fehler immer und immer wieder machen und verstärken. 
 
Um die Diskussion zu entfachen und Bewusstsein für den Einfluss von Technologien auf unser Alltagsleben zu schaffen, hat Tactical Tech kreative Formate wie den Glass Room erfunden. Dieser Ausstellungsraum sieht aus wie ein Apple Store und seine Mitarbeiter*innen werden „Ingeniuses“ genannt – eine Anspielung auf die „Genies“ (englisch: „genius“) von Apple. Allerdings steht gar nichts zum Verkauf. Diese interaktive Ausstellung ist dazu gedacht, den Einfluss von und die Herausforderungen durch technische Errungenschaften zu reflektieren und mögliche Herangehensweisen aufzuzeigen. Bisher kamen zu den großangelegten Glass-Room-Ausstellungen in Berlin, New York, London und San Francisco und zu den Pop-up-Versionen, die in Schulen, Bibliotheken und Ausstellungen eingerichtet wurden, mehr als 168.000 Besucher. Warum haben Sie dieses ungewöhnliche Format gewählt?
 
Durch dieses Format konnten wir sehr unterschiedliche Menschen in eine Diskussion darüber bringen, wie Technologien unser Leben verändern. Wir nutzen die visuelle und ästhetische Sprache, die zum Verkauf anspruchsvoller Technologien eingesetzt wird, um darüber zu sprechen, was mit der Technologie nicht stimmt – das ist ein einfaches und wirkungsvolles Mittel. Wir hielten das für wesentlich, um das Interesse ganz normaler Leute zu wecken und sie dazu zu bringen, sich mit den Inhalten zu verbinden. 
 
Was waren die spannendsten Erfahrungen mit dem Glass Room?
 
Besonders überraschend war, welche Bandbreite an Menschen sich von der Ausstellung angesprochen fühlt und wie sehr sie sich inhaltlich verbinden. Wir haben festgestellt, dass jeder Grund dazu hat, darüber nachzudenken, wie sich Technologien auf sein Leben auswirken – von Schüler*innen bis zu Rentner*innen und von San Francisco und Seoul bis in den Sudan. Die interaktive Ausstellung „The Glass Room“ will Menschen zu einer Diskussion darüber anregen, wie Technologien unser Leben verändern. Die interaktive Ausstellung „The Glass Room“ will Menschen zu einer Diskussion darüber anregen, wie Technologien unser Leben verändern. | Foto (Detail): © David Mirzoeff / Tactical Tech Was haben Sie durch Ihre Zusammenarbeit mit jungen Menschen über deren Beziehung zu digitalen Technologien, Social Media und potenziellen Risiken gelernt?  
 
Wir stehen noch ganz am Anfang unserer Arbeit, aber wir haben bereits zwei bedeutsame Dinge festgestellt. Erstens: Junge Leute können Technologien wirklich gut nutzen – aber das bedeutet nicht, dass sie auch verstehen, wie sie funktionieren. Und sie bekommen zumeist auch keine Möglichkeiten angeboten, das fundiert herauszufinden. Zweitens: Es interessiert sie sehr, wie Technologien mit der Welt um sie herum und mit den gesellschaftlichen Debatten verbunden sind. Aber das ist bisher nicht integriert in die Art, wie sie die Welt kennenlernen oder erfahren. Wenn sie in der Schule etwas über Politik, Demokratie, die Umwelt oder Geographie lernen, werden digitale Technologien nicht einbezogen – weder ihr Einfluss auf die Gegenwart noch auf die Zukunft. Da gibt es viel Spielraum für Verbesserungen. Das hofft Tactical Tech in den kommenden Jahren tun zu können – durch einen Prozess, den wir mit jungen Leuten gemeinsam entwickeln, und indem wir mit Kultureinrichtungen, bestehenden Communities und Pädagog*innen zusammenarbeiten.
 
Sehen Sie angesichts des steigenden Einflusses digitaler Technologien auch die Gefahr, dass sich die Kluft zwischen jungen Menschen entlang der Einkommensgrenzen vertiefen könnte – vor allem aufgrund der unterschiedlichen Möglichkeiten, sich modernste Hardware zu kaufen?
 
Das ist eine gute Frage und man würde logischerweise davon ausgehen, dass es so kommt. Im Gegenteil hat unsere Forschung zu Smartphones als lebenswichtiges Versorgungsmittel aber ergeben, dass Technologien auch für Menschen in prekären Verhältnissen unerlässlich sind. Junge Menschen aus weniger privilegierten Verhältnissen investieren oft sehr viel in ihre Technologien, denn sie sind unerlässlich für ihren Zugang zum Rest der Welt. Die Geräte tragen oft maßgeblich dazu bei, dass sie Armut oder Ungerechtigkeit entkommen können.
 
Kann KI Menschen dabei helfen, besser zu lernen und besser zu verstehen, wie wir lernen?  
 
Auf jeden Fall. Aber damit das wirklich effektiv ist, braucht KI eine Menge Daten über jeden einzelnen Lernenden. Es gibt im Vorfeld noch so viele Probleme zu lösen. Dazu gehören Voreingenommenheit, Profiling, Privatsphäre, Bildungsströme, Stigmatisierung, bestimmte Arten des Lernens, die im Bildungssystem priorisiert werden, und viele nicht hinterfragte Annahmen. Das alles wird durch die Frage verkompliziert, wie Lehrer*innen, Eltern und Betreuer*innen diese Erkenntnisse in das Lehren einbeziehen könnten und welche Art von Druck dies auf Lernende ausüben kann. An dieser Stelle kann uns, glaube ich, nicht einmal die bestentwickelte KI der Welt helfen. Wenn wir diese Systeme entwerfen, müssen wir berücksichtigen, wie sich diese Technologien auf reale Szenarien mit echten jungen Menschen auswirken – und eben nicht nur idealisierte Problemlösungsmodelle zugrunde legen. Einige der jüngsten Skandale bei Onlineprüfungen haben gezeigt, welchen Stress das bei Schüler*innen verursacht. Wir müssen auch die Probleme verstehen, die datenbasierte Technologien in nicht-idealen Lernsituationen verursachen. Einige der Probleme, die ich erwähnt habe, liegen in der Natur der Daten und andere in der Natur des Bildungssystems. Letztere müssen behoben werden, sonst werden einfach Technologien auf ein kaputtes System gestülpt.
 
Welchen Blick auf KI und ML wünschen Sie sich für Ihre Kinder?
 
Ich habe zwei Kinder und beide sind alt genug, um sich mit KI und ML zu befassen. Ich versuche ihnen begreifbar zu machen, wie diese ihre Lebenswelt, ihre Erfahrungen und die Leben anderer beeinflussen. Technologien sind kein losgelöstes Thema – sie sind Teil unseres Lebens. Und ob wir wollen oder nicht, wir müssen die Omnipräsenz von Technologien hinnehmen, wenn wir sie verstehen und effizient mit ihnen umgehen wollen. Es ist sehr wichtig, dass junge Menschen verstehen, dass Technologien Spiegel und Verstärker unserer gesellschaftlichen und politischen Werte sind. Und es ist wichtig einen Lehransatz zu wählen, der alle Fallstricke und alle Kompromisse aufzeigt – nur dann können wir sie dabei unterstützen, eine sinnvolle Einstellung zu KI und ML zu entwickeln.

Dieses Interview wurde gekürzt. Es kann in seiner ursprünglichen Länge auf der Goethe-Institut Website One Zero Society angesehen werden.


Artikelvorschläge

API-Error