Schnelleinstieg:

Direkt zum Inhalt springen (Alt 1) Direkt zur Hauptnavigation springen (Alt 2)

Bildung
Allerhand zu lernen

Allerhand zu lernen: Impressionen von Tactical Techs „The Glass Room“-Projekt.
Allerhand zu lernen: Impressionen von Tactical Techs „The Glass Room“-Projekt. | Foto (Detail): © David Mirzoeff / Tactical Tech

Was müssen junge Menschen über Künstliche Intelligenz (KI) wissen, um sie verantwortungsvoll nutzen zu können? Stephanie Hankey, Mitbegründerin der Nichtregierungsorganisation Tactical Tech, spricht über ihre Erfahrungen mit jungen Digital Natives und die Notwendigkeit, dass Bildungsinstitutionen und Zivilgesellschaft gemeinsam digitale Kompetenz fördern. 

Von Harald Willenbrock

Frau Hankey, auf der EUNIC’s AI Week im Dezember 2020 sagten Sie, das Ziel von Tactical Tech sei es, „junge Menschen auf eine Weise an Technologien heranzuführen, die weder zu enthusiastisch, noch zu schwarzmalerisch ist.“ Was genau hoffen Sie damit zu erreichen? 
 
Wir wollen zu kritischem Denken gegenüber Technologien und KI ermutigen. Wenn wir zu optimistisch sind und die Problemlösungsfähigkeiten von Technologieüberschätzen – oder auch andersherum, wenn wir zu negativ sind und misstrauisch glauben, dass sie unsere Art zu leben zerstören könnten –, dann sind wir nicht mehr in der Lage, uns realistisch und durchdacht mit den wahren Herausforderungen von technologischen Entwicklungen zu befassen. Wir bei Tactical Tech glauben, dass der komplizierte Mittelweg der eigentlich fruchtbarere und interessantere ist. Technologien sind manchmal großartig und manchmal grauenhaft; manchmal lösen sie Probleme und manchmal verschlimmern sie alles nur. Wir müssen beide Extreme betrachten, wenn wir ethisch vertretbare, faire Technologien entwickeln wollen, die der Gesellschaft dienen. 
 
Als Tactical Tech Anfang dieses Jahrhunderts gegründet wurde, schauten viele noch optimistisch auf digitale Technologien. Diese wurden als ausgleichende Kraft gesehen, die Demokratie und öffentlichen Diskurs fördern könnten. Das hat sich als falsch erwiesen – warum? 
 
Die datengestützten Technologien, die heute dominieren, sind im Wesentlichen darauf ausgerichtet, das Vermögen einer überschaubaren Anzahl von Unternehmen zu steigern. Sie wurden nicht für soziale Zwecke entwickelt. Die Technologien wurden durch Modelle wie das Anzeigengeschäft entscheidend geprägt, genauso wie durch Verhaltens- oder Emotionsprofilierung und Aufmerksamkeitsalgorithmen. Doch sie sind nicht nur von diesen Geschäftsmodellen beeinflusst, sie spiegeln damit auch die Ideale und Werte unserer Zeit wider, wie Konsumverhalten, Individualismus, Effizienz und Skalierung. Zudem wurden sie für eine am Reißbrett entworfene ideale, archetypische und standardisierte Welt erschaffen, die mit der realen in ihrer Komplexität rein gar nichts gemein hat. 
 
Können Sie die Unterschiede etwas genauer erklären? 
 
Viele dieser Technologien wurden für spezielle Anwenderszenarien entwickelt, für imaginäre Idealpersonen, -leben und –szenarien, die wenig mit dem Chaos und der Komplexität der realen Welt zu tun haben. Konkret bedeutet das, dass ein Unternehmen etwa WhatsApp entwickelt, damit die Menschen sich vernetzen können, ohne dabei zu bedenken – und es ist schwer zu sagen, ob aus Naivität oder Nachlässigkeit –, dass die Menschen es auch zur politischen Manipulation oder Hassrede nutzen könnten. Oder jemand entwickelt eine Plattform für live Video-Streaming, damit Geburtstagspartys übertragen werden können, und übersieht dabei, dass damit sehr wahrscheinlich auch kriminelles Verhalten und Gewalttaten übertragen werden können. Leider haben wir gesehen, dass genau das passieren kann.
 
Gilt das auch für KI und Maschinelles Lernen (ML)? 
 
Ja, es ist das gleiche Problem. Die gängigsten Methoden für Softwaredesign und -entwicklung sind grundlegend fehlerhaft. Es gibt zwei wesentliche Probleme. Eines ist, wie bereits erwähnt, dass sie für eine ideale Welt und nicht für die reale Welt geschaffen wurden. Für Maschinelles Lernen etwa wurden unzählige Algorithmen mit verzerrten Daten gefüttert, inklusive sexistischer und frauenfeindlicher Inhalte. Sie verstärken in den Ergebnissen diese Verzerrung. Der zweite Punkt ist, dass die Technologien für individuelle Nutzer*innen entwickelt wurden, dabei brauchen wir eigentlich Ansätze für die „Gesellschaft als Nutzerin “. Solange wir diese beiden Probleme nicht überwunden haben, werden wir die gleichen Fehler immer und immer wieder machen und verstärken. 
 
Um die Diskussion zu entfachen und Bewusstsein für den Einfluss von Technologien auf unser Alltagsleben zu schaffen, hat Tactical Tech kreative Formate wie den Glass Room erfunden. Dieser Ausstellungsraum sieht aus wie ein Apple Store und seine Mitarbeiter*innen werden „Ingeniuses“ genannt – eine Anspielung auf die „Genies“ (englisch: „genius“) von Apple. Allerdings steht gar nichts zum Verkauf. Diese interaktive Ausstellung ist dazu gedacht, den Einfluss von und die Herausforderungen durch technische Errungenschaften zu reflektieren und mögliche Herangehensweisen aufzuzeigen. Bisher kamen zu den großangelegten Glass-Room-Ausstellungen in Berlin, New York, London und San Francisco und zu den Pop-up-Versionen, die in Schulen, Bibliotheken und Ausstellungen eingerichtet wurden, mehr als 168.000 Besucher. Warum haben Sie dieses ungewöhnliche Format gewählt?
 
Durch dieses Format konnten wir sehr unterschiedliche Menschen in eine Diskussion darüber bringen, wie Technologien unser Leben verändern. Wir nutzen die visuelle und ästhetische Sprache, die zum Verkauf anspruchsvoller Technologien eingesetzt wird, um darüber zu sprechen, was mit der Technologie nicht stimmt – das ist ein einfaches und wirkungsvolles Mittel. Wir hielten das für wesentlich, um das Interesse ganz normaler Leute zu wecken und sie dazu zu bringen, sich mit den Inhalten zu verbinden. 
 
Was waren die spannendsten Erfahrungen mit dem Glass Room?
 
Besonders überraschend war, welche Bandbreite an Menschen sich von der Ausstellung angesprochen fühlt und wie sehr sie sich inhaltlich verbinden. Wir haben festgestellt, dass jeder Grund dazu hat, darüber nachzudenken, wie sich Technologien auf sein Leben auswirken – von Schüler*innen bis zu Rentner*innen und von San Francisco und Seoul bis in den Sudan. Die interaktive Ausstellung „The Glass Room“ will Menschen zu einer Diskussion darüber anregen, wie Technologien unser Leben verändern. Die interaktive Ausstellung „The Glass Room“ will Menschen zu einer Diskussion darüber anregen, wie Technologien unser Leben verändern. | Foto (Detail): © David Mirzoeff / Tactical Tech Was haben Sie durch Ihre Zusammenarbeit mit jungen Menschen über deren Beziehung zu digitalen Technologien, Social Media und potenziellen Risiken gelernt?  
 
Wir stehen noch ganz am Anfang unserer Arbeit, aber wir haben bereits zwei bedeutsame Dinge festgestellt. Erstens: Junge Leute können Technologien wirklich gut nutzen – aber das bedeutet nicht, dass sie auch verstehen, wie sie funktionieren. Und sie bekommen zumeist auch keine Möglichkeiten angeboten, das fundiert herauszufinden. Zweitens: Es interessiert sie sehr, wie Technologien mit der Welt um sie herum und mit den gesellschaftlichen Debatten verbunden sind. Aber das ist bisher nicht integriert in die Art, wie sie die Welt kennenlernen oder erfahren. Wenn sie in der Schule etwas über Politik, Demokratie, die Umwelt oder Geographie lernen, werden digitale Technologien nicht einbezogen – weder ihr Einfluss auf die Gegenwart noch auf die Zukunft. Da gibt es viel Spielraum für Verbesserungen. Das hofft Tactical Tech in den kommenden Jahren tun zu können – durch einen Prozess, den wir mit jungen Leuten gemeinsam entwickeln, und indem wir mit Kultureinrichtungen, bestehenden Communities und Pädagog*innen zusammenarbeiten. 
 
Ihren eigenen Aussagen nach ist die Absicht von Tactical Tech nicht, „jungen Menschen zu sagen, was richtig ist und was falsch ist, sondern sie dabei zu unterstützen, ihren eigenen Weg zu finden“. Was bedeutet dies im Zusammenhang mit KI? 
 
Wir müssen damit beginnen, Wissen zu vermitteln sowie ein Verständnis dafür, wie diese Technologien funktionieren und wieso sie so funktionieren. Zudem müssen wir sicherstellen, dass Transparenz darüber besteht, wann und wie KI und Maschinelles Lernen in den Systemen und Diensten, die junge Menschen nutzen, eingesetzt werden. So sollte ein junger Mensch zum Beispiel wissen, dass ein Algorithmus seine Prüfungen benotet oder dass Maschinelles Lernen genutzt wird, um ihn bei Computerspielen anzustupsen – und wie das funktioniert. Nur dann können junge Menschen auf sinnvolle Weise reagieren und ihre eigenen Entscheidungen darüber treffen, womit sie einverstanden sind und womit nicht. Außerdem müssen wir ihnen die Möglichkeit geben, Teil der Diskussion zu sein, und nicht einfach protektionistisch vorgehen.  
 
Was bedeutet AI-Kompetenz für Sie? 
 
AI-Kompetenz ist ein schwieriger Begriff. Sinnvoller wäre es, von digitaler Kompetenz zu sprechen. Für mich geht es dabei darum zu verstehen, wie Technologien funktionieren – unabhängig davon, welche speziellen Technologien man nutzt –, um gut informierte Entscheidungen treffen zu können. Es geht auch darum, effektiv auf die Probleme zu reagieren, auf die man stößt – und, wenn nötig, sogar Unternehmen und Regierungen zur Rechenschaft zu ziehen. AI-Kompetenz im Speziellen ist etwas, was wir nicht einfach den Nutzer*innen aufbürden können. Regierungen, öffentliche Institutionen, Forscher*innen und auch die Zivilgesellschaft müssen Verantwortung übernehmen – auch wenn sie selbst noch keine AI-Kompetenz haben. Sonst können sie keine guten Entscheidungen für andere treffen. Ich würde gerne mehr KI-Bewusstsein bei Nutzer*innen sehen und ein Verständnis dafür, wie dies mit der Transparenz derjenigen zusammenhängt, die sie bauen und erstellen.
 
Wer sollte Verantwortung dafür übernehmen, jungen Menschen den Umgang mit KI beizubringen – staatliche Einrichtungen wie Schulen und Universitäten, Privatinitiativen wie Tactical Tech oder jemand ganz anderes?
 
Ich denke, wir brauchen eine Kombination von allem. Jede dieser Gruppen bringt unterschiedliche Fähigkeiten mit sich, die wir brauchen, um jungen Menschen dabei zu helfen, diese riesige Aufgabe zu stemmen. Tactical Tech kann sich darauf spezialisieren, unabhängige, zugängliche und aktuelle Informationsmaterialien zu entwickeln, die junge Menschen ansprechen. Schulen, Kultureinrichtungen und Bibliotheken hingegen sind weit besser geeignet, solche Materialien durchzuarbeiten, sie anzupassen, zu lokalisieren und zu erweitern. Wir halten eine Zusammenarbeit all dieser Einheiten für ideal. Allerdings ist Peer-Learning die wichtigste und wohl stärkste Methode – und muss daher Kern dieser Initiativen sein. 
 
Sind denn all diese Einrichtungen darauf vorbereitet und dafür ausgestattet, eine solche Rolle einzunehmen? 
 
Wenn Schulen, Bibliotheken, Kultureinrichtungen, Gemeinschaftsgruppen und Jugendgruppen mit den richtigen Spezialisten zusammenarbeiten – mit Menschen, die Expert*innen dafür sind, Technologien zu entmystifizieren – und sich darauf fokussieren, gemeinsam Materialien zu entwickeln und Peer-Learning zu betreiben, dann sind sie, denke ich, gut aufgestellt, um junge Menschen zu erreichen und sie auf sinnvolle Weise an diese Themen heranzuführen. Es muss natürlich erheblich mehr als das getan werden – angefangen von Kreativprogrammen bis zur Lehrplanerstellung. Das ist ein weites Feld für künftige Innovationen. Tactical Tech hofft, ein wichtiger Katalysator dafür zu sein.
 
Welche ernst zu nehmenden Risiken im Zusammenhang mit KI übersehen junge Menschen Ihrer Meinung nach am ehesten? 
 
Ich denke, es ist ein bisschen vorschnell darüber zu sprechen, dass junge Menschen Probleme im Zusammenhang mit KI übersehen, da sie meiner Meinung nach bislang nicht angemessen an das Thema herangeführt wurden. Wir haben die Vor- und Nachteile, die Möglichkeiten und Herausforderungen noch nicht umfassend erkundet, das sollten wir meiner Meinung nach aber tun. 
 
Sehen Sie angesichts des steigenden Einflusses digitaler Technologien auch die Gefahr, dass sich die Kluft zwischen jungen Menschen entlang der Einkommensgrenzen vertiefen könnte – vor allem aufgrund der unterschiedlichen Möglichkeiten, sich modernste Hardware zu kaufen?
 
Das ist eine gute Frage und man würde logischerweise davon ausgehen, dass es so kommt. Im Gegenteil hat unsere Forschung zu Smartphones als lebenswichtiges Versorgungsmittel aber ergeben, dass Technologien auch für Menschen in prekären Verhältnissen unerlässlich sind. Junge Menschen aus weniger privilegierten Verhältnissen investieren oft sehr viel in ihre Technologien, denn sie sind unerlässlich für ihren Zugang zum Rest der Welt. Die Geräte tragen oft maßgeblich dazu bei, dass sie Armut oder Ungerechtigkeit entkommen können.
 
Kann KI Menschen dabei helfen, besser zu lernen und besser zu verstehen, wie wir lernen?  
 
Auf jeden Fall. Aber damit das wirklich effektiv ist, braucht KI eine Menge Daten über jeden einzelnen Lernenden. Es gibt im Vorfeld noch so viele Probleme zu lösen. Dazu gehören Voreingenommenheit, Profiling, Privatsphäre, Bildungsströme, Stigmatisierung, bestimmte Arten des Lernens, die im Bildungssystem priorisiert werden, und viele nicht hinterfragte Annahmen. Das alles wird durch die Frage verkompliziert, wie Lehrer*innen, Eltern und Betreuer*innen diese Erkenntnisse in das Lehren einbeziehen könnten und welche Art von Druck dies auf Lernende ausüben kann. An dieser Stelle kann uns, glaube ich, nicht einmal die bestentwickelte KI der Welt helfen. Wenn wir diese Systeme entwerfen, müssen wir berücksichtigen, wie sich diese Technologien auf reale Szenarien mit echten jungen Menschen auswirken – und eben nicht nur idealisierte Problemlösungsmodelle zugrunde legen. Einige der jüngsten Skandale bei Onlineprüfungen haben gezeigt, welchen Stress das bei Schüler*innen verursacht. Wir müssen auch die Probleme verstehen, die datenbasierte Technologien in nicht-idealen Lernsituationen verursachen. Einige der Probleme, die ich erwähnt habe, liegen in der Natur der Daten und andere in der Natur des Bildungssystems. Letztere müssen behoben werden, sonst werden einfach Technologien auf ein kaputtes System gestülpt.
 
Welchen Blick auf KI und ML wünschen Sie sich für Ihre Kinder?
 
Ich habe zwei Kinder und beide sind alt genug, um sich mit KI und ML zu befassen. Ich versuche ihnen begreifbar zu machen, wie diese ihre Lebenswelt, ihre Erfahrungen und die Leben anderer beeinflussen. Technologien sind kein losgelöstes Thema – sie sind Teil unseres Lebens. Und ob wir wollen oder nicht, wir müssen die Omnipräsenz von Technologien hinnehmen, wenn wir sie verstehen und effizient mit ihnen umgehen wollen. Es ist sehr wichtig, dass junge Menschen verstehen, dass Technologien Spiegel und Verstärker unserer gesellschaftlichen und politischen Werte sind. Und es ist wichtig einen Lehransatz zu wählen, der alle Fallstricke und alle Kompromisse aufzeigt – nur dann können wir sie dabei unterstützen, eine sinnvolle Einstellung zu KI und ML zu entwickeln.

Top