Schnelleinstieg:

Direkt zum Inhalt springen (Alt 1)Direkt zur Sekundärnavigation springen (Alt 3)Direkt zur Hauptnavigation springen (Alt 2)

Junge Europäer*innen und Künstliche Intelligenz
Online-Umfrage We and AI

Online-Umfrage We & AI
Illustration: © Lena Ziyal

Was sind die Sorgen und Hoffnungen junger Europäer*innen in Bezug auf Künstliche Intelligenz? Die Studie „We and AI“ hat versucht, das herauszufinden. Emilija Gagrčin, eine der Autor*innen, spricht im Interview über erwartbare und überraschende Ergebnisse.

Von Juliane Glahn

Frau Gagrčin, was hat Sie bei der Studie besonders überrascht?

Ehrlich gesagt, viele Ergebnisse! Zum einen dachte ich, dass die Länderunterschiede viel größer ausfallen würden, aber anscheinend sind junge Menschen in Europa viel ähnlicher in Bezug auf technologische Themen als ursprünglich angenommen. Gleichzeitig offenbart unser Bericht teilweise deutliche Unterschiede, die im Bildungsgrad der Befragten begründet sind.

Was mich aber wirklich überrascht hat, ist, wie entspannt viele junge Menschen in Bezug auf automatisierte Entscheidungssysteme sind. Dass viele kein Problem damit haben, Fitnessempfehlungen von so einem System zu bekommen, ist vielleicht weder überraschend noch super problematisch. Allerdings hatte ein Drittel der Befragten kein Problem damit, dass ein Strafverfahren gegen sie auf der Basis einer automatisierten Entscheidung eingeleitet wird. Außerdem fühlten sich sogar 58 Prozent in Bezug auf Predictive Policing, also die Analyse von großen Datenmengen in der Strafverfolgung, um potenzielle kriminelle Aktivitäten zu identifizieren, wohl oder gleichgültig! Das finde ich wirklich besorgniserregend und für mich deutet es darauf, dass sich junge Leute mit den demokratischen und menschenrechtlichen Konsequenzen solcher Technologieanwendungen nicht oder nicht ausreichend beschäftigen. 
 
Welche Unterschiede in der Bildung und in den einzelnen Ländern sind bei der Auswertung der Studie zutage getreten?

Menschen mit einem niedrigen Bildungsgrad trauen sich weniger zu, über KI‑Themen zu sprechen als Menschen mit einem höheren Bildungsgrad und sind pessimistischer in Bezug auf ihre berufliche Zukunft im Zusammenhang mit KI. Dies war sozialwissenschaftlich auch zu erwarten, aber es ist trotzdem immer nicht zufriedenstellend, wenn man es dann doch auch so in den Daten sieht.

Tatsächlich konnten wir bei den Fragen zum Einsatz von KI in unterschiedlichen Bereichen auch einige Länderunterschiede sehen. Zum Beispiel gaben Menschen aus Deutschland und Polen viel häufiger als Menschen aus Italien und Schweden an, sich in Bezug auf die automatische Festlegung von Arbeitszeiten unwohl zu fühlen. Insgesamt fühlten sich die Schwed*innen am wohlsten mit dem KI‑Einsatz in unterschiedlichen Bereichen.
 
Die aktive Recherche nach Nachrichten scheint aus der Mode zu kommen. Mehr als die Hälfte aller Befragten glaubt der Studie zufolge, dass sie über Social‑Media‑Plattformen ausreichend gut informiert werden. Wie gefährlich ist diese Einstellung?

Ich würde nicht sagen, dass aktive Recherche aus der Mode gekommen ist, sondern versuchen, ein Verständnis dafür zu schaffen, was dieser Wahrnehmung zugrunde liegt. Menschen leben in einer multimedialen Plattformumgebung, die algorithmisch getrieben ist. In der Tat sehen viele von uns online politische Inhalte und Nachrichten in ihren Social‑Media‑Feeds, ohne sie gesucht zu haben. Dies weckt bei den Menschen aber den Eindruck, dass sie nicht mehr aktiv nach Nachrichten suchen müssen. Das bedeutet aber nicht, dass Menschen Nachrichten meiden, sondern dass einfach ein Gefühl besteht, informiert zu sein, auch ohne sich aktiv zu informieren. Dass diese Einstellung entsteht, ist meiner Meinung nach erst einmal intuitiv, birgt aber in der Tat einige Probleme.

„Aktīva ziņu analīze ir viens no mūsu pilsoņu pienākumiem, ko nedrīkst tā vienkārši nodot citu rīcībā.“

Ein Problem liegt in der Art und Weise, wie Algorithmen Inhalte kuratieren, denn dies geschieht auf Basis des vorherigen Nutzer*innenverhalten sowie der zugeschriebenen Nutzer*inneneigenschaften. Das führt aber dazu, dass nicht alle Nutzer*innen gleich „attraktiv“ für Nachrichten sind. Konkret bedeutet es, dass Menschen, die selten auf Nachrichten klicken und wenig mit Nutzer*innen interagieren, die Nachrichten teilen, auch seltener Nachrichten angezeigt bekommen. In dem Fall finden eine*n die Nachrichten also tatsächlich nicht unbedingt. Das vergrößert die Kluft zwischen den bereits „informationsreichen“ und den „informationsarmen“ Menschen.

„Gefährlich“ ist das insoweit, als dass Studien gezeigt haben, dass Menschen, die meinen, dass „Nachrichten sie schon finden werden“, im Laufe der Zeit weniger aktiv traditionelle Medien nutzen und dass sich dieses Phänomen auf das politische Interesse und Wahlverhalten negativ auswirken kann.

Daher ist es äußerst wichtig, aktiven Nachrichtenkonsum als Gewohnheit zu pflegen, also ihn wirklich in den festen Ablauf des Alltags zu integrieren und direkt in der Nachrichten‑App, auf der Zeitungswebseite oder aber in der Mediathek nach Informationen zu suchen. Nur so hat man wirklich ein bisschen Kontrolle darüber, was man sieht, und ist nicht irgendwelchen Algorithmen überlassen. Aktive Beschäftigung mit Nachrichten ist eine unserer Bürger*innenpflichten, die man nicht einfach so auslagern kann.
 
Gerade politische Anzeigen werden von den Befragten nicht als nützlich betrachtet – andere personalisierte Anzeigen aber schon. Warum sind politische Anzeigen weniger beliebt? Was sagt das über die Wahrnehmung politischer Anzeigen in einem Online-Raum aus?

Dass Menschen eine Abneigung gegenüber Werbung haben, ist nichts Neues. Auch in Studien über Fernsehnutzung wurde sie dokumentiert. Eine gängige Beschwerde ist zum Beispiel, dass Werbung den Fluss der Unterhaltung unterbricht und somit einfach störend ist. Neuere Studien zeigen, dass in Bezug auf politische Inhalte in sozialen Medien das Urteil der Menschen tendenziell moralisch aufgeladener ist.

„Cilvēkiem vispār nepatīk justies manipulētiem, un tieši par to viegli var uzskatīt politisko mikro līmeņa mērķēšanu.“

Einer der Gründe für die stärkere Abneigung gegenüber politischer Werbung online könnte die Wahrnehmung sein, dass soziale Medien für Geselligkeit und Unterhaltung gedacht sind, nicht für Politik. Vor diesem Hintergrund neigen viele Menschen dazu, politische Inhalte auf sozialen Medien generell als „Verschmutzung“ dieser Räume anzusehen. Auch in den Untersuchungen unserer Forschungsgruppe „Digital Citizenship“ des Weizenbaum‑Instituts äußern sich die Menschen häufig verärgert darüber, dass sie politischen Vorurteilen und gegnerischen Standpunkten online ausgesetzt sind, weil so was eine positive und konfliktfreie Stimmung in ihren Social‑Media‑Feeds stört.

Ein weiterer Punkt, der insbesondere in Bezug auf die politische Werbung eine Rolle spielen könnte, ist das Bewusstsein für Skandale wie Cambridge Analytica, die die massenhafte Manipulation von Wähler*innen im Internet aufgedeckt haben. Menschen mögen es generell nicht, sich manipuliert zu fühlen, und politisches Microtargeting kann leicht als genau das angesehen werden. Wie es kommt, dass Menschen kommerzielle Werbung eher mögen? Soziale Medien werden in der Regel für eskapistische oder auch identitätsstiftende Zwecke genutzt, und die Pflege eines Lebensstils, wozu der Konsum gehören kann, ist Teil davon. Manche Plattformen schalten Werbung auf eine sehr intuitive und gut kuratierte Art und Weise, sodass die Werbung relevant und interessant erscheint.
 
Junge Leute bevorzugen der Studie zufolge Bildungsinstitutionen als standardsetzend und nicht Tech‑Unternehmen. Inwieweit sind Bildungseinrichtungen im Vergleich zu Tech‑Unternehmen dafür besser geeignet, auch in Hinsicht auf die Ausstattung (personell und fachlich sowie finanziell und zeitlich)? Was spricht dafür, dass Bildungseinrichtungen Standards setzen sollten?

Ich lese dieses Ergebnis als Wunsch danach, dass Menschen, denen Schüler*innen vertrauen, in die Technologieentwicklung eingebunden sind. Das bedeutet nicht gleich, dass plötzlich Schulen dafür zuständig werden, Technologie zu entwickeln. Zurzeit sind aber einige Dinge problematisch.

Zum einen, insbesondere während Corona, benutzt man Produkte aus aller Welt im Unterricht. Nicht alle diese Produkte stehen in der europäischen Bildungstradition und nicht alle diese Produkte sind konform mit unserer Gesetzeslage. Zum Beispiel habe ich neulich gelernt, dass in den Niederlanden einige chinesische Produkte genutzt werden, die mit der DSGVO nicht im Einklang sind. Das hängt sicherlich auch damit zusammen, dass man während Corona schnell handeln musste und die naheliegendsten, preiswertesten oder populärsten Produkte genommen hat.

Aus Gesprächen mit Lehrer*innen weiß ich auch, dass in vielen Schulen die gesamte Digitalisierung mit engagierten Lehrer*innen steht und fällt. Nicht jede*r kann sich leisten, sich dieses Wissen nebenbei anzueignen. Ich sehe einen großen Fehler darin, dass der Digitalpakt keine Personalkosten vorsieht. Dies verzögert die Umsetzung der Digitalisierung ungemein. Außerdem sehe ich staatliche Instanzen – in Deutschland oder in der EU – ganz klar in der Verantwortung, Produkte auf ihre gesetzliche Tauglichkeit zu prüfen, bevor sie bei uns eingesetzt werden. Es kann nicht sein, dass die Lerndaten junger Europäer*innen gegebenenfalls in die Hände der chinesischen Regierung gelangen können.

Das zweite Problem ist, dass kommerziell entwickelte Produkte nicht unbedingt immer das Wohl der Schüler*innen als Ziel haben. Hier ginge es darum, dass Unternehmen verpflichtet sind, Schulpersonal und gar Schüler*innen in Entwicklungsprozesse oder Testphasen einzubeziehen. Diese könnten helfen, dass Technologie sich am Menschen orientiert und nicht nur an dem, was technologisch möglich ist.
 
Welche Schlussfolgerungen ziehen Sie aus dieser Studie?

Ich finde generell, dass das Verstehen von Funktionsweisen und Implikationen von algorithmischen Systemen zu einer Kulturtechnik werden soll. Insoweit unterstreichen die Ergebnisse des Berichtes für mich die Notwendigkeit, angemessene Mittel bereitzustellen, um jungen Menschen dabei zu helfen, Chancen und Risiken von KI auf individueller wie gesellschaftlicher Ebene einzuschätzen, und sie dabei zu stärken, sich in einer datafizierten Welt zurechtzufinden und souverän handeln zu können. Das ist wichtig in Bezug auf die Ausübung ihrer Rechte, zum Beispiel am Arbeitsplatz oder in der Schule. Wenn ich von Bereitstellung angemessener Mittel spreche, meine ich ganz einfach die Ausstattung des formalen und nichtformalen Bildungssektors mit personellen und finanziellen Mitteln, um Programme anbieten zu können, die nicht nur technische, sondern insbesondere demokratische Kompetenzvermittlung in Bezug auf die Datafizierung und KI in den Mittelpunkt stellen. Es ist mir schon bewusst, dass Schulen mit all dem überfordert sind, daher denke ich, dass man vielmehr auf kooperative Programme zwischen dem formalen Bildungswesen und Jugendorganisationen auf der nationalen und der europäischen Ebene setzen sollte.

Auch etablierte Organisationen wie das Goethe‑Institut spielen bei der Kompetenz- und Wissensvermittlung eine entscheidende Rolle. Als erfahrene Bildungsinstanzen wissen sie zum einen, wie man auch trockene und vermeintlich uninteressante Inhalte jugendgerecht aufbereitet und an junge Menschen bringt. Zum anderen fungieren sie als Vermittler*innen zwischen unterschiedlichen Akteur*innen aus der Politik, Wirtschaft, Kultur, Wissenschaft und der Zivilgesellschaft. Dadurch entstehen ganz wichtige Netzwerke, die Gespräche und gegenseitige Verständigung über fachliche und domänenspezifische Grenzen hinweg ermöglichen. Das ist auch sehr wichtig, denn nicht nur junge Menschen haben diese Kompetenzen zu entwickeln, sondern im Grunde die ganze Gesellschaft.
 

 

Studie „We and AI“


Junge Erwachsene in Europa (18 bis 30-Jährige) konnten in der Onlinebefragung „We and AI” ihre Ängste, Vorbehalte und Hoffnungen im Hinblick auf Künstliche Intelligenz äußern. Die Ergebnisse sind eingeflossen in eine repräsentative Studie, die Auskunft darüber gibt, wie die junge Bevölkerung Europas Künstliche Intelligenz derzeit wahrnimmt und welche Bedeutung sie ihr heute und in Zukunft beimisst.
 
Was denken junge Europäer*innen über soziale Medien? Wie oft greifen sie darauf zu? Wozu nutzen sie sie? Vertrauen sie den Anbietern der vermeintlich kostenlosen Plattformen? Und wissen sie genug über die hinter den persönlichen Feeds stehende Algorithmen-Logik? Diese Fragen wurden im Rahmen einer europaweit einmaligen Umfrage an 3.000 junge Erwachsene gestellt. 

Von November 2020 bis Januar 2021 arbeiteten das Goethe-Institut und das Weizenbaum Institut eine umfangreiche Umfrage für das Format We and AI aus. Das Meinungsforschungsinstitut respondi führte im Anschluss in sechs Ländern Europas eine Befragung zur Bedeutung digitaler Technologien in Alltag und Berufsleben junger Menschen durch. Mithilfe der Antworten soll ein repräsentatives Stimmungsbild über die Nutzung von KI sowie über das Vorwissen und die Annahmen über KI eingefangen werden.
 

Partner

Weizenbaum Institut Diese Umfrage wurde in Kooperation mit dem Weizenbaum-Institut konzipiert und ausgewertet. Durchgeführt wurde sie vom Meinungsforschungsinstitut respondi.

 

Top