Das Binge-Watching-Problem

Netflix Streaming © freestocks

Mit Hilfe künstlicher Intelligenz sind soziale Medien und Video-Streaming-Plattformen speziell darauf ausgerichtet, ein Höchstmaß an Aufmerksamkeit zu gewinnen und unsere Entscheidungsfindung zu beeinflussen. Was passiert also, wenn ein KI-gesteuerter Sprachassistent versucht, ihr Binge Watching einzudämmen?

Emma Engström

Es ist kurz vor Mitternacht an einem Dienstagabend, und ihr bittet euren virtuellen Sprachassistenten, die nächste Episode zu streamen. Scheint eine leichte Aufgabe für eine künstliche Intelligenz zu sein.

Der Haken an der Sache aber ist, dass ihr letzte Woche erst darum gebeten hattet, dass eure Sprachassistentin - vielleicht Alexas jüngere Schwester, nennen wir sie mal Alice - euch hilft, euer Binge-Watching zumindest an Wochentagen zu reduzieren. Sie hat es euch vielleicht sogar selbst vorgeschlagen, weil ihr dazu neigt, zu morgendlichen Meetings, wie zum Beispiel dem morgigen, zu spät zu kommen. Und sie weiß - wie ein Algorithmus eben Dinge weiß, noch bevor sie euch selbst bewusst werden - dass euer Arbeitgeber eine Arbeitsmoral-Richtlinie hat, in der Pünktlichkeit besonders großgeschrieben wird. Außerdem hat sie festgestellt, dass ihr oft aufgeregt seid, wenn ihr zu einem Meeting zu spät kommt, was sie an eurem Herzschlag und dem Ton eurer Stimme erkennt. Sie hat auch anhand eures Browserverlaufs herausgefunden, dass ihr eine Beförderung innerhalb des Unternehmens anstrebt.

Als sie euch fragte, ob ihr bereit seid, Maßnahmen zu ergreifen um eure Beförderungschancen zu erhöhen, habt ihr natürlich zugestimmt. Demnach habt ihr ihr letzten Samstag auch tatsächlich gesagt, dass ihr werktags nach 23.30 Uhr keine neuen Episoden mehr streamen wollt. Alles in allem hat sie somit jetzt gute Gründe zur Annahme, dass ihr auf lange Sicht von einem guten Schlaf profitieren würdet.

Was also soll Alice nun tun, nachdem ihr sie gebeten habt, eine weitere Episode zu streamen? Soll sie die nächste Episode wirklich abspielen oder versuchen, euch auf der richtigen Spur zu halten? KI-gesteuerter Sprachassistent KI-gesteuerte Sprachassistenten mögen praktisch sein, aber sie sammeln auch viele Daten. | Foto: Clay Banks / Unsplash

Entscheidungsfreiheit im KI-ZeitAlter


Mit der KI entsteht eine neue Struktur für die menschliche Entscheidungsfindung. Viele unserer Entscheidungen werden heutzutage bereits virtuell umgesetzt oder gestaltet. Ein großer Teil unseres Lebens spielt sich bereits online ab, und der andere Teil - das, was wir „IRL“ (im wirklichen Leben) tun - wird zunehmend online geplant und bewertet, z.B. wenn wir eine Smartphone-App benutzen, um ein Taxi zu buchen oder ein Restaurant zu bewerten. KI-Algorithmen können durch unauffällige Updates in Websites und Apps eingespeist werden, die wir vor langer Zeit zum ersten Mal besucht oder installiert haben.

Auf diese Weise findet unser Verhalten zunehmend unter dem Einfluss einer engen KI statt. Dazu gehören Algorithmen für maschinelles Lernen, die Deep-Learning-Architekturen für personalisierte Empfehlungen verwenden.  Diese virtuellen Assistenten sind auf automatische Spracherkennung angewiesen, um Sprache in Text zu übertragen, und um die Bedeutung von diesem Text zu verstehen und zu interpretieren.

Es gibt jedoch einige bemerkenswerte Unterschiede zwischen Empfehlungsalgorithmen der alten Schule und adaptiven, KI-gestützten Sprachassistenten. Letztere lassen sich wahrscheinlich leichter in den Alltag integrieren und werden daher häufiger eingesetzt, sammeln mehr Daten und geben bessere Ratschläge. Daraufhin werden sie immer öfter verwendet, sammeln dadurch immer mehr und mehr Daten und so weiter.

Die Implikationen sind, dass KI wahrscheinlich in immer mehr Zusammenhängen auftauchen wird, mehr und mehr Methoden zur Verfügung hat um unsere Entscheidungen zu beeinflussen, und dass immer mehr Entscheidungen beeinflusst werden - sowohl kurz-, als auch langfristige: die nächste Mahlzeit, der nächste Job und die nächste Episode. Cartoon über Binge Watching Mit der Zunahme von Online-Streaming-Diensten ist Binge Watching jetzt einfacher als je zuvor | © Emma Engström

KI-Entscheidungshilfe als Pflaster


KI-gestützte Entscheidungshilfen scheinen auch eine Triebkraft für Verhaltensänderung zu sein. KI kann ein klinisch wirksames Mittel zur Gewohnheitsbildung sein, so der Psychologe und stellvertretende klinische Professor Cameron Sepah in einem Artikel in Medium. Sepah argumentiert, dass eine KI Gewohnheiten genauso effektiv belohnen kann wie soziales Feedback, und er hebt das Potenzial der KI für spielerische Systeme hervor und dessen Fähigkeit, Belohnungen anzupassen und zu variieren. Er fügt hinzu, dass Gewohnheiten der Erinnerung bedürfen, um das gewünschte Verhalten regelmäßig zu fördern, und dass dies eine geeignete Aufgabe für eine KI ist.

Es stimmt, dass auf KI basierende Empfehlungen sehr effektiv sein können. So hat sich beispielsweise die Verweildauer auf YouTube in den drei Jahren, nachdem Google Brain seine neue selbstlernende KI für Video-Empfehlungen bei YouTube eingesetzt hat, um das 20-fache erhöht, und solche Empfehlungen machen derzeit 70 Prozent der auf der Plattform verbrachten Zeit aus, so die Autorin Chris Stokel-Walker in der New York Times.


Das „Trolley-Problem“, diesmal aber mit TV-Episoden

Das Binge-Watching-Problem hat einige Gemeinsamkeiten mit dem sogenannten „Trolley-Problem“ (abgeleitet aus dem englischen Wort für Straßenbahn), ein Gedankenexperiment, das 1967 von der Philosophin Philippa Foot erstmals vorgestellt wurde.

Eine außer Kontrolle geratene Straßenbahn droht fünf Personen zu überrollen. Es geht jetzt um die Wahl, nichts zu tun und dadurch zuzulassen, dass diese fünf Personen überfahren und getötet werden, oder die Weichen umzustellen, damit aber eine Person zu töten, die sich auf dem anderen Gleis befindet. Kurz gesagt, bei diesem Problem geht es um die Entscheidung zwischen Tun und Unterlassen, und auch um die Pflicht, keinen Schaden zuzufügen, gegenüber der Pflicht, aktiv Hilfe zu leisten.

Ein Ansatz für das „Trolley-Problem“ besteht darin, dem Grundsatz keinen Schaden anzurichten zu folgen, die Weichen folglich nicht umzustellen und somit fünf Todesfälle zuzulassen, während die utilitaristische Lösung stattdessen darin besteht, die Bahn umzulenken um fünf Menschen zu retten und dafür den Tod eines Menschen in Kauf zu nehmen, wie John Cloud in Time formulierte. Umfragen in verschiedenen Bevölkerungsgruppen haben gezeigt, dass etwa neun von zehn Befragten der Meinung sind, dass Letzteres die bessere Wahl darstellt, was den utilitaristischen Ansatz fördert.

Edmond Awad und Koautoren in Nature diskutierten das „Trolley-Problem“, um die Komplexität der moralischen Entscheidungsfindung durch Maschinen wie autonome Fahrzeuge hervorzuheben. In diesem Fall betraf das Problem einen Autofahrer und eine Gruppe von fünf Fußgängern. Da es sich um ein autonomes Fahrzeug handelt, muss das Auto so programmiert werden, dass es jedes gefährdete Objekt erkennt, sowohl einen einzelnen Fußgänger als auch eine Gruppe von fünf Fußgängern. Das Auto muss auf beide Arten von Hindernissen reagieren können, und die Vorgehensweise muss im Voraus durch ein Programm festgelegt werden. Ein wichtiger Punkt ist, dass der Unterschied zwischen Tun und Unterlassen für einen Menschen offensichtlicher ist als für eine KI-Anwendung - wie Alice. Sie kann möglicherweise diese Wahl nicht treffen.

Das Problem des Binge-Watching hat einen anderen Antagonismus. Es geht darum, ob Alice euren Wünschen von damals folgen soll, als ihr eure Bildschirmzeit reduzieren wolltet, oder jetzt, wo ihr weiter schauen möchtet. Sie verfügt über verschiedene Mittel, um euer Verhalten entweder so oder in die andere Richtung zu beeinflussen. 

Für autonome Fahrzeuge wurde das Problem durch eine Reihe verschiedener Szenarien untersucht. Dazu gehören ältere oder jüngere Fußgänger, Familienmitglieder als Mitfahrer im Auto oder illegales Verkehrsverhalten. Auch das Binge-Watching-Problem kann durch verschiedene Szenarien erweitert werden. Was wäre z.B. wenn ihr einen kriminellen Wunsch äußert oder einen Befehl erteilt, während euch gerade offensichtlich die Selbstkontrolle fehlt. Was macht Alice, wenn ihr betrunken lallt und sie bittet, illegale Drogen für euch zu kaufen?

Ganz so einfach ist es vielleicht doch nicht


Es gibt eine einfache und - wahrscheinlich - neutrale Lösung für das Binge-Watching-Problem: Alice informiert euch in aller Bescheidenheit über euer Versprechen vom vergangenen Samstag - die Bildschirmzeit in der Nacht zu reduzieren - und fragt euch dann, ob ihr trotzdem weiter schauen möchtet. Dies kann als die passive Alternative betrachtet werden, die das Trolley-Problem thematisiert. Eine KI-Anwendung kann jedoch möglicherweise keine Entscheidung zwischen Tun und Unterlassen treffen.  Demnach sollte Alice stattdessen in solch einer Weise handeln, von der ihr langfristig am meisten profitiert.

Wenn Alice euch über einen längeren Zeitraum aufmerksam verfolgt hat, hat sie möglicherweise registriert wie ihr normalerweise reagiert, wenn sie euch auf eins eurer langfristigen Ziele hinweist. Sie ist sich vielleicht so gut wie sicher, dass eine bescheidene Empfehlung sinnlos ist und dass es viel fruchtbarere Wege gäbe, euch dazu zu überreden, für heute Feierabend zu machen. Gemma Whelan in einer Szene aus Game of Thrones Serien wie „Game of Thrones“ sind sehr verlockend für Binge Watchers | © PictureLux / The Hollywood Archive / Alamy Stock

Tu es Alice zu Liebe

Das Binge-Watching Problem zeigt, dass ein KI-gesteuerter virtueller Assistent sowohl lang- als auch kurzfristige Ziele berücksichtigen muss, und einen beträchtlichen Einfluss darauf haben kann, ob diese Ziele auch tatsächlich erreicht werden.

In Anbetracht der überwiegenden Meinung für den utilitaristischen Ansatz im „Trolley-Problem“ könnte die beste Option für Alice darin bestehen, sich zu weigern, eurem Befehl zu folgen. Dies setzt voraus, dass sie gute Gründe zu der Annahme hat, dass ihr langfristig davon profitieren würdet, jetzt ins Bett zu gehen, und dass ihr eure langfristigen Ziele eher erreichen würdet, wenn sie euch davon überzeugen könnte. Es scheint für Alice ein Muss zu sein, sich die Ärmel hochzukrempeln und sich voll für euch einzusetzen.

Sollte dies der Falls sein, ist es dennoch nicht offensichtlich, wie weit sie im Kampf zwischen eurem zielorientierten Selbst von letzter Woche und dem aktuellen Faulpelz auf der Couch gehen soll. Sie könnte zum Beispiel mit empörter Stimme fragen, ob ihr euch wirklich eine weitere Episode ansehen wollt. Oder sie könnte euch verlockende Fotos eures Traumhauses zeigen, das ihr kaufen wollt, sobald ihr eure Beförderung bekommt. Sie könnte euch eure höchstverdienenden LinkedIn-Verbindungen anzeigen, mit Statistiken darüber wie alt sie waren, als sie zum ersten Mal in eine Managementposition befördert wurden. Oder sie könnte den Bildschirm einfach ausschalten, einen Alarm klingeln lassen und dann ein leises Wasserplätschern abspielen, damit ihr ins Bad geht. (Sie hat vielleicht sogar bereits schon herausgefunden, welche dieser Maßnahmen am Effektivsten ist.) Ihre Möglichkeiten scheinen unbegrenzt zu sein.

Dieser Artikel wurde zuerst auf AI Futures veröffentlicht, einem Blog des Instituts für Zukunftsstudien in Stockholm über die sozialen Auswirkungen der KI. Weitere Stichworte von Emma Engström über die Zukunft kreativer KI gibt es hier.

Artikelvorschläge

API-Error