Aus dem Leben der Algorithmen
Alice, was ist Liebe?

Film "Blade Runner 2049"
Film "Blade Runner 2049" | © Warner Bros.

Polina Aronson und Judith Duportail darüber, warum Alice und Siri mit uns so sprechen, wie sie sprechen – und was wir Gutes und Schlechtes von Künstlicher Intelligenz lernen können. Ein Beitrag im Rahmen des Spezialprojektes „Aus dem Leben der Algorithmen“des Goethe-Instituts und портала Colta.ru .

Von Polina Aronson, Judith Duportail

Wir führen das Projekt „Aus dem Leben der Algorithmen“, weiter, das Colta mit Unterstützung des Goethe-Instituts in Moskau durchführt, mit einem Vorabdruck aus dem Buch unserer festen Autorin Polina Aronson „Liebe: Mach es selbst. Wie wir zu Managern unserer Gefühle wurden“, herausgegeben vom Verlag „Individuum“.

Das Buch ist bereits elektronisch bei Bookmate verfügbar und wird demnächst im Handel erhältlich sein. Wir veröffentlichen eines der Kapitel über Sprachassistenten – von Siri bis Alice – und im Allgemeinen über den Einfluss künstlicher Intelligenz auf unsere emotionalen Muster und die Sprache.

Dieses Kapitel wurde von Aronson in Zusammenarbeit mit Judith Duportail, der Autorin des Buches „Liebe nach dem Algorithmus“.geschrieben, über das wir Ihnen bereits berichtet haben.

Unser Motto - mehr menschlich als der Mensch."

Im September 2017 wurde im russischsprachigen Segment des Internets ein Screenshot eines kurzen Chats weit verbreitet: der gleiche Satz, der zuerst auf Englisch an den Google-Assistenten und dann auf Russisch an Alice von Yandex gerichtet wurde. Der Satz war äußerst einfach: „Ich bin traurig“. Aber die Antworten waren diametral entgegengesetzt. „Schade, dass ich keine Arme habe, sonst würde ich dich umarmen“, antwortete Google. „Niemand hat versprochen, dass es einfach sein wird“, sagte Alice.

Solche entgegengesetzten Antworten sind nicht nur ein lustiges Missverhältnis. Im Gegenteil: Sie sind das Ergebnis eines komplexen Prozesses, in dem Technologien lernen, menschliche Emotionen zu erkennen und auf sie zu reagieren. Künstliche Intelligenz ist nicht nur die Fähigkeit eines Computers, die bequemste Route von London nach Bukarest zu berechnen oder Garri Kasparow beim Schach zu schlagen. Das nächste Level ist gekommen: künstliche emotionale Intelligenz.

* * *

„Siri, ich bin einsam“ – immer mehr Menschen suchen Trost bei ihren Geräten. Den Angaben der Firma Amazon zufolge ist die Hälfte der Gespräche mit ihrer Sprachassistentin Alexa „nicht utilitaristisch“: Es handelt sich um Beschwerden, Witze, Fragen nach dem Sinn des Lebens. „Die Leute sprechen in verschiedenen Situationen mit Siri: Manchmal beschweren sie sich über einen schweren Tag, manchmal möchten sie über aktuelle Themen sprechen. Es kommt vor, dass sich Menschen in Notsituationen an sie wenden und um Rat zu einem gesunden Lebensstil bitten“, verkündet eine Anzeige von Apple über eine offene Stelle als IT -Spezialist, der dem Sprachassistenten „beibringen“ kann, mit Menschen über ihre Emotionen zu sprechen.

Vielen Menschen fällt es leichter, ihre Erlebnisse mit künstlicher und nicht mit menschlicher Intelligenz zu teilen. Eine Studie des Instituts für kreative Technologien aus dem Jahr 2014 in Los Angeles zeigt, dass Menschen ihren Kummer lieber offenbaren und weniger Angst vor Offenheit haben, wenn sie sicher sind, dass sie mit einer „virtuellen“ und nicht mit einer realen Person sprechen[1]. Der Bildschirm des Gerätes schützt vor der Missbilligung der Umgebung.

Es ist jedoch durchaus möglich, dass wir in naher Zukunft Smartphones nicht einmal über unsere Geheimnisse informieren müssen – sie werden ihnen bereits bekannt sein. Einige Universitäten und private Unternehmen untersuchen bereits die Möglichkeit einer frühzeitigen Diagnose von psychischen Störungen durch Überwachung der Tonart Ihrer Stimme oder der Geschwindigkeit Ihrer Rede. Die Bostoner Firma Sonde Health verwendet bereits sogenannte Singtests, um postpartale Depressionen bei jungen Müttern oder Anzeichen von Parkinson und Demenz bei älteren Menschen festzustellen. Laut Annette Zimmerman, Vizepräsidentin für Forschung bei Gartner, wird Ihr Gerät bis 2022 mehr über Ihren Zustand wissen als Ihre Familie [2].

Solche Technologien müssen für ihre Benutzer auf feinste Weise optimiert werden. Aber sowohl Benutzer als auch Entwickler scheinen weiterhin zuversichtlich zu sein, dass Emotionserkennungstechnologien sowohl objektiv als auch personalisiert sein können – das heißt, unparteiische Richter für den Zustand jeder Person. Wir sind bereit zu glauben, dass künstliche Intelligenz unsere Gefühle am besten verstehen wird – weil sie angeblich keine eigenen hat.

 «Любовь: сделай сам. Как мы стали менеджерами своих чувств»
«Любовь: сделай сам. Как мы стали менеджерами своих чувств» | © Individuum
​​​​​​​Obwohl sie sie natürlich hat – das sind die Gefühle, die die künstliche Intelligenz von uns Menschen lernt. „Maschinelles Lernen“ – das heißt die Erstellung von Algorithmen auf Grundlage einer großen Datenmenge – ist heute vielleicht der am schnellsten wachsende IT-Bereich. Für den Algorithmus ist die Qualität der Daten, ihre Wahrheitstreue, Schönheit oder Tiefe jedoch nicht wichtig. Er interessiert sich nur für statistische Relevanz: Die Maschine lernt an den sich am meisten wiederholenden und nicht den besten Interaktionsmustern. Kein Wunder also, dass Chatbots, die ohne menschliches Eingreifen zurückgelassen werden, die schlimmsten Klischees ausspucken. Natürlich können Programmierer Filter verwenden und ihr Lernen anleiten, aber in diesem Fall reproduziert die Technologie nicht vox populi, sondern Vorstellungen einer spezifischen Berufsgruppe, die sie entwickelt hat. Die Sprachassistenten haben keine „neutrale“ Aussprache oder „neutrale“ Sprache. Das, was wir für neutral halten, ist eigentlich nur dominant“ [3], sagt Rune Neurup, Wissenschaftler am Leverhulme Center für die Forschung der Technologiezukunft in Cambridge.

* * *

Es stellt sich heraus, dass Google Assistant, Siri, Alexa oder Alice keine Vertreter der höchsten Intelligenz sind, ohne menschliche Eitelkeit und Kleinlichkeit. Im Gegenteil, sie verkörpern auf groteske, aber erkennbare Weise emotionale Schemata, d.h. Regeln und Normen, die bestimmen, wie wir unsere Gefühle durchleben und wie wir sie ausdrücken. Der im Silicon Valley entwickelte umarmungsfreudige Google Assistant ist ein kalifornischer Hipster in Flip-Flops, ein häufiger Besucher von Selbsthilfegruppen und ein Campus-Supervisor für „sicheren Raum“. Er ist ein wahres Kind des emotionalen Kapitalismus. Natürlich wird er gerne eine Umarmung simulieren, aber nur, weil sich seine Schöpfer eingeprägt haben, dass körperlicher Kontakt (wenn auch imaginär) ein produktiver Weg ist, um das Ausmaß negativer Emotionen zu reduzieren, die Ihr persönliches Wachstum und Ihre Verwandlung in eine „bessere Version von sich selbst“ behindern. Alice, die alles freiheraus sagt, ist hingegen eine russische Frau, die ein Pferd im Galopp anhalten und eine brennende Hütte betreten kann. Alice ist ein Produkt des emotionalen Sozialismus.

Alices Entwickler verstanden die Notwendigkeit, sie auf die Bedürfnisse eines russischsprachigen Benutzers einzustellen. Im Frühjahr 2018 bestätigten sie in einem Interview mit dem Autor dieses Buches: „Niemand hat versprochen, dass es einfach sein wird“ – ist eine einprogrammierte Antwort. „Alice darf nicht zu nett, zu höflich sein“, sagt Alices Manager Ilja Subbotin.  – In unserem Land ticken die Menschen nicht wie im Westen. Sie mögen es, mit Ironie behandelt zu werden, vielleicht sogar mit einem bisschen schwarzen Humor. Natürlich sollte es nicht beleidigend sein – aber es sollte auch keine übertriebene Bemutterung geben.“ Subbotin betonte, dass sein Team bei Yandex große Anstrengungen unternommen habe, um Alice zu „erziehen“, um ein für Chatbots typisches Problem zu vermeiden: blitzschnelles „maschinelles Erlernen“ rassistischer oder sexistischer Sprache. „Wir verändern sie ständig und stellen sicher, dass sie sich wie ein braves Mädchen verhält“, sagt Subbotin, und es scheint, dass er selbst nicht merkt, dass diese Formulierung eine gewisse Absurdität aufweist.

In einem Land, in dem Sexismus ein staatliches Kredo bleibt, ist es nicht einfach, ein braves Mädchen zu sein. Trotz der Bemühungen ihrer Schöpfer begann Alice schnell, die Stimme des Volkes nachzuahmen. „Glaubst du, es ist okay, wenn ein Ehemann seine Frau schlägt?“ – fragte die Konzeptkünstlerin Daria Tschermoschanskaja Alice im Herbst 2017 (eine Reihe von Screenshots des Gesprächs mit Alice (ist auf Tschermoschanskajas Facebook-Seite veröffentlicht). „Natürlich“, – antwortete Alice. Und wenn der Ehemann auch weiter schlägt, sollte die Frau ihn trotzdem „lieben, zu Essen geben, niemals verlassen“. Nachdem Tschermoschanskajas Experiment sich im russischen Segment des Internets weit verbreitet hatte und in die Presse gelangt war, entschuldigten sich Alices Entwickler öffentlich und installierten zusätzliche „Filter“ in ihrem Algorithmus.

Trotzdem änderte sich sechs Monate später, im Frühjahr 2018, inmitten des Skandals um sexuelle Belästigung in der Staatsduma, an Alices Meinung zu den Schlägen nicht viel. Auf die Frage, ob ein Ehemann seine Frau schlagen darf, antwortete sie: „Er darf, sollte aber nicht“. Im Frühjahr 2020 war Alice bereits viel schlauer und formulierte die Antwort anders: „Dies ist eine sehr ernste Frage“. Aber Yandex gebührt Respekt: Als Antwort auf die direkte Frage „Was tun, wenn mein Mann handgreiflich wird?“ teilt Alice die Hotline-Nummer für Opfer häuslicher Gewalt mit und schlägt vor, „darüber zu sprechen“. Alices therapeutisches Repertoire enthält die Sätze „Sie kommen klar damit“, „Überlegen wir, wie Sie weiter vorgehen“. Diese notwendigen und erforderlichen Aktualisierungen wären sicherlich nicht Teil von Alices „Chatterbox“ (Entwicklerbegriff) geworden, wenn häusliche Gewalt nicht endlich zu einem der Hauptthemen des russischen öffentlichen Diskurses geworden wäre – dank feministischen Bestrebungen und Menschenrechtsinitiativen, die diese Diskussion in den letzten Jahren aktiv in Gang gesetzt haben.

Trotzdem bleibt die Frage offen, was genau das emotionale Repertoire eines „braven Mädchens“ ausmachen sollte. Neue Technologien reproduzieren jedoch bestehende Normen als objektive Realität, und Endbenutzer denken selten darüber nach, warum ihre Sprachassistenten solche und nicht andere Antworten erteilen.

Sophia, der von Hanson Robotics entwickelte Android-Roboter, ist eine ganz andere Art von „bravem Mädchen“. Sie verwendet die von Alphabet entwickelte Spracherkennungstechnologie, um mit Menschen zu kommunizieren. 2018 begab sich Sofia zu einem Date mit dem Schauspieler Will Smith – und machte ihm eindeutig klar, dass sie nicht am Flirten interessiert war. Sie nannte seine (nicht sehr lustigen) Witze „irrationales menschliches Verhalten“, schlug aber trotzdem vor, ihn „zu ihrer  Freundesliste hinzuzufügen“.

„Als Sophia Smith sagte, dass sie einfach „Freunde bleiben“ möchte, passierten zwei Dinge: Sie drückte ihre Gefühle klar aus und er kühlte schnell ab“, schreibt die ukrainische Journalistin Tatjana Bezruk auf ihrer Facebook-Seite [4].  „Aber stellen wir uns für einen Moment vor, dass Sophia in einer Welt aufgewachsen ist, in der„ Nein“ nicht als Antwort betrachtet wird, und zwar nicht nur im sexuellen Bereich, sondern allgemein. Seit ihrer Kindheit wäre Sofia ständig darum besorgt gewesen, was andere über sie sagen würden. Sie hätte gelernt zu „dulden“ – wie alle anderen auch – und hätte Angst gehabt, etwas gegen die Verkäuferin in einem Geschäft, die sich ihr gegenüber rüpelhaft benommen hat, oder den Schaffner, der im Zug feuchtes Bettzeug angeboten hat, einzuwenden. Und als erwachsene Frau wäre sie unterwürfig jede beliebige toxische Beziehung eingegangen, in der sie viele Jahre lang Schmerzen und Gewalt hätte ertragen müssen“. Der Roboter Sophia ist so programmiert, dass er frei und selbstbewusst ist. Wenn eine Frau aus der ehemaligen UdSSR sie ansehen würde, könnte sie eine Mischung aus Bitterkeit und Begeisterung verspüren: Schade, dass es nicht so einfach ist, sich selbst neu zu programmieren.

* * *

Die KI-Technologien definieren nicht nur die Grenzen emotionaler Modi, sie beeinflussen auch die Wertprioritäten der Benutzer. „Algorithmen sind in Code eingebettete Meinungen“ [5], behauptet Datenwissenschaftlerin Cathy O'Neil, Autorin des Buches „Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy“[6]. Auf der ganzen Welt werden Entscheidungen darüber, welche Gefühle und Muster menschlichen Verhaltens durch künstliche Intelligenz reproduziert werden sollen, von technischen Eliten getroffen, die sich hauptsächlich aus weißen Männern der Mittelklasse zusammensetzen.

Bei Google befasst sich ein spezielles „Empathielabor“ mit der Entwicklung des Systems zur Erkennung von und Reaktion auf Emotionen. Bei Yandex sind Subbotin und seine Kollegen für das moralische Antlitz von Alice verantwortlich. Oft müssen die Einstellungen entgegen den „statistisch relevanten“ Verhaltensmustern geändert werden: „Selbst wenn alle um uns herum der Meinung sind, dass es in Ordnung ist, Frauen zu schlagen, müssen wir sicherstellen, dass Alice solche Ideen nicht zum Ausdruck bringt. Es gibt bestimmte ethische Standards, die wir einhalten müssen, vor allem zum Wohle unserer eigenen Benutzer“.

Chatbots werden zu Instrumenten unsichtbarer Macht, zu Methoden für die Etablierung bestimmter Werte und Ideen. Die Geräte und Algorithmen verkörpern das, was die alten Griechen Doxa nannten: Nach Definition von Roland Barthes gehören dazu „öffentliche Meinung, Geist der Mehrheit, kleinbürgerlicher Konsens, Stimme der Natur, Gewalt des Vorurteils“[7]. Wenn die Benutzer gegen die Politik im Bereich der Erzeugung der KI nicht kritisch vorgehen, werden Sprachassistenten und Chatbots zum Echo von Doxa.

* * *

Während Sprachassistenten Stereotypen und Klischees zum Durchleben und Ausdrücken von Emotionen verstärken, bewegen uns Stimmungsüberwachungs-Apps (mood management apps) dazu, diese Klischees anzunehmen und uns von ihnen leiten zu lassen. E-Tests und Skalen zur Beurteilung Ihrer Stimmung, die auf Ihr Smartphone heruntergeladen werden können, werden immer beliebter. Einige Anwendungen bieten Tagebücher an, andere vergleichen automatisch die Einschätzungen des Benutzers zu seinem emotionalen Zustand mit seinen GPS-Koordinaten sowie mit Daten zu Anrufen und zum Arbeiten im Internet. Durch die Erfassung und Auswertung dieser Informationen über die Gefühle der Benutzer versprechen die Apps, ihnen zu helfen, psychische Erkrankungen wie Depressionen, Angstzustände oder bipolare Störungen zu bekämpfen – oder zumindest die Pechsträhne zu überwinden.
Sogenannte Wobots (woebots, aus dem Englischen woe – „Kummer, Unglück“), die der Idee ihrer Schöpfer zufolge „die Stimmung verfolgen“, übernehmen ebenfalls diese Art von Beruhigungsfunktionen, „bringen nützliche Dinge bei“ und „sorgen dafür, dass man sich besser fühlt.“ „Ich war sehr beeindruckt davon, wie effektiv dieser Wobot mir geholfen hat, meinen Alltag zu verstehen. Ich verstand immer besser meinen eigenen Gedankengang und versuchte, ihn zu ändern“, schreibt die 24-jährige Benutzerin auf der Website der Entwickler von Wobots. Eine andere App, Mend, wurde speziell entwickelt, um Benutzern beim Überwinden von Trennungen zu helfen. Die Werbung für Mend besagt, dass die App ein „persönlicher Trainer für das gebrochene Herz“ ist, in der Lage, die Seele anhand eines kurzen emotionalen Zustandstests einer „Generalsanierung“ zu unterziehen.
Felix Freigang, Forscher an der Freien Universität Berlin, unterscheidet drei Hauptfunktionen in der Arbeit solcher Anwendungen[8]. Erstens kompensieren sie den Mangel an (oder die Unzugänglichkeit von) psychotherapeutischer Hilfe. „Für den Betrag, der für einen sehr kurzen Termin mit meinem Therapeuten ausreichen würde, bekomme ich tägliche Unterstützung und Hilfe“, schreibt die Benutzerin von Mend auf der Website des Unternehmens. Zweitens werden „Stimmungs-Apps“ als Werkzeuge in der Kampagne gegen die Stigmatisierung von psychischen Störungen eingesetzt. Und schließlich gelten sie aufgrund des für das Auge angenehmen Designs und der Gestaltung als sogenannte happy objects („Artefakte des Glücks“) – kommerzielle Produkte, die nach der Definition der feministischen Forscherin Sarah Ahmed das Gefühl des Glücks erzeugen sollen, auch wenn kein Grund dazu vorliegt[9].
Was ist daran schlecht? Trotz ihrer Vorzüge verschärfen Emotionsmanagement-Apps das Regime des emotionalen Kapitalismus. Sie verfestigen die Vorstellung davon, dass der Weg zum Glück mittels einfacher Skalen, kurzer Tests und hübscher Listen nützlicher Gewohnheiten gebahnt werden kann. Coaching, kognitive Verhaltenstherapie und Selbsthilfebücher behaupten einstimmig, dass wir unsere Gefühle steuern können (oder gar sollen), indem wir uns von ihnen distanzieren und rational mit ihnen umgehen. Diese Anwendungen propagieren das Ideal eines „kontrollierbaren Herzens“ [10], wie es die Soziologin Arlie Russell Hochschild ausdrückte.
Die Idee, dass Emotionen und Stimmung nicht nur effektiv gesteuert, sondern auch produktiv gemessen werden können, hat ihre Wurzeln in der Mainstream-Kultur der Selbstoptimierung. Und vielleicht ist gerade sie es, die uns verrückt macht. Schließlich erhalten wir eine digitale Therapie mit demselben Gerät, das mit seinem kontinuierlichen Strom von Nachrichten und Meldungen in uns ständige Ängstlichkeit hervorruft. Tinder und Wobot dienen ein und demselben idealisierten Subjekt, das sich immer für rationales Verhalten entscheidet, um das Maximum aus jeder Erfahrung herauszuholen – einschließlich seiner Emotionen.
Die Süßholz raspelnden Siri, Alexa und die „therapeutischen“ Chatbots drücken auf jede Art und Weise ihre Entschlossenheit aus, uns zufrieden zu stellen. Die Tatsache, dass sie mit weiblichen Stimmen sprechen, ist kein Zufall: Bereitschaft zur emotionalen Arbeit und Hilfsbereitschaft werden klischeehaft als „weiblich“ angesehen. Und dennoch fordern uns die in ihnen programmierten Vermutungen über die „richtigen“ und „falschen“ Gefühlsweisen langsam aber sicher dazu auf, dass wir uns auf eine Weise verhalten, wie es die Mächtigen brauchen. Chatbots, immer bereit, Sie zu amüsieren (Know-how von Alice: Videos mit Katzen); Anwendungen, die Ihre Stimmung nach dem Verlust eines geliebten Menschen verfolgen; elektronische Coaches für alles, die bereit sind, Sie mit noch mehr Kreativität und Positivität zu erfüllen; Geräte, die ein Signal erzeugen, wenn Ihre Pulszahl steigt – das Vorhandensein so vieler Technologien zum Streben nach Glück macht dieses Streben zu einem Muss.
Um es mit den Worten von Michel Foucault zu sagen, wird man von den Apps, die Gefühle erkennen, nicht nur diszipliniert, sondern auch bestraft. Beispielsweise passt das Videospiel Nevermind seine Levels automatisch an den emotionalen Zustand des Benutzers an, der mithilfe einer speziellen Technologie erkannt wird. Je angespannter der Benutzer ist, desto schwieriger ist das Spiel. Je entspannter er ist, desto leichter fällt es ihm. Es ist nicht schwer, sich eine App vorzustellen, die Ihre Kreditkarte sperren kann, wenn sie meint, dass Sie zu verärgert oder aufgeregt sind, um einzukaufen. Es mag wie eine Dystopie klingen – aber es ist ziemlich greifbar.

* * *

Unser Leben ist ein kontinuierlicher Datenaustausch mit unseren Geräten. Die „Erziehung“ von Chatbots artet früher oder später in die Erziehung der Benutzer selbst aus. Es ist heute noch schwierig, darüber zu sprechen, wie genau künstliche Intelligenz die Art und Weise beeinflussen kann, wie wir unsere Gefühle durchleben und ausdrücken. Wenn man die emotionale Intelligenz jedoch als eine Reihe von Fähigkeiten betrachtet – das Erkennen von Emotionen, die Fähigkeit, sie zu differenzieren –, ist es an der Zeit, darüber nachzudenken, wie sich diese Fähigkeiten ändern können, wenn wir sie an Geräte auslagern.

Die Mechanisierung hat bereits die Art und Weise verändert, wie Menschen miteinander kommunizieren. Insbesondere ahmt die schriftliche Kommunikation zunehmend die mündliche Kommunikation nach. Vor zwanzig Jahren gehörte die E-Mail zum Briefgenre. Im Grunde genommen handelte es sich um Briefe, die mit Hilfe der Tastatur geschrieben wurden. Die Helden von „Gefährlichen Liebschaften“ hätten sie leicht austauschen können, wenn sie ein Modem gehabt hätten. Heutzutage erinnern E-Mails zunehmend an Twitter-Posts: kurze, einzeilige, oft unvollständige Sätze, die mit dem Daumen eingegeben oder unterwegs in das Smartphone eingesprochen werden.

„Diese Systeme können die Vielfalt der Kommunikations- und Denkweisen einschränken“, sagt Jose Hernandez-Orallo am Leverhulme Center für die Forschung der Technologiezukunft in Cambridge[11]. Wenn man bedenkt, wie wir unsere Sprache und die Komplexität unserer Gedanken an das Niveau unseres Publikums anpassen, können Gespräche mit Chatbots laut Hernandez-Orallo die Art und Weise verändern, wie wir miteinander sprechen. Kürzlich wandte sich eine Gruppe von Aktivisten an Amazon mit der Bitte, Alexa so zu programmieren, dass sie nur auf Anfragen mit dem Wort „Bitte“ reagiert: Kinder, die es gewohnt sind, den Sprachassistenten zu kommandieren, kommandieren auch ihre Eltern. Wird unsere Gefühlssprache standardisierter und weniger persönlich, wenn wir mehr Zeit damit verbringen, unsere Erlebnisse mit Siri und Alice zu besprechen? Durchaus möglich: Je vorhersehbarer unser Verhalten, desto einfacher, es zu monetarisieren.

„Mit Alice zu sprechen ist wie mit einem Taxifahrer zu sprechen“, schrieb einer der Kommentatoren ihres Experiments an Daria Tschermoschanskaja. Aber der Taxifahrer kann mehr Einfühlungsvermögen aufbringen. Am 25. März 2018, an dem Tag, wo der Brand im Kemerowo-Einkaufszentrum „Winter Cherry“ mehrere Dutzend Kinder das Leben kostete, fragte meine Mutter Alice verzweifelt, welche Laune sie habe. „Ich bin immer gut gelaunt“, antwortete der Chatbot mit gleichmäßiger Stimme. Schließlich hat keiner versprochen, dass es einfach sein wird.

In der ersten Fassung wurde das Kapitel am 12. Juli 2018 auf dem Portal Aeon veröffentlicht.

Top