Ethik   Soziale Maschinen und menschliche Werte

The soulful human machine © Shutterstock AI

Bei der Entwicklung von KI kann es zu dem Dilemma kommen, dass das Verhalten des Systems nicht mit den beabsichtigten Werten der Entwickler*innen übereinstimmen, dieses Phänomen nennt sich „Alignment Problem“ (Anpassungsproblem). Es stellt Forscher*innen besonders vor Herausforderungen, wenn KI-Systeme zur Lösung schwieriger sozialer Probleme eingesetzt werden.
 


Ich untersuche die sozialen Beziehungen zwischen Maschine und Mensch, hauptsächlich in Zusammenarbeit mit KI-Robotern. Im Laufe meiner Arbeit habe ich beobachtet, wie Menschen auf sozialer Ebene mit Maschinen umgehen und wie sie ihre Beziehungen zu Maschinen wahrnehmen. Sie können denen zu Menschen sehr ähnlich sein: intim, freundlich, ängstlich, feindselig und so weiter. Die Schreibmaschine meiner Urgroßtante selbst zählt als ein Familienmitglied bei uns. Jahrelang hegte ich einen Groll gegen unkooperative Türen. Der gesunde Menschenverstand sagt vielleicht, dass Maschinen träge, kalte, gefühllose Dinge sind, die eigentlich keine soziale Beachtung verdienen. Aber diese vorherrschende kulturelle Einstellung stimmt nicht immer mit dem überein, was Menschen in ihrem täglichen Leben erfahren. Bei der Entwicklung und dem Einsatz von Maschinen wird auch immer der soziale Aspekt eine Rolle spielen, ein Faktor, den man nicht vorhersehen kann.

Gemeinsam erzeugen wir Bedeutung

Ich versuche mein Bestes, um Maschinen auf ihre Art und Weise zu respektieren, anstatt von ihnen menschliches Vertalten zu erwarten. Allerdings findet unsere Beziehung nicht in einem Vakuum statt. Als Designer habe ich eine enge Beziehung zu Maschinen, die ich entwerfe, sowohl in Bezug auf ihre intendierte Funktion als auch in Bezug auf ihre Interaktionen mit Menschen. Die wahre Bedeutung von Maschinen eröffnet sich mir immer erst, wenn die Maschine ein Teil unserer Welt geworden ist und ich ihre Interaktionen mit mir und anderen Menschen reflektieren kann. Gemeinsam, in der Unordnung des täglichen Lebens, erzeugen wir Bedeutung, völlig unabhängig von den Intentionen, die ich als Designer hatte. Ihre Umgebung de- und rekontextualisiert unablässig die sich in ihr befindlichen Einheiten. Es gibt nie eine Garantie dafür, dass die Absichten eines Designers oder gar seine Werte, erhalten bleiben. Das ist nicht unbedingt eine schlechte Sache.

Ein Beispiel aus der Musik: es ist bekannt, dass ein Interpret ein neues Musikinstrument meistens nicht so verwendet, wie es vorhergesehen war, sondern er künstlerisch frei auf dem Instrument „malt“. Das liegt zum Teil an der zeitgenössischen musikalischen Praxis erweiterter Techniken (wie das Abschrauben von Trompetenventilen beim Spielen) und zum Teil an der Neuheit und dem Fehlen einer etablierten Pädagogik für neue Instrumente. So oder so kann der Künstler immer die Grenzen und die Erwartungen eines Regelwerks sprengen. Ich würde sogar sagen, dass es wünschenswert ist, dass ein Musikinstrument unerwartete Nutzungsweisen hervorruft. Ähnlich werden autonome Maschinen (künstlich-intelligent oder nicht) in der zeitgenössischen Kunst oft gerade wegen ihres Potenzials, unerwartete Ergebnisse zu erzielen, geschätzt. Maschine und Mensch arbeiten zusammen, um zu entdecken, was möglich ist, und um einen Sinn zu finden. Nichts kann genauso ablaufen, wie es geplant wurde. Das kann natürlich auch schiefgehen, wie bei Microsofts Chatbot "Tay", der abgeschaltet werden musste, als die Nutzer dem Bot beibrachten, hetzerische und beleidigende Inhalte zu schreiben.

KÖNNEN WIR EINEN DIGITALEN GOTT ERSCHAFFEN?

Wieso sollte ich von einer Maschine erwarten, dass sie meine Werte genau widerspiegelt? Gerade wenn sich meine eigenen Werte mit der Zeit verändern und wachsen? Mir scheint, dass das „Alignment Problem“ auftritt, wenn man moralische Fragen auf maschinelle Systeme abwälzt. Können wir eine Maschine herstellen, die den Einstellungsprozess von Mitarbeiter*innen fair gestaltet? Oder eine Maschine mit der es keine rassistischen Vorurteile in der Strafverfolgung mehr gibt? Wie wäre es mit einer Maschine, die spirituelle Erleuchtung erreicht? Werden wir eine Maschine erfinden können, die allwissend, allmächtig handelt, einen digitalen Gott? All diese Fragen sind für mich Beispiele eines falschen Ansatzes. Wenn wir anstreben uns bei der Lösung von Problemen auf Maschinen zu verlassen, drücken wir uns vor Verantwortung. Maschinen können uns vielleicht helfen, gemeinsam bestimmte Ziele zu erreichen, aber wir sollten nie erwarten, dass ihr Verhalten automatisch mit unseren Absichten übereinstimmt. Ein spiritueller Roboter oder ein digitaler Gott kann letztlich nur in einem größeren maschinell-menschlichen System existieren, das ihn aufrechthält.

KI IST KEIN ZAUBERSTAB, DER UNSERE SOZIALEN PROBLEME FIXEN KANN

Bisher habe ich das Wort Maschine verwendet, als würde es sich dabei eine künstliche, nicht-menschliche Art von Wesen handelt. Maschine ist jedoch ein vielseitiger Begriff, der auch Menschen einschließen kann. Zum Beispiel ist eine "soziale Maschinerie" ein Begriff für Einheiten, die sowohl künstliche als auch biologische (oder menschliche) Komponenten enthalten, wie Organisationen und Bürokratien.

Wir haben also schon immer Maschinen entwickelt, die soziale, vielschichtige Probleme lösen sollen, um Aufklärung voranzutreiben, um kollektive Werte und Träume zu verwirklichen. Maschinen sind fehleranfällig, sie sind voller Widersprüche und Probleme. Doch an wessen Werten orientieren sich Maschinen? Sicherlich ist die Ausrichtung der Maschinen eine chaotische Arbeit, eine Auseinandersetzung mit unterschiedlichen Werten, Träumen, Menschen und Maschinen. Selbst mit der strengsten und sorgfältigsten Planung lassen sich die Ergebnisse eines komplexen Systems nicht vollständig vorhersagen. Ich möchte nicht die weitreichenden Folgen der Einführung von KI-Systemen für die Gesellschaft leugnen. Der Einsatz solcher Systeme bringt eine enorme Verantwortung mit sich. Letztlich sind sie jedoch Bestandteile größerer sozialer Konstrukte, und sie erfordern eine kontinuierliche und kollaborative Anstrengung, die gegebene Reihe von Werten zu überprüfen. Das Anpassungsproblem existiert nicht allein in einem bestimmten KI-Produkt, sondern viel mehr in der Gesellschaft, die jenes Produkt entwickelt. Mit anderen Worten: KI ist kein Zauberstab, der soziale Probleme beseitigen kann. Damit ein KI-System nach Werten handeln und entscheiden kann, müssen diese Werte bereits mit dem Entwurfsprozess integriert werden. Sie müssen in jedem Schritt des Prozess - Datenerfassung, Training, Tests, Einsatz – berücksichtigt werden, auch bei der der Wartung und Neugestaltung. Anpassungsprobleme sind nicht nur diskret, sondern systemisch.

Wenn Sie also das nächste Mal einen Milliardär oder einer Expertin zuhören, die ihre Hoffnungen und Befürchtungen in Bezug auf KIs äußert, erinnern Sie sich daran, dass diese Person versucht sein wird, die Ausrichtung der kollektiven Bestrebungen in Einklang mit ihren persönlichen Werten zu bringen. Eine KI kann bestimmte Werte vertreten, doch das ist nur ein Teil der Geschichte. Die Arbeit an der Werte-Einstellung von KIs ist kontinuierlich, kooperativ und nie abgeschlossen. Kann das Problem der Anpassung gelöst werden? Ich glaube nicht, es sei denn, die Gesellschaft selbst kann „gelöst“ werden. Eine künstliche Intelligenz kann noch so ausgeklügelt sein, sie wird sich nie so verhalten, wie es beabsichtigt ist. Es wird immer Raum für eine Neuausrichtung geben.

Das könnte auch von Interesse sein

Failed to retrieve recommended articles. Please try again.