Künstliche Intelligenz
Algorithmen sind wie Kochrezepte

Quellcode funktioniert kaum anders als ein Kochrezept: Algorithmen bestimmen unser tägliches Leben.
Quellcode funktioniert kaum anders als ein Kochrezept: Algorithmen bestimmen unser tägliches Leben. | Foto (Detail): © Adobe

Doch damit das Gericht auch schmeckt, sollten die Zutaten sorgfältig ausgewählt werden: Der Algorithmus-Experte Sebastian Schelter im Gespräch über künstliche Intelligenz, wie sie uns Entscheidungen abnimmt und welchen Einfluss das auf unser Leben hat.

Künstliche Intelligenz (KI) und Computer, die selbstständig lernen – das klingt immer noch ein bisschen nach Science-Fiction, ist aber längst in unserem Alltag angekommen. Algorithmen bestimmen nicht nur, was wir bei Streamingdiensten zu hören oder zu sehen bekommen, mancherorts entscheiden sie darüber, wer einen Kredit bekommt, oder sagen vorher, wie wahrscheinlich ein Sträfling wieder straffällig wird. Aber was ist ein Algorithmus eigentlich und wie wirkt sich KI auf unser Leben aus?

Das Grundrezept: der Algorithmus

„Ein Algorithmus ist erstmal eine Abfolge von Schritten. Man kann sich das so wie ein Kochrezept vorstellen: Da hat man zum einen die Zutaten, das wäre die Eingabe vom Computerprogramm. Und das Rezept sagt dann Schritt für Schritt, was passieren muss, damit das Essen richtig zubereitet wird“, erklärt der Algorithmus-Experte Sebastian Schelter, der an der Universität Amsterdam zu Datenmanagement und maschinellem Lernen forscht.

So gesehen sind Algorithmen nichts Neues, jedes Computerprogramm funktioniert nach diesem Prinzip.  Was uns eigentlich beschäftigt, wenn wir heute über den wachsenden Einfluss von Algorithmen sprechen, ist maschinelles Lernen: „Bei einem herkömmlichen Computerprogramm gibt ein Mensch alle Schritte vor, mit denen ein bestimmtes Problem gelöst wird. Es gibt aber Probleme, bei denen es uns schwerfällt, dem Computer genau aufzuschreiben, wie er sie lösen kann“, so der Experte. Bei maschinellem Lernen verwendet man deswegen einen anderen Ansatz. Sebastian Schelter hat an der TU Berlin promoviert und war danach als Forscher an der New York University und bei Amazon Research tätig. Als Juniorprofessor an der Universität Amsterdam beschäftigt er sich mit Problemen an der Schnittstelle von Datenmanagement und maschinellem Lernen. Sebastian Schelter hat an der TU Berlin promoviert und war danach als Forscher an der New York University und bei Amazon Research tätig. Als Juniorprofessor an der Universität Amsterdam beschäftigt er sich mit Problemen an der Schnittstelle von Datenmanagement und maschinellem Lernen. | Foto: © Sebastian Schelter

Kochen für Fortgeschrittene: der lernende Algorithmus

„Ein einfaches Beispiel ist ein Spamfilter, der Werbemails von persönlichen Nachrichten unterscheiden soll. Für einen Menschen, der so ein Computerprogramm schreibt, ist das kein einfaches Problem. Man kann verschiedene Kriterien und Regeln festlegen, an denen Werbemails theoretisch erkannt werden können – sei es die Uhrzeit, zu der sie verschickt worden sind, oder bestimmte Wörter, die im Text der Nachricht vorkommen. Doch dabei stößt man irgendwann an die Grenzen der menschlichen Kapazität“, erklärt Schelter das Problem.

Beim maschinellen Lernen wird ein Computer deswegen nicht mehr expliziert programmiert, sondern man zeigt ihm Beispiele. Den besten Lösungsweg findet er selbst. Statt dem ganzen Kochrezept gibt der Programmierer nur noch das gewünschte Resultat vor, das vom Programm geliefert werden soll.

„In diesem Fall könnte die Eingabe 1.000 E-Mails sein, die man empfangen will, sowie eine ganze Reihe an negativen Beispielen von Werbemails, die man nicht empfangen will“, führt Schelter das Beispiel weiter aus. „Der Algorithmus schätzt dann anhand dieser Beispiele die Wahrscheinlichkeit, ob es sich bei einer neuen Nachricht um Werbung handelt oder nicht. Der große Unterschied ist, dass beim herkömmlichen Programmieren der Mensch ganz genau die Schritte festlegt, währen die lernenden Algorithmen anhand von Beispielen und statistischen Wahrscheinlichkeiten ihre eigenen Auswahlkriterien erschaffen.“

Ausgetrickst von der KI

Lernende Algorithmen sind in der Lage, bestimmte Probleme nicht nur schneller zu lösen als Menschen, sondern auch besser. Als sich 2019 das Programm Pluribus gegen professionelle Pokerspieler durchgesetzt hat, demonstrierte die KI, dass sie sogar lernen kann, besser zu bluffen als ein Mensch. Mit ihren Fähigkeiten wächst ihr Einfluss. Im Gesundheitswesen etwa, in der Finanzwelt und in der Justiz.

Auch in Deutschland sind die meisten Menschen täglich mit den Entscheidungen von schlauen Algorithmen konfrontiert. „Wissenschaftlich betrachtet sind das abstrakte mathematische Verfahren, die sich auf viele Bereiche anwenden lassen. Also zum Beispiel, um zu ermitteln, wie wahrscheinlich es ist, dass eine bestimmte Person einen Kredit zurückzahlen wird“, so Schelter.

In Ländern wie den USA und Australien stehen Algorithmen unter Verdacht, bei ihren Entscheidungen gegen bestimmte Ethnien zu diskriminieren. „Das liegt zum Teil daran, dass die Diskriminierung bereits in den Beispieldaten steckt, die man dem Algorithmus gezeigt hat. Wenn man ihn dann einfach blind laufen lässt, dann reproduziert er die Diskriminierung“, erklärt der Experte die Wurzel des Problems.

Ein Algorithmus mit Taktgefühl?

Allem voran ist es keine technische Frage, wo die Grenzen von Algorithmen und KI liegen sollten, sondern eine ethische. Oder kann man einem Algorithmus etwa „Taktgefühl“ beibringen?

„Diese Frage ist zurzeit ein offenes Problem. Meine persönliche Meinung ist, dass es Bereiche gibt, wo eine falsche Entscheidung des Algorithmus keine schweren Auswirkungen hat – also zum Beispiel, wenn mir der Streamingdienst mal das falsche Lied vorspielt. Dann gibt es andere Bereiche, wo man den Algorithmus durchaus für eine Empfehlung nutzen kann, aber dann der Mensch die letzte Entscheidung treffen sollte. Und dann gibt es wieder andere Bereiche, die man einfach dem menschlichen Urteilsvermögen überlassen sollte“, äußerst Schelter seine Sicht.

„In den USA werden Algorithmen eingesetzt, die einschätzen, wie wahrscheinlich es ist, dass ein Gefangener rückfällig wird. Die Gerichte und Gremien bekommen Zugriff auf diese Daten, wenn sie über eine vorzeitige Haftentlassung entscheiden.“ Da drängt sich die Frage auf: Ist das gerecht?

„Das Thema Gerechtigkeit ist mathematisch kaum zu erfassen, weil es sich vor allem um philosophische, politische, juristische Fragen dreht. Jeder hat eine andere Vorstellung davon, was gerecht ist und was nicht, und es ist mathematisch nicht möglich, alle Definitionen von Gerechtigkeit gleichzeitig zu erfüllen.“

Auch Studien, in denen die Fairness der Entscheidung durch Algorithmen untersucht wird, legen nahe, dass es in Sachen Taktgefühl noch Aufholbedarf gibt. In vielen Bereichen müsse man sich zuerst ethisch, politisch und rechtlich einig werden, wie bestimmte Fälle „richtig“ entschieden werden. Erst danach könnte man die Aufgabe auch einem Algorithmus anvertrauen. „Selbst dann bleibt die philosophische und politische Frage, ob man das überhaupt machen will“, so Schelter.