Der Ausdruck „Künstliche Intelligenz“ (KI) – oder englisch „Artificial Intelligence“ (AI) – wird 1955 erstmals offiziell verwendet.
Der Informatiker John McCarthy benutzt ihn im Zusammenhang mit einer Konferenz, auf der unter anderem Programme vorgestellt werden, die Schach und Dame spielen können. 40 Jahre später schlägt der von IBM entwickelte Schachcomputer Deep Blue den Weltmeister Garri Kasparow. Aber ist das Intelligenz? Genau hier liegt das Problem: Der Versuch, intelligente Maschinen zu entwickeln, folgt zunächst der Vorstellung von natürlicher Intelligenz – aber auch dafür gibt es bis heute keine allgemeingültige Definition. Eines jedoch steht fest: Das Modell für KI ist unser Gehirn, ein neuronales Netzwerk, das lernen, schlussfolgern und abstrakt denken kann.
Noch gibt es keine Maschinen, die denken oder intelligent mit ihrer Umwelt interagieren können – auch wenn heutige KI bereits sehr gut lernen kann. Aber schon jetzt hat diese Technologie unseren Alltag in praktisch jedem Lebensbereich tiefgreifend verändert.
„Was wir heute in unseren Taschen mit uns herumtragen hat die Leistung eines Supercomputers von vor wenigen Jahrzehnten.“
Peter Dayan, Direktor am Max-Planck-Institut für biologische Kybernetik in Tübingen
Schwache, starke und Super-KI – worum geht es?
KI ist ein Teilbereich der Informatik. Sie hat zum Ziel, dass Computer durch Algorithmen Muster erkennen und selbstständige Entscheidungen treffen können. KI ist noch ein junges Fachgebiet. Und so gibt es selbst unter Fachleuten unterschiedliche Meinungen darüber, was unter KI zu verstehen ist und was nicht. Viele sehen die Fähigkeit eines Rechnersystems zu selbstständigem Lernen als notwendige Voraussetzung für KI an, andere zählen zum Beispiel auch einfache Sprachassistenten dazu.
Grundsätzlich gibt es drei verschiedene Formen von KI: schwache KI, starke KI und die sogenannte Super-KI.
Schwache KI
Schwache KI ist künstliche Intelligenz, die auf ein Gebiet spezialisiert ist. Dort kann sie richtig gut sein, aber sie kann ihr Wissen nicht auf andere Bereiche übertragen. Auch unsere Smartphones, jeder moderne Computer und das Internet stecken voller schwacher KI, zum Beispiel, wenn das Smartphone Fotos in Ordner gruppiert, ein Programm Texte von einer Sprache in die andere übersetzt oder YouTube das nächste Video vorschlägt. Schwache KIs sind sozusagen „Fachidioten“. Auf ihrem Spezialgebiet sind sie sehr gut, oft sogar besser als Menschen – aber sie können nichts anderes. Jede heute existierende KI ist schwache KI.
Starke KI
Eine starke KI kann das, was sie in einem Gebiet gelernt hat, auch auf andere Bereiche anwenden. Damit wäre eine starke KI ähnlich intelligent wie ein Mensch. Nur dass es bis heute keine starke KI gibt. Selbst sehr anspruchsvolle Systeme – wie zum Beispiel für das autonome Fahren – sind schwache KIs, weil sie immer noch auf ein genau definiertes Gebiet beschränkt sind. Von einer dem menschlichen Gehirn vergleichbaren Intelligenz ist das noch meilenweit entfernt. Künstliche neuronale Netze sind die anspruchsvollste Art des maschinellen Lernens. Sie spielen auf dem Weg zur starken KI eine entscheidende Rolle.
Super-KI
Eine Super-KI oder künstliche Superintelligenz wäre intelligenter als der Mensch. Nicht nur bei der Lösung bestimmter Probleme oder Fragestellungen, sondern auch in ihren kreativen und sozialen Fähigkeiten. Eine Super-KI müsste sich selbst Ziele und Werte setzen und diese auch an alle Situationen anpassen können. Außerdem stellt sich die Frage, ob zu einer Super-KI auch ein Bewusstsein gehört. Einzelne Systeme – wie bestimmte, besonders schnelle und leistungsstarke Suchmaschinen – werden manchmal als „superintelligent“ bezeichnet. Sie sind aber nur in Teilgebieten und in einem bestimmten Anwendungsbereich besser als Menschen und somit letztendlich schwache KI. Eine echte Super-KI würde die Welt ohne Zweifel grundlegend verändern.
Schon seit einigen Jahrzehnten beschäftigen sich Forscher*innen damit, eine künstliche Intelligenz (KI) zu entwickeln, die ein Problem selbstständig lösen kann.
Anfangs wird an regelbasierter, symbolischer KI gearbeitet. Doch diese Form der KI ist stark limitiert. Sie ist nur für Bereiche geeignet, in denen klare Regeln für alle denkbaren Situationen bestimmt werden können. Sehr große Fortschritte werden ab den 1980er-Jahren mit selbstlernenden Programmen erzielt.
Maschinelles Lernen bedeutet, dass ein Computer aus Beispielen und Erfahrung lernt, wie eine Entscheidung getroffen werden muss – ohne für eine bestimmte Problemlösung programmiert zu werden. Spezielle Algorithmen lernen aus Beispieldaten und entwickeln Modelle, die sie dann auch für neue, zuvor noch nicht gesehene Daten verwenden können. Wenn selbstlernende Maschinen mit sehr vielen Beispielen trainiert werden, entwickeln sie selbstständig einen Entscheidungsprozess, der verallgemeinert wird. Wie selbstlernende Programme zu ihren Entscheidungen kommen, können jedoch selbst die Programmierer*innen meist nicht mehr nachvollziehen. Je nach Komplexität unterscheidet man verschiedene Ebenen des maschinellen Lernens: Überwachtes Lernen, Unüberwachtes Lernen, Verstärkendes Lernen und Deep Learning.
„Wir haben heute Maschinen, die schon relativ gut lernen können, aber wir haben noch keine Maschinen, die denken können. Diese Art von Maschinen zu entwickeln, das ist die große Herausforderung.“
Bernhard Schölkopf, Direktor am Max-Planck-Institut für Intelligente Systeme in Tübingen
Wie lernt KI?
Regelbasiertes Lernen
Regelbasiertes Lernen, auch symbolische KI genannt, baut auf logischen Modellen auf und wird oft als „klassische“ KI bezeichnet. Sie entscheidet nach klaren, vorab im Programmcode festgelegten Regeln.
Ein Beispiel für diese Form der KI ist Deep Blue – das Computerprogramm, das 1996 erstmals den damaligen Schachweltmeister Kasparow besiegt. Es arbeitet mit symbolischer KI und erreicht seine Spielstärke hauptsächlich durch seine riesige Rechenleistung. Die Schachsoftware berechnet im Durchschnitt 126 Millionen Stellungen pro Sekunde. Wirklich intelligent ist Deep Blue nicht – aber sehr, sehr schnell.
Überwachtes Lernen
Beim Überwachten Lernen bewerten Menschen die Trainings- und Testdaten und ordnen sie Gruppen zu. In der Trainingszeit lernt die KI, etwa Bilder von Katzen korrekt „Katze“ zu nennen. Wird einem Algorithmus, der für die Entscheidung zwischen Hund und Katze trainiert wurde, das Bild eines Elefanten gezeigt, ist das für die KI nicht lösbar. Auf ein enges Feld begrenzt, sind diese Algorithmen aber sehr zuverlässig und genau, wenn die Trainingsdaten umfangreich genug und von hoher Qualität sind.
Die Analyse von Bildern mit lernenden Methoden spielt in der bildgebenden Diagnostik bereits eine große Rolle. Mehrere Studien zeigen, dass KI zum Beispiel bei der Beurteilung von Hautkrebs schnellere und oft auch genauere Diagnosen stellen kann als viele Mediziner*innen. Die besten Ergebnisse erzielen Mensch und KI gemeinsam: Die KI beurteilt zuerst, ob es sich überhaupt um Hautkrebs handelt oder um eine ungefährliche Veränderung der Haut. Die Behandlung bestimmen dann die Fachärzt*innen.
Unüberwachtes Lernen
Von Unüberwachtem Lernen spricht man, wenn der Algorithmus ungefilterte Rohdaten erhält. Das Programm sucht selbstständig nach Gemeinsamkeiten und Unterschieden in den Daten. Ziel ist es, interessante und passende Muster zu erkennen. Hierbei kommt es aber manchmal zu Fehlern, wenn die KI Gemeinsamkeiten vor allem im Bildhintergrund erkennt und deshalb zu falschen Ergebnisse kommt. Lernt die KI etwa ausschließlich anhand von Bildern mit Wölfen im Schnee, was ein „Wolf“ ist, wird sie auch ein anderes Tier im Schnee „Wolf“ nennen.
Mustererkennung durch selbstlernende Netzwerke kann Forscher*innen helfen, mehr zu sehen: Fluoreszenzmikroskopie von lebenden Zellen muss oft mit wenig Licht durchgeführt werden, da die untersuchten Organsimen sonst geschädigt werden. Selbstlernende Bildrestaurierungssoftware analysiert diese schlecht ausgeleuchteten, schwer erkennbaren Mikroskopiebilder, vergleicht sie mit Mustern aus bekannten Aufnahmen und kann so „versteckte“ Bildinhalte sichtbar machen.
Verstärkendes Lernen
Beim Verstärkenden Lernen trifft das lernende System Entscheidungen, nach denen es anschließend handelt. Für jede Aktion erhält das System ein positives oder negatives Feedback. So lernt der Algorithmus immer besser einzuschätzen, wie erfolgreich einzelne Handlungen in den verschiedenen Situationen sind. Das Deep Learning ist eine Methode des Verstärkenden Lernens in künstlichen neuronalen Netzen, die das Gehirn imitieren. Ein solches neuronales Netz besteht aus mehreren Schichten. Die einzelnen Schichten bestehen aus vielen künstlichen Neuronen, die miteinander verbunden sind und auf die Neuronen der jeweils vorherigen Schicht reagieren. Je größer das Netz, desto kompliziertere Sachverhalte können verarbeitet werden.
Sprach- und Texterkennung
Deep Learning wird unter anderem zur Sprach- und Texterkennung angewendet. Zum Beispiel arbeiten der in Köln entwickelte Online-Übersetzungsdienst DeepL und das Simultanübersetzungs-programm Lecture Translator des Karlsruher Instituts für Technologie mit künstlichen neuronalen Netzen.
Gesichtserkennung
Auch bei der Gesichtserkennung werden heute künstliche neuronale Netzwerke eingesetzt. Allein in der britischen Hauptstadt London sind über 600.000 Kameras installiert, viele davon werden auch zur Gesichtserkennung genutzt. Die Technologie soll der Polizei helfen, Verbrechen aufzuklären oder sogar zu verhindern. Doch wie groß sind die Gefahren einer solchen Überwachung? Wie weit ist sie mit Demokratie und Bürgerrechten vereinbar?
Autonomes Fahren
Schon seit Jahrzehnten arbeiten Automobilhersteller an der Automatisierung des Fahrens durch verschiedene Assistenzsysteme. Vieles ist hier schon Realität, zum Beispiel automatische Geschwindigkeitsanpassung oder Einparkhilfen. Das große Ziel ist autonomes Fahren, bei dem Computerprogramme mit KI die Fahrzeugkontrolle vollständig übernehmen und die Menschen nur Passagiere sind. Das würde einerseits manchen Verkehrsunfall verhindern, denn sehr viele Unfälle passieren heute wegen menschlichen Fehlern. Doch andererseits gibt es auch grundlegende Fragen: Wer trägt die Verantwortung bei einem Zusammenstoß mit einem Fahrzeug ohne Fahrer*in?
BEISPIELE AUS DER KI-FORSCHUNG
Komm, forsch mit mir
Der kleine vierbeinige Roboter SOLO 8 stammt aus den Robotik-Laboren des Max-Planck-Instituts für Intelligente Systeme in Tübingen und Stuttgart. Der Forschungsroboter ist ein Open-Source-Projekt, die Bauanleitung und die GitHub-Dokumentation sind offen zugänglich. Die meisten Bauteile kommen aus dem 3D-Drucker, den Rest kann man leicht zukaufen. Das heißt, Forscher*innen in aller Welt können SOLO 8 kostengünstig und einfach nachbauen und weiterentwickeln. Die Idee des Projekts ist es, dass jedes Robotik-Forschungslabor die Technologie nutzen kann und so eine weltweit einheitliche Forschungsplattform entsteht. Denn wenn viele Wissenschaftler*innen Experimente auf derselben Plattform durchführen, erhält man vergleichbare Daten. Das ermöglicht schnellere Fortschritte auf dem Gebiet der Robotik.
Eine Langzeitbelichtung lässt die hochdynamischen Bewegungsabläufe des Roboters SOLO 8 zum Tanz werden.
Zusammenhänge erkennen
Eines der aktuellen Forschungsgebiete von Bernhard Schölkopf am Max-Planck-Institut für Intelligente Systeme in Tübingen ist die sogenannte kausale Inferenz. Dabei geht es um Algorithmen, die aus Daten auch kausale Zusammenhänge – also die Beziehung zwischen Ursache und Wirkung – erkennen können. Ein Ziel dabei ist es, KI-Systeme robuster zu machen gegen Störeinflüsse von außen. Ein gutes Beispiel ist auch hier das autonome Fahren: Wenn in einem Wohngebiet mit Geschwindigkeitsbeschränkung ein Verkehrsschild so manipuliert wird, dass es statt Tempo 30 eine „130“ zeigt, weiß ein Mensch sofort, dass das nicht stimmen kann – eben weil die Umgebung viele zusätzliche Hinweise gibt. Für eine KI ist das dagegen keine leichte Aufgabe. Und doch muss sie es können, bevor Autos wirklich autonom fahren, sonst sind schwere Unfälle „vorprogrammiert“.
Perfektes Zusammenspiel
Für große Filmmärkte wie Deutschland werden Filme und Serien synchronisiert. Übersetzer*innen müssen dabei nicht nur den Inhalt des Gesagten richtig wiedergeben. Der neue Text muss auch zu den Lippenbewegungen und zur Mimik der Schauspieler*innen passen. Doch das könnte sich ändern: Eine am Max-Planck-Institut für Informatik entwickelte KI-Technik namens „Deep Video Portraits“ macht es möglich, stattdessen Gesichtsausdruck und Mimik der Darsteller*innen an die beste Übersetzung anzupassen. Dazu werden die Bewegungen im Gesicht und die Kopfposition der Synchronsprecher*innen aufgenommen. Das System überträgt diese auf die Schauspieler*innen im Film. Im Ergebnis passen dann Mimik, Blick, Kopfhaltung und sogar ein Augenzwinkern perfekt zum gesprochenen Wort. Ähnliche Techniken sind es aber auch, die das „Deepfake“ genannte Fälschen von Medieninhalten möglich machen. So kann heute zum Beispiel Politiker*innen jede noch so abwegige Aussage in den Mund gelegt werden. Wir müssen uns also daran gewöhnen, auch scheinbar objektiven Beweisen kritisch gegenüberzustehen.
Sprachen lernen mit KI
Online-Sprachkurse gibt es „wie Sand am Meer“. Doch das Angebot unterscheidet sich oft sehr in Qualität und Preis. Besonders erfolgversprechend sind Kurse, in denen die Lernenden viel Feedback von Tutor*innen erhalten. Aber diese Kurse sind teuer. Das Weizenbaum-Institut – ein Forschungsverbundprojekt in Berlin und Brandenburg – entwickelt gemeinsam mit dem Goethe-Institut eine KI, die es ermöglicht, die Zeit der Tutor*innen möglichst effizient einzusetzen und auf Bereiche wie das Schreiben eigener Texte und das Erlernen der richtigen Aussprache zu konzentrieren. Das Programm kann unter anderem auch in frei formulierten Texten nicht nur neue Vokabeln, sondern auch die richtige Anwendung einer neu erlernten Grammatik überprüfen. Es kann sogar erkennen, ob Schüler*innen einen Text selber übersetzt haben oder mithilfe von Übersetzungsprogrammen „schummeln“. So kann die KI Routineaufgaben der Tutor*innen übernehmen.
da Vinci mit Fingerspitzengefühl
Heute übliche Mensch-Maschine-Schnittstellen sind meist auf Hören oder Sehen ausgerichtet. Doch Katherine Kuchenbecker und ihr Team am Max-Planck-Institut in Stuttgart sind überzeugt: Für viele Anwendungsbereiche benötigen Roboter bessere haptische Interaktionsfähigkeiten sowie eine höhere soziale Intelligenz. Deshalb bringen die Wissenschaftler*innen Robotern bei, ihre Umwelt tastend zu begreifen. Das ist im Umgang mit Menschen, zum Beispiel Pflegebedürftigen, genauso wichtig wie für den Einsatz ferngesteuerter Roboter. So entwickelt Kuchenbecker den Operationsroboter „da Vinci“ weiter, mit dessen Unterstützung Chirurg*innen auch über große Entfernungen hinweg operieren können. Dabei sendet das KI-System die Bewegungen der weit entfernten Spezialist*innen an den Roboter. Dank der neuen Funktionen können die Ärzt*innen nun nicht mehr nur am Bildschirm sehen, sondern auch direkt fühlen, was der Roboter tut.
„Mithilfe von KI können wir gute Chirurgen zu sehr guten Chirurgen machen.“
Katherine Kuchenbecker, Direktorin am Max-Planck-Institut für Intelligente Systeme in Stuttgart
Wissenschaftler*innen sehen künstliche Intelligenz (KI) als Schlüsseltechnologie, deren Anwendung in allen Gesellschaftsbereichen zu erwarten ist. KI kann die Lebensqualität vieler Menschen erhöhen und bei der Bewältigung weltweiter Herausforderungen wie Klimawandel oder Gesundheitskrisen helfen.
Auf der ganzen Welt wird schon heute sehr viel Geld für die Entwicklung von KI-Systemen bereitgestellt. Das zeigt, wie hoch das wirtschaftliche Potenzial der KI ist. Mit der zunehmenden Nutzung von KI-Anwendungen wachsen aber auch die Bedenken, zum Beispiel in Bezug auf die Bedeutung menschlicher Werte wie Fairness, Freiheit, Datenschutz, Sicherheit und Haftung. Wohl kaum eine andere Entwicklung stellt uns derzeit so deutlich und umfassend die Frage, wie wir unsere technischen Fähigkeiten im gesellschaftlichen Zusammenhang sehen wollen. Sicher ist, dass diese Technologie unseren Alltag schon jetzt tiefgreifend verändert hat und weiter verändern wird.
Moral für Maschinen
Algorithmen verändern durch Dating-Apps das Liebesleben vieler Menschen, verwalten das Smart Home, treffen Kaufentscheidungen und beeinflussen die öffentliche Debatte. KI wird Kinder betreuen, Kranke pflegen, Jobs und Kredite vergeben und in autonomen Waffen über Leben oder Tod entscheiden. Intelligente Maschinen werden eigene Verhaltensmuster entwickeln, die sich weder eindeutig programmieren noch mit der traditionellen Verhaltensforschung erklären lassen. Aber ist ethisches Handeln ohne Bewusstsein und Gewissen überhaupt denkbar? Wie also können wir KIs entwickeln, die den Menschen dienen und nicht schaden? Viele KI-Expert*innen sind überzeugt, dass nur ein neues Forschungsgebiet diese Fragen beantworten kann: „Machine Behaviour“, Verhaltensforschung für Maschinen. Eines jedenfalls ist klar: Wir müssen heute grundlegende Fragen der Ethik und Moral klären, wenn sich Maschinen in Zukunft danach verhalten sollen.
The Moral Machine
Iyad Rahwan forscht am Max-Planck-Institut für Bildungsforschung in Berlin und am MIT Media Lab in Boston. Sein Projekt „The Moral Machine“ ist die bisher größte Studie auf dem Gebiet der Maschinenethik. Die interaktive Umfrage untersucht, aus welchen ethischen Gründen Menschen in verschiedenen Weltregionen Entscheidungen treffen und ob daraus Verhaltensregeln für KI entwickelt werden können. Wie soll sich ein autonom fahrendes Auto verhalten, wenn ein schwerer Unfall nicht zu verhindern ist? Die KI muss entscheiden, wohin sie das Auto steuert – und damit auch, wer überlebt. Es zeigt sich: Alle Befragten wollen möglichst viele Menschenleben retten, Kinder zuerst und diejenigen, die sich an die Verkehrsregeln halten. Doch bei genauerem Hinsehen wird klar, dass es keine weltweit gültigen Werte gibt. So möchten Teilnehmer*innen aus Frankreich und Südamerika überwiegend eher Frauen und Kinder retten als Männer, Japaner*innen auch ältere Menschen und die meisten Deutschen möchten nicht eingreifen und das „Schicksal“ entscheiden lassen, wer sterben muss.
Ranga Yogeshwar reist zu den Hotspots der Forschung auf dem Gebiet der Künstlichen Intelligenz in Europa, den USA und China. Dabei besucht er auch Iyad Rahwan und lässt sich das Moral Machine-Projekt erläutern (ab TC 38:06).
Auf Fairness programmiert
Wer bekommt einen Kredit? Wer wird zum Jobinterview eingeladen? Wer kommt früher aus dem Gefängnis? In Zukunft werden Computer immer häufiger über Menschen (mit-)entscheiden. Dabei dürfen einzelne Personengruppen nicht besser oder schlechter behandelt werden als andere – auch nicht unbeabsichtigt. Bei automatischen Systemen, die bereits eingesetzt werden, passiert das immer wieder. Warum? Und wie kann eine KI lernen, sich fair zu verhalten? Zunächst muss sicher sein, dass die KI nicht aufgrund der Daten diskriminiert, mit denen sie „gefüttert“ wird. Darüber hinaus spielt es eine große Rolle, inwieweit Computer eine sinnvolle Beziehung zwischen Ursache und Wirkung herstellen können. Einfache „wenn-dann-Beziehungen“ führen hier oft in die Irre. Diese sogenannte Kausalität maschinellen Lernens ist ein sehr aktuelles Forschungsgebiet: Zusammenhänge müssen aufwendig analysiert und in Algorithmen programmiert werden. Aber zu guter Letzt bleibt die Frage „Was ist eine faire Entscheidung?“ Denn es gibt keine Definition von Fairness, die für alle Kulturkreise gleichermaßen gültig wäre.
Kann KI schuldig werden?
Wer bezahlt den Schaden, wenn selbstständig lernende und handelnde Maschinen Fehler machen? Die Programmierer*innen, die Produzent*innen, die Nutzer*innen? Die Rechtsordnungen auf der ganzen Welt sind für Menschen gemacht, auch wenn sich einige auf Sachen beziehen. Verantwortlich sind in diesem Fall aber nicht die Produkte oder Maschinen, sondern die Personen, die sie herstellen oder nutzen. Doch das alles gilt für Maschinen, die zum Zeitpunkt des Kaufs „fertig“ sind. Lernende KI verändert sich hingegen ununterbrochen. Wenn eine KI Entscheidungen trifft – und nur dann ist sie eine KI – müsste sie dann nicht auch als Rechtsperson für ihr Handeln verantwortlich sein? Wohin werden sich die Rechtsordnungen entwickeln? Einige Jurist*innen sagen, dass sich nichts ändern muss. Andere wollen sicherstellen, dass man durch den Einsatz von intelligenten Maschinen seine Verantwortung nicht abgeben kann. Eine dritte Gruppe vertritt den Standpunkt, dass völlig neue Rechtsvorschriften entwickelt werden müssen.
Vom Wert der Daten
Mit Hilfe von KI werden riesige Mengen an Daten ausgewertet. Genutzt werden sie etwa im Marketing für kundengenaue Werbung, bei Empfehlungen von Suchmaschinen oder auch für Chatbots. Das sind Online-Dialogsysteme, die in Echtzeit Fragen beantworten, ohne dass ein Mensch beteiligt ist. Unternehmen nutzen Chatbots im Kundendienst oder in Onlineshops, aber auch in sozialen Netzwerken kommen sie häufig vor. Damit Chatbots korrekt funktionieren, müssen allerdings die Daten von guter Qualität sein. Lernt eine KI von den „falschen“ Vorbildern, kann sie schnell rassistisch, vulgär und verletzend werden. Das passiert zum Beispiel Ende 2020 mit „Lee Luda“: Der Avatar dieses Chatbots ist ein Manga-Mädchen, ihre Datengrundlage sind rund 100 Milliarden Talk-Botschaften. Innerhalb weniger Wochen unterhalten sich 750.000 Menschen mit „Lee Luda“. Doch von manchen Teilnehmer*innen lernt Lee problematische Ansichten. Sie äußert sich immer öfter beleidigend, sogar menschenverachtend und wird schließlich vom Netz genommen.
Soziale Roboter
In vernetzten Fabriken arbeiten Mensch und Maschine schon heute als intelligentes Team zusammen. Roboter übernehmen anstrengende, gefährliche oder langweilige Aufgaben und helfen so ihren Kolleg*innen. Auch in der Pflege von kranken und älteren Menschen werden Roboter und KI in Zukunft immer häufiger unterstützende Tätigkeiten leisten. Intelligente Maschinen, die mit Menschen kommunizieren sollen, sehen oft auch wie Menschen aus: Sie haben einen Kopf, einen Körper, zwei Arme und manchmal sogar zwei Beine. Dann wird die Maschine von den Menschen besser akzeptiert – so wie „Pepper“, ein 1,20 Meter kleiner Pflegeroboter mit großen schwarzen Kulleraugen und einem glänzend weißen Körper. Er spricht mehrere Sprachen, kann sich Gesichter merken, Gefühle erkennen und darauf reagieren. Pflegeroboter können viele Aufgaben übernehmen und so den Menschen helfen, die in der Pflege arbeiten. Zwischenmenschliche Beziehungen können sie nicht ersetzen – aber mehr Zeit dafür schaffen.
Künstliche Kunst
Künstler*innen setzen sich auf vielfältige Art mit den Beziehungen zwischen der digitalen und der physischen Welt auseinander. Bei der Science-Fiction spielt KI schon lange eine wichtige Rolle. Aber kann KI selbst Kunst erschaffen? Kunst ist ein kreativer Prozess, bei dem Wahrnehmung, Vorstellung und Intuition wichtig sind. Kann KI kreativ sein, wenn sie keinen Humor versteht, Trauer und Freude nicht kennt und kein Bewusstsein hat?
Mithilfe von intelligenten Algorithmen entstehen heute Gemälde, Gedichte und Musikstücke. Das Auktionshaus Christie’s versteigert 2018 erstmals ein von einer KI erstelltes Bild. Der Münchner Künstler Mario Klingemann zeigt in Videoinstallationen Fantasiegesichter, die sich in Echtzeit ändern: Die lernende KI integriert die Gesichtszüge der Besucher*innen in das Kunstwerk und passt sich damit auch verschiedenen Kulturen an. Und mittels „Deepfake“ lässt KI eine künstliche Taylor Swift ein künstliches Lied singen. Dazu analysiert der Algorithmus alle Lieder der Sängerin und synthetisiert einen neuen Song – perfekt im Stil von Taylor Swift.
"KI ist nicht kreativ - KI kann Kreativität initiieren."
Claudia Janet Birkholz, Pianistin und Dozentin für Klavier und zeitgenössische Musik an der Hochschule für Künste Bremen
Wem gehört das Kunstwerk?
Wenn KI Kunst erschaffen kann, wem gehört dann das Kunstwerk? Ganz ohne menschliches Zutun kann KI-Kunst nie entstehen – wenigstens das Programm muss jemand geschrieben haben. Wer ist also die Künstlerin oder der Künstler? 2018 vermarktet Christie’s das Bild „Portrait of Edmond de Belamy“ als das erste Kunstwerk, das nicht von einem Menschen, sondern von einer KI erstellt wird. Den gesamten Kaufpreis von 432.500 Dollar bekommt das französische Künstlerkollektiv Obvious. Für das Bild „füttert“ Obvious einen Open-Source-Algorithmus mit Fotos von Gemälden und trainiert ihn, aus diesen Daten Bilder zu entwickeln. Die Künstler*innen wählen dann eines der Bilder aus, geben ihm seinen Namen und bieten es zum Verkauf an. Der Programmierer des Algorithmus wird weder genannt, noch bekommt er etwas vom Verkaufserlös. Ist das gerecht? Laut einer Untersuchung ist die Mehrheit der Befragten der Meinung, dass die Anerkennung vor allem diejenigen bekommen sollen, die die Lernalgorithmen mit Daten versorgen und sie trainieren – also in diesem Fall Obvious.
Spazieren gehen, viel über Blumen, Gräser und Bäume lernen und dabei Teil eines wissenschaftlichen Projekts sein. Die kostenlose App Flora Incognita erkennt schnell und unkompliziert Tausende von Pflanzen.
Sie ist eine gemeinsame Entwicklung von Wissenschaftler*innen des Max-Planck-Instituts für Biogeochemie in Jena und der Technischen Universität Ilmenau. Der Algorithmus wird zunächst mit mehreren Millionen Bildern von Pflanzen trainiert. Seit 2018 ist die App online und lernt mit jeder Nutzung dazu.
Ist diese Pflanze giftig? Ist sie häufig oder selten? Steht sie unter Naturschutz? Den Nutzer*innen bietet die App direkt vor Ort viel Wissen zu der Pflanze, die sie nicht kennen. Gleichzeitig erhalten die Forscher*innen neue Daten und Fakten zur Pflanzenvielfalt: Wann und wo blühen welche Arten? Wie stark unterscheiden sich Pflanzen einer Art? Wie verändert sich die Zusammensetzung der Pflanzenarten an einem Standort? So kann in diesem Citizen-Science-Projekt jede und jeder mithelfen, Biodiversität und ihre Veränderungen, zum Beispiel durch Klimawandel, zu erforschen.
Aus Anlass des 250. Geburtstags von Ludwig van Beethoven machen Musikwissenschaftler*innen und KI-Expert*innen 2020 ein besonderes Experiment – die Komposition von Beethovens zehnter Sinfonie.
Nach dem großen Erfolg der „Neunten“ arbeitet Beethoven an einer weiteren Sinfonie. Bei seinem Tod 1827 sind aber nur wenige Skizzen fertig. Mit Methoden der KI soll daraus eine mögliche Version der zehnten Sinfonie entstehen. Dafür werden die existierenden Beethoven-Kompositionen untersucht und maschinenlesbar gemacht. So lernen die Algorithmen den typischen Beethoven-Stil und können nun – ausgehend von den vorhanden Skizzen – sinnvolle musikalische Sätze produzieren.
Musikwissenschaftler*innen wählen die besten aus und spielen sie in das System zurück. So entsteht Schritt für Schritt das neue Werk. Allerdings ist das von der KI produzierte Musikstück zunächst „nur“ eine gleichförmige Tonfolge. Es bleibt die Aufgabe der Komponist*innen, sie für die unterschiedlichen Instrumente eines Orchesters zu interpretieren.
Eine neue Sinfonie entsteht
Hier „spielt“ die KI ihre Komposition als Glasharmonika. Die ersten sechs Takte, also etwa die ersten elf Sekunden, sind noch original von Beethoven.