Schon seit einigen Jahrzehnten beschäftigen sich Forscher*innen damit, eine künstliche Intelligenz (KI) zu entwickeln, die ein Problem selbstständig lösen kann.
Anfangs wird an regelbasierter, symbolischer KI gearbeitet. Doch diese Form der KI ist stark limitiert. Sie ist nur für Bereiche geeignet, in denen klare Regeln für alle denkbaren Situationen bestimmt werden können. Sehr große Fortschritte werden ab den 1980er-Jahren mit selbstlernenden Programmen erzielt.
Maschinelles Lernen bedeutet, dass ein Computer aus Beispielen und Erfahrung lernt, wie eine Entscheidung getroffen werden muss – ohne für eine bestimmte Problemlösung programmiert zu werden. Spezielle Algorithmen lernen aus Beispieldaten und entwickeln Modelle, die sie dann auch für neue, zuvor noch nicht gesehene Daten verwenden können. Wenn selbstlernende Maschinen mit sehr vielen Beispielen trainiert werden, entwickeln sie selbstständig einen Entscheidungsprozess, der verallgemeinert wird. Wie selbstlernende Programme zu ihren Entscheidungen kommen, können jedoch selbst die Programmierer*innen meist nicht mehr nachvollziehen. Je nach Komplexität unterscheidet man verschiedene Ebenen des maschinellen Lernens: Überwachtes Lernen, Unüberwachtes Lernen, Verstärkendes Lernen und Deep Learning.
„Wir haben heute Maschinen, die schon relativ gut lernen können, aber wir haben noch keine Maschinen, die denken können. Diese Art von Maschinen zu entwickeln, das ist die große Herausforderung.“
Bernhard Schölkopf, Direktor am Max-Planck-Institut für Intelligente Systeme in Tübingen
Wie lernt KI?
Regelbasiertes Lernen
Regelbasiertes Lernen, auch symbolische KI genannt, baut auf logischen Modellen auf und wird oft als „klassische“ KI bezeichnet. Sie entscheidet nach klaren, vorab im Programmcode festgelegten Regeln.
Ein Beispiel für diese Form der KI ist Deep Blue – das Computerprogramm, das 1996 erstmals den damaligen Schachweltmeister Kasparow besiegt. Es arbeitet mit symbolischer KI und erreicht seine Spielstärke hauptsächlich durch seine riesige Rechenleistung. Die Schachsoftware berechnet im Durchschnitt 126 Millionen Stellungen pro Sekunde. Wirklich intelligent ist Deep Blue nicht – aber sehr, sehr schnell.
Überwachtes Lernen
Beim Überwachten Lernen bewerten Menschen die Trainings- und Testdaten und ordnen sie Gruppen zu. In der Trainingszeit lernt die KI, etwa Bilder von Katzen korrekt „Katze“ zu nennen. Wird einem Algorithmus, der für die Entscheidung zwischen Hund und Katze trainiert wurde, das Bild eines Elefanten gezeigt, ist das für die KI nicht lösbar. Auf ein enges Feld begrenzt, sind diese Algorithmen aber sehr zuverlässig und genau, wenn die Trainingsdaten umfangreich genug und von hoher Qualität sind.
Die Analyse von Bildern mit lernenden Methoden spielt in der bildgebenden Diagnostik bereits eine große Rolle. Mehrere Studien zeigen, dass KI zum Beispiel bei der Beurteilung von Hautkrebs schnellere und oft auch genauere Diagnosen stellen kann als viele Mediziner*innen. Die besten Ergebnisse erzielen Mensch und KI gemeinsam: Die KI beurteilt zuerst, ob es sich überhaupt um Hautkrebs handelt oder um eine ungefährliche Veränderung der Haut. Die Behandlung bestimmen dann die Fachärzt*innen.
Unüberwachtes Lernen
Von Unüberwachtem Lernen spricht man, wenn der Algorithmus ungefilterte Rohdaten erhält. Das Programm sucht selbstständig nach Gemeinsamkeiten und Unterschieden in den Daten. Ziel ist es, interessante und passende Muster zu erkennen. Hierbei kommt es aber manchmal zu Fehlern, wenn die KI Gemeinsamkeiten vor allem im Bildhintergrund erkennt und deshalb zu falschen Ergebnisse kommt. Lernt die KI etwa ausschließlich anhand von Bildern mit Wölfen im Schnee, was ein „Wolf“ ist, wird sie auch ein anderes Tier im Schnee „Wolf“ nennen.
Mustererkennung durch selbstlernende Netzwerke kann Forscher*innen helfen, mehr zu sehen: Fluoreszenzmikroskopie von lebenden Zellen muss oft mit wenig Licht durchgeführt werden, da die untersuchten Organsimen sonst geschädigt werden. Selbstlernende Bildrestaurierungssoftware analysiert diese schlecht ausgeleuchteten, schwer erkennbaren Mikroskopiebilder, vergleicht sie mit Mustern aus bekannten Aufnahmen und kann so „versteckte“ Bildinhalte sichtbar machen.
Verstärkendes Lernen
Beim Verstärkenden Lernen trifft das lernende System Entscheidungen, nach denen es anschließend handelt. Für jede Aktion erhält das System ein positives oder negatives Feedback. So lernt der Algorithmus immer besser einzuschätzen, wie erfolgreich einzelne Handlungen in den verschiedenen Situationen sind. Das Deep Learning ist eine Methode des Verstärkenden Lernens in künstlichen neuronalen Netzen, die das Gehirn imitieren. Ein solches neuronales Netz besteht aus mehreren Schichten. Die einzelnen Schichten bestehen aus vielen künstlichen Neuronen, die miteinander verbunden sind und auf die Neuronen der jeweils vorherigen Schicht reagieren. Je größer das Netz, desto kompliziertere Sachverhalte können verarbeitet werden.
Sprach- und Texterkennung
Deep Learning wird unter anderem zur Sprach- und Texterkennung angewendet. Zum Beispiel arbeiten der in Köln entwickelte Online-Übersetzungsdienst DeepL und das Simultanübersetzungs-programm Lecture Translator des Karlsruher Instituts für Technologie mit künstlichen neuronalen Netzen.
Gesichtserkennung
Auch bei der Gesichtserkennung werden heute künstliche neuronale Netzwerke eingesetzt. Allein in der britischen Hauptstadt London sind über 600.000 Kameras installiert, viele davon werden auch zur Gesichtserkennung genutzt. Die Technologie soll der Polizei helfen, Verbrechen aufzuklären oder sogar zu verhindern. Doch wie groß sind die Gefahren einer solchen Überwachung? Wie weit ist sie mit Demokratie und Bürgerrechten vereinbar?
Autonomes Fahren
Schon seit Jahrzehnten arbeiten Automobilhersteller an der Automatisierung des Fahrens durch verschiedene Assistenzsysteme. Vieles ist hier schon Realität, zum Beispiel automatische Geschwindigkeitsanpassung oder Einparkhilfen. Das große Ziel ist autonomes Fahren, bei dem Computerprogramme mit KI die Fahrzeugkontrolle vollständig übernehmen und die Menschen nur Passagiere sind. Das würde einerseits manchen Verkehrsunfall verhindern, denn sehr viele Unfälle passieren heute wegen menschlichen Fehlern. Doch andererseits gibt es auch grundlegende Fragen: Wer trägt die Verantwortung bei einem Zusammenstoß mit einem Fahrzeug ohne Fahrer*in?
BEISPIELE AUS DER KI-FORSCHUNG
Komm, forsch mit mir
Der kleine vierbeinige Roboter SOLO 8 stammt aus den Robotik-Laboren des Max-Planck-Instituts für Intelligente Systeme in Tübingen und Stuttgart. Der Forschungsroboter ist ein Open-Source-Projekt, die Bauanleitung und die GitHub-Dokumentation sind offen zugänglich. Die meisten Bauteile kommen aus dem 3D-Drucker, den Rest kann man leicht zukaufen. Das heißt, Forscher*innen in aller Welt können SOLO 8 kostengünstig und einfach nachbauen und weiterentwickeln. Die Idee des Projekts ist es, dass jedes Robotik-Forschungslabor die Technologie nutzen kann und so eine weltweit einheitliche Forschungsplattform entsteht. Denn wenn viele Wissenschaftler*innen Experimente auf derselben Plattform durchführen, erhält man vergleichbare Daten. Das ermöglicht schnellere Fortschritte auf dem Gebiet der Robotik.
Eine Langzeitbelichtung lässt die hochdynamischen Bewegungsabläufe des Roboters SOLO 8 zum Tanz werden
Eine Langzeitbelichtung lässt die hochdynamischen Bewegungsabläufe des Roboters SOLO 8 zum Tanz werden.
da Vinci mit Fingerspitzengefühl
Heute übliche Mensch-Maschine-Schnittstellen sind meist auf Hören oder Sehen ausgerichtet. Doch Katherine Kuchenbecker und ihr Team am Max-Planck-Institut in Stuttgart sind überzeugt: Für viele Anwendungsbereiche benötigen Roboter bessere haptische Interaktionsfähigkeiten sowie eine höhere soziale Intelligenz. Deshalb bringen die Wissenschaftler*innen Robotern bei, ihre Umwelt tastend zu begreifen. Das ist im Umgang mit Menschen, zum Beispiel Pflegebedürftigen, genauso wichtig wie für den Einsatz ferngesteuerter Roboter. So entwickelt Kuchenbecker den Operationsroboter „da Vinci“ weiter, mit dessen Unterstützung Chirurg*innen auch über große Entfernungen hinweg operieren können. Dabei sendet das KI-System die Bewegungen der weit entfernten Spezialist*innen an den Roboter. Dank der neuen Funktionen können die Ärzt*innen nun nicht mehr nur am Bildschirm sehen, sondern auch direkt fühlen, was der Roboter tut.