Künstliche Intelligenz und COVID
„KI ist keine Wunderwaffe“

Sievietes skatiens pievērsts viedtālruņa ekrānam.
Ins Handy husten und es sagt dir, ob du dich testen lassen solltest: Wird KI den Gesundheitssektor revolutionieren? | Foto (Detail): Engin Akyurt © Unsplash

Welchen Platz hat Künstliche Intelligenz im Gesundheitssektor, in dem menschliche Interaktion doch so wichtig ist? Wissenschaftler Rahul Panicker zeigt im Interview einige Probleme von KI auf – und dass sie uns dennoch in Zeiten der Pandemie helfen könnte.

Von Svenja Hoffmann und Natascha Holstein

Herr Panicker, wir sehen, wie die Digitalisierung und die Technologie der künstlichen Intelligenz (KI) nach und nach in alle Lebensbereichen Einzug erhalten. Dazu gehört auch das Gesundheitswesen, ein Bereich, der traditionell eher auf die direkte menschliche Interaktion ausgerichtet ist. Was könnte durch den Einsatz künstlicher Intelligenz in der Gesundheitsversorgung verbessert werden?

In diesem Bereich gibt es enorme Möglichkeiten! Besonders im Bereich Global Health besteht ein Mangel an qualifizierten Pflegekräften, ausgebildeten Ärzt*innen und Spezialist*innen, ebenso an qualifiziertem Personal im Gesundheitswesen. Der Einsatz von Algorithmen, um die Reichweite des Gesundheitspersonals und der Gesundheitssysteme zu erweitern, ist also eine enorme Chance.  Wie können wir zum Beispiel eine medizinische Fachkraft an vorderster Front näher an einen Arzt oder eine Ärztin der primären Gesundheitsversorgung heranführen? Mit algorithmischer Unterstützung. Stellen Sie sich die Auswirkungen vor, die bei der Behandlung verschiedener Krankheiten möglich sind! Eine weitere Möglichkeit, KI im Gesundheitswesen positiv zu implementieren, besteht darin, bestimmte Technologien zu nutzen, um Signale zu erkennen, die für den Menschen schwieriger zu erfassen sind, aber durch Algorithmen möglich sind. So zeigen zum Beispiel die Ergebnisse von relativ neuen Arbeiten, die mit Hilfe von PET-Scans (Positronen-Emissions-Tomographie) durchgeführt wurden, dass diese in der Lage sind, Alzheimer bei Patient*innen etwa fünf Jahre früher im Vergleich zu herkömmlichen Diagnosemethoden vorherzusagen. Dies sind in gewisser Hinsicht übermenschliche Fähigkeiten der KI. Die dritte Möglichkeit – neben der Erweiterung der Reichweite der Gesundheitsfürsorge und den übermenschlichen Fähigkeiten – ist die Minimierung des Risikos. Das bedeutet, dass die KI im Grunde genommen ein Unterstützungssystem für pflegende Angehörige sein kann und medizinische Fehler reduziert werden. Ich könnte noch weitere Punkte nennen, aber das sind die wichtigsten Möglichkeiten.

Es ist bekannt, dass Menschen Fehler machen, und durch den Einsatz von KI diese vermieden werden könnten. Aber auch KI wird von Menschen programmiert, also frage ich mich, ob die Algorithmen dadurch nicht ebenso fehleranfällig sind.

Ja, natürlich. Jede Technologie besitzt eine bestimmte Wahrscheinlichkeit des Scheiterns. Und gerade im Gesundheitswesen können die Folgen wirklich schwerwiegend sein: Sie können von einer kleinen Belästigung bis hin zu lebensbedrohlichen Folgen reichen. Zum Beispiel, wenn das Lebenserhaltungssystem versagt oder schwere Krankheiten falsch diagnostiziert werden. Dies ist in der Gesundheitstechnologie bekannt. Die Frage, die wir uns vor allem stellen, lautet aber: Können wir die Dinge besser machen? Können wir die Wahrscheinlichkeit von Fehlern verringern? Da ist auch die Frage nach der Verzerrung wichtig. Es existieren Instrumente zur Eindämmung von Voreingenommenheit, die zwingend eingesetzt werden sollten. Aber selbst, wenn diese angewendet werden, gibt es Menschen, die an der einen oder anderen Stelle von den Vorurteilen betroffen sein werden. Es gibt ein grundlegendes Problem mit dieser Voreingenommenheit selbst: unsere Definition von „Fairness“. Wir haben keine einheitliche Definition dieses Konzepts, und einige Erklärungen sind mit anderen nicht vereinbar. Das ist ein Grundproblem. Aber wenn wir das für eine Minute beiseitelassen: Ja, wir haben die Absicht, unsere Systeme zu verbessern. Ich würde sogar noch einen Schritt weiter gehen und sagen, es geht nicht nur darum, Algorithmen fair zu machen – es geht auch darum, den Zugang fair zu machen. Was ermöglichen unsere Technologien? Bringen sie Datengleichheit? Oder fördern sie die Ungleichheit? Da geht es nicht nur um die Algorithmen selbst, sondern auch darum, wo man sie einsetzt und wer sie nutzen kann. Wer profitiert davon? Viele dieser Fragen gehen über die Grenzen der KI hinaus. 

Während der Covid-Pandemie haben Sie selbst ein KI-Projekt gestartet: CoughAgainstCovid. Worum handelt es sich dabei?

Die Idee ist, Hustengeräusche zu analysieren, um diese auf mehreren Ebenen mit dem Covid-Husten zu vergleichen. Wir hoffen, dass wir CoughAgainstCovid als Triage- und Screeninginstrument einsetzen können. Wir ordnen die Personen, die den Screening-Test machen, auf der Grundlage der vom Algorithmus erstellten Rangfolge ein und empfehlen den Personen, die ein höheres Risiko aufweisen, einen Covid-Test zu machen. Wenn das Testzentrum also, sagen wir 200 Personen pro Tag testen kann, hilft CoughAgainstCovid einzuschätzen, wer die 200 Personen sind, die sich am besten testen lassen sollten.

Was ist das Besondere an CoughAgainstCovid, was hat es anderen Projekten voraus, die gerade getestet werden?

Als wir das Projekt im März 2020 starteten, war es ein Experiment. Ich würde sagen: Es war wie eine Fischereiexpedition. Wir wussten nicht, ob es funktionieren würde, alles was wir hatten, war vorherige Forschung, die zu diesem Thema durchgeführt worden war, wie zum Beispiel die Untersuchung von Hustengeräuschen, um nach anderen Atemwegserkrankungen zu suchen. Unsere Hauptmotivation war, dass das Projekt eine große Wirkung haben könnte, wenn es klappen würde – auch wenn wir nicht wussten, ob es gelingen würde. Es gibt da draußen einen Mangel an Covid-Testkapazität. Sowohl die Anzahl selbst als auch die personelle und geografische Verteilung der Tests ist beschränkt. CoughAgainstCovid erfordert nichts weiter als Menschen, die Zugang zu einem Telefon haben. Es muss nicht einmal unbedingt ein Smartphone sein. Es gibt verschiedene Möglichkeiten der Implementierung: Eine Person ruft eine gebührenfreie Nummer an und hustet einfach hinein, die Leute könnten ihren Husten auch aufzeichnen und ihn über Whatsapp senden. Sie müssten keine App herunterladen. Das war genau das, was wir uns vorgestellt haben: Man bräuchte keine App, nicht einmal ein Smartphone, und so könnte es potenziell eine breite Abdeckung ermöglichen. Nach den ersten Monaten hatten wir einige sehr vielversprechende Ergebnisse, die einen enormen Einfluss auf den Bestand der Testmöglichkeiten haben könnten.

Wie sind die Zukunftsaussichten dieses Projekts?

Wir wollen es über das Gesundheitssystem offen zugänglich machen. Das ist wichtig, da die KI durchaus Fehlalarme erzeugen kann. Es direkt der Öffentlichkeit zur Verfügung zu stellen, wäre daher falsch. Wir wollen auch, dass es international in anderen Ländern, die ähnliche Ressourcenbeschränkungen haben, verbreitet wird. So könnten auch Menschen in anderen Teilen der Welt und mit anderen Gesundheitssystemen davon profitieren. 

Was ist mit KI noch möglich, um Covid unter Kontrolle zu bringen, und was kann man tun, um diese Art von Pandemien in Zukunft zu verhindern?

Es gibt viele Möglichkeiten. Ein Bereich, in dem die KI produktiv eingesetzt werden kann, ist die Entwicklung von Medikamenten. Außerdem kann dadurch den Städten geholfen werden, die Sensibilität für Covid zu erhöhen und einen Plan zu erarbeiten, der ihnen beim Umgang mit ihren Ressourcen hilft. Darüber hinaus kann sie zur Vorhersage neuer Risikogebiete auf der Grundlage historischer Daten verwendet werden, die dann von den Behörden bei proaktiven Maßnahmen genutzt werden kann. Aber es gibt natürlich Grenzen. Wenn ich „vorhersagen“ sage, dann meine ich: Zu einem Zeitpunkt, an dem sich ein Virus bereits ausbreitet, kann die AI genutzt werden, um zu eruieren, welche Gebiete gefährdet sein könnten. Die Fähigkeit, einen Virus oder den Beginn einer Pandemie selbst zu bestimmen, ist jedoch tatsächlich ein größeres Problem. Künstliche Intelligenz verfügt heutzutage nicht über diese Fähigkeiten, da sie aus historischen Daten lernt. Es gibt jedoch interessante Arbeiten auf diesem Gebiet, die es der KI ermöglichen sollten, diese Fähigkeiten zu erlernen. Das erfordert jedoch nicht nur die Extraktion von Wissen aus vergangenen Daten, sondern auch die Fähigkeit, über neue Möglichkeiten nachzudenken. Vor – sagen wir – Oktober 2019 gab es keine Daten, die bestimmen konnten, dass es bald eine Epidemie geben würde. Das Beste, was wir im Moment tun können, ist daher, die frühen Auslöser aufzugreifen. Sobald etwas passiert, sollte es also einen Mechanismus geben, um frühzeitig Alarm auszulösen, damit wir sagen können, dass etwas vor sich geht.

Wie würde das aussehen?

Es gibt zum Beispiel Überwachungsnetzwerke, die Frühwarnungen versenden. Entscheidend für die Behebung dieser Warnungen ist die Integration von Datensystemen, um zu zeigen, dass es sich um eine neue Krankheit handelt, die einen anderen Verlauf aufweist als andere Grippefälle, die wir kennen. Wir können also schlussfolgern: Es geschieht etwas Außergewöhnliches. Es geht letztlich darum, nach Abweichungen von der Norm zu suchen, wobei die Norm eine gewöhnliche Grippe ist. Analog zur Betrugserkennung: Es geht darum, verdächtiges Verhalten aufzudecken. 

Glauben Sie, dass die Pandemie dazu beiträgt, Wissen über KI stärker in die öffentliche Aufmerksamkeit zu integrieren?

Ich würde sagen: nein und ja. Das Wichtigste, was die Pandemie gezeigt hat, ist, dass das Grundlegendste, das gebraucht wird, nicht KI ist. Vielmehr sind es beispielsweise Lieferanten von medizinischer Ausrüstung, Masken und Kontaktverfolgung. Wir wollen in der Lage sein, solche Ausbrüche zu verhindern, was zuständige Personen vor Ort sowie Maßnahmen der Behörden erfordert. Das sind keine softwaretechnischen Probleme. In gewisser Weise zeigt das, dass Silicon Valley in dieser Hinsicht nur begrenzten Einfluss hat. Das ist in diesen Situationen nicht die Lösung. Das ist also das „Nein“.

Der „Ja“-Teil der Antwort ist, dass die KI-Wissenschaftler tun, was sie können, um zu helfen. Schauen Sie sich einige der Beispiele an, die ich genannt habe: Medikamentenentwicklung, Röntgenstrahlen und Vorhersage- oder Screening-Technologien wie unsere. In diesen Bereichen, in denen Technologien hilfreich zu sein scheinen, erfolgt eine beschleunigte Zulassung. Auch das ist sicherlich wahr. In vielerlei Hinsicht hilft es, KI in einen Kontext zu stellen. Es ist keine Wunderwaffe. 

 

Top