Schnelleinstieg:

Direkt zum Inhalt springen (Alt 1) Direkt zur Hauptnavigation springen (Alt 2)

Anna Tüdős
Warum uns die künstliche Intelligenz nicht kalt lassen sollte

Warum uns die künstliche Intelligenz nicht kalt lassen sollte
Grafika: Elekes Réka © Goethe-Institut Budapest

Unser Alltag wird stark beeinflusst von komplexen computergestützten Modellen. Diese erkennen Muster und analysieren Datensätze, um die wahrscheinlichste Zukunftsvision oder die bestmögliche Entscheidung darzustellen. Sie vereinfachen unser Leben und machen es gleichzeitig komplizierter. Sie beeinflussen uns häufig, ohne dass wir es merken.

Im Grunde genommen klingt dies besorgniserregender als es ist: Wir sind viel früher in der Lage, Krankheiten zu diagnostizieren, außerdem tragen die Technologien zur Verringerung der Umweltverschmutzung bei und erkennen, wenn jemand hetzerische Inhalte im Internet postet. Doch wie jedes Werkzeug, welches Macht verleiht, neigen auch Systeme, die KI verwenden, zu Manipulation und Missbrauch. Deshalb ist es wichtig, parallel zu diesen sich rasant entwickelnden Technologien eine „Gebrauchsanweisung“ auszuarbeiten, um Katastrophen zu vermeiden, wie zum Beispiel die Beeinträchtigung von Menschenrechten.
 
Wenn wir von künstlicher Intelligenz C-3PO-ähnliche, menschliche Züge aufweisende, intelligente Roboter erwarten, könnten wir möglicherweise enttäuscht werden. Fasst man die künstliche Intelligenz jedoch als Werkzeug auf, lassen sich genauere Entscheidungen treffen, als wenn die fragliche Aufgabe nur einer Person (einem Arzt) oder einem Programm anvertraut wäre. [1]
 
Die künstliche Intelligenz wird, wenn von ihr die Rede ist, gewissermaßen unvermittelt in Zusammenhang mit der Welt der Startups gebracht. Untersuchungen zeigen, dass nur 60% der 1580 europäischen Startups, die sich auf KI berufen, tatsächlich auch mit KI-Technologien arbeiten. [2] Die unscharfen Definitionen und die Hysterie um die Technologie tragen dazu bei, dass KI in der Geschäftswelt als Zauberwort benutzt wird. [3]

Was ist und wie funktioniert KI wirklich?


KI ist kein magischer, intelligenter Computer oder Roboter. Sie ist eine vielschichtige Technologie, die das menschliche Denken widerspiegeln soll. Künstliche Intelligenz ist keine Entität in sich, ihre Arten und Verwendungsbereiche variieren stark. So lotet sie etwa im Schach die optimale aller in Frage kommenden Möglichkeiten - Bereich intelligente Suchsysteme - aus oder findet gemäß der Mustererkennung Subjekt und Prädikat in einem Satz oder ist in der Lage, dreidimensionale Objekte auf einem Bild oder mittels einer Kamera zu erkennen und sie zu identifizieren (Bildverarbeitung). Dies sind alles unterschiedliche Verwendungsbereiche und sie arbeiten alle mit unterschiedlichen Arten von algorithmischen Systemen.
 
Selbst „maschinelles Lernen“, das häufig mit künstlicher Intelligenz gleichgesetzt wird, ist nur ein Teilbereich. Beim maschinellen Lernen erkennt der Computer während des Lösungsprozesses von Aufgaben und Problemen Muster und Gesetzmäßigkeiten. Die Algorithmen, die er auswählt, arbeiten mit Datensätzen. Maschinelles Lernen lernt anhand von Erfahrung. Das heißt: Je häufiger es errät, ob sich ein Hund oder eine Katze auf dem Bild befindet, desto höher stehen die Chancen, dass es, wenn der Algorithmus erneut ausgeführt wird, die richtige Antwort gibt.

Selbstfahrende Autos und Bilderkennungssysteme in Städten


Damit ein selbstfahrendes Auto unfallfrei fahren kann, ist eine Kombination verschiedener KI-Typen erforderlich. Nur nebenbei sei erwähnt, dass die Kamera des Autos kann sogar einen Hund, eine Katze oder eine Kartonschachtel, die im Weg stehen, erkennen kann, und anhand dessen in der Lage ist, die Bremsgeschwindigkeit und -intensität zu berechnen. Bei gutem Wetter und klarer Sicht auf einer gut ausgeschilderten Autobahn ist das automatische Fahrsystem bereits heute der bessere Chauffeur. Bei Hagel und bei saurem Regen jedoch ist es noch nicht in der Lage, zu manövrieren und selbstständig Entscheidungen zu treffen. Obwohl in Tesla-Fahrzeugen zum Beispiel bereits eine Bordassistenz vorhanden ist, lässt die Einführung gänzlich selbstfahrender Autos noch eine gute Weile auf sich warten. Es können sich weitere Fragen ergeben, beispielsweise wer für Unfälle verantwortlich gemacht werden kann, die selbstfahrende Autos verursachen. Wie entscheidet eine KI, ob der Passagier an Bord oder ob der Fußgänger verletzt werden soll? Können die Polizei oder gar Hacker die Route ändern? Auf diese Fragen gibt es keine eindeutigen Antworten.
 
Die Städte Kuala Lumpur (Malaysia) und Hangzhou (China) verwenden ein System namens City Brain. Das Programm sammelt mit Hilfe von Kameras oder GPS Echtzeitdaten in den Städten, optimiert so die Nutzung öffentlicher Räume sowie den Verkehr, indem es Ampeln reguliert und Fehler sofort korrigiert. Aber alles hat seinen Preis. Das System hat Zugang zu den persönlichen Daten der Bevölkerung und verfügt zudem über die Macht, Entscheidungen zu treffen. Ein Supercomputer, der fähig ist, eine ganze Stadt, einen ganzen Landkreis, ein ganzes Land oder die ganze Welt zu regieren, wirft sowohl technisch als auch politisch ernsthafte Bedenken auf.

Smart home, menschliche Roboter, Aufmerksamkeitsvermögen


Das Verständnis der Funktion von KI-Technologien kann dazu beitragen, Entscheidungen mit hoher Tragweite zu treffen, sei es bei der Inanspruchnahme einer Dienstleistung oder beim Kauf einer technischen Ausrüstung. Häufig werden Smart-Geräte als quasi-Haustiere aufgefasst (z. B. Meryl Sweep, der Roboterstaubsauger). Dies wird zusätzlich verstärkt, wenn man beispielsweise wie im Fall eines intelligenten Assistenten von diesem lernt und intensiv Zeit mit ihm verbringt.
 
Heftige Diskussionen gab es jedoch, als sich herausstellte, dass Amazon Echo (auch als Alexa bekannt) unsere Gespräche aufnimmt, und dass man dagegen rechtlich nichts einwenden kann. Man machte sich nicht die Mühe, den Benutzern zu erklären, dass KI-Systeme aus Feedbacks lernen, und dass man, um sie weiter entwickeln zu können, Datensammlungen unentbehrlich sind. Dies wäre ja noch akzeptabel. Allerdings reicht das Problem der Datensammlung weiter zurück: Mit der Digitalisierung werden Dinge messbar, die man zuvor nicht messen konnte, wie Einkäufe, Bewegung, Kommunikation. Dass man aus Dingen, die bislang als nicht messbar galten, Datensätze erstellt, ist an sich nichts Neues. Neu ist, dass diese Daten verwendet werden können, um menschliches Verhalten zu verfolgen, zu beeinflussen oder gar zu kontrollieren. Um gute Angebote zu erhalten, müssen Programme nicht nur unseren Geschmack, sondern auch unsere Konfektionsgröße, unser Alter und unsere Zukunftspläne kennen.
 
Im Idealfall könnten Technologien basierend auf künstlicher Intelligenz uns helfen, unser Leben besser zu organisieren. Grundsätzlich würden unsere Daten in einem geschlossenen System nur für diese Zwecke verwendet werden. Aktuell bezahlen wir jedoch kostenlose Dienstleistungen mit unseren persönlichen Daten, damit wir uns dann mit Werbung und - schlimmer noch - mit Propaganda vollrieseln lassen. KI-Technologien tragen dazu bei, dass aufgrund der von uns eingegebenen Daten immer neuere und interessantere Inhalte auf unserem Bildschirm erscheinen, sodass wir uns mehr und mehr mit diesen beschäftigen, und so noch mehr Daten über uns liefern. Erst wenn wir bereit sind, die Transparenz nicht weiter zu ignorieren, uns als bewusste Benutzer in der digitalen Welt zu bewegen und die Grundlagen für einen ethischen KI-Kodex bereit sind zu schaffen, erst dann besteht die Möglichkeit, dass die von der Technologie geprägte Zukunft auch in der Realität unsere Interessen vertreten wird.

Ethische KI


Wir Menschen sind es, die die KI-Systeme für eine ideale Zukunft entwerfen. Es liegt deshalb auch in unserer Verantwortung, zu bestimmen, welche Werte sie prägen. Einerseits sollten KI-Systeme transparent sein. Im Mittelpunkt ihrer Entwicklungs- und Anwendungsbereiche sollte die Demokratisierung stehen. Ein weiteres Ziel ist die Abschaffung der Voreingenommenheit von Systemen, die mit KI arbeiten, denn in Wirklichkeit spiegelt dies die Voreingenommenheit des Menschen wider. „Algorithmen der Unterdrückung“ sind sehr gefährlich und sie diskriminieren Minderheiten. [4] 
 
Es ist von entscheidender Bedeutung, die Zukunft der Generation A=Algorithmus fair, verantwortungsvoll, mit Rücksicht auf die langfristigen Auswirkungen zu gestalten. Die Vorstellung von „guter“ und „böser“ KI muss endlich fallen gelassen werden. Anstatt Maschinen intelligenter machen zu wollen, sollten wir uns darauf konzentrieren, wie menschliches Handeln mithilfe von KI-Technologien optimiert werden kann. Für eine bessere Zukunft.

Quellen

[1] Landwehr, Dominik ed., Machines and Robots: Migros-Kulturprozent, Christoph Merian Verlag, 2018, p. 204
[2] „Chapter 7: Europe’s AI startups”, in The State of AI 2019: Divergence Heruntergeladen am 25.10.2020.
[3] Bedingfield, Will, „Startups are exploiting AI’s hazy definition to cash in on the hype”, Wired, Heruntergeladen am 25.10.2020.
[4] Noble, Safiya Umoja, Algorithms of Oppression: How Search Engines Reinforce Racism, NYU Press, 2018.
 

Top