Gespräch Couch Lessons: KI + Bias

KI + Bias Illustration: Marcia Mihotich

Mi, 08.07.2020

18:00 Uhr – 19:00 Uhr

Online

KI + Bias

Generation A = Algorithmus

Künstliche Intelligenz ist nicht neutral. Sie wird von Menschen geschaffen, und die Art und Weise, wie sie gebaut, trainiert und angewendet wird, hat großen Einfluss auf die Ergebnisse, die sie liefert. Wie ein Algorithmus mit Menschen verschiedener Herkunft, verschiedener Kulturen, Geschlechter, sexueller Orientierungen usw. interagiert, hängt von dem Team der KI-Experten ab, das das System gebaut hat, sowie von den Trainingsdaten, die das Team als Input verwendete. KI-Systeme haben keine schlechten Angewohnheiten, ohne dass Menschen diese schlechten Angewohnheiten programmieren. In einer Zeit, in der viele Unternehmen und Regierungen zunehmend bestrebt sind, KI-Systeme für ihre Prozesse einzusetzen, ist es dringend erforderlich, sich dieser Risiken bewusst zu werden und sie wo es möglich ist zu reduzieren. In dieser Couch Lesson werden wir uns mit der Diskriminierung befassen, die bereits heute bei von der KI verwalteten Systemen beobachtet werden kann, und Taktiken diskutieren, diese Diskriminierungen bei künftigen Entwicklungen zu vermeiden. Was bedeutet es, jeden Aspekt der Herstellung, Iteration und Gestaltung der KI sorgfältig zu berücksichtigen? Jeder Schritt dieses Prozesses muss unter verschiedenen Gesichtspunkten gründlich untersucht werden.

Das wirst du lernen

  • Was bedeutet Bias in Zusammenhang mit KI?
  • Wie kann KI so entwickelt werden, dass sie für eine Vielzahl von Benutzer*innen geeignet ist?
  • Was bedeutet es, einen Datensatz als eine Form des Protests zu entwerfen?

Referent*innen

Caroline Sinders, Forscherin im Gebiet Maschinelles Lernen und Künstlerin / USA
Lorena Jaume-Palasí, Gründerin von The Ethical Tech Society / Deutschland
Gunay Kazimzade, Weizenbaum Institut für die vernetzte Geselschaft/ Deutschland

Kuratiert und moderiert wird die Gesprächsreihe Couch Lessons von Martin Thörnkvist (Kurator und Veranstalter von Deep Cuts und Hours Beirut, Schweden) und Jeannette Neustadt (Projektleitung Generation A=Algorithmus, Goethe-Institut e.V., Deutschland).

Zurück