Workshop

Actionable Auditing: How to Use It as an Effective Tool for “Ethical AI”?

A drawn image of hands making notes on different graphic models.
© Ezequiel Hyon

Do, 29.09.2022 13:45 Uhr – 16:30 Uhr

Der Workshop wird vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) in Kooperation mit etami und dem Projekt Humane AI-Net/ Dorothea Winter, Mihai Maftei und Samantha Prange durchgeführt.

Die zunehmende Einführung und Nutzung von auf künstlicher Intelligenz basierenden Systemen hat auch ethische Vorfälle und gesellschaftliche Bedenken mit sich gebracht. Dadurch wurde die Notwendigkeit deutlich, diese Systeme unter Berücksichtigung ethischer Grundsätze ordnungsgemäß zu prüfen. Damit eine solche neue Art der algorithmischen Prüfung zur Standardpraxis wird, müssen zwei wesentliche Voraussetzungen gegeben sein: Ein Lebenszyklusmodell, das auf Transparenz und Rechenschaftspflicht zugeschnitten ist, und ein prinzipienfestes Risikobewertungsverfahren, das eine angemessene Eingrenzung der Prüfung ermöglicht. 
Um einen pragmatischen Schritt in Richtung einer breiteren Akzeptanz der KI-Prüfung zu machen, werden wir ein zweistufiges Prüfungsverfahren vorstellen, das mit den von der Europäischen Kommission veröffentlichten KI-HLEG-Leitlinien übereinstimmt und diese erweitert und als gemeinsame Grundlage für die Abstimmung zwischen den Prüfer*innen und der geprüften Organisation dient.
Während des Workshops werden die Teilnehmenden nach der Vorstellung der von uns für die Auditverfahren verwendeten Instrumente in Gruppen aufgeteilt. Die Gruppen werden abwechselnd die Rolle der Systementwickler*innen und der externen Prüfer*innen übernehmen. In ihrer Rolle als Systementwickler*innen müssen die Teilnehmenden ein System entwickeln (oder ein bestehendes erweitern), gleichzeitig eine ethische Selbstbewertung durchführen und während der gesamten Entwicklungsrunde darauf achten, dass das System den EU-Ethikanforderungen entspricht. Als externe Auditor*innen müssen die Teilnehmenden die Arbeit der Gruppe der Systementwickler*innen prüfen und dabei mögliche Probleme, Verbesserungen und Lösungen aufzeigen. Jede Gruppe muss ein System entwickeln und ein von einer anderen Gruppe erstelltes System prüfen. Am Ende werden alle Systeme und Auditverfahren im Plenum diskutiert.

Der Workshop ist nur für Teilnehmende der Summer School und wird nicht online übertragen.