Täuschungen und Auslassungen
Die Undurchsichtigkeit beim Zugang zu Information

Als öffentliches Gut sollte die Information nicht in der Macht der großen Technologiefirmen oder Regierungen bleiben, sondern in den Händen der Bürger liegen. Durch das Enthüllen von versteckten Inhalten versucht die kolumbianische Organisation Datasketch den Zugang zu wichtigen Daten zu demokratisieren und somit die Arbeit von Journalistinnen und Journalisten, Aktivistinnen und Aktivisten sowie sozialen Organisationen zu erleichtern.

Von Juan Pablo Marín Díaz und Juliana Galvis

Bei der Betrachtung von Transparenz und dem Zugang zu Information ist es ein wichtiger Aspekt von Undurchsichtigkeit, wenn Informationen zwar mit bloßem Auge sichtbar sind, aber doch für ein breites Publikum verborgen bleiben. Ein Beispiel dafür sind die Daten zu Vertragsabschlüssen der öffentlichen Hand. Laut Open Contracting Partnership steckt einer von drei Dollars, die von den Regierungen ausgegeben werden, in Verträgen der öffentlichen Hand, was insgesamt ca. 13 Billionen Dollars weltweit ergibt. Doch wenn wir von Billionen reden, können wir indirekt Informationen verstecken, da die meisten Menschen die Dimension dieser Ziffer und ihre Entsprechung im realen Leben möglicherweise nicht verstehen können.

Und wenn wir uns schon irren können, wenn wir nur über die reinen Zahlen sprechen, was wird erst geschehen, wenn wir diese öffentliche Information enthüllen und analysieren wollen? Bei Datasketch suchen wir nach innovativen Formen, um Information zu visualisieren und sie zugänglicher und anwendbarer für Organisationen zu machen, die nicht über eigene Spezialisten für Datenforschung verfügen.

Was dem bloßen Auge verborgen bleibt 

Die Verdunklung von Informationen betrifft nicht nur ihre Nichtveröffentlichung, da in der Praxis die Information schon dadurch verhüllt bleibt, dass sie für die Bürger unzugänglich ist. Mithilfe offener Technologien hat es Datasketch geschafft, Information zu erheben und zu enthüllen und somit die Arbeit von Journalistinnen und Journalisten, Aktivistinnen und Aktivisten sowie sozialen Organisationen zu unterstützen. Dank der kollaborativen Arbeit gelang es wiederum, unverarbeitete und verdeckte Information in Kenntnisse der Bürger zu verwandeln. So wurde die Finanzierung von politischen Kampagnen und ihr Verhältnis zu Verträgen der öffentlichen Hand untersucht, wobei sich haarsträubende Dinge fanden, etwa hatten einige Kandidaten Spenden von bereits verstorbenen Personen erhalten. Das zeigt nicht nur, dass es in der kolumbianischen Politik Geisterspender gibt, sondern auch, dass es Probleme mit der Undurchsichtigkeit und Transparenz von Information gibt.

In einem anderen Fall analysierte mithilfe des kolumbianischen Geburtsregisters die Fälle der Mütter im Kindesalter (unter 15 Jahren), die somit laut  Strafgesetzbuch vergewaltigt worden waren, wodurch sie grundsätzlich Anspruch auf einen legalen Schwangerschaftsabbruch haben. Mittels der Verknüpfung mit Daten des Gesundheitsministeriums konnte festgestellt werden, dass nichtmals 3% dieser Mädchen tatsächlich Zugang zu einem legalen Schwangerschaftsabbruch hatten. Mit dieser Information konnten datenbasierte Erzählungen und Visualisierungen über die Realität der Mädchen im Land geschaffen werden.

In Kolumbien gibt es etwa 5000 Mädchen unter 15, die Mütter sind und von denen nur etwa 150 die entsprechenden öffentlichen Hilfen zur sexuellen und reproduktiven Gesundheit erhalten.
In Kolumbien gibt es etwa 5000 Mädchen unter 15, die Mütter sind und von denen nur etwa 150 die entsprechenden öffentlichen Hilfen zur sexuellen und reproduktiven Gesundheit erhalten. | CC-BY Datasketch

Die algorithmische Undurchsichtigkeit

Wenn wir jedoch von der Undurchsichtigkeit in Bezug auf automatisierte Entscheidungsfindungen sprechen, die mithilfe von künstlicher Intelligenz und Algorithmen entstehen, eröffnet sich ein anderes Problemspektrum. Wenngleich diese neuen Technologien es auch ermöglichen, zahlreiche Prozesse erheblich zu beschleunigen und in großem Umfang Aufgaben zu übernehmen, die früher nur manuell gemacht werden konnten, werden sie gleichzeitig zu einem Risiko, da sie nicht nur in großem Umfang Treffer, sondern auch Fehler ermöglichen.

Und hier sollten wir die Augen offen halten um das zu enthüllen, was die Algorithmen im Verborgenen lassen. Ein Beispiel dafür sind die Werkzeuge, die dazu genutzt werden, Muster der positiven oder negativen Wertung in unstrukturierten Informationsquellen wie sozialen Netzwerken zu identifizieren. Auch wenn es nützlich sein kann, die gesellschaftliche Wahrnehmung eines bestimmten Themas zu messen, haben wir kürzlich in Ländern wie Kolumbien gesehen, dass die Regierung diese Technologien nutzt um bei kritischen Journalisten und sozialen Organisationen Profiling zu betreiben. Die Anwendung der Technologie ist in einigen Fällen durch ihre Motive fragwürdig, aber selbst bei völlig legitimem Gebrauch können wir auf wichtige technische Grenzen stoßen.

In einigen Implementierungen zur Analyse von Gefühlen, zum Beispiel solche, die besonders an den englischspachigen Universitäten erforscht werden, können folgende Szenarien entstehen: Wenn man neutrale Sätze wie „wir gehen italienisch essen“ oder „wir gehen mexikanisch essen“ vergleicht, sollten sie im Prinzip den gleichen Grad positiver Wertung erhalten. Dennoch geben die Algorithmen, da sie mit Daten trainiert werden, die Vorurteile widerspiegeln, am Ende eine positivere Bewertung für italienisches als für mexikanisches Essen aus. 

Solche Beispiele beweisen, dass es nötig ist, die Problematik der algorithmischen Undurchsichtigkeit zu thematisieren. Denn diese Systeme, die Vorurteile beinhalten und in der Lage sind, soziale Segregation in immer stärker automatisierten Dimensionen aufrechtzuerhalten, können von den Benutzern nur schwer kontrolliert und überwacht werden. Dies geschieht in großen Firmen wie Google, wo ein Werkzeug zur Messung von toxischen Kommentaren in sozialen Netzwerken entwickelt wurde. Es ergab sich, dass Kommentare mit dem Satz „ich bin ein Mann“ für weniger toxisch gehalten wurden als Kommentare mit dem Satz „ich bin eine schwarze homosexuelle Frau“.

Vielfache Prinzipien

Und wenn das in den großen Firmen geschieht, die über eine große technologische Macht und Finanzierung im Überfluss verfügen um die besten Projekte zur künstlichen Intelligenz zu erschaffen, was können wir von den Regierungen erwarten, die in der Pflicht stehen, die Rechte der Personen zu schützen? Für die algorithmische Undurchsichtigkeit wurden verschiedene Lösungen erwogen, die auf vielfachen Prinzipien beruhen. Darunter befindet sich die Möglichkeit, mit einer erklärbaren künstlichen Intelligenz zu rechnen, d.h. mit offenen Systemen, bei denen ihre Benutzer verstehen können, wie sie funktionieren. Einige Beispiele zeigen jedoch, dass die Algorithmen nicht unbedingt wahrheitsgemäße Erklärungen liefern.

Bei der Diskussion über die ethischen Prinzipien der künstlichen Intelligenz wird auf die algorithmische Transparenz verwiesen, die aber unerwünschte Konsequenzen haben kann. Solche offenen Systeme können zum Beispiel dazu führen, dass bestimmte  fähige Personen sich Zugang zu Kenntnissen darüber verschaffen, wie die Algorithmen zum eigenen Profit eingesetzt werden können. Ein weiteres Prinzip ist die ständige Suche nach gerechten Algorithmen, wobei die Auffassungen von Gerechtigkeit jeweils unterschiedlich sind und verschiedene Abstufungen beinhalten. Häufig wird auch eine Lösung vorgeschlagen, die darauf beruht, Voreingenommenheit zu vermeiden, indem Faktoren wie Rasse und Geschlecht aus den Algorithmen ausgeklammert werden. Aber dieses Vorgehen garantiert nicht zwangsläufig, dass keine ungerechten Ergebnisse für historisch schutzbedürftige Gruppen entstehen, da die Voreingenommenheit schon in den Systemen der Informationserfassung selbst liegt.

Eine grafische Täuschung

Und schließlich können wir noch von der grafischen Täuschung sprechen, die entsteht, wenn auf visuelle Weise Information verborgen wird, die relevant für unsere Entscheidungsfindung sein kann. Durch die Visualisierung von Daten ist es möglich, Information auf irreführender Weise zu vermittteln um eine eigene Agenda vorantreiben. Beispielsweise können diejenigen, die nicht an die globale Erderwärmung glauben, eine Grafik über die Abweichungen der Jahrestemperatur in den letzten Jahren mit dem Maßstab Kelvin benutzen, woraus man leicht ableiten kann, dass die globale Temperatur nicht angestiegen ist, da sich der Prozentsatz in Kelvin nicht wesentlich verändert.

Mit dem Ziel, Information einfach und zugänglich für die Menschen zu kommunizieren, bietet Datasketch Werkzeuge an, die Information alltäglicher machen. Deswegen werden in den Kommunikationsstrategien von Datasketch Kunst und Kultur mit den  Informationstechnologien verbunden. Mit diversen Projekten (wie Datasketch Store, das Geschäft mit analogen Produkten, die Information darstellen) greift das Team soziale Problematiken auf, so dass informierte Diskussionen zwischen den Bürgern angekurbelt werden.

Entmenschlichte Daten

Unter den Produkten findet sich zum Beispiel ein T-Shirt-Design mit Daten,  welche die Erhöhung der Globaltemperatur beweisen, oder eines mit einem Bananenbüschel aus 24000 Punkten, die jeweils ein Opfer der Massaker im bewaffneten Konflikt in Kolumbien symbolisieren. Die etwa in Exceltabellen aufgeführten Daten sind normalerweise entmenschlicht und gesichtslos; dies verhindert, dass sie wirklich angenommen und zur Basis für gemeinsames Handeln werden. Bei Datasketch denken wir, dass man den Bürgern durch Information Macht geben muss und dass Information keine Ressource sein darf, über die nur wenige verfügen. Nur so können Lösungen für schwierige Problematiken in unserer Gesellschaft gefunden werden.

Wir denken, dass es nicht sein darf, dass die Information als öffentliches Gut bei den  großen Technologiefirmen oder Regierungen konzentriert bleibt, sondern dass sie in die Händen der Menschen gehört. Eine große Herausforderung besteht darin, diese Technologien in einfach zu benutzende Werkzeuge für Personen mit verschiedenen Kenntnissen zu verwandeln, nicht nur für die Experten mit einschlägigen Kenntnissen. Darum arbeiten wir daran, den Zugang zu Information und die Datenforschung mithilfe unserer Lösung Datasketch Apps zu demokratisieren. Durch diese Anwendungen können die Benutzer zahlreiche Informationsquellen mit einigen wenigen Klicks entdecken und visualisieren. 

 

Tramas Democráticas verbindet Initiativen und Institutionen in Südamerika und Deutschland, die demokratische Praktiken und Werte stärken. Das Netzwerk an beteiligten Institutionen wird stetig weiter ausgebaut.

 

Top