Engaños y omisiones
La opacidad en el acceso a la información

Como un bien público, la información no debe quedar en poder de las grandes empresas de tecnología o de los gobiernos, sino que debe estar en manos de los ciudadanos. Al revelar contenidos ocultos, la organización colombiana Datasketch procura democratizar el acceso a datos relevantes, facilitando así el trabajo de periodistas, activistas y organizaciones sociales.

De Juan Pablo Marín Díaz y Juliana Galvis

Desde el punto de vista de la transparencia y del acceso a la información, un componente importante de la opacidad se plantea cuando la información está oculta a simple vista entre los públicos que son de difícil acceso. Un ejemplo de ello son los datos de contrataciones públicas. Según Open Contracting Partnership, uno de cada tres dólares gastados por los gobiernos corresponde a contratos públicos, que en total suman alrededor de 13 billones de dólares en el mundo. Sin embargo, cuando hablamos de billones, de manera indirecta podríamos estar ocultando información, pues una persona común no puede entender la dimensión de esta cifra y no sabría a cuánto equivaldría en la vida real.

Y si al hablar sencillamente de los volúmenes de información disponibles nos podemos confundir, ¿qué pasará cuando pretendemos descubrir y analizar la información pública disponible? En Datasketch trabajamos en la búsqueda de formas innovadoras de visualizar la información y de hacerla más accesible y accionable desde organizaciones que no cuentan con equipos de científicos de datos.

Lo oculto a simple vista 

El ocultamiento de la información no hace referencia únicamente a su no publicación, ya que en la práctica la información queda oculta en la medida en que se encuentra inaccesible para los ciudadanos. Apoyada en tecnologías abiertas, Datasketch ha logrado recabar y descubrir información para apoyar el trabajo de periodistas, activistas y organizaciones sociales. Gracias al trabajo colaborativo, ha logrado a su vez convertir la información cruda oculta en conocimiento ciudadano, por ejemplo, en la exploración de financiamentos de campañas políticas y en su relación con contratos públicos, entre los que se encontraron cosas espeluznantes, tales como personas ya fallecidas que donaron a algunos candidatos. Esto prueba que, en Colombia, además de que existen donadores fantasma en la política, también existen problemas de opacidad y transparencia en la información..

En otro caso, Datasketch tomó el registro de nacimientos en Colombia y analizó a las niñas (menores de 15 años) que fueron madres en el país, quienes según el código penal fueron en efecto violadas sexualmente, razón por la cual pueden, en principio, acceder a los servicios de aborto legal. En los registros, al cruzar información del Ministerio de Salud, se logró detectar que el número de niñas que pudieron acceder a un servicio de aborto legal no alcanza al 3% del total de niñas madre. Con esta información se pudieron crear historias y visualizaciones con datos acerca de la realidad de las niñas en el país.

Alrededor de 5000 niñas menores de 15 años son madre en Colombia, tan solo alrededor del 150 reciben los servicios públicos de salud sexual y reproductiva indicados.
Alrededor de 5000 niñas menores de 15 años son madre en Colombia, tan solo alrededor del 150 reciben los servicios públicos de salud sexual y reproductiva indicados. | Foto: CC-BY Datasketch

La opacidad algorítmica

Ahora bien, si hablamos de la opacidad referente a la toma de decisiones automatizadas haciendo uso de la inteligencia artificial y los algoritmos, se abre otro espectro de preocupación. Si bien estas nuevas tecnologías permiten agilizar bastante múltiples procesos y replicar a gran escala tareas que antes solo se podrían hacer manualmente, a su vez se convierten en un riesgo, en el sentido en que no solo permiten replicar a escala los aciertos, sino también los errores.

Y es aquí donde debemos mantener los ojos abiertos para desenmascarar el ocultamiento de los algoritmos. Un ejemplo de esto lo constituyen las herramientas que se usan para identificar los patrones de positividad o negatividad en información no estructurada como las redes sociales. Si bien puede ser útil medir la percepción sobre algún tema particular, hemos visto recientemente en países como Colombia, donde el gobierno está utilizando estas tecnologías para hacer perfilamiento de periodistas y organizaciones sociales que se pronuncian en su contra. La propia aplicación de la tecnología en algunos casos es cuestionable por sus motivaciones, pero incluso en casos de usos más legítimos nos podemos encontrar con limitaciones técnicas importantes.

En algunas implementaciones de análisis de sentimientos, como por ejemplo las más estudiadas por la academia en inglés, pueden surgir escenarios como el siguiente: si se comparan frases neutrales tales como “vamos a comer comida italiana” o “vamos a comer comida mexicana”, en principio ambas deberían tener el mismo nivel de positividad. Sin embargo, los algoritmos, al ser entrenados con datos que pueden ser sesgados, terminan dando un puntaje más positivo a lo italiano que a lo mexicano. Esto lleva a abordar la opacidad algorítmica desde un punto de vista de sistemas que incorporan sesgos, que pueden perpetuar segregaciones sociales a escalas cada vez más automatizadas, de difícil control o vigilancia por parte de los usuarios. Esto sucede en empresas grandes como Google, que generó una herramienta para medir comentarios tóxicos en las redes sociales, pero que terminó valorando comentarios en los cuales la afirmación “soy un hombre” es menos tóxica que “soy una mujer gay negra”.

Múltiples principios

Y si esto sucede con las grandes empresas, que tienen un gran poder tecnológico y financiación de sobra como para crear los mejores proyectos de inteligencia artificial, ¿qué podemos esperar de los gobiernos que tienen el deber de preservar los derechos de las personas? Se han planteado diversas soluciones a la opacidad algorítmica, basada en múltiples principios, entre ellos el de contar con una inteligencia artificial explicable, es decir, que dichos sistemas sean abiertos y que sus propios usuarios puedan entender cómo funcionan, pese a que existen algunos ejemplos en los cuales no necesariamente se pueden explicar los algoritmos con resultados reales.

En los principios éticos de inteligencia artificial también se hace referencia a la transparencia algorítmica, lo cual puede tener consecuencias indeseadas como abrir las puertas para que un grupo reducido de personas capacitadas puedan descubrir cómo utilizar los algoritmos en beneficio propio. O la búsqueda constante de algoritmos justos, donde las nociones de justicia en los algoritmos varían y tienen diversos matices. O una solución frecuente, que radica en evitar los sesgos al no incorporar variables tales como la raza o el género en el uso de los algoritmos; pero esto no necesariamente garantiza que no se obtengan resultados injustos para con las comunidades históricamente vulneradas, pues los sesgos ya vienen incorporados en los sistemas propios de captura de información.

Un engaño gráfico

Y finalmente, podemos hablar del engaño gráfico al momento de ocultar información de manera visual que puede ser relevante para la toma de decisiones. A partir de visualizaciones de datos es posible comunicar información de manera engañosa para promover una agenda particular. Por ejemplo, quienes no creen en el calentamiento global, pueden utilizar una gráfica de variación de la temperatura anual en los últimos años donde la escala de los datos está en kelvin, por lo que se podría decir fácilmente que la temperatura global no se ha incrementado, ya que el porcentaje en kelvin no varía sustancialmente. 

Con el fin de comunicar la información de manera simple y accesible a las personas, Datasketch ofrece herramientas para hacer la información más cotidiana, por eso realiza ejercicios de comunicación de información con datos mezclando el arte y la cultura con las tecnologías de información. A través de sus diversos proyectos, como una tienda de productos físicos de información (Datasketch Store), el equipo plantea problemáticas sociales que fomentan discusiones informadas por los ciudadanos.

Datos deshumanizados

Entre los productos se encuentran por ejemplo este diseño de evidencias del aumento de la temperatura global, o uno constituido por un racimo de bananas construido con 24 mil puntos, que representan a cada una de las víctimas de masacres en el conflicto armado de Colombia. Los datos registradores en tablas de Excel, por ejemplo, son usualmente deshumanizados, sin una cara que permita asimilar y comunicar diversas problemáticas para promover la acción colectiva. En Datasketch reemos que hay que darle el poder a los ciudadanos a partir de la información, y que esta no quede como un activo que solo pocos pueden accionar para dar solución a problemáticas difíciles en nuestra sociedad.

Creemos que la información, como bien público, no debería quedar concentrada en las grandes empresas de tecnología o en los gobiernos, sino que debe estar en manos de la gente. Un gran reto consiste en convertir a estas tecnologías en herramientas de fácil uso para personas con conocimientos variados, no solo para los expertos con conocimientos cuantitativos. Por esto estamos trabajando en democratizar el acceso a la información y la ciencia de datos con nuestra solución Datasketch Apps, con la cual los usuarios pueden explorar y visualizar múltiples fuentes de información con unos pocos clics.

 

Top