En la última década pasamos gran parte de nuestro tiempo en el mundo digital, un mundo controlado cada vez más por un puñado de consorcios. Estas empresas determinan de modo considerable qué podemos ver y decir y qué herramientas tenemos a nuestra disposición.
Cuando el tema son las imágenes que aparecen en la red, hay tres ámbitos en los que se ejerce control: primero está la cuestión de qué podemos ver. Las empresas –y los gobiernos– limitan el acceso a distintas categorías de contenido, desde los desnudos humanos hasta imágenes o videos que contienen datos personales. Conforme a esto, Instagram censura contenidos sexuales; desde hace poco Twitter prohíbe compartir fotos y videos privados. Estas restricciones son justificables, pero pueden tener consecuencias negativas para algunas personas que usan esas plataformas y eventualmente quieren compartir algo por motivos legítimos.En segundo lugar, plataformas muy populares como Snapchat, Instagram y TikTok Filter ofrecen a menudo filtros que desfiguran nuestras imágenes –y con frecuencia nuestra autoimagen–. Legisladores, psicólogos y demás han criticado con vehemencia esos filtros, porque pueden influir profundamente en la imagen que tenemos de nuestro cuerpo y nos presentan una percepción uniforme de la belleza. Si esa percepción se difunde, puede surgir también cierta expectativa acerca de cómo debemos lucir y tal vez se facilite así el prejuicio o la discriminación de quien elige algo distinto.
El tercer aspecto y, quizás, el más inquietante es el modo en que las empresas usan algoritmos para generar contenidos en las búsquedas o en nuestros muros. El efecto que tiene esto en la clasificación y presentación especialmente de imágenes es dañino: habitualmente los algoritmos clasifican las imágenes de modo discriminatorio, prejuicioso o directamente erróneo y eso puede tener consecuencias graves para las personas que usan plataformas que recurren a esos algoritmos.
Habitualmente, los algoritmos clasifican las imágenes de modo discriminatorio, prejuicioso o directamente erróneo.
Aunque historias como la anterior pueden hacerse salir a la luz fácilmente, resulta mucho más difícil desenmascarar las consecuencias de un uso generalizado de la Inteligencia Artificial en el manejo de contenidos generados por usuarios. En la mayoría de los casos, sencillamente no podemos ver los errores de estas tecnologías y mucho menos saber a qué se deben.
El ex moderador de contenidos Andrew Strait escribe en el recién publicado libro Fake AI: “Notablemente incapaces de reconocer los matices y el contexto del discurso online, estos sistemas fracasan siempre cuando deben determinar si un video vulnera los derechos de autor o constituye una parodia legítima o si un posteo con un insulto racista fue redactado por la víctima del crimen de odio o por el victimario.”
El punto ciego de la IA
Sin embargo, hay un caso de peso y bien documentado, que es el daño que produce la Inteligencia Artificial cuando se le encarga identificar y eliminar contenidos extremistas y terroristas, especialmente imágenes. Con el apoyo de gobiernos de todo el mundo las plataformas de Internet pusieron los últimos años manos a la obra para borrar contenidos extremistas y terroristas confiando cada vez más en algoritmos de aprendizaje automático que deben descubrir y borrar los contenidos que corresponden a la descripción dada. Pero los clasificadores utilizados son a menudo binarios y dejan muy poco lugar al contexto. Si una imagen contiene símbolos que se han vinculado a un grupo terrorista, la IA la clasificará como contenido terrorista, aun cuando el motivo de la presencia de ese símbolo sea de naturaleza artística o en realidad se esté protestando contra ese grupo determinado. Del mismo modo quedan marcados contenidos que sirven a un fin histórico, de archivo o de protección de los derechos humanos, y con toda probabilidad se los borrará. Quien resuelva con tecnología una tarea que requiere tanta sutileza cosechará resultados toscos que dejan poco espacio a formas importantes de expresión.Sea en procesos de búsqueda, sea en la moderación automatizada de contenidos, la IA es tan útil –o tan inteligente, se podría decir– como los datos en que se basa. Y esos datos no están a salvo de errores y prejuicios humanos. En consecuencia, si queremos combatir la discriminación que se produce mediante sets de datos, debemos observar más allá de la fachada. Debemos conocer los supuestos y prejuicios con que los humanos elaboran esos sets de datos que determinan cada vez más qué vemos y en qué forma lo vemos.
Aunque la transparencia nos ayuda al menos a entender mejor el problema y a actuar contra errores específicos, como sociedad también debemos comenzar a hacer planteamientos de orden más general sobre el papel que queremos que tengan estas tecnología en la orientación de nuestra visión del mundo. Para eso, no podemos seguir considerando a la IA como algo neutral. Debemos comprender la naturaleza inherentemente política de su uso.
Tanto en procesos de búsqueda como en la moderación automatizada de contenidos la IA es tan útil –o tan inteligente– como los datos en que se basa.
La Inteligencia Artificial nunca es neutral y su uso es, por naturaleza, político: ¿por qué se eliminan imágenes de determinados grupos terroristas y no las imágenes violentas de toda clase?
| Foto (detalle): © Adobe
De la seguridad cibernética a la eliminación total
Hay muchos otros ejemplos: eliminar las expresiones de sexualidad o identificar las noticias falsas o la desinformación hace mucho que son tareas a cargo de una IA cuyos sets de datos están basados en orientaciones políticas. Aunque en todos esos casos se conocen las líneas políticas, no ocurre lo mismo con la tasa de error. Dicho de otro modo: si bien podemos analizar esas políticas y abogar para que cambien, es imposible ver y, por ende, muy difícil entender hasta qué punto expresiones legítimas (a las que en realidad no les cabe restricción alguna) son borradas por la IA, que tiene con un control mínimo, si es que este existe.¿Qué podemos hacer, pues, además de reconocer la naturaleza política del uso de la IA y luchar por más transparencia? ¿Debemos aceptar la situación como nuestra nueva realidad o tenemos otras posibilidades de intervenir y transformar el avance del “progreso”?
En mi último libro, Silicon Values: The Future of Free Speech Under Surveillance Capitalism (2021), digo que, hoy como siempre, nosotros escribimos nuestro destino. No debemos aceptar este nuevo espíritu de época como algo dado. Más bien debemos insistir en que las “decisiones sobre lo que podemos expresar requieren más atención y dedicación humanas y no deben entregarse a la arbitrariedad de actores y algoritmos que no le rinden cuentas a nadie”.
Eso implica que no debemos contentarnos con la pura reducción de daños, sino que debemos reconfigurar esos sistemas tecnológicos, adecuarlos y, posiblemente, desmantelarlos.
Enlaces sobre el tema
marzo 2022