Inteligencia Artificial y elecciones  Salvar la democracia

¿Qué información es verdadera? ¿Qué información está generada artificialmente? Cuanto más se difunden la desinformación y las noticias falsas producidas con IA, más difícil resulta reconocer la diferencia.
¿Qué información es verdadera? ¿Qué información está generada artificialmente? Cuanto más se difunden la desinformación y las noticias falsas producidas con IA, más difícil resulta reconocer la diferencia. Foto (detalle): © Adobe

Imitaciones artificiales de voces de políticos, llamadas automáticas basadas en IA o conductores de televisión ficticios: la Inteligencia Artificial brinda una gran cantidad de herramientas para propagar la desinformación. En una era de crisis globales, la IA representa una verdadera amenaza para la democracia.

Dan Gillmor

Los partidarios de la democracia tienen en 2024 una enorme tarea por delante: salvarla. En medio de una inédita ola de elecciones en todo el mundo, afrontamos un sinnúmero de amenazas al sistema que los estadounidenses llaman “gobierno del pueblo, por el pueblo y para el pueblo”.

En 2024 unos cuarenta países elegirán nuevos gobiernos, por eso tenemos que ocuparnos de algo que podría aumentar los desafíos que la temprana era digital le plantea a uno de los pilares de la participación democrática, el de la información confiable. El nuevo desarrollo es la inteligencia artificial generativa, llamada IA, una sigla que contiene muchos significados, potenciales y peligros.

En otoño, cuando los Estados Unidos vayan a las urnas, la mayoría de las otras naciones ya habrá tenido sus elecciones. Tendremos entonces una mejor idea de si la IA generativa, que se presentó al público sólo hace un año con el lanzamiento del ChatGPT, es una ayuda o una amenaza (o, posiblemente, ninguna de los dos).

Para decirlo suavemente, las primeras señales no son auspiciosas. Algunos ejemplos recientes: según el Financial Times, en Bangladesh los medios periodísticos y los influencers de las redes sociales progubernamentales “difundieron desinformación generada artificialmente y creada con herramientas baratas que ofrecen algunas startups de IA”. En las recientes elecciones de Eslovaquia, según un informe de la revista Wired, audios falsos que simulaban la voz de un candidato se usaron para derrotarlo. En los Estados Unidos, Associated Press señala que los candidatos ya están comenzando a usar “robollamadas” basadas en IA –sistemas de llamadas automatizadas– para generar interés en determinados políticos.

Estos casos, aunque preocupantes, parecen desconectados entre sí. Por eso, no parecen constituir el centro de una campaña claramente organizada para desestabilizar la democracia en el mundo. Pero es un hecho que quienes habitualmente usan el engaño como parte de su arsenal persuasivo observan con interés las posibilidades de las nuevas herramientas, y seguramente las usarán si pueden.

La IA ayuda a las fuerzas antidemocráticas

El amplio boom de la IA llega en medio de crisis globales existenciales y cada vez más intensas. Las guerras y el cambio climático ya están provocando migraciones en masa y desórdenes económicos. Esas crisis, y otras, estimularon la incertidumbre en la opinión pública y, no casualmente, el ascenso de los populistas de derecha, algunos de los cuales son abiertamente fascistas y muchos de los cuales desprecian la democracia.

La IA es un jugador clave en la evolución incesante, veloz de nuestro ecosistema informativo. Junto con las demás poderosas herramientas de comunicación, sirve a propagandistas malvados que apoyan a las fuerzas antidemocráticas. A pesar de los excelentes esfuerzos de personas que intentan ayudar al público a distinguir la realidad de las mentiras, las fuerzas del engaño se están consolidando.

Es de vital importancia recordar que la la IA generativa está en un etapa temprana de desarrollo. Aunque sus promotores y los periodistas probablemente hayan exagerado su impacto inmediato y su potencial, no se trata de una farsa. Como mínimo, es una herramienta fascinante y potencialmente poderosa, que en última instancia puede constituir una revolución.

Su impacto más profundo y temprano en la política tal vez sea el hecho de que fortalece otras tecnologías digitales, que ya eran influyentes en el proceso electoral. Los encargados de las campañas ya saben cómo hacer microfocalización en los pequeños grupos de votantes. Dentro de poco los votantes individuales recibirán a una escala masiva mensajes orientados específicamente para ellos. Los bots inundan ahora las plataformas con cuentas falsas que promocionan mentiras, a menudo para que las personas simplemente no voten, pero hasta el momento se ha tratado de instrumentos en cierto modo toscos. Ahora bien, pronto los agentes malvados dotarán a los bots de un alto poder de persuasión aumentado por la IA y alcanzarán a las personas con mucha más precisión.

A pesar de los excelentes esfuerzos de personas que intentan ayudar al público a distinguir la realidad de las mentiras, las fuerzas del engaño se están consolidando.

Los conductores ficticios de noticieros no aparecerán en los canales más importantes, pero videoclips de ellos –y versiones de periodistas verdaderos generadas con IA– circularán ampliamente por las redes sociales. Algunas plataformas están intentando enfrentar esta tendencia, pero por definición es imposible moderar todo el contenido con que se alimenta a las gigantescas redes sociales.

También debemos reconocer que, si alguien removiera mágicamente de la esfera pública toda la desinformación basada en IA, el extenso problema no se solucionaría. Los periodistas gustan de atacar a las redes sociales porque son soportes de contenidos estúpidos, pero los que vienen inyectando desinformación en la esfera civil desde hace décadas son los canales más importantes de noticias de los Estados Unidos y de cualquier otro país. Probablemente los estadounidenses están absorbiendo más engaño del canal Fox News de la familia Murdoch que de toda la acción de los trolls; en el mundo entero, otros poderosos intereses corporativos, a menudo alineados con gobiernos o subordinados a estos, se comprometen con campañas cotidianas de propaganda. Si no podemos impedir que esos gigantes corporativos envenenen la esfera pública, no será fácil concebir una solución integral para la desinformación lanzada de modo online por la IA.

Sin embargo, debemos intentarlo. Algunas de las opciones son regulación, censura total, contramedidas y educación del público.

Detección, regulación y competencia mediática

El Brennan Center for Justice, una organización con sede en los Estados Unidos que trabaja por elecciones libres y justas, aboga junto con muchos otros por una regulación fuerte. En diciembre el centro publicó el resultado de una investigación –Regulating IA Deepfakes and Synthetic Media in the Political Arena (Regulación de noticias falsas y medios sintéticos en el escenario político)– que explicaba y ejemplificaba la lógica y las maneras en que la regulación podría ayudar a resguardar el proceso electoral. El informe se esfuerza por mantener el equilibrio entre los intereses en competencia. Pero en última instancia la idea no puede conciliarse con el valor de la libertad de opinión, que tiene preponderancia en las sociedades democráticas, ya que la regulación de las mentiras introduce la regulación de discursos que, aunque nos parezcan detestables, sin duda deben seguir siendo legales. La regulación es posible, pero entraña muchos problemas.

Por el momento podemos adoptar contramedidas. Necesitamos mejores herramientas para identificar los medios sintéticos y sus motivaciones, para desmentir o, si cabe, confirmar sus contenidos. Los servicios de software que afirman poder identificar textos generados por IA han demostrado ser completamente ineficientes, lo que los vuelve peligrosos. En los proyectos de inteligencia de código abierto, como el europeo Bellingcat.com, el ser humano es esencial. La mezcla de inteligencia humana e inteligencia artificial parece ser la base para actuar, al menos en el corto plazo.

La educación es la mejor salida y la más duradera

Otra medida en desarrollo es un etiquetado digital al momento de la creación y la garantía de que las etiquetas acompañarán al contenido en la medida que se modifica y circula. El proyecto Content Authentication Initiative, una colaboración de corporaciones, instituciones académicas y otros actores, está trabajando en la tecnología correspondiente. Es una iniciativa prometedora pero apenas se encuentra en una fase muy temprana, y genera todo tipo de interrogantes sobre el control de los medios.

La educación es la mejor salida y la más duradera. El entrenamiento de la competencia mediática, más común en Europa que en los Estados Unidos, les brinda a los consumidores y creadores un marco para un juicio basado en el sentido común. ¿Puede protegernos esto contra una arremetida de la propaganda y las mentiras magistralmente elaboradas? Todavía no lo sabemos. Pero si no lo intentamos con programas amplios, sostenidos y dirigidos a todas las edades, el resultado será funesto.

También le puede interesar

Failed to retrieve recommended articles. Please try again.