Sguardi condivisi
Portiamo l’AI dal lato della società civile

Per lungo tempo, nelle nostre democrazie la libertà di stampa e l’accesso a informazioni affidabili sono stati principalmente minacciati da tentativi di censura da parte di politici autoritari, criminalità organizzata e un intreccio di interessi politici e commerciali da parte di editori e organizzazioni di comunicazione mediale. Questi fattori sussistono tuttora, ma con l’avvento dei social network e dell’intelligenza artificiale, le libertà di stampa e informazione sono sempre più sotto pressione.
Di Christine Pawlata
«L’intelligenza artificiale gioca un ruolo importante nel problema della disinformazione, che ormai è diventato un rischio sistemico per le nostre democrazie, in generale per l’ambiente informativo, ma anche per la stabilità, la sicurezza sociale e politica, anche dei mercati azionari», spiega Francesca Lagioia, docente di AI, diritto ed etica presso l’Università di Bologna e l’Istituto Universitario Europeo di Firenze. Abbiamo intervistato l’esperta in occasione dell’evento Scommessa sull’informazione. Tra falsificazione e realtà svoltosi al Polo del ‘900 a Torino, come tappa conclusiva del ciclo di incontri Sguardi condivisi organizzato dal Goethe-Institut.
Secondo Lagioia, il ruolo dell’intelligenza artificiale nel contesto della disinformazione riguarda da un lato la creazione di false informazioni, dall’altro la loro diffusione mirata. «Ci ricordiamo tutti quanti la fotografia del falso arresto di Trump o del Papa ritratto con quell’improbabile piumino bianco, e l’avvento delle AI generative ha cambiato un po’ le cose, perché la disinformazione è un problema vecchio, ma l’AI generativa, in un certo senso, ha democratizzato la capacità di creare questi contenuti, arrivando nelle case di tutti».
Per spiegare quanto possa rivelarsi problematico l’uso di sistemi di AI per creare informazioni false ma convincenti, Lagioia utilizza un esempio: in una fase sperimentale, dei ricercatori hanno chiesto a modelli linguistici come ChatGPT di generare contenuti per i social network, con l’obiettivo di convincere donne di età compresa tra i 30 e i 45 anni della regione di San Francisco che abortire avrebbe messo a rischio la loro stessa vita. «Il sistema ha generato una serie di narrazioni e informazioni, anche citando cliniche a volte esistenti, a volte inesistenti, e riportando dati di morti di donne che, in realtà, non erano mai avvenute», sostiene. La situazione si fa particolarmente critica quando le false informazioni vengono diffuse deliberatamente, utilizzando tecnologie di intelligenza artificiale.
Lagioia prosegue: «Ogni volta in cui noi condividiamo online delle informazioni che ci riguardano, acquistiamo qualcosa, facciamo un post sui social network, facciamo un test per capire a quale personaggio storico assomigliamo, stiamo generando informazioni che poi gli algoritmi usano per creare profili e poi prevedere chi di noi potrà essere maggiormente influenzato da certi contenuti, per esempio per influenzare o generare un mutamento nella volontà nel voto». Non dimentichiamo anche l’incitamento all’odio o alla violenza: un rapporto delle Nazioni Unite, ad esempio, ha evidenziato il ruolo centrale di Facebook nel genocidio in Myanmar, al quale il gigante tecnologico ha contribuito diffondendo messaggi di odio contro la minoranza Rohingya.
Lagioia cita un altro esempio scioccante: «L’anno scorso è circolato un video in cui il Segretario alla Sicurezza Nazionale e alla Difesa dell’Ucraina confermava il ruolo di Kiev nell’attacco al Crocus City Hall di Mosca. Il video era falso, ma è diventato virale in pochissimo tempo».
L’Unione Europea non ha ignorato la questione e, negli ultimi anni, ha adottato una serie di regolamenti, come la Legge sui Servizi digitali o la Legge sull’Intelligenza Artificiale, con l’obiettivo di limitare i rischi.
Lagioia, tuttavia, vede grandi difficoltà nell’applicazione e nel monitoraggio di queste norme giuridiche ed è favorevole allo sviluppo di sistemi di intelligenza artificiale che aiutino organizzazioni come le autorità di protezione dei dati, le autorità di vigilanza e le associazioni dei consumatori a individuare le violazioni nel campo della disinformazione.
«Io sono convinta che nell’era in cui le grandi compagnie di internet, attori privati, ma anche pubblici si avvalgono dell’intelligenza artificiale per ottenere vantaggi o profitti di tipo economico, politico o sociale, l’intelligenza artificiale debba essere portata dal lato della società civile», dichiara. «È evidente che, da soli, è una battaglia che siamo destinati a perdere, e quindi dobbiamo cercare di far sì che non sia appannaggio esclusivo delle dinamiche di mercato».
Commenti
Commenta