Raccourcis:
Aller directement au contenu (Alt 1)Aller directement à la navigation secondaire (Alt 3)Aller directement à la navigation principale (Alt 2)

Mensonge ou vérité ?
Ne croyez pas tout ce que vous voyez

Ilustracja: Nie wierzcie własnym oczom
© Polityka Insight

Qu’est-ce que Paul Walker dans « Fast & Furious 7 » et Carrie Fisher dans « Rogue One: A Star Wars Story » ont en commun ? Tous deux ont été vus dans des scènes où ils n’ont absolument pas joué. Walker était déjà décédé lorsque 350 scènes supplémentaires ont été tournées avec lui, et Carrie Fischer, alors âgée de soixante ans, était convaincue que les réalisateurs du film avaient utilisé de vieilles images d’elle. Plus tard, elle a appris que les images en question avaient été créées sur ordinateur.

Si les effets spéciaux sont utilisés dans l’industrie cinématographique depuis des décennies, il n’y a pas si longtemps, la manipulation des images et des sons était une entreprise coûteuse, difficile et réservée aux spécialistes. Grâce aux avancées technologiques, des technologies comparables sont désormais également disponibles pour les utilisateurs d’ordinateur avertis. Les programmeurs, par exemple, peuvent utiliser la bibliothèque open source TensorFlow basée sur l’intelligence artificielle pour mettre la tête de l’actrice israélienne qui incarne « Wonder Woman », Gal Gadot, dans une vidéo pornographique – comme l’a fait l’utilisateur de Reddit « deepfakes », qui a donné son nom au phénomène qui consiste à manipuler des contenus audiovisuels à l’aide de l’intelligence artificielle. Nous sommes au début d’une nouvelle ère, où pratiquement tous les détenteurs d’un ordinateur portable et d’une caméra basique sont capables de manipuler les contenus audiovisuels à volonté à l’aide d’algorithmes préexistants.


DE NOUVELLES TECHNIQUES DE MANIPULATION

Grâce au logiciel FakeApp, vous pouvez échanger des visages dans des films à volonté. Sur base d’environ 500 portraits d’une même personne, l’intelligence artificielle utilisée « apprend » l’apparence de cette personne. L’application peut alors reconnaître son visage sur d’autres images ou le transférer sur l’image vidéo d’une autre personne. En 2016, Adobe a présenté VoCo, un logiciel qui permet de modifier les enregistrements vocaux à volonté. Les algorithmes de deep learning (apprentissage profond) sont déjà capables de créer des modèles de visages en 3D à partir de photographies ordinaires, de changer la source de lumière et l’ombre projetée sur les photographies, de teinter automatiquement les images de films, et même, bien que ce soit encore quelque peu maladroit, de créer des images basées sur des descriptions.

Le projet de recherche Face2Face [9] montre comment les traits du visage d’une personne peuvent être transférés à ceux d’une autre personne en temps réel. Ce n’est certainement qu’une question de temps avant que cette méthode ne soit également disponible sur smartphone. Selon une étude réalisée par l’éditeur de logiciels Pegasystems [10], 77 % des consommateurs utilisent déjà des services ou des appareils dans lesquels l’intelligence artificielle intervient – pour plus de la moitié d’entre eux, sans le savoir.
" Une série de zéros et de uns peut être facilement modifiée sans que nous le remarquions. Cela signifie que le moyen de communication audiovisuel le plus populaire est devenu plus exposé aux manipulations." 
Selon un sondage Eurobaromètres de 2017 concernant l’utilisation des médias dans l’Union européenne, 84 % des Européens regardent la télévision tous les jours ou presque tous les jours, soit 2 % de moins qu’en 2016. La numérisation de la télévision est en plein essor et, selon les experts, les émissions vont gagner en interactivité. Une série de zéros et de uns peut être facilement modifiée sans que nous le remarquions. Cela signifie que le moyen de communication audiovisuel le plus populaire est devenu plus exposé aux manipulations. Le seul moyen de communication non manipulable qu’il reste est la communication en face à face.

DE NOUVELLES POSSIBILITÉS POUR LES MANIPULATEURS

Les nouvelles technologies sont omniprésentes  – y compris chez les criminels, les terroristes et les démagogues. En 2018, le portail en ligne BuzzFeed a publié une vidéo dans laquelle Barack Obama mettait en garde contre les deep fakes. Ce n’est que dans la deuxième partie de la vidéo que l’on se rend compte que ce n’est pas Obama qui parle, mais l’acteur américain Jordan Peele, qui prête ces paroles à l’ancien président des États-Unis.

Les fausses informations, composées uniquement de texte, peuvent également ébranler l’opinion publique. En avril 2013 des hackers ont piraté le compte Twitter de l’agence de presse américaine Associated Press et publié le tweet : « Dernière minute : deux explosions à la Maison-Blanche, Barack Obama est blessé ». Une nouvelle qui a provoqué une onde de choc, notamment sur les marchés boursiers : en l’espace de deux minutes, les actions américaines ont perdu 136 milliards d’euros en valeur. Et en Birmanie, les messages de haine sur Facebook ont ​​été en partie responsables de pogromes contre la minorité Rohingya.

"Jusqu’à récemment, les vidéos étaient considérées comme irréfutables, car elles constituaient des preuves authentiques. Aujourd’hui, une vidéo peut être aussi fausse qu’un message publié sur Facebook, mais les utilisateurs n’y sont pas préparés."


Pourtant, notre confiance dans les enregistrements audio et vidéo est toujours plus grande : jusqu’à récemment, les vidéos étaient considérées comme irréfutables, car elles constituaient des preuves authentiques. Aujourd’hui, une vidéo peut être aussi fausse qu’un message publié sur Facebook, mais les utilisateurs n’y sont pas préparés. Dans le cadre d’une expérience menée à l’Université de Warwick [11], 30 % des images manipulées présentées aux personnes participant au test n’ont pas été reconnues comme fausses.

Imaginons le scénario suivant : deux jours avant les élections législatives, une vidéo montre comment un homme politique considéré comme particulièrement honnête peut se laisser corrompre. La preuve que la vidéo est montée de toute pièce ne peut être fournie qu’après les élections. En attendant, des enregistrements audios compromettants circulent aux quatre coins du monde – et on ne peut plus exclure qu’il s’agisse d’un montage. Les experts en sécurité attirent l’attention sur le fait que la plus grande menace réside dans les enregistrements et documents authentiques falsifiés par la suite.

La perte de confiance dans les images et les documents sonores aura des conséquences d’une portée considérable. L’établissement des preuves sera plus difficile. Les journalistes devront vérifier méticuleusement l’authenticité de chaque document. Et les régimes non démocratiques utiliseront les nouvelles possibilités technologiques pour se maintenir au pouvoir grâce à des manipulations d’image toujours plus persuasives et la censure simultanée des médias.
INTELLIGENCE ARTFICIELLE : LA GENTILLE CONTRE LA MAUVAISE
Les gouvernements, les entreprises et les instituts de recherche utilisent déjà des algorithmes de deep learning pour détecter les manipulations. On peut espérer que la manipulation des images en direct soit limitée par des techniques de codage cryptant les signaux. En outre, les éditeurs de logiciels travaillent déjà sur des extensions de navigateur destinées à alerter l’utilisateur Internet moyen à l’avenir de la présence de photographies et de vidéos manipulées.

Certains gouvernements envisagent déjà de restreindre l’accès aux programmes de montage audio et vidéo ou de limiter leurs capacités. En France, une obligation de signalisation pour les photos de mannequins retouchées a été introduite pour protéger les jeunes de l’anorexie. Et les principaux fabricants d’imprimantes et de photocopieuses ont installé sur leurs appareils un système de sécurité rendant impossible la contrefaçon de billets de banque. Une autre approche consiste à étendre le droit de la presse aux réseaux sociaux afin d’engager la responsabilité des géants du Net concernant les fausses informations – une telle mesure conduirait sans doute au développement de systèmes d’analyse automatiques.

Par ailleurs, les spécialistes examinent actuellement la possibilité d’utiliser la technologie de la blockchain – base technique de la cryptomonnaie – pour authentifier les contenus en ligne. Ce qui impliquerait l’introduction d’un filigrane numérique contenant des informations sur l’auteur d’une contribution.

Mais le plus important est d’encourager les destinataires de messages et de contributions à adopter une attitude critique. Dès que nous constatons qu’une vidéo provoque en nous des émotions fortes, nous devons être particulièrement vigilants, car c’est généralement le principal objectif des manipulateurs.