You are here

Deepfakes et astroturfing : Quand les simulations manipulent les opinions

webcard for library month, blue background, tag line read between the line in white

Mercredi 19 octobre 2022

Vous voulez pimenter votre prochaine réunion Zoom ? Tout comme cet avocat qui s'est présenté au tribunal virtuel sous la forme d'un chat, vous pouvez maintenant, grâce à une application pour webcam appelée Xpression Camera, vous présenter à votre réunion matinale sous la forme de Mozart, de la Joconde ou d'Elon Musk. Ce genre de pitreries vidéo peut faire rire, mais des versions plus sophistiquées de la même technologie, faisant appel aux réseaux neuronaux et à l'intelligence artificielle, peuvent également être utilisées pour manipuler les opinions.    

Les "deepfakes", ou imitations vidéo de personnes célèbres, ont fait tabac sur Tiktok ("deeptomcruise" en est un exemple léger) mais ces imitations ont également fait surface dans le but de tromper. En mars, cette vidéo manipulée du président ukrainien Volodymyr Zelensky censé se "rendre" à la Russie a largement circulé. La technologie des deepfakes les plus sophistiqués est conçue pour créer des simulations toujours plus trompeuses, en s'appuyant sur l'apprentissage automatique et des algorithmes complexes pour créer un mimétisme toujours plus précis au fil du temps.  

Un développement clé dans l'évolution du deepfake a été l'utilisation de réseaux adversaires génératifs (GAN), ou deux groupes de réseaux d'intelligence artificielle, l'un pour générer le produit et le second pour tenter d'évaluer s'il est faux - et fournir un retour d'information auto-renforcé sur la façon d'affiner les résultats. Les utilisations les plus insidieuses des "deepfakes" comprennent non seulement des tentatives d'influence politique, mais aussi, et plus couramment, des tentatives de diffamation et de harcèlement des femmes. (En plus d'inclure une bonne explication de la technologie derrière les deepfakes, un article de l'Institut canadien des affaires mondiales note qu'une enquête de 2019 a identifié 15 000 vidéos deepfakes en ligne, dont plus de 95 % ciblaient les femmes avec du contenu pornographique).    

Même si elles ne sont pas ouvertement offensantes, le problème des vidéos "hypertruquées" réside en partie dans leur nouveauté même, qui peut favoriser leur diffusion. Un courant de recherche en neurosciences examine comment la dopamine, un neurotransmetteur associé à la satisfaction de la récompense, augmente en présence d'expériences nouvelles (voir cet article pour un résumé). Même si l'on sait que le deepfake lui-même est faux, le cerveau est fortement incité à le partager - à la fois le choc initial de dopamine provoqué par la nouveauté de la vidéo et l'anticipation ultérieure d'autres chocs de dopamine lorsque l'élément est "aimé" sur les médias sociaux.   

On s'attend à ce que les simulations deviennent de plus en plus dangereuses en tant qu'outils de propagande à mesure que les simulations s'améliorent, mais pour l'instant, elles ont tendance à présenter des signes révélateurs de fausseté : des mouvements de paupières et de bouche qui n'ont pas l'air naturels, un visage trop lisse et une pilosité étrange, en particulier une pilosité faciale (en fait, les humains, du moins jusqu'à présent, ont tendance à être bons pour détecter les choses qui ne semblent pas naturelles dans les simulations humaines - voir cette définition de la vallée de l'étrange). Vous pouvez également faire une capture d'écran de la vidéo et effectuer une recherche d'image inversée sur Google pour voir s'il existe une version originale de la vidéo, que vous pourrez ensuite comparer à la version trafiquée. (Voir cet article pour plus de conseils sur la façon de détecter un deepfake).  

Les comptes Twitter automatisés posent un autre problème lorsqu'il s'agit de déterminer qui est humain et qui ne l'est pas : ces comptes automatisés, ou bots, peuvent également être des amplificateurs trompeurs de fausses informations. L'astroturfing, un terme inventé dans les années 80 pour décrire la fausse correspondance dans les campagnes épistolaires, s'applique désormais plus largement à toute tentative de simuler un soutien populaire sur les médias sociaux. Sur Twitter, les robots peuvent faire des choses bénignes, comme signaler qu'un titre du New York Times a été modifié. Mais ils peuvent également être utilisés pour retweeter rapidement des informations erronées, agir comme des "super-diffuseurs" d'informations erronées et simuler une large vague de soutien, ou de dissidence, là où elle peut, ou non, exister réellement. En outre, des recherches ont montré que les humains ont tendance à partager des informations douteuses provenant de robots aussi souvent qu'ils le font à partir de comptes vérifiés appartenant à des humains. (En d'autres termes, dans la fraction de seconde qu'il faut pour retweeter un message Twitter, il peut être difficile de savoir si le tweeteur est un humain ou non).  

La désinformation liée aux vaccins sur Twitter a fait de la détection et de l'analyse de l'activité des robots un aspect important de la recherche médicale. Twitter a déclaré qu'environ 5 % de sa base de comptes sont des bots non déclarés, un chiffre contesté par l'ancien responsable de la cybersécurité de Twitter et par l'acheteur potentiel de la société, Elon Musk. Selon cet article du Journal of Medical Internet Research, environ 4 % des quelque 200 000 comptes Twitter qui ont tweeté sur la COVID-19 au début de la pandémie sont des bots clandestins, qui se sont également avérés avoir le contenu le plus négatif dans leurs tweets : "Les bots clandestins étaient généralement axés sur la critique des mesures politiques, les reproches interpersonnels entre sénateurs ou gouverneurs, et les critiques adressées aux gouvernements ou aux dirigeants politiques en rapport avec la mauvaise gestion de la crise sanitaire." Les sujets politiques brûlants ont également tendance à attirer l'activité des robots sur Twitter. Des chercheurs ayant analysé 10 millions de tweets au cours du mois précédant les élections fédérales britanniques de 2019, axées sur les attitudes à l'égard du Brexit, ont constaté que jusqu'à 10 % des comptes étaient des bots, dont l'activité a connu une augmentation remarquable immédiatement après un débat télévisé national entre Jeremy Corbin et Boris Johnson.   

Comment savoir si un bot est un bot ? Le Botomètre peut être utilisé pour analyser l'historique et les tendances des tweets d'un compte Twitter afin de déterminer s'il agit comme un bot. Cet autre outil du scientifique @conspirator0 peut être utilisé sans compte Twitter pour vérifier rapidement un graphique des tweets récents. Par exemple, si le compte a publié 24 heures sur 24, il s'agit probablement d'un logiciel et non d'une personne. D'autres enquêtes plus sophistiquées sur les robots ont adopté des outils tels que l'analyse de l'ADN pour étudier le caractère aléatoire et la similarité relative des pools de comptes afin de déterminer le comportement des robots.    

Bien entendu, tous les colporteurs d'informations douteuses sur Twitter ne sont pas non humains. L'une des similitudes avec les vidéos deepfake est l'utilisation de la même technique de Generative Adversarial Network pour créer de fausses photos de profil, utilisée à la fois pour des comptes Twitter entièrement automatisés et par des humains masquant leur identité en ligne. Le site web https://thispersondoesnotexist.com/ utilise cette technique. Rafraîchir la page pour afficher une nouvelle personne inexistante peut être assez troublant. L'utilisation de ces fausses photos de profil peut également tromper les gens : dans cette étude sur la perception des visages synthétiques, les auteurs notent : "...la capacité humaine à distinguer avec précision les visages synthétiques des visages réels n'est pas meilleure que le hasard." Cela dit, @conspirator0 note qu'il y a toujours des signes révélateurs de fausseté dans ces images : les yeux sont généralement centrés au même endroit sur chaque image générée, et les cheveux et les dents ont tendance à avoir des caractéristiques bizarres.   

Pour l'instant, il n'est pas impossible de repérer les vidéos "deepfake" et les comptes Twitter automatisés ayant l'intention malveillante de diffuser de fausses informations. Cependant, comme ces simulations devraient s'améliorer à l'avenir, il est bon de commencer à développer des instincts sceptiques afin de construire des défenses mentales contre la propagande générée par ordinateur. Gardez le logiciel à sa place.