Cybersecurity
Governance, Resilience, IAM, PAM, DLP, SIEM, SOC
2024, année d’élections… et de deepfakes
Après les fake news, une combinaison de désinformation et de deepfakes qui tromperait même les experts nous menace à la veille de cette année d’élections, estime ESET.
Deepfakes, arme de tromperie massive ! L’accès facilité à la GenAI en accélérera la profusion et la diffusion. Dans une récente analyse, ESET évoque leur « démocratisation » et parle de « dommages à grande échelle ». On verra de plus en plus d’acteurs étatiques et des hacktivistes lancer des campagnes de désinformation convaincantes. Voici peu, après avoir interrogé 1 490 experts du monde universitaire et des affaires, le WEF a classé la désinformation comme le plus grand risque mondial des deux années à venir.
En 2024, en particulier. Cette année, en effet, une soixantaine d’élections seront organisées, incluant celles des cinq nations les plus peuplées de la planète. Cette année, toujours, un nombre record d’électeurs, représentant 49 % de la population mondiale, est attendu aux urnes, soulignant l’importance et l’étendue de ces scrutins.
Un risque de désastres démocratiques
Au cours de ces élections susceptibles de redéfinir le paysage géopolitique, on verra toutes sortes d’attaques. La Suède, par exemple, a été la cible d’attaques DDoS répétées à mesure qu’elle avançait dans son processus d’adhésion à l’OTAN. Avec les deepfakes, le danger est plus sournois. Et, comme le note le WEF, « il y a un risque que certains gouvernements soient trop lents à réagir, ne sachant comment prévenir la désinformation et la protection de la liberté d’expression ».
Le but, explique ESET : réduire la confiance des électeurs dans un candidat particulier. Il est plus facile de convaincre quelqu’un de ne pas faire quelque chose que l’inverse. Si les partisans d’un parti politique ou d’un candidat peuvent être influencés de manière appropriée par de faux enregistrements audio ou vidéo, cela constituerait une victoire définitive pour les rivaux. Des États voyous peuvent chercher à saper la confiance dans l’ensemble du processus démocratique, de sorte que celui qui gagnera aura du mal à gouverner légalement.
Au centre du défi, il y a une vérité simple : lorsque les humains traitent des informations, ils préfèrent valoriser la quantité et la facilité de compréhension. Plus nous regardons du contenu avec un message similaire et plus il est facile à comprendre, plus nous avons de chances d’y croire. Ainsi, les campagnes marketing ont tendance à être composées de messages courts et répétés en continu. De plus, distinguer les deepfakes du contenu réel devient toujours plus difficile et peut mener à un désastre démocratique.
Biais d’ancrage
On a vu que YouTube et Facebook ont été lents à réagir à certains deepfakes influençant les récentes élections. Le récent Digital Act européen, qui oblige les sociétés de médias sociaux à réprimer les tentatives de manipulation électorale, est resté lettre morte… Des efforts sont néanmoins faits. OpenAI, par exemple, va mettre en œuvre les informations d’identification numériques de la Coalition for Content Provenance and Authenticity pour les images générées par DALL -E3. La technologie de filigrane cryptographique -aussi testée par Meta et Google- est conçue pour rendre plus difficile la production de fausses images.
Cependant, ce ne sont que de petits pas. Et il y a des inquiétudes légitimes quant à la réponse technologique qui serait trop limitée, trop tardive, alors que la fièvre électorale s’empare du monde, constate ESET. En particulier lorsque les menaces se propagent dans des réseaux assez fermés comme WhatsApp ou les appels automatisés, il est difficile de suivre et de discréditer rapidement tout faux audio ou vidéo.
La théorie du « biais d’ancrage » suggère que l’information qui nous reste à l’esprit est la première que nous entendons, même si elle est fausse. Si les deepfakers parviennent d’abord à faire basculer les électeurs, les paris sont ouverts quant à savoir qui sera le vainqueur final.