L’IA : un outil de propagande électorale?

Alors que les rhétoriques populistes dopées par les réseaux sociaux se propagent à l’échelle mondiale et que les ingérences des États autoritaires s’intensifient, l’intelligence artificielle s’immisce progressivement dans l’arène politique. Le récent dévoilement par Trump d’un projet d’investissement de 500 milliards de dollars pour accélérer la future génération d’IA illustre de manière éloquente le volontarisme de plusieurs États d’intégrer ces technologies dans plusieurs aspects de la vie sociale, y compris les processus électoraux. Si l’IA présente plusieurs avantages en facilitant la communication entre les partis politiques et leur électorat et en améliorant l’accessibilité linguistique des débats, son utilisation excessive et non réglementée présente une menace importante pour la santé de nos démocraties.

Source : ALLVISIONN, Canva

En 2024, le monde a connu l’une des plus grandes années électorales de l’histoire pendant laquelle plusieurs états ont subi les effets névralgiques d’une ingérence insidieuse de l’IA. En effet, son utilisation a perturbé plusieurs élections, soulignant les dangers d’un usage non encadré de ces technologies. À l’aube de 2025, une année qui s’annonce tout aussi chargée sur le plan politique, il est essentiel de tirer des leçons de ces incidents pour garantir l’intégrité du processus électoral. Bien que de nombreux exemples existent, cet article met en lumière deux cas spécifiques où l’ingérence de l’IA a été particulièrement marquée.

 

Le cas de la Roumanie

Lors des élections roumaines de fin 2024, des stratégies combinant l’utilisation des réseaux sociaux et de l’IA ont été mises de l’avant pour accroître la visibilité de Clain Georgescu, candidat d’extrême droite. Des campagnes de désinformation ont été menées à grande échelle, notamment à travers la création de faux comptes, de contenus audiovisuels hypertruqués et d’une amplification automatisée de ses discours nationalistes, anti-OTAN et anti-UE. La plateforme TikTok s’est révélée particulièrement utile dans la promotion de ce candidat et de ses idées en permettant à des micro-influenceurs de publier du contenu soigneusement conçu, voire manipulé. L’algorithme de la plateforme aurait permis la surreprésentation du candidat dans l’espace numérique en le faisant apparaître de manière répétitive sur les For You Page (FYP) de son public cible. En effet, plus de 100 influenceurs ont été rémunérés par des sources opaques pour avoir publié des vidéos par l’entremise d’un système de don directement disponible sur la plateforme. Cette forme de rémunération s’apparente à du financement de campagne politique et constitue une violation des conditions d’utilisation de TikTok et de la législation roumaine. Des enquêtes ont révélé que ces actions ont été orchestrées en grande partie par des acteurs russes ayant utilisé un procédé sophistiqué de manipulation algorithmique et des comptes générés par l’IA pour diffuser de la propagande d’extrême droite pro-russe. La Russie aurait aussi eu recours à l’IA pour développer des logiciels permettant de mener 85 000 attaques contre l’Autorité́ électorale permanente de la Roumanie. Face à cette ingérence et à de multiples cyberattaques, la Cour constitutionnelle a annulé le premier tour des élections du 6 décembre 2024. Cet exemple est particulièrement inquiétant, car il démontre qu’un candidat peu connu du grand public et n’ayant investi que minimalement dans sa campagne, est en mesure d’obtenir le plus grand nombre de votes grâce à des procédés de manipulation algorithmique alimentée par l’IA et à une instrumentalisation d’influenceurs.

 

Le cas du Brésil

Pendant les élections municipales au Brésil en 2024, plusieurs candidats ont eu recours aux technologies d’IA pour attaquer la crédibilité de leurs adversaires. Parmi ces utilisations les plus problématiques, L’IA a été utilisée pour créer du contenu pornographique hyper-truqué pour défavoriser les candidatures féminines. Par exemple, une image DeepFake représentant Tabata Amaral, candidate à la mairie de Sao Paolo en tirant la langue et portant des oreilles de lapin Playboy a été diffusée sur X. De plus, les visages de journalistes brésiliens ont été utilisés pour créer des vidéos manipulés afin de tromper l’électorat et de mettre en péril la réputation de certains candidats. S’ajoute à cela la diffusion de contenus manipulés accusant à tort des candidats de corruption, de pots-de-vin ou de mauvaise conduite. Depuis un certain temps, les populations locales étaient déjà conscientes de l’aptitude de l’IA à propager de fausses informations de manière efficace et convaincante. C’est justement pour cette raison que le Tribunal Électoral Supérieur (TES), une institution chargée de l’organisation et de la surveillance des élections, a mis en place un nouvel ensemble de règles imposant des obligations de transparence et exigeant la labellisation des contenus générés par l’IA. En prévision des élections du 6 Octobre 2024, le tribunal voulait s’équiper d’avance avec des outils pour lutter contre la désinformation à l’ère de l’IA. Ces règles prévoient des sanctions pour les candidats qui ne s’y conforment pas et qui instrumentalisent l’IA pour nuire à leurs adversaires allant jusqu’à l’annulation de leur candidature. Pour les candidats déjà élus, la non-conformité à ces règles peut mener à la perte de leur mandat. Bien que l’élaboration d’une réglementation adressant spécifiquement les implications de l’IA dans la publicité politique constitue une avancée majeure, il reste à voir si cette législation sera en mesure d’assurer la labellisation de contenus hypertruqués, une tâche qui s’avère de plus en plus complexe. Enfin, il est intéressant de noter que ces mesures suscitent l’indignation des opposants du gouvernement brésilien actuel, qui les considèrent comme de nouvelles formes de contrôle et d’atteintes à la liberté d’expression, une critique typiquement formulée par la droite.

 

Conclusion

À la lumière de ces exemples, il est du ressort des états de prendre conscience des risques inhérents liés à l’emploi de ces technologies dans le contexte électoral de manière à préserver l’intégrité du scrutin et de garantir le respect des droits et libertés fondamentales reconnues par les états de droit. Bien que ces situations soient préoccupantes, elles ont le mérite de nous inciter à une réflexion approfondie et nous permettent de retirer des enseignements précieux.

Principaux enseignements :

  • La surreprésentation d’un candidat sur les réseaux sociaux se fait facilement grâce à des manipulations algorithmiques. Ainsi, la transparence dans le financement des campagnes électorales s’avère nécessaire, surtout en ce qui a trait aux dépenses sur les réseaux sociaux et l’utilisation d’influenceurs rémunérés afin de préserver l’intégrité du processus.
  • Les institutions judiciaires jouent un rôle primordial dans la protection de nos démocraties, tel que démontré par l’intervention de la cour constitutionnelle pour annuler la première ronde des élections en Roumanie. Cela démontre que, malgré une législation limitée sur le sujet, des méthodes alternatives existent pour l’instant, soit le recours aux systèmes judiciaires pour préserver la démocratie.
  • L’adoption de législation en amont des élections, comme cela a été fait au Brésil représente une avancée significative et reflète une prise de conscience accrue des États quant aux risques de l’IA dans les processus électoraux

Ce contenu a été mis à jour le 29 octobre 2025 à 15 h 36 min.