Dans un contexte d’intensification des cyberattaques et des campagnes de désinformation consécutives à la guerre en Ukraine, les élections présidentielles françaises 2022 se tiendront sous haute surveillance. Alors que les présidentielles 2017 avaient déjà été la cible d’ingérences étrangères à travers les MacronLeaks, le gouvernement s’organise depuis pour garantir la fiabilité des élections et du débat démocratique en France. Dans cette lignée, le 29 septembre 2021, le président Emmanuel Macron a demandé au sociologue Gérald Bronner de présider une commission chargée d’étudier les mécanismes et les effets de la désinformation à l’ère numérique et de réfléchir aux moyens techniques, juridiques et sociétaux qui en limiteraient les conséquences sur la vie démocratique. Ce rapport a été remis à l’Elysée le 11 janvier 2022.
Le rapport présente en six chapitres les différents champs d’action où l’Etat peut intervenir pour limiter les effets négatifs de la désinformation :
- les mécanismes psychosociaux de la désinformation ;
- les logiques algorithmiques suivies par les réseaux sociaux et plateformes ;
- l’économie des infox ;
- les ingérences étrangères ;
- le droit dans l’espace numérique ;
- l’esprit critique et l’éducation aux médias.
Cette synthèse présente les grandes lignes et conclusions du rapport, avant d’aborder les enjeux de sécurité spécifiques à la désinformation qui ont été identifiés par la commission « Les Lumières à l’ère numérique ».
Comprendre les mécanismes alimentant la désinformation et trouver des leviers d’action pour y faire face
1. Lutter contre les mécanismes psychosociaux nous poussant à croire aux fausses informations grâce à l’esprit critique et à l’éducation aux médias et à l’information
La compréhension des mécanismes psychosociaux de la désinformation permettrait de mieux appréhender les dispositions à prendre pour en limiter ses effets négatifs. En effet, certaines prédispositions tendent à influencer notre capacité à distinguer une information fiable d’une infox. Par exemple, une personne « réflexive » serait moins susceptible de croire à une infox qu’une personne dont le traitement d’information est intuitif et rapide. Ces mécanismes peuvent être conjugués à la défiance envers les institutions, renforçant la croyance à des raisonnements simplistes et complotistes. A cet égard, le rapport recommande de faire du développement de l’esprit critique et de l’éducation aux médias et à l’information (EMI) une grande cause nationale ainsi que de renforcer la recherche scientifique sur la désinformation aux niveaux français et européen. Il propose notamment la création d’une délégation interministérielle dédiée au développement de l’esprit critique et l’élaboration de formations à l’esprit critique et à l’EMI enseignées tout au long de la vie, de l’école primaire au monde du travail.
2. Les plateformes et les acteurs de la publicité programmatique jouent un rôle central dans le financement et la visibilité accrue des fausses informations
Si l’influence des algorithmes sur la diffusion de fausses informations ne doit pas être exagérée, les plateformes ont néanmoins un rôle essentiel à jouer pour limiter la création de « chambres d’écho » et pour réajuster la visibilité des contenus à fortes charges affectives. Les procédés actuels mettent en avant les contenus sensationnels et chargés d’émotions négatives comme l’indignation ou la colère, plutôt que les articles neutres et factuels produits par les médias traditionnels. Ces algorithmes sont également conçus pour proposer des contenus correspondant à nos préférences, qui nous enferment dans un cercle restreint d’informations personnalisées, encourageant parfois la radicalisation à travers la recommandation de contenus de plus en plus extrêmes. Pour remédier à ces effets négatifs, la commission Bronner propose que les plateformes responsabilisent les influenceurs en modérant de façon accrue leur contenu et qu’elles changent leurs algorithmes pour mettre davantage en avant la diversité des opinions et en désactivant par défaut les métriques de popularité.
Le secteur de la désinformation se rémunère en grande partie grâce à une économie florissante des infox, à travers la publicité programmatique, les sites « pièges à clics » et le financement participatif. La publicité programmatique repose sur l’achat automatisé d’emplacements publicitaires sur des sites Internet et le ciblage des utilisateurs en fonction des traces (cookies) qu’ils laissent sur la toile. Le problème est qu’un grand nombre de publicités se retrouvent sur des sites conspirationnistes ou aux contenus haineux, alimentant leurs revenus. En outre, les sites d’information généralistes ont recours aux modules de recommandation de liens sponsorisés pour se rémunérer, qui renvoient souvent vers des sites « pièges à clics » douteux. Par ailleurs, afin de financer certaines de ses productions, comme le tournage d’un documentaire conspirationniste, la communauté de désinformation lance des levées de fonds sur les sites de cagnottes en lignes (Leetchi, HelloAsso) ou de financement participatif (Ulule, KissKissBankBank). Pour limiter les sources de revenus des sites de désinformation, la commission Bronner propose de responsabiliser les acteurs impliqués (annonceurs, agences de publicité, médias généralistes, etc.) à travers des audits, des campagnes publicitaires et la mise en place de listes dynamiques d’exclusion et d’inclusion de sites web. Le rapport encourage également les plateformes de financement participatif à revoir leurs bonnes pratiques pour éviter de financer des projets incitant à la haine ou propageant de fausses informations.
3. Le droit comme levier d’action pour sanctionner les diffusions de fausses informations et responsabiliser les utilisateurs
La commission Bronner fait état de lacunes dans le droit français et européen concernant la définition de la désinformation et sa sanction. Il n’existe aujourd’hui aucun encadrement juridique sur la diffusion de fausses actualités. Le rapport propose donc d’introduire un nouvel article dans la loi sur la confiance dans l’économie numérique (LCEN) afin d’engager la responsabilité civile des diffuseurs de fausses informations (influenceurs, citoyens, etc.). Dans le même sens, au niveau européen, la commission Bronner préconise également l’introduction dans le Digital Services Act (DSA) d’une disposition reconnaissant les fausses nouvelles comme des contenus répréhensibles devant faire l’objet d’une co-régulation entre plateformes, régulateurs et société civile. En outre, le rapport suggère de doter l’Autorité de régulation de la communication audiovisuelle et numérique (ARCOM, anciennement CSA) de compétences lui permettant d’interagir plus facilement avec les plateformes dans le cadre de la lutte contre la désinformation.
La spécificité des ingérences étrangères dans les campagnes de désinformation nécessite l’action conjointe de plusieurs acteurs de la sécurité numérique
1. Les ingérences étrangères représentent une menace hybride, alliant parfois des techniques de désinformation à des cyberattaques
Les ingérences étrangères représentent un risque dans le domaine de la désinformation et sont liées au contexte géopolitique. Il s’agit en effet d’un des modes opératoires à disposition des Etats pour transposer les conflits dans le cyberespace. Les opérations informationnelles ont pour objectif d’influencer l’opinion publique mais aussi de tromper l’adversaire afin d’obtenir un avantage tactique. Les techniques utilisées pour les opérations d’ingérence incluent les campagnes de dénigrement sur les réseaux sociaux, l’amplification artificielle (botnets, fermes à trolls), ou encore les cyberattaques (siphonnage de données des registres d’électeurs, piratage de messagerie d’un parti, etc.). Le rapport recommande différentes mesures pour y faire face aussi bien au niveau français qu’au niveau européen.
2. Le rapport recommande l’action conjointe des acteurs de la sécurité numérique et de la lutte informationnelle pour répondre efficacement aux opérations d’ingérence étrangère
Le rapport Bronner propose la création d’un mécanisme de gouvernance numérique interministériel associant les risques cyber et informationnels au sein du concept plus large de risques numériques, afin de mieux comprendre les interactions entre ces domaines et de mieux coordonner les réponses. Un tel mécanisme pourrait être mis en place en prévision des risques d’ingérence durant les élections présidentielles 2022. Ce mécanisme devrait notamment compter sur les agences étatiques Viginum, chargée de la lutte contre la manipulation de l’information et les ingérences étrangères, sur l’ANSSI (Agence nationale de la sécurité des systèmes d’information), chargée de la sécurité numérique, et sur le COMCYBER, chargé de la lutte informationnelle et des luttes informatiques offensive et défensive au sein du ministère des Armées.
La commission préconise par ailleurs un meilleur partage des données entre les acteurs qui étudient les opérations d’ingérence, qu’il s’agisse d’acteurs publics, académiques ou privés. Si cette mesure permet d’avoir une compréhension plus globale des objectifs stratégiques et des effets de ces opérations d’ingérence, il reste à déterminer quels types de données pourront être échangés avec, par exemple, la communauté de chercheurs, et si ces données pourraient concerner des opérations cyber. En effet, les agences de l’Etat pourraient souhaiter, dans l’intérêt national, garder secrets certains détails des attaques dirigées contre les infrastructures vitales de l’Etat. Néanmoins, les acteurs privés proposant des services de détection de risques cyber et/ou d’ingérence auraient tout intérêt à échanger entre eux et avec les chercheurs pour mieux anticiper les futures opérations d’ingérence.
Enfin, le rapport suggère de porter la réflexion sur les menaces informationnelles aux niveaux européen et international. La création de mécanismes de gestion et d’exercices de crise à l’échelle européenne permettrait de mieux faire face aux menaces informationnelles et de réagir rapidement aux opérations informationnelles massives. Une telle instance pourrait être en lien ou non avec l’ENISA, l’agence européenne pour la cybersécurité. Au niveau international, la commission Bronner préconise la création d’un groupe de travail à l’OCDE permettant d’établir des normes communes pour toutes les plateformes, fondées sur les codes de bonnes pratiques européens.
L’intégralité du rapport est disponible sur le site de l’Elysée : Les Lumières à l’ère du numérique, Janvier 2022