À la veille des JO, les campagnes de désinformation s’appuient sur la fragilité émotionnelle du pays pour cristalliser les oppositions entre les extrêmes, souligne l’expert David Tortel.
Les campagnes d’« information » sur des vaccins anti-Covid qui tuent plus qu’ils ne sauvent, les tags de mains rouges sur le mur des Justes relayés massivement, le film Olympics Has Fallen (« Les Jeux olympiques ont sombré »), dans lequel la voix iconique de Tom Cruise semble révéler la « corruption » au sein du Comité international olympique (CIO)… : la manipulation de l’information, véritable fléau, revêt une ampleur inédite avec l’IA.
Les attaques informationnelles sont de plus en plus souvent orchestrées dans le cadre d’opérations organisées, adossées parfois à des cyberattaques, et amplifiées par la caisse de résonance des réseaux sociaux. Au point que l’intox occupe souvent plus d’espace que l’info et qu’il devient de plus en plus difficile de distinguer le vrai du faux.
Quels sont les enjeux de cette guerre informationnelle ? Avec quelles armes techniques et juridiques peut-on y faire face ? Faut-il museler les réseaux sociaux ? Les réponses de David Tortel, associé au sein des équipes Cybersécurité, chez Deloitte.
Le Point : Dans un rapport du 2 juin 2024, le Centre d’analyse des menaces de Microsoft (MTAC) a identifié un réseau d’acteurs affiliés à la Russie menant une série de campagnes d’influence malveillantes contre la France. L’objectif est-il d’alimenter le climat anxiogène qui pèse sur la compétition internationale de cet été ?
David Tortel : Pour Microsoft, cette campagne semble s’inscrire dans une longue tradition de dénigrement de la compétition internationale par la Russie. Microsoft rappelle ainsi qu’en 1984 déjà, l’Union soviétique a boycotté les JO de Los Angeles et aurait encouragé les autres pays à faire de même. À l’époque, le département d’État américain avait même accusé l’Union soviétique de distribuer des tracts dans plusieurs pays afin de décourager les athlètes noirs de participer à la compétition au risque d’être la cible de violences par des citoyens américains extrémistes. Le narratif identifié dans le rapport est classique : diviser la société en jouant sur des ressorts émotionnels tels que la peur. Quarante ans après, Microsoft retrouve des similitudes avec cette dernière campagne analysée.
En réalité, ces opérations sont loin d’être isolées et nous assistons de plus en plus à une militarisation de l’information, le champ informationnel étant devenu un nouveau théâtre de conflit.
Et pourtant, cette guerre informationnelle qui se déroule cette fois sur fond de guerre en Ukraine n’est pas nouvelle…
Elle est ancienne… De nombreux pays ont ajouté cette capacité à leur arsenal et on la retrouve dans la plupart des conflits, en particulier depuis la première guerre du Golfe.
Ce qui a changé, c’est la vitesse de propagation et la baisse significative du coût de diffusion. Avec l’IA, on dispose maintenant d’outils très puissants qui permettent d’industrialiser la création de contenus. Ces contenus peuvent ensuite être distribués via différents canaux, des ONG, de, ou encore des experts, des agences de relations publiques et des agences de presse, afin de leur procurer le maximum de visibilité en ciblant une population effectivement encline à y être sensible.
On entre dans une nouvelle forme de conflits, une guerre qui ne dit pas son nom, une guerre psychologique qui s’affaire à conquérir l’esprit des citoyens dans le but d’atteindre des objectifs politiques sans avoir recours à des moyens militaires. Une façon de gagner la guerre sans mener de bataille au sens propre du terme en quelque sorte. Et cette victoire passe par l’encouragement d’une forme de chaos, a fortiori dans un contexte politique et social tendu.
Derrière ces actions de déstabilisation qui mettent l’accent sur l’incapacité du pays à sécuriser les Jeux olympiques et paralympiques de Paris 2024 (JOP), l’objectif est aussi d’affaiblir l’image de la France aux yeux du monde…
Les tentatives de déstabilisation des Jeux ne sont pas nouvelles. Nous avons parlé des actions menées lors des JO de Los Angeles, mais nous pourrions également citer la tentative de perturbation lors de la cérémonie d’ouverture des JO de Pyeongchang en 2018 ou encore le piratage de l’agence mondiale antidopage. Ce piratage a conduit à la diffusion des dossiers médicaux d’athlètes américains bénéficiant d’exemptions à des fins thérapeutiques pour des substances considérées comme dopantes. Ces événements se sont produits dans le contexte de l’accusation par le CIO de l’organisation d’un système de dopage soutenu par l’État en Russie.
Aujourd’hui, pour perturber le bon déroulement des JO, les attaques informationnelles se multiplient. Même si rien ne permet de penser que ces opérations vont effectivement déstabiliser l’organisation des Jeux. L’identité visuelle de certains médias réputés, dont Le Point, a notamment été détournée en vue de diffuser de faux contenus via des liens créés de toutes pièces. Ainsi, on découvre que les Parisiens auraient contracté en masse des assurances pour se protéger contre les actions terroristes, que près du quart des billets auraient été retournés par les spectateurs, ou encore, d’après des fuites supposées des services secrets, que l’État serait en peine d’assurer la sécurité des JOP.
L’idée est de créer le désordre et de déstructurer ce moment de cohésion nationale et internationale. Le contexte politique tendu est particulièrement propice à ces opérations. On joue sur la fragilité émotionnelle du pays, afin de fracturer l’unité nationale, de cristalliser les clivages et les oppositions entre les extrêmes.
Les deepfakes sont l’un des outils de propagation de la désinformation. Des images truquées pourraient par exemple être utilisées pour fournir de fausses preuves dans des affaires judiciaires. Comment appréhendez-vous ce risque ?
Les deepfakes interrogent le rapport à notre propre perception. Ce que nous voyons ou ce que nous entendons a potentiellement été créé artificiellement de toutes pièces par un algorithme et l’intelligence artificielle générative a permis la démocratisation de ce genre de capacité. Il pourrait donc devenir de plus en plus difficile à l’avenir de s’assurer de l’authenticité d’un contenu en se fiant uniquement à ses sens. Des moyens techniques, notamment cryptographiques, existent, mais la question de l’usage de ces moyens restera centrale.
Avec quels moyens, juridiques et techniques, peut-on lutter contre la désinformation ?
Après l’assassinat de Samuel Paty et la campagne de désinformation qui s’est ensuivie sur les réseaux sociaux, la France a, en 2021, créé un service à compétence nationale sous l’impulsion du président de la République : Viginum. Ce service a pour but de détecter et de caractériser les ingérences numériques étrangères. Son rôle est d’identifier ces ingérences étrangères qui visent à saper la confiance des citoyens dans ses institutions, de démasquer leurs sources et leurs protagonistes, et de comprendre la mécanique d’amplification et de propagation du narratif de désinformation… De nombreuses campagnes de manipulation de l’information ont ainsi été disséquées et ont donné lieu à des rapports publiés par les équipes de Viginum.
Ces actions de déstabilisation touchent d’autres pays que la France. Au niveau de l’Union européenne (UE), la prise de conscience commence dès 2015, comme l’illustre la prise de parole du Conseil de l’Europe, qui souligne « la nécessité de contrer les campagnes de désinformation russes ». En 2022, des sanctions sont d’ailleurs prises par la Commission européenne pour interdire la diffusion de Sputnik et Russia Today (qui enregistraient alors respectivement 4 et 8 millions de visites mensuelles), deux organes accusés de diffuser le narratif du Kremlin. Cette décision sera d’ailleurs confirmée par le tribunal de l’UE au motif que les contenus diffusés visaient à saper les fondements des sociétés démocratiques.
Sous la présidence française, l’UE est également parvenue à se doter d’un cadre réglementaire en votant un texte, le Digital Service Act (DSA), qui vise à renforcer les obligations des réseaux sociaux en matière de modération des contenus. Car, les réseaux sociaux sont devenus le terreau et le catalyseur de la propagation de la désinformation.
La viralité des contenus est au cœur de leur modèle économique. De plus, ils nous enferment dans des îlots de pensée réfractaires à toute contradiction…
Les réseaux sociaux sont des acteurs essentiels de la désinformation. Le cœur de leur modèle économique repose souvent sur la viralité des contenus et sur l’engagement émotionnel suscité, deux leviers clés dans la propagation d’un narratif. La difficile modération de ces lieux d’expression publique et la promotion algorithmique de contenus permettent ainsi une diffusion extrêmement rapide à une multitude de communautés d’intérêt.
Par ailleurs, leur capacité de ciblage accélère ce phénomène en permettant aux organisations dont l’objectif est de fragmenter la société et d’identifier les profils les plus à même de relayer les fausses informations. Ils créent ainsi un phénomène de résonance important. Ces éléments ne sont pas nouveaux et ont été très bien documentés, par exemple suite au tristement célèbre scandale de Cambridge Analytica ou lors de la campagne qui a conduit au Brexit.
La puissance des réseaux sociaux et leur rôle majeur dans cette bataille de l’opinion inquiètent aujourd’hui de nombreux pays, comme l’illustrent les discussions foisonnantes sur le bannissement dans certains pays de l’application TikTok, réseau social chinois accusé par la Maison-Blanche et un certain nombre de ses alliés d’être une arme au service de Pékin dans cette nouvelle forme de guerre cognitive.
Le fact checking, cette technique qui permet de sourcer et de vérifier l’information grâce notamment à l’IA, vous paraît-elle efficace ?
Oui ! Le fact checking est nécessaire, mais il n’est pas suffisant. La vitesse de création de comptes ou de contenus est devenue telle qu’il est de plus en plus difficile de vérifier l’ensemble des informations en circulation et de juger de la crédibilité d’une source. Une étude récente publiée il y a quelques semaines démontre d’ailleurs qu’aux États-Unis, les faux sites d’information locale sont devenus plus nombreux que les sites authentiques.
Les stratèges de la manipulation de l’information ont bien compris que le rapport de force leur est favorable. Une campagne visant à saturer les fact checkers de fausses informations, parfois même grossières, est venue récemment inonder les communautés de fact checkers afin de paralyser leur action.
La désinformation interroge notre rapport à la vérité. Est-ce cela le vrai danger de nos démocraties ?
C’est effectivement ma plus grande crainte. La désinformation attaque les fondements mêmes de la démocratie en manipulant notre perception de la réalité et en rendant impossible toute forme de conciliation.
Le débat démocratique repose sur l’expression de divergences d’opinions, mais présuppose un référentiel commun de faits ou de concepts partagés. Ce référentiel commun est un préalable au débat et donc à l’expression d’un avis, d’une idée ou d’un vote. Si ce référentiel vole en éclats, s’il n’y a plus de commun autour duquel échanger, plus de réalité commune, plus de lexique commun, la notion même de débat vole en éclats. Et ce ne sont finalement plus des opinions, mais des perceptions qui s’affrontent, loin de toute réalité, à l’image de ce que l’on observe outre-Atlantique. L’absence d’une base commune nous fait alors pénétrer dans le champ vaporeux de la postréalité, ou des réalités alternatives, qui s’en prend à l’idée même de vérité et réinterroge ainsi la stabilité de notre modèle démocratique. Dans un tel scénario, il devient compliqué de faire société.
Progressivement, les éléments falsifiés risquent par ailleurs de finir par devenir indiscernables puisque noyés dans des narratifs ponctués d’éléments vérifiables. Et progressivement, les moteurs de recherche et outils d’IA générative, qui sont devenus notre principale source d’information et qui se nourrissent de l’ensemble des contenus trouvés sur Internet, finissent par relayer et promouvoir ces contenus dont la qualité moyenne s’appauvrit.
D’où la question de savoir, pour endiguer le fléau de la désinformation, s’il faut davantage contrôler l’information ou au contraire favoriser le développement de l’information ?
La question est vertigineuse. Comment se résoudre à contrôler l’information sans générer d’autres dangers pour notre démocratie ? L’information est un contre-pouvoir indispensable, chevillé à la liberté de penser. La contrôler reviendrait à créer une police de la pensée et entraver la liberté d’expression, ce qui ne me semble pas souhaitable. D’un autre côté, si j’ai longtemps pensé qu’on ne parviendrait à lutter contre la manipulation de l’information qu’avec plus d’information de qualité, je suis bien obligé de me rendre aujourd’hui à l’évidence. L’IA générative change la donne. Et la capacité de créer du contenu, à la demande, ne me semble plus être propice à l’émergence de cet équilibre.
Si le contrôle de l’information n’est pas souhaitable, il faut peut-être s’attaquer à la vitesse de diffusion et réfléchir sur les mécanismes de viralité. Mais nous marchons clairement sur un fil tendu au-dessus du vide…