Attaque narrative

From Wikipedia, the free encyclopedia

Une attaque narrative (en anglais : narrative attack), parfois désignée sous les termes de récit militarisé (weaponized narrative) ou offensive informationnelle, est une forme de cyberattaque sémantique (ayant généralement une composante émotionnelle forte). Elle ne vise pas les systèmes physiques ni les protections logicielles informatiques, mais la perception, les croyances et l'interprétation du réel par des personnes ciblées. La cible peut être une personne, une entreprise, une population, une organisation ou l'opinion publique.

L'attaque narrative est une stratégie de communication délibérée qui consiste à créer de toute pièce une narration, ou à manipuler un récit existant (c'est‑à‑dire un ensemble cohérent d'informations, d'arguments et d'émotion). Son objectif est de manipuler la perception d'une personne, d'une audience ou de l'opinion publique, pour influencer des comportements, semer la confusion, polariser, déstabiliser ou affaiblir la confiance dans des institutions, la science, la médecine, certaines technologies ou des décisions ; éventuellement en portant atteinte à la réputation d'entités (individus, entreprises ou États) par la diffusion de récits partiaux ou fallacieux mais structurés pour être convaincants.

Contrairement à une simple désinformation ponctuelle, l'attaque narrative est systémique, multi-canaux et s'inscrit dans une certaine durée. Elle cherche à modifier profondément, éventuellement durablement, les cadres sociaux et mentaux, les systèmes de croyances d'un public ciblé.

Avec l'essor des technologies numériques et en particulier des grands modèles d'intelligence artificielle générative (IAg), ce concept a pris de l'importance dans les domaines de la cybersécurité, de la géopolitique et de l'éthique et du contrôle de l'intelligence artificielle[réf. nécessaire].

Histoire et évolution du concept

Le concept d'attaque narrative prend ses racines dans la propagande classique et les opérations d'influence. Sa théorisation moderne émerge avec le développement de la guerre hybride au début du XXIe siècle.

Le scandale Cambridge Analytica/AggregateIQ est ainsi considéré comme un archétype de l'attaque narrative basée sur les réseaux sociaux (Facebook notamment) et une plate forme d'IA (Ripon en l'occurrence) conçue pour la désinformation numérique[1],[2],[3],[4]. On a montré quelques années plus tard que Ripon a été créé avec l'aide du groupe « Team Jorge » (une officine d'influence, secrète, qui semble avoir été créée en Israël par Tal Hanan, dévoilée en 2023 par une enquête journalistique, qui a montré qu'elle utilise alors encore un progiciel (baptisé Advanced Impact Media Solutions, ou Aims)[5], appuyé sur une intelligence artificielle qui « écrit désormais des posts viraux à la demande », puis les fait circuler sur Facebook, mais également sur Twitter, LinkedIn, Telegram[6], etc.)

Selon Calvin Peterson Jr, au milieu des années 2010, le vocabulaire américain n'a pas de mot pour décrire correctement les menaces cognitives modernes. Il propose ainsi le concept de « narratif militarisé » (Weaponized Narrative), qu'il définit comme l'usage stratégique de récits pour exploiter ou aggraver les divisions sociétales afin de saper les institutions, l'identité ou la volonté d'un adversaire. Il analyse de ce point de vue plusieurs opérations d'influence russes, notamment lors de l'élection présidentielle américaine de 2016, montrant que ce type d'attaque pose un défi particulier aux démocraties et plaidant pour la création d'une structure dédiée à la maîtrise de la puissance informationnelle[7].

L'opération Doppelgänger, plus récente, est un exemple de campagne de désinformation, pro-russe, lancée dès 2014 par le Kremlin dans le cadre de l'invasion de l'Ukraine par la Russie, est un autre exemple d'attaque narrative. Elle cible l'opinion publique et politique de divers pays occidentaux, et s'est amplifiée depuis l'invasion de l'Ukraine en 2022. La Russie a transformé son rapport narratif à l'Ukraine et plus largement à l'Europe : d'une simple contestation discursive de l'identité et des valeurs libérales européennes, elle est passée à une stratégie de subversion politique active (connue à l'époque soviétique sous le nom de « mesures actives »), particulièrement depuis qu'elle bombarde et occupe l'Ukraine, en utilisant les récits comme armes d'influence, pour affaiblir à la fois l'Ukraine et l'Union européenne vis à vis de leurs citoyens ; on parle à ce propos de guerre de l'information, de guerre hybride ou de cyberguerre, notamment soutenue par une Unité russe top secrète, récemment découverte (29 155), au sein du GRU (l'agence de renseignement militaire russe), qui selon Schwirtz[8], Cohen et Radin (2019)[9] et Rid (2020)[10], semble avoir pour mission spécifique de semer la discorde au sein des gouvernements et sociétés européens afin de déstabiliser l'Europe de différentes manières[11],[12],[13].

En 2019, des chercheurs soulignent que le récit transformé en arme, militarisé (weaponized narrative) s'inscrit dans le « nouveau champ de bataille du XXIe siècle » qui s'est étendu au cyberespace, s'attaquant non seulement aux faits, mais aux valeurs culturelles et à l'identité de l'adversaire ou de la population du pays[14].

Historiquement, ces techniques ont été observées dans des contextes variés, allant de l'utilisation des médias numériques et de l'intelligence artificielle par l'extrême droite américaine, le libertarianisme de droite américain, et les partis pro-Brexit anglais, par le Kremlin aussi, pour influencer les élections américaines de 2020 ou pousser les anglais à voter pro-brexit[15], jusqu'à la mise en place de stratégies de diplomatie numérique par les Talibans pour contrer les critiques internationales après leur prise de pouvoir en Afghanistan en 2021[16], en passant par la fabrication du consentement à des situations de privation de liberté.

En France, un décret[17] a formalisé la notion d'« ingérence numérique étrangère » (INE, définie comme toute « opération impliquant, de manière directe ou indirecte, un acteur étranger (étatique ou non), et visant la diffusion artificielle ou automatisée, massive et délibérée d'allégations ou imputations de faits manifestement inexactes ou trompeuses, de nature à porter atteinte aux intérêts fondamentaux de la Nation ». Cette notion s'inscrit dans de concept de FIMI (Foreign Information Manipulation and Interference, défini dans l'Union européenne (SEAE) comme des « activités intentionnelles et coordonnées, menées par des acteurs étatiques ou non, ayant un impact négatif sur les valeurs et processus politiques », une définition aussi retenue par le G7 (RRM), et reprise par l'OTAN et l'OCDE[18].

Mécanismes

De manière générale, ceux qui lancent des attaques narratives exploitent la désinformation, des contenus trompeurs ou sortis de leur contexte. Ils le font au moyen de vecteurs et d'outils numériques modernes (réseaux sociaux, bots, générateurs deepfakes, IA générative, algorithmes de recommandations...) pour amplifier et diffuser le récit qu'ils veulent imposer ; Ils s'appuient sur les ressorts de la psychologie et notamment sur les biais cognitifs et émotionnels, ainsi que sur des dynamiques sociales, plutôt que chercher à exploiter des vulnérabilités techniques.

Ils cherchent ainsi à provoquer un effet pour eux stratégique : changement d'opinion, panique, perte de repères et de confiance, décision erronée.

Enjeux

Risques systémiques et financiers

Les attaques narratives sont désormais reconnues comme des vecteurs de menaces capables de causer de larges dommages politiques, socio-économiques et financiers, supérieurs aux cyberattaques « traditionnelles ».

Elles peuvent influencer la sécurité d'individus ou de tout un pays (par exemple en politisant la gestion d'actifs ou en provoquant une contagion de risques systémiques sur les marchés financiers)[19]. Les marques commerciales y sont vulnérables dans un contexte de polarisation politique accrue, où leur réputation peut être détruite par des campagnes narratives coordonnées[20].

Cohésion sociale et haine en ligne

Sur le plan social, les attaques narratives servent souvent de socle à une radicalisation qui va servir ces campagnes.

Des études ont ainsi montré comment des groupes comme les « incels » utilisent des structures narratives pour justifier la violence envers les femmes[21].

De même, le développement de crimes de haine, antisémites, est souvent précédé par des offensives narratives rendant les communautés vulnérables à des agressions physiques ultérieures[22].

État des lieux et technologies

Intelligence artificielle et vulnérabilités

L'émergence des grands modèles de langage (LLM) dans les années 2010 et leur popularisation avec ChatGPT en 2023, ont transformé la nature des attaques narratives.[réf. nécessaire]

Ces modèles peuvent être la cible de jailbreaking (débridage) afin de produire des récits structurés (sequential narrative attacks), utilisant la narration visuelle, textuelle et parfois sonore ou musicales pour contourner les filtres habituels de sécurité (quand ils existent)[23].

Les recherches en interprétabilité montrent que les « discours adverses » (adversarial tales) induisent des schémas d'attention distincts dans les modèles d'IA par rapport aux attaques non narratives, rendant leur détection complexe[24].

Plus récemment, des vulnérabilités ont été identifiées dans les modèles de langage audio, capables de traiter la parole brute, ouvrant la voie à des attaques narratives sonores ont été mis en évidence[25].

Ingénierie narrative

Le domaine de l'intelligence et de la géopolitique voit apparaître le concept d'« ingénierie narrative », une variante de l'ingénierie sociale, qui consiste à concevoir des opérations d'influence évolutives dépassant les paradigmes du XXe siècle pour s'adapter en temps réel aux réactions des populations cibles[26].

Contre-mesures

Dans les réseaux sociaux ou le Cloud, la détection automatisée de certains types d'anomalies peut permettre d'identifier certaines attaques narratives inédites (en repérant des comportements qui s'écartent du profil normal du système) mais au prix d'un grand nombre de faux positifs, et d'un besoin important de données d'entraînement pour affiner les modèles[27].

La lutte contre les attaques narratives repose sur plusieurs axes :

  • L'alignement des modèles d'IA : Développer des techniques pour que les modèles restent fidèles à des principes éthiques même face à des scénarios conversationnels complexes[28].
  • La surveillance médiatique : Utilisation d'outils d'analyse pour identifier les motifs narratifs émergents avant qu'ils ne deviennent viraux. Des start-ups ou sites Web se sont construits pour détecter et tenter de contrer les attaques narratives ; Parmi ces acteurs, à titre d'exemple, figurent[29],[30] :
    • GDELT, une base de données mondiale, open source, soutenue par Google, qui analyse en continu les actualités de plus de 100 langues pour recenser, toutes les 15 minutes, les événements, acteurs, émotions et récits circulant dans le monde (a couvert plus de 250 millions d'événements de 1979 à 2025).
    • Graphika, est une société spécialisée dans l'analyse des réseaux sociaux, qui, via la cartographie de graphes et l'apprentissage automatique, identifie les sources et la circulation de récits manipulés (généralement dans le cadre d'opérations d'influence politico-économique, politique, sanitaire ou géopolitique)
    • Blackbird.A, une start-up et plateforme de « narrative intelligence » qui détecte et analyse les attaques narratives en temps réel ; elle évalue les risques informationnels liés aux crises, aux campagnes de désinformation ou aux incidents de cybersécurité, pour aider organisations et institutions à y répondre.
    • D'autres entreprises existent, dont Recorded Future, Logically ou NewsGuard qui proposent des outils de veille et de détection de manipulations informationnelles ou d'évaluation de la fiabilité des contenus.
  • La résilience cognitive : Éduquer le public aux mécanismes de la manipulation par le récit pour réduire l'efficacité des offensives informationnelles.

Notes et références

Voir aussi

Related Articles

Wikiwand AI