InfoRos : Les réseaux historiques d’influence

InfoRos : Les réseaux historiques d’influence

Le 18 janvier 2022, OpenFacto a publié les premiers résultats de son enquête sur InfoRos, une « agence d’information » suspectée d’agir pour le compte du renseignement militaire russe, le GRU. Notre investigation portait sur un réseau d’un millier de sites Internet russophones créés et maintenus par InfoRos pour diffuser une rhétorique patriotique et anti-occidentale auprès de la population russe. Cette galaxie de portails ciblait des localités situées à travers toute la Russie, mais également des communautés spécifiques, dont des minorités ethniques et religieuses vivant en Crimée.

OpenFacto a poursuivi ses investigations sur lnfoRos, et publie aujourd’hui un second rapport sur les opérations numériques de l’agence russe. En se focalisant sur les anciens noms de domaine liés à InfoRos, des pivots techniques ont permis d’identifier près de 600 nouveaux portails administrés par InfoRos depuis l’an 2000. Cette nouvelle enquête porte donc à 1 945 le nombre total de noms de domaine connus de l’agence. Si la majorité d’entre eux a servi à constituer un ancrage informationnel local en Russie, OpenFacto a découvert plusieurs réseaux de sites ayant cherché à influer sur la politique de pays étrangers, ou à soutenir les intérêts diplomatiques, économiques, et militaires du gouvernement russe.

Comparées aux sites locaux décrits dans notre premier rapport, les techniques d’influence employées par ces réseaux sont radicalement plus pernicieuses : InfoRos a notamment soutenu des partis politiques sécessionnistes dans des pays de l’espace post-soviétique, joué sur des conflits historiques ou ethniques pour maintenir l’emprise de Moscou dans des zones de conflit, et financé des concours et des conférences à l’étranger pour promouvoir la coopération avec la Russie. En parallèle, l’agence n’a eu de cesse de marteler à la population russe et ses nouveaux alliés que « l’Occident » était hypocrite, menaçant, mais en voie de céder sa place à de nouveaux centres de puissance dont la Russie serait l’un des principaux représentants.

Pour ce faire, InfoRos s’est appuyée sur des structures locales et des agents d’influence originaires des pays visés, qui organisaient des événements physiques et faisaient valoir les positions russes auprès d’organisations internationales ou de leurs propres autorités. L’agence a également débauché des ressortissants de pays occidentaux acquis à la cause russe pour créer et diffuser des contenus favorables à la ligne éditoriale prescrite par le gouvernement russe. Des discours volontairement dirigés vers des publics considérées comme facilement influençables, tels que la jeunesse et les victimes de conflits armés.

Dans le contexte de l’invasion de l’Ukraine, lancée par la Russie le 24 février dernier, cette approche historique jette une lumière crue sur la stratégie d’influence numérique du GRU depuis le début des années 2000. En 20 ans, InfoRos a tissé une gigantesque toile de sites destinés à accompagner les intérêts stratégiques du pouvoir russe, faisant régulièrement évoluer ses objectifs, son discours et ses méthodes d’influence. Malgré les nombreuses publications sur ses activités, l’agence russe continue actuellement d’enregistrer des noms de domaine et d’exploiter les réseaux sociaux pour manipuler l’actualité, en tentant notamment de décrédibiliser le gouvernement de Kyiv et l’assistance qui lui est portée par les pays occidentaux.

Avant de présenter ces principaux réseaux historiques, nous retracerons dans une première partie le cours des activités d’InfoRos de fin janvier à mars 2022. Et pour cause, l’agence semble avoir réagi à la parution de notre première enquête, et démantelé depuis cette période une partie importante de son infrastructure. Cette réaction suggère qu’InfoRos a tenté de limiter l’exposition publique de son ciblage de la population russe. Enfin, nous proposons en conclusion de revenir sur deux aspects du travail d’InfoRos abordés dans le rapport de janvier, mais que nos nouvelles investigations ont permis de mieux cerner, à savoir la création de noms de domaine à finalité commerciale, et la répartition géographique des sites locaux en Russie.

Un résumé des principales découvertes d’OpenFacto sur l’évolution de la stratégie et des tactiques d’InfoRos est disponible à la fin de ce rapport, p. 71. La liste complète des 1 945 noms de domaines liés à InfoRos est par ailleurs accessible en cliquant les liens ci-dessous.

Télécharger le rapport.

Télécharger la liste des domaines.

Comment la fonction d’autocomplétion de Google aide à la diffusion de désinformation sur le Donbass

Comment la fonction d’autocomplétion de Google aide à la diffusion de désinformation sur le Donbass

Crossover a découvert que les prédictions produites par la fonction d’autocomplétion de Google (Google autocomplete) proposait presque systématiquement le nom d’un média pro-Kremlin dès lors que des citoyens belges francophones recherchaient le terme « Donbass » dans le moteur de recherche. D’autres prédictions de Google proposent par ailleurs les noms d’individus notoirement pro-Kremlin.

Le 24 février 2022, Vladimir Poutine a lancé une « opération militaire spéciale » en Ukraine. Les yeux rivés sur l’Ukraine, l’Europe a regardé la Russie envahir ce pays. De nouveaux termes ont alors commencé à être prononcés par des journalistes, termes que beaucoup de personnes n’avaient jamais entendus auparavant : Kharkiv, Azov, dénazification, Boutcha, Donbass…

Quel est le réflexe désormais reconnu dès lors que quelqu’un entend un mot qu’il ne connaît pas ? Le googler. Selon les données de Google Trends, l’intérêt des utilisateurs belges pour le terme « Donbass » a augmenté de manière extrêmement importante, ceci se reflétant évidemment sur les tendances de recherches de Google.

Lorsqu’un utilisateur tape un certain mot sur le moteur de recherches de Google, la fonction de prédiction de la recherche essaie de deviner ce que l’utilisateur a en tête et propose de compléter le reste de la recherche, via un algorithme. Alors même qu’il tape, l’utilisateur voit s’afficher une boite proposant différentes prédictions, chacune lançant une recherche associée. Ce système est appelé Google Autocomplete Prediction.

Entre Février et Août 2022, quand les utilisateurs belges recherchaient des information sur le Donbass, Google Autocomplete Prediction complétait leur recherche avec des termes particulièrement douteux.

Notre investigation prouve que la recherche « Donbass » a été associé avec « Insider », « Anne Laure Bonnel », « Insider Christelle », parmi d’autres prédictions. En proposant le terme « Insider » comme complément de recherche de l’utilisateur, Google le dirigeait vers Donbass Insider, une source de propagande pro-Kremlin accusée de propager de la désinformation sur la guerre en Ukraine, et plus particulièrement sur le conflit au Donbass. Parfois, certains de ses canaux de communication associés, tels que Youtube ou Odysee, où sont produits le même genre de contenu, étaient également proposés.

Google proposait aussi l’expression « Anne Laure Bonnel », qui fait référence à « une journaliste française dont la visibilité a augmenté dès lors qu’elle eut présenté une analyse pro-russe du conflit au Donbass, y compris des informations trompeuses », selon ISD.

Enfin, la prédiction « Christelle » conduit à Christelle Néant, fondatrice de Donbass Insider qui bénéficie d’un solide réseaux de followers sur divers réseaux sociaux pour diffuser ses contenus et sa rhétorique pro-Kremlin.

Retrouvez cette enquête menée par CheckFirst, OpenFacto et Apache, pour le projet CrossOver en cliquant sur ce lien ou sur l’image ci-dessous..

Le monde entier est un qactus

Le monde entier est un qactus

Cet article est le fruit d’une enquête au long cours menée depuis juillet 2021 sur un acteur clef de la désinformation français, par OpenFacto et SourcesOuvertes sur Twitter en collaboration avec le site ConspiracyWatch.
Il présente toutefois quelques nouveaux éléments d’identification et dresse un panorama méthodologique d’enquête sur la désinformation sur Internet. Les liens présents dans cet articles sont soit tronqués, soit présentés sous leur forme d’archive afin de ne pas générer de rétroliens de promotion du site.

1.98 millions de vues en juillet 2021…

Signalé en juillet 2021 sur Twitter par Tristan Mendès-France, le site internet de réinformation d’inspiration QAnon Qactus[.]fr présente à l’époque un nombre impressionnant de vues mensuelles selon https://www.similarweb.com/fr/ :

Si, ces trois derniers mois, son audience a quelque peu diminué, elle représente toujours plus d’un million de visiteurs mensuels. D’ailleurs le site lui-même en fait la promotion sur sa page, dans le footer (73.6+M de visites à la date de publication de cet article…).


Techniquement, Qactus est un blog hébergé par WordPress, et son nom de domaine est enregistré depuis le 6 mai 2020. Cette information est cohérente avec les premières traces de pages vues sur l’Internet Archive.

Ligne éditoriale

Si le site est très fréquenté, sa ligne éditoriale du site est prompte à mettre le lecteur dans un état profond (deep state… vous l’avez?) de perplexité :

Un GoogleDork assez basique montre par ailleurs que ce site recommandait également en 2021 des lectures très particulières…

Mais comment définir un peu plus précisément la ligne éditoriale de ce site?

En utilisant le logiciel libre Hyphe, il est possible en partant de ce site de collecter une grande partie des liens hypertextes contenus dans les 8.341 articles qu’il contient. De manière récursive, on applique la même technique sur ces liens découverts afin de vérifier si ceux-ci font également référence à des liens similaires ou à Qactus.

Jolifié à l’aide Gephi, il est dès lors possible de visualiser avec Retina les connexions entre ces liens, c’est à dire les citations communes et de repérer ainsi des sous-communautés d’intérêt.

On constate ici qu’à de très rares exceptions (quelques articles du Monde, du Mediapart ou du Guardian par exemple), l’essentiel des liens remontés sont issus de la sphère complotiste et/ou de réinformation, française ou internationale, et que ces sites, ou profils, se re-citent entre-eux, agissant comme une bulle informationnelle.

Une bulle efficace?

Avec un tel contenu mêlant notamment complot, antivax, antisémitisme, et admiration pro-russe, quel peut être l’impact de ses publications sur un réseau social?
Qactus est officiellement absent de Twitter : son compte a été suspendu. Il utilise principalement Gab, Vk, Facebook et Telegram pour diffuser ses articles. Cependant, ses publications y sont régulièrement reprises. Or ce réseau présente plusieurs intérêts : il est assez grand-public pour toucher une audience plus large que les plateformes plus confidentielles telles que Gab, et contribuer ainsi à sa viralité, et il est possible pour nous de récupérer facilement des données par scraping.

En collectant avec snscrape l’intégralité des tweets encore disponibles et contenant l’expression « qactus[.]fr », il est possible d’obtenir une liste de 119.789 tweets depuis le 26 juin 2020 (ce qui représente un peu plus de 170 tweets par jour…). Il est important de prendre en compte à ce stade qu’il ne s’agit que d’une photographie à un instant précis des tweets actuellement visibles : des comptes aujourd’hui fermés ont pu relayer encore plus ce contenu par le passé. Le corpus ainsi remonté est toutefois assez conséquent et permet de tirer quelques enseignements sur cette bulle.

9.016 utilisateurs ont ainsi repris et diffusé ces liens sur la période concernée. Certains sont particulièrement prolixes. Après nettoyage des données brutes sous OpenRefine, et à l’aide du logiciel R, et de Rstudio, il est possible d’établir le palmarès des 50 plus gros promoteurs de qactus s’établit ainsi :

Note : Les identifiants ont été anonymisés et le décompte des tweets ne tient compte que des URLS uniques. A titre d’exemple le premier des promoteurs a posté à lui-seul 3.910 liens uniques qactus sur Twitter: un vrai fan.

Certains de ces utilisateurs Twitter sont très influents, comme Christine Kelly, ou encore Yves Pozzo Di Borgo.

Ainsi trois de ces utilisateurs cumulent plus de 9.000 retweets chacun sur leurs tweets embarquant des liens vers un post sur qactus, et d’autres utilisateurs réalisent eux aussi de jolies performances.

L’analyse des likes sur ces tweets est par ailleurs également intéressante :

L’ensemble de ces données permet de cartographier une douzaine de profils particulièrement influents qui diffusent avec beaucoup de succès les posts du blog :

Il pourrait être envisagé de produire d’autres types d’analyses sur l’ensemble de ce jeu de données, mais cette première approche permet de rapidement montrer que même en dehors de sa sphère habituelle d’évolution (les réseaux alternatifs), et par le truchement de comptes influents (inauthentiques ou bien réels), la diffusion de son contenu est bien réelle, régulière, et assez massive.

Plusieurs des comptes observés ici présentent les caractéristiques habituellement observées chez les trolls et désinformateurs :

  • Plusieurs comptes utilisant des pseudonymes séquentiels;
  • Des biographies surchargées d’émoji, de descriptions enthousiastes et guerrières, pro-trump, etc;
  • Des comptes très récents, postant peu de contenus propres et pourtant très suivis;
  • Du contenu directement relayé depuis Gab et probablement automatisé
  • etc…

Une hypothèse possible, mais non vérifiée, est que sous un ou plusieurs de ces comptes, se cache en réalité le webmaster du site Qactus.

Mais pourquoi la propagation de ce contenu est-elle une notion importante?

L’argent, le fuel de la désinformation

La désinformation est un ensemble de techniques de communication qui visent à tromper des personnes ou l’opinion publique pour protéger des intérêts, influencer l’opinion publique ou semer la discorde. Dans le cas de qactus, il est d’ailleurs possible de s’interroger ici si l’on est en présence de mésinformation (l’auteur croit que son information est réelle et la diffuse) ou de désinformation (l’auteur sait que l’information est fausse et la diffuse).

Mais une autre motivation est plus probable : l’appât financier.

En effet, si le site est hébergé sur la plateforme WordPress.com (le coût de maintenance est de l’ordre d’une vingtaine d’euros par mois), il n’en oublie pas moins de déclarer un traqueur publicitaire pour générer de l’argent… Il n’y a pas de petits profits.

extrait du code source de la page Qactus

Ce type de traqueurs permet de générer des revenus en revendant les données collectées à Google. S’il est très complexe de déterminer les sommes générées par ce site, il est possible de l’estimer à gros traits de deux manières :

  • Une simulation opérée sur le site de Google lui-même, pour un site d’information basé en Europe, sur l’estimation basse de 1.3M de visites mensuelles est susceptible de rapporter environ 32.500€ par an, ce qui est déjà, avouons le, plutôt confortable.
  • Cette estimation, minimale, est à peu près conforme à celles découvertes en recherchant sur Google les articles de blogueurs spécialisés sur le sujet.


Le créateur du site génère donc sans doute et avec l’appui de Google, des revenus complémentaires pour le moins intéressants.

Mais est-il possible de l’identifier?

Qui est Vanec71?

Deux profils de rédacteurs sont référencés sur le site : Laruche71, pseudonyme plutôt récent sur le site et Vanec71, auteur et administrateur historique du site. Le moteur du site étant basé sur WordPress, il est également possible de remonter ces pseudonymes d’auteurs via le dork Google suivant, classique et toujours très puissant :

Par le biais de l’outil Epieos, qui permet de voir comment et sur quels sites est utilisée une adresse e-mail, nous procédons au test de . A la base, la logique intrinsèque de l’outil de Epieos est de procéder à des tests à partir d’une adresse dont on sait qu’elle existe.

Mais rien n’empêche de l’utiliser avec des adresses « potentielles », non?

Commençons donc par tester une adresse Gmail… et le résultat parle de lui-même…

Grâce aux liens fournis par Epieos, nous découvrons que notre exquis webmaster a fait ses courses au Gifi du Creusot :

« Vanec Blue » (le nom renvoyé par Epieos) nous menait également fin 2021 vers une chaîne Youtube, avec deux vidéos peu vues :

Ce compte a désormais changé d’identité et d’avatar mais se trouve toujours en ligne.

Deux vidéos seulement et peu de vues… Ce n’est pourtant pas faute d’en assurer la promotion sur … la chaîne officielle « Qactus – L’Informateur », où on retrouve une des deux vidéos, élément liant un peu plus les deux comptes si besoin en était.

L’étape du mezze

A ce stade, nous avons recueilli quelques éléments intéressants, mais Il convient désormais de les mélanger :

Si le résultat n’est pas fameux sur Google, la même opération menée sur d’autres moteurs de recherches s’avérait beaucoup plus fructueuse en 2021. Ainsi, le moteur Qwant était un peu plus loquace :

Nous retrouvons alors deux de nos pivots, ainsi que plein de pivots supplémentaires :

S’agit il de la personne derrière le site conspirationniste à 1.98 million de vues ?

A ce stade, rien ne permet de l’attester complètement. On peut cependant objecter qu’en terme de probabilités, le pourcentage de personnes qui ont le même pseudonyme (assez signant), habitant dans la même ville de taille très moyenne (population du Creusot : 21887 personnes – 2015) est sans doute assez faible…

Passons la seconde…

Pour résoudre le mystère, on va utiliser l’équivalent du site HaveIBeenPwned. Ce site, qui est ouvert à tous moyennant un abonnement, permet de rechercher des identifiants et mots de passe à l’intérieur d’immenses bases de données ayant préalablement fuité sur internet, suite à des compromissions.

Une recherche sur Vanec71 donne rapidement trois informations clefs : un nom, un prénom et une nouvelle adresse mail chez Microsoft.

« Pat S » aurait-il une adresse au Creusot? Les pages jaunes sont nos amies…

Sacré Patoche…

Golfeur – on peut être QAnon et aimer les sports d’élite – « Pat S » a un profil sur Copains d’Avant indiquant qu’il a certainement vécu un temps à Carcassonne avant de revenir au pays.

Et évidemment, Patoche est bien présent sur VK ou Facebook, ce qui permet de vérifier l’ensemble de ces éléments.

Contacté à de nombreuses reprises, il n’a jamais retourné nos appels.

Pour conclure

A l’aide de quelques outils facilement accessibles, et d’un peu de méthodologie, il est possible d’analyser un de sites moteurs de la désinformation francophone et de constater qu’il est au centre d’un écosystème plus global :

  • Des liens d’affiliations avec toute la sphère réinformationnelle et complotiste anglophone et francophone
  • Une propagation virale déborde largement sur les réseaux sociaux conventionnels, avec une communauté forte qui porte et amplifie le message
  • Une saturation de l’espace médiatique sur les thèmes récurrents de la réinformation et du complot
  • Un intérêt financier certain, pour un personnage très discret

The GRU’s galaxy of Russian-speaking websites

The GRU’s galaxy of Russian-speaking websites

Since 2016, numerous studies have shown Russian intelligence services’ involvement in online information operations. Case studies on the Internet Research Agency (IRA), Secondary Infektion , and the Ghostwriter campaigns shed light on the methods allegedly employed by the Russian government to influence and discredit beyond its borders.
However, little research has focused on Russian Intelligence’s control over the domestic information space. OpenFacto discovered and mapped more than one thousand Russian-speaking websites linked to the GRU, Russian military intelligence, to reconstruct their strategy and objectives, in a landscape already saturated with media loyal to the Kremlin.


OpenFacto’s study revealed that InfoRos, a news agency run by the GRU, began expanding into local news around 2012 throughout Russia. By registering no fewer than 1,341 digital « news portals » attached to cities, towns, districts, or even villages, InfoRos has created a network of amplifiers that surreptitiously broadcast the Russian government’s preferred narrative. The websites are primarily empty shells that regularly copy and paste innocuous content. These sites publish InfoRos content at regular intervals, which has a pro-government or anti-Western tone. The sites appear to relay an editorial line, which appearances suggest would be defined by the GRU, whose mandate is theoretically limited to outside the Russian Federation.


The report below presents OpenFacto’s methodology for discovering the websites and the hypotheses drawn from our analysis of the registered domain names, the Russian localities they target, and the chronology of their creation date. The main objective is to understand the objectives pursued by the GRU through InfoRos – especially in the digital space. To do so, we will first analyse InfoRos’ identity and its unique position within the Russian online « informational control » ecosystem.

This study will also introduce some tools and services to explore the « Ru.net  », a Russian and Russian-speaking segment of the Internet still little researched.

Download the report.

Download the domains’ list (csv file).

Update : 01-28-2022, correction of typos.

Colloque OSINT et Sciences Sociales (avec beaucoup de géopolitique dedans)

Colloque OSINT et Sciences Sociales (avec beaucoup de géopolitique dedans)

Le lundi 29 novembre, le landerneau de l’OSINT français s’était donné rendez-vous au rutilant Campus Condorcet, à Aubervilliers, autour du colloque « Où nous mènent les traces numériques ? Pratiques et apports de l’OSINT aux sciences sociales » organisé par le centre de recherche et de formation GEODE (Géopolitique de la Datasphère) et l’IRSEM (Institut de Recherche Stratégique de l’Ecole Militaire) en partenariat avec Paris 8, la Fabrique Défense (NDLR : Ministère des armées) et l’IFG (Institut Français de Géopolitique). Spoil Alert : si l’OSINT français était au cœur des discussions, forcément vu les acteurs de la journée, la Russie, la Chine et autres terrains politiquement sensibles ont été abordés.

Affiche de l’évènement

250 places ouvertes à tous (gratuites), billetterie sold out avant la date, l’événement promettait une belle réunion. Le déroulé de la journée et la composition des panels ont fait la part belle aux disciplines variées qui font appel à l’OSINT :  géopolitique, recherche, forces de l’ordre et de la défense, journalisme, cybersécurité, métiers de la data…

Après quelques propos introductifs de Kevin Limonier (GEODE) et Paul Charon (ISERM), la journée a démarré avec la présentation de Viginum. Le service tout-nouveau-tout-beau rattaché au cabinet du Premier ministre et placé auprès du SGDSN (secrétariat général de la défense et de la sécurité nationale) est chargé de la vigilance ainsi que de la protection contre les ingérences étrangères. L’équipe pluridisciplinaire de Viginum compte 21 agents, et à terme, fin 2022, 50 postes. 

La première table ronde, « l’OSINT comme pratique opératoire », invite Roman Adamczyk (EU Disinfo Lab), Hugo Benoist (OSINT-FR), Mathieu Gaucheler (Maltego), Romain Mielcarek (Journaliste) et Clément Audebert (Preligens) à présenter leurs structures (présentations teintées de marketing, nécessairement, pour Maltego ou Preligens) puis à répondre aux questions du public. Roman Adamczyk retrace le travail accompli contre la désinformation avec EU Disinfo Lab. L’ONG basée à Bruxelles a bouclé 10 enquêtes en un peu plus de 2 ans, l’occasion de revenir sur quelques déconvenues dans l’accueil de leur travail : entre les mises en demeures d’avocat et les erreurs dans la perception des enquêtes, les difficultés se situent parfois dans l’accueil de leur travail davantage que sur les investigations en elles-mêmes. L’intervention de Romain Mielcarek, journaliste, fait mouche (notamment si l’on compte les questions du public qui lui seront adressées). D’emblée, il souligne que l’OSINT est un vocable venu du monde du renseignement et ne s’applique pas au journalisme d’investigation. Que chaque discipline utilisant les recherches en ressources ouvertes doit trouver son cadre éthique   Et contrairement à cet effet de mode qui veut consacrer l’OSINT comme moyen unique de recherche, pour lui, ce n’est qu’un moyen parmi d’autres, venant en complément du travail sur le terrain que le praticien qu’il soit journaliste ou enquêteur, doit accomplir.

L’après-midi, la deuxième session offre l’espace à 4 chercheurs d’exposer leur expérience de l’OSINT. Léa Ronzaud (Graphika), narre l’investigation – finalement infructueuse – de son équipe pour retrouver le distributeur de PQ à l’effigie de Joe Biden sur Times Square. Hugo Estecahandy (GEODE) a offert à l’amphithéâtre un cours introductif au fonctionnement du bitcoin en partant d’une trouvaille sur le site d’Egalité et Réconciliation. Marie-Gabrielle Bertran (GEODE) mène avec brio une démonstration à deux têtes sur l’OSINT russe relativement ouvert puis sur les données grises (leaks) en prenant exemple  sur 2 affaires : le vol de 7,5 TB de données à SyTech, sous traitant de plusieurs organes officiels russes et l’attaque du groupe Sands à Las Vegas par un groupe de hacktivistes iraniens (support de présentation à disposition des membres OF). Enfin, dans une vidéo d’une quinzaine de minutes, Ksenia Ermoshina (CNRS) présente ses travaux de recherche sur les conséquences de l’annexion de la Crimée pour les infrastructures Internet dans la région. 

@nicolasquenel

Le dernier panel a rendu la délégation Open Facto un peu chauvine car notre président Hervé a posé les jalons d’un OSINT responsable par une définition épistémologique qui en dessine le champ et ses limites en rappelant la définition incontournable d’une information récupérée « sans ruse et sans stratagème », formule reprise ensuite par d’autres intervenants. A ses côtés, Rayya Roumanos, (IJBA), Kevin Limonier (GEODE), Paul Charon (IRSEM) et Fabien Laurençon (IRSEM) ont débattu autour du thème « Epistémologie de l’OSINT : apports et limites du renseignement d’origine sources ouvertes aux sciences sociales ». Une façon de rappeler que les investigations sur le « terrain numérique », techniques relativement récentes, permettent beaucoup de possibilités, mais doivent être aussi encadrées et organisées. 

La journée s’est donc terminée sur une touche « meta-osint », avec l’évocation des enjeux de demain. Quand les acteurs français de l’OSINT pensent l’OSINT, la boucle est bouclée.  

Retour sur la Conférence EUDisinfolab, 26-27 octobre 2021 Bruxelles

Retour sur la Conférence EUDisinfolab, 26-27 octobre 2021 Bruxelles

OpenFacto était représentée à la Conférence EUDisinfolab, qui s’est tenue à Bruxelles 26-27 octobre 2021 et vous propose ce compte-rendu agrémenté de quelques reflexions.

Conférence EUDisinfolab, 26-27 octobre 2021 Bruxelles

Paysage de la désinformation aujourd’hui

Paysage européen de la désinformation

La conférence EUDisinfolab a permis de faire le tour de nombreuses campagnes de désinformation qui ont touché les pays européens. Toutes avaient un but commun : déstabiliser les instances décisionnaires et polariser le débat public. De plus, il a été souligné que les écosystèmes de la désinformation devenaient de plus en plus complexes et que de nouveaux acteurs y entraient tous les jours.

La Lituanie ainsi que les Balkans sont ciblés par des campagnes de désinformations russes (et biélorusse) notamment sur les questions migratoires. Et, en Europe de l’Est, Daniel Fazekas (fondateur de Bamako.Social) relève quatre tendances majeures. Tout d’abord, l’institutionnalisation de la désinformation (en Hongrie, les médias proches du pouvoir ont propagé des infox faisant un lien entre immigration et arrive de l’épidémie) ; la dénonciation d’un ennemi intérieur (ONG, libéraux ou encore communautés LGBTQ+ en Hongrie) ; pourtant, en Hongrie encore, la propagande semble s’essouffler. À titre d’exemple, les médias pro-Orban engagent 20 fois moins que les médias anti-Orban. Enfin, des défis asymétriques apparaissent, en effet, de nouveaux médias issus du crowdfunding naissent, notamment sur YouTube en proposant des standards journalistiques de haut niveau.

Raquel Miguel Serrano, chercheuse au EUDisinfolab a également souligné que la désinformation qui a touché les élections fédérales allemandes a particulièrement ciblé les candidats verts, sachant que la candidate A. Baerbock a notamment subi une vague de désinformation sexiste ; ce type de campagne de désinformation genrée étant très employée en ce moment.

Économie de la désinformation

Suivre les enjeux financiers afin de caractériser une campagne de désinformation a autant d’importance dans la partie recrutement, à l’instar de l’exemple repris par Charlie Haynes, journaliste à la BBC, du Fazzegate où la Russie a offert de l’argent a des influenceurs pour répandre de la désinformation sur le vaccin produit par Pfizer ; que dans le business model des plateformes elles-mêmes. En effet, on se rend compte que lorsque la question financière entre en jeu, les plateformes ne gèrent plus la désinformation et n’offrent plus la transparence que les sociétés civiles seraient à même de leur réclamer.

Les campagnes de désinformation, à l’instar des campagnes cyber sont protéiformes. Il faut donc prendre en compte simultanément les différentes couches qui les caractérisent. La question financière en recouvre plusieurs, mais la question du financement des campagnes et des publicités ciblées présentent sur les réseaux sociaux sont particulièrement prégnantes.

Prévalence de l’anglais

Emerson T. Brooking (chercheur affilié au DFRLAb) revient sur le fait que plateformes étant en grande majorité américaines, leur travail de modération et leurs algorithmes sont surtout gérés en anglais. Ce qui crée une asymétrie dans la gestion de la désinformation dans les différents pays, biaise les instances de modération et crée d’importantes failles de sécurité.

So what?

Un besoin de normes et de standards

De nombreux interlocuteurs de la conférence ont souligné l’importance de travailler en collaboration avec les citoyens, les administrations publiques, le secteur privé car, pour répondre à la désinformation en tant qu’élément essentiel d’une activité d’ingérence structurellement hybride, la réponse elle-même doit être hybride. Cela demande tout d’abord une exigence de transparence, aussi bien des politiques que des méthodes journalistes, des algorithmes des plateformes ou du travail de débunkage des instances qui en ont la charge. Mais cela demande aussi de mettre en place des stratégies nationales et transnationales et, enfin, de travailler à la dimension normative de la description des campagnes de désinformation ainsi que le souligne Lutz Guellner, chef de la division des communications stratégiques au SEAE.

Il s’agit donc, à terme, de voir s’il est possible de créer une approche commune pour avoir des éléments de comparaison et pouvoir mettre en place des standards méthodologiques. Concernant la caractérisation des campagnes de désinformation, il importe de construire des ponts entre les différentes institutions pour éclairer les preuves. C’est-à-dire que les éléments investigués doivent pouvoir être partagés, mais il faut pouvoir également réfléchir à l’articulation des preuves qualitatives, quantitatives dans la description des campagnes de désinformation. Sous quelles formes, dans quelles normes, et de quelle manière seront-elles archivées ? A l’instar des pratiques OSINT, la qualité de la preuve facilitera sa validité ainsi qu’à terme le travail d’attribution de ces campagnes.

Stephen Turner, directeur des affaires publiques européennes sur Twitter est intervenu notamment pour expliquer comment le compte de D. Trump avait été supprimé de la plateforme, sachant que cette décision était intervenue après la mise en place de tout un ensemble de mesures prise à son encontre. Cependant, de nombreux éléments restent trop obscurs dans la définition d’éléments de modération sur les plateformes de réseaux. Sans transparence et sans norme, on peut tout à fait douter de la bonne foi de ce travail de modération.

Enfin, l’importance donnée à une campagne de désinformation peut-être éminemment politique et subjective. On a besoin de normes et de créer des standards pour mesurer l’impact de la désinformation, sortir de cette subjectivité et permettre une réponse ou une action face à une campagne de désinformation. (cf. les échelles de mesure proposées respectivement par Ben Nimmo et Ruurd Oosterwoud).

Figure 1. The Breakout Scale de Ben Nimmo

  • Catégorie 1 = aucune interaction avec l’extérieur
  • Catégorie 2 = amplification sur plusieurs plateformes par le biais de comptes inauthentiques
  • Catégorie 3 = urgence ! Multiples points de sortie sur multiples plateformes.
  • Catégorie 4 = les profils inauthentiques performent plus que les profils officiels
  • Catégorie 5 = une personnalité relaie l’information
  • Catégorie 6 = danger de violence

(Voir la présentation de Ruurd Oostewoud sur les 5 driven criteria to measure the impact of disinformation)

Éducation à long terme

Dans la lutte contre la désinformation, on cherche à savoir comment ramener les personnes à la réalité. Or à l’instar de la lutte contre la radicalisation, l’éducation à la désinformation prend du temps ainsi que le souligne Eliot Higgins, fondateur de Bellingcat. On ne peut pas se contenter d’un travail de débunkage qui a finalement une portée très limitée. Tout d’abord parce qu‘il se déroule sur des instances où ses conclusions ont moins de portée que la désinformation elle-même ensuite, parce qu’il est important que les gens y soient eux-mêmes sensibilisés et éduqués. Plusieurs intervenants et notamment le Dr Mathias Wargon, sont revenus sur la responsabilité des médias plus que des réseaux sociaux, dans la désinformation. Parce que les journalistes, par exemple, manquent de culture scientifique, parce qu’ils ne s’obligent pas à un débat réellement contradictoire. Car, en effet, s’il l’on s’écharpe sur les réseaux sociaux, les conséquences réelles finalement sont liées à ce qui est diffusés dans les médias eux-mêmes.

Digital service Act

La fin de la conférence a été l’occasion d’une présentation par Thomas Granjouan (EuDisinfolab), du Digital service Act (DSA), c’est-à-dire une proposition de lois pour la régularisation des plateformes.

Les points positifs soulignés sont les suivants : ce système peut être utilisé pour mettre en place un système de traitement des plaintes, pour demander la transparence sur les systèmes de recommandation, permet la mise en place d’audits sur les algorithmes ou bien encore d’imposer des sanctions ou de lourdes amendes en cas de non-conformité. Cependant, cette loi sur les services numériques ne prévoit aucune sanction contre l’inaction des plateformes, n’applique aucun code de conduite sur les publicités ou la désinformation présentent sur celles-ci. Enfin, elle n’élargit pas suffisamment l’accès aux données (manque de transparence en cause, encore un fois) et pose un problème sur lequel EuDisinfolab ainsi que Věra Jourová (vice-présidente de la commission européenne) sont revenus : la problématique de l’exemption des médias. Si la loi européenne propose de régulariser la modération de contenu sur les sites de grandes compagnies comme Google ou Facebook, l’exemption de cette modération appliquée aux médias est la porte ouverte à une désinformation sans précédent.

Pour conclure sur ces différentes interventions, il a été maintes fois répété que la construction d’une société résiliente aux campagnes de désinformation se construit sur l’éducation à long terme de la société civile sur ses méthodes aussi bien que sur une collaboration des différentes instances (civiles, administratives, privés…) qui la constitue. Les notions de transparence : des médias, des plateformes tout autant que dans le monitoring de la désinformation par une entité gouvernementale ainsi que la création d’un cadre réglementaire et la mise en place de normes ont été régulièrement invoqués comme éléments structurants dans la lutte contre la désinformation. Cette lutte se joue sur tous les fronts simultanément.