Telegram, la colonne vertébrale
Telegram n’est pas un réseau social. Ce n’est pas un média. Ce n’est pas une application de messagerie ordinaire. C’est devenu, selon les mots de Tsybulska, « un instrument de l’ennemi » que la société ukrainienne traite comme sa source d’information principale. La distinction est fondamentale. Quand un Ukrainien ouvre Telegram le matin, il ne consulte pas un journal avec une rédaction, une ligne éditoriale, des vérificateurs de faits. Il ouvre une boîte noire où n’importe qui peut publier n’importe quoi sans aucune responsabilité.
Les canaux anonymes sont la norme. Personne ne sait qui écrit. Personne ne sait qui finance. Personne ne sait quel agenda se cache derrière les « informations exclusives » qui y circulent. Et c’est précisément ce que la Russie exploite. Depuis 2014, quand les chaînes de télévision russes ont été bloquées en Ukraine, le Kremlin a pivoté vers Telegram avec une efficacité terrifiante. Viktor Medvedchuk, l’oligarque pro-russe dont les chaînes de télévision 112 Ukraine, NewsOne et ZIK ont finalement été fermées, avait déjà compris que le futur de la propagande ne passait pas par les antennes. Il passait par les notifications push.
Telegram a été créé pour protéger la vie privée. La Russie l’a transformé en arme de destruction massive de la vérité. L’ironie serait presque poétique si des gens n’en mouraient pas.
Le fonctionnement d’une usine à désinformation
Voici comment ça marche. Un réseau de bots alimentés par intelligence artificielle est déployé sur les canaux Telegram locaux des territoires occupés. Entre janvier 2024 et avril 2025, une enquête conjointe de l’Atlantic Council et du Digital Forensic Research Lab (DFRLab) a révélé l’ampleur du dispositif : 3 634 comptes inauthentiques, plus de 316 000 commentaires pro-russes, plus de trois millions de messages dans des groupes ukrainiens et russes. Chaque bot publiait en moyenne 84 commentaires par jour. Les plus actifs dépassaient 1 000 commentaires quotidiens.
Le contenu est calibré avec une précision chirurgicale. Les thèmes les plus fréquents : 48 000 commentaires critiquant le président Zelensky, des attaques contre l’Ukraine, contre l’Occident collectif, contre les États-Unis, des accusations de nazisme. L’objectif n’est pas de convaincre. L’objectif est de fabriquer l’illusion d’un consensus local en faveur de l’occupation. Simuler que les habitants des territoires occupés sont reconnaissants envers la Russie. Créer l’apparence d’un soutien populaire qui n’existe pas. Manufacturer le consentement à l’échelle industrielle.
TikTok : l'algorithme comme arme de propagande de masse
Dix-sept millions de cibles
TikTok compte 17 millions d’utilisateurs en Ukraine. Plus qu’Instagram. Plus que Facebook. Et contrairement à ces plateformes, l’algorithme de TikTok possède une caractéristique que la Russie exploite sans relâche : un compte tout neuf, sans aucun abonné, peut atteindre des centaines de milliers de spectateurs. Pour une ferme à bots, c’est le paradis. Pour la désinformation, c’est un accélérateur de particules.
Le mode opératoire est documenté. Des milliers de comptes sont créés. Une vidéo « émotionnelle » est produite — parfois avec des images réelles, parfois avec de l’intelligence artificielle. La même vidéo est publiée simultanément sur des centaines de comptes en une seule journée. Des bots se ruent pour liker, commenter, regarder. L’algorithme détecte un « contenu populaire » et le propulse dans les recommandations. En quelques heures, un mensonge fabriqué dans une ferme de bots russe devient une « tendance » sur le téléphone d’un adolescent ukrainien.
Dix-sept millions d’Ukrainiens sur TikTok. Dix-sept millions de cibles potentielles pour un algorithme qui ne fait pas la différence entre une vidéo de danse et une opération de déstabilisation du Kremlin. On appelle ça un réseau social. La Russie appelle ça un vecteur d’attaque.
Les deepfakes qui portent l’uniforme
En mars 2025, des vidéos ont commencé à circuler sur TikTok. Des hommes en uniforme ukrainien, visiblement épuisés, affirmaient que leurs commandants les avaient abandonnés lors du retrait de la région de Koursk. Le ton était crédible. Les visages étaient convaincants. Les hommes n’existaient pas. Générés par intelligence artificielle, ces deepfakes avaient été conçus pour saper le moral des troupes ukrainiennes et miner la confiance de la population dans son armée.
Et pourtant, ces vidéos ont été vues par des centaines de milliers de personnes avant d’être identifiées comme fausses. Le temps que les vérificateurs de faits réagissent, le mal était fait. Le doute avait été semé. La confiance avait été érodée d’un micron supplémentaire. Parce que c’est ça, la stratégie : pas un grand mensonge spectaculaire, mais des millions de micro-érosions qui, jour après jour, fissurent le ciment de la cohésion nationale.
Viber : la propagande dans le chat de votre immeuble
L’infiltration du quotidien
Si Telegram est la colonne vertébrale et TikTok le mégaphone, Viber est le chuchotement. Celui qui s’insinue dans les conversations les plus intimes, les plus banales, les plus vulnérables. Les groupes de parents d’élèves. Les discussions de résidents d’immeubles. Les chats familiaux. La propagande russe infiltre ces espaces avec la patience d’un poison à diffusion lente.
Mais Viber sert aussi à des opérations plus directes. Le groupe de hackers russes UAC-0184, lié aux services de renseignement, a utilisé Viber pour lancer des campagnes de phishing ciblant la Rada suprême d’Ukraine — le parlement. Des archives ZIP malveillantes déguisées en documents parlementaires officiels étaient envoyées directement aux cibles. Des messages portant sur des changements de dossiers militaires où des refus de compensation pour les soldats tombés servaient d’appâts. Chaque clic ouvrait une porte aux services de renseignement russes.
La propagande dans un groupe Viber de résidents, c’est comme du monoxyde de carbone. Vous ne la sentez pas. Elle n’a pas d’odeur. Mais elle vous empoisonne quand même. Et quand vous réalisez que quelque chose ne va pas, il est souvent trop tard.
L’ironie de l’interdiction russe
Le 13 décembre 2024, le régulateur russe des communications Roskomnadzor a bloqué l’accès à Viber en Russie. Le motif officiel : l’application « faciliterait le terrorisme et le trafic de drogue ». La véritable raison : Viber refusait de supprimer les contenus que Moscou considérait comme « faux » — c’est-à-dire les informations sur la guerre que le Kremlin ne voulait pas voir circuler. En 2023, Viber avait déjà écopé d’une amende d’un million de roubles pour ce même « crime ».
Et pourtant, voilà l’absurdité kafkaïenne : la Russie interdit Viber chez elle tout en l’utilisant comme arme contre l’Ukraine. Elle bloque l’application pour protéger ses propres citoyens de la « désinformation » tout en l’exploitant pour injecter de la désinformation chez ses voisins. Le cynisme a rarement atteint un tel degré de perfection opérationnelle.
Le recrutement des enfants : quand Telegram devient une arme de terreur
Deux cent quarante mineurs
Il y à des chiffres qui devraient empêcher de dormir. Environ 240 des quelque 800 Ukrainiens recrutés par la Russie au cours des deux dernières années sont des mineurs. Certains ont onze ans. Sur les 103 mineurs arrêtés par les autorités ukrainiennes en 2025, 91 sont des garçons et 12 des filles. Presque tous ont un point commun : ils ont été contactés sur Telegram.
Le procèssus de recrutement est méthodique. Des agents russes repèrent des adolescents sur des canaux Telegram dédiés à la recherche d’emploi. Le premier contact est amical. Soutenant. Chaleureux. On établit la confiance. On franchit la « barrière psychologique de l’inconnu ». Puis les demandes commencent. D’abord anodines : photographier un bâtiment, envoyer une carte postale, faire un graffiti. Ensuite, l’escalade : mettre le feu à des véhicules militaires, acheter des composants explosifs, livrer des colis suspects. Les agents russes offrent jusqu’à 1 000 dollars pour ces « tâches simples ». L’ONU elle-même a confirmé le phénomène.
Un enfant de onze ans recruté sur Telegram pour poser des bombes dans son propre pays. Ce n’est pas un scénario de film. Ce n’est pas une dystopie. C’est la réalité de la guerre informationnelle russe en 2026. Et cette phrase devrait vous glacer le sang.
Lviv, 22 février 2026 : la preuve par le sang
La nuit du 22 février 2026. Le centre-ville de Lviv. Deux explosions. Des engins explosifs improvisés dissimulés dans des poubelles. Victoria Shpylka, policière, 23 ans, est la première à répondre à l’appel. Elle ne sait pas encore qu’elle répond à un piège. La première explosion la fauche. Quand la deuxième patrouille arrive, une seconde bombe explose. Bilan : une morte, 25 blessés.
La suspecte est une femme de 33 ans originaire de la région de Rivne. Elle agissait sur instructions d’un « handler » des services spéciaux russes. Le président Zelensky l’a confirmé : les auteurs de l’attentat terroriste ont été recrutés via Telegram. L’organisation de l’attaque est russe. Victoria Shpylka avait 23 ans. Elle ne les aura jamais plus. Et quelque part, de l’autre côté d’un écran de téléphone, un agent des services russes tape déjà le prochain message de recrutement.
La gamification de la terreur : quand recruter des enfants devient un jeu vidéo
Des alias de pop culture et des missions « faciles »
La stratégie russe de recrutement des mineurs porte un nom dans le jargon des experts en sécurité : la gamification. Le concept est d’une perversité méthodique. Les agents se créent des profils avec des pseudonymes tirés de la culture populaire — jeux vidéo, anime, séries. Ils s’infiltrent dans des canaux TikTok et Telegram fréquentés par des adolescents. Ils parlent le langage de leur cible. Ils comprennent ses codes. Ils savent ce qui fait vibrer un gamin de quatorze ans : l’adrénaline, le sentiment d’importance, l’argent facile.
Et pourtant, derrière les émojis et le langage familier, l’escalade est planifiée avec une froideur militaire. Un cas documenté à Lviv en octobre 2025 : des forces russes ont envoyé des instructions via Telegram à deux adolescents de 15 et 14 ans. Mission : cacher une bombe dans un pot de fleurs à côté de l’entrée du domicile d’un soldat ukrainien. Un smartphone avec caméra activée permettait la détonation à distance. Des enfants transformés en bombes humaines télécommandées. Par une application de messagerie.
On parle de « gamification » parce qu’il faut bien mettre un mot clinique sur l’horreur. Mais ce que ça signifie vraiment, c’est que des adultes dans des bureaux à Moscou passent leurs journées à trouver les meilleures techniques pour convaincre des enfants ukrainiens de devenir des terroristes. Ils ont des budgets. Des objectifs. Des indicateurs de performance. Le recrutement d’enfants comme agents terroristes est un poste budgétaire.
Le « sommet de l’iceberg »
Tsybulska qualifie le recrutement massif de civils et d’adolescents pour des crimes — y compris des assassinats de personnalités politiques et d’activistes civiques — comme étant « la pointe de l’iceberg ». Cette expression devrait nous terrifier. Si 240 mineurs recrutés et 800 civils impliqués ne représentent que la surface visible, que cache la masse immergée? Combien d’opérations n’ont jamais été détectées? Combien de bombes n’ont jamais été retrouvées? Combien d’enfants ont été approchés sans que personne ne le sache?
Le Financial Times a documenté le phénomène. Le Kyiv Indépendent l’a enquêté. L’ONU l’a confirmé. L’Institute for War and Peace Reporting en a fait un rapport. Et malgré tout cela, malgré toutes ces alertes convergentes de toutes ces sources crédibles, Telegram reste l’application de messagerie la plus populaire en Ukraine. La plateforme qui sert à recruter des enfants pour des attentats est la même que des millions de personnes utilisent pour s’informer chaque jour. Cette phrase seule devrait suffire à déclencher une crise nationale.
L'histoire longue : de Medvedchuk à l'intelligence artificielle
2014, l’année zéro
Pour comprendre la machine de propagande russe sur les plateformes numériques, il faut remonter à 2014. Quand l’Ukraine a bloqué les chaînes de télévision russes après l’annexion de la Crimée, Moscou n’a pas abandonné. Il a pivoté. Viktor Medvedchuk, oligarque pro-russe et proche personnel de Vladimir Poutine — qui est le parrain de sa fille — a lancé des chaînes ukrainiennes qui transmettaient les narratifs russes sous couverture locale. Les chaînes 112 Ukraine, NewsOne et ZIK, officiellement détenues par Taras Kozak, étaient en réalité sous le contrôle de Medvedchuk.
Ces chaînes saturaient le paysage médiatique du sud et de l’est de l’Ukraine avec des narratifs anti-occidentaux, des théories du complot, une vision du monde alternative destinée à construire ce que le Kremlin n’avait jamais eu : un cadre de véritables croyants dévoués. Quand le gouvernement ukrainien a finalement fermé ces chaînes, les preuves étaient accablantes : financement russe direct, schémas commerciaux avec des entités des territoires contrôlés par la Russie. Medvedchuk a été arrêté, puis échangé en 2022. Mais l’infrastructure qu’il avait bâtie a survécu. Elle s’est simplement déplacée sur Telegram.
De la télévision aux applications de messagerie, le canal change mais le poison reste le même. Medvedchuk a compris avant tout le monde que le futur de la propagande n’était pas dans les studios de télévision mais dans les notifications push. Il avait raison. Et l’Ukraine en paie encore le prix.
L’évolution vers l’intelligence artificielle
Ce qui distingue la propagande russe de 2026 de celle de 2014, c’est la technologie. Les bots alimentés par IA générative peuvent produire des commentaires indistinguables de ceux d’humains réels. Les deepfakes créent des soldats qui n’existent pas et les font parler dans des vidéos TikTok. Les algorithmes de ciblage permettent d’atteindre des audiences spécifiques — les adolescents vulnérables pour le recrutement, les populations des territoires occupés pour la soumission, les opinions publiques occidentales pour l’épuisement.
Le rapport de l’Atlantic Council et du DFRLab est clair : le réseau de bots détecté entre 2024 et 2025 utilisait de l’IA générative pour produire des messages « louant la gouvernance russe, discréditant l’Ukraine et simulant un soutien populaire à l’occupation ». Ce n’est plus de la propagande artisanale. C’est de la propagande industrielle assistée par intelligence artificielle. Et contre ce niveau de sophistication, les outils de détection actuels sont à la traîne.
Le paradoxe ukrainien : dépendre de l'arme qui vous tue
Telegram comme source d’information principale
Voici le dilemme qui déchire l’Ukraine. Telegram est simultanément la principale source d’information du pays et le principal vecteur de propagande russe. Les Ukrainiens y suivent les alertes aériennes. Les mises à jour du front. Les communications officielles. Les nouvelles locales. Couper Telegram reviendrait à couper un bras pour sauver le corps — mais le bras en question est celui qui tient le téléphone.
Tsybulska l’affirme sans ambiguïté : « Telegram devrait être limité parce que c’est un instrument de l’ennemi. » Mais elle sait aussi que cette limitation est un champ de mines politique. Des millions d’Ukrainiens dépendent de Telegram au quotidien. Les forces armées l’utilisent pour la coordination. Les bénévoles l’utilisent pour l’aide humanitaire. Limiter Telegram sans proposer d’alternative crédible créerait un vide informationnel que la Russie s’empresserait d’exploiter encore davantage.
L’Ukraine est prisonnière d’un piège parfait. Elle ne peut pas vivre avec Telegram tel qu’il est. Elle ne peut pas vivre sans Telegram tel qu’il est. Et chaque jour qui passe sans solution, la Russie engrange un avantage supplémentaire dans cette guerre invisible.
L’absence de chiffrement par défaut
Il y à un détail technique que la plupart des utilisateurs ignorent et qui change tout. Telegram ne chiffre pas les conversations de bout en bout par défaut. Contrairement à Signal où même WhatsApp, les messages échangés sur Telegram sont accèssibles aux serveurs de l’entreprise. Pour activer le chiffrement de bout en bout, il faut créer un « chat secret » — une fonctionnalité que la majorité des utilisateurs n’utilisent jamais. Cela signifie que les conversations de millions d’Ukrainiens sont potentiellement accèssibles, interceptables, exploitables.
Et pourtant, malgré cette vulnérabilité fondamentale, malgré les avertissements répétés des experts en cybersécurité, malgré les preuves accumulées de l’exploitation russe de la plateforme, Telegram reste la norme. Pas par choix éclairé. Par habitude. Par inertie. Par absence d’alternative aussi pratique, aussi rapide, aussi intégrée dans le tissu social ukrainien. L’habitude est devenue une vulnérabilité stratégique.
Les Jeux Olympiques de 2026 : la propagande russe à l'échelle mondiale
L’opération de désinformation hivernale
En février 2026, BBC Verify a révélé une opération majeure de désinformation russe exploitant les Jeux Olympiques d’hiver de 2026. L’objectif : discréditer les supporters et athlètes ukrainiens en utilisant de fausses nouvelles fabriquées de toutes pièces. Le but final : saper le soutien occidental à l’Ukraine en associant l’image du pays à des scandales fictifs sur la scène sportive internationale.
L’opération démontre que la guerre informationnelle russe ne cible pas uniquement l’Ukraine. Elle cible le monde entier. Chaque événement international devient une opportunité. Chaque moment d’attention collective est exploité. Les Jeux Olympiques, censés incarner la paix et la fraternité entre les nations, sont devenus un terrain de manoeuvre pour les usines à trolls de Saint-Pétersbourg et de Moscou. Rien n’est sacré. Rien n’est hors limites.
Les Jeux Olympiques. L’événement sportif le plus regardé au monde. Et la Russie l’utilise comme véhicule de propagande. Si même la trêve olympique n’est pas épargnée, qu’est-ce qui l’est encore?
Le ciblage des opinions publiques occidentales
La stratégie russe sur les réseaux sociaux ne se limite pas aux frontières ukrainiennes. Les campagnes d’influence visent également les opinions publiques occidentales, avec un objectif clair : éroder le soutien à l’Ukraine, nourrir la lassitude, amplifier les voix qui appellent à « la paix à tout prix ». Sur TikTok, des vidéos soigneusement construites présentent la guerre comme un conflit lointain et incompréhensible qui ne concerne pas les Européens. Sur Telegram, des canaux en anglais, en français, en allemand diffusent des narratifs pro-russes enveloppés dans un langage de « questionnement légitime ».
Le Brookings Institution a documenté la montée en puissance des médias d’État russes sur TikTok. L’EU DisinfoLab a identifié des opérations d’influence massive sur TikTok ciblant l’Europe. Reporters Sans Frontières a appelé les plateformes à modifier leurs algorithmes. Les rapports s’accumulent. Les preuves sont irréfutables. Et la réponse des plateformes reste insuffisante, lente, inadéquate.
La responsabilité des plateformes : complices par omission
Telegram et le réfuge des médias d’État bannis
Quand l’Union européenne a interdit RT et Sputnik après le début de l’invasion à grande échelle, ces médias d’État russes ont trouvé réfuge sur Telegram. Sans modération significative, sans obligation de transparence, sans mécanisme de vérification. Le Global Herald a documenté comment les médias d’État russes bannis ont simplement migré vers Telegram et continué à publier comme si de rien n’était. L’interdiction européenne est devenue une simple formalité que Telegram a rendue caduque d’un clic.
La question de la responsabilité de Telegram est incontournable. Pavel Durov, son fondateur, revendique la neutralité de la plateforme. Mais la neutralité face à la propagande de guerre n’est pas de la neutralité. C’est de la complicité passive. Quand une plateforme permet le recrutement d’enfants pour des attentats, quand elle héberge des réseaux de bots qui produisent trois millions de commentaires de propagande, quand elle sert de canal de communication pour des opérations terroristes, l’argument de la « liberté d’expression » ne tient plus. Il devient un alibi.
On ne demande pas à Telegram de choisir un camp. On lui demande de ne pas être le camp. Il y à une différence fondamentale entre protéger la vie privée et protéger le recrutement d’enfants pour des attentats terroristes. Si Telegram ne voit pas cette différence, c’est qu’il a choisi de ne pas la voir.
TikTok et l’algorithme aveugle
L’algorithme de TikTok est aveugle par conception. Il ne distingue pas un contenu éducatif d’une opération de propagande. Il ne distingue pas un témoignage authentique d’un deepfake. Il ne distingue pas un citoyen sincère d’un bot de la ferme de trolls de l’Internet Research Agency. Il mesure une seule chose : l’engagement. Et la propagande, par définition, est conçue pour maximiser l’engagement. L’algorithme et la propagande sont des alliés naturels.
TikTok a 17 millions d’utilisateurs en Ukraine. Plus qu’Instagram, qui en compte 12 millions. Plus que Facebook, qui en compte 13,9 millions. Et contrairement à ces plateformes, TikTok permet à n’importe quel compte neuf d’atteindre une audience massive sans historique, sans crédibilité établie, sans aucune vérification. Pour la Russie, c’est un multiplicateur de force gratuit. Chaque rouble investi dans une ferme de bots TikTok rapporte un retour sur investissement que n’importe quel publicitaire envierait.
L'étude Join Ukraine : quatre ans d'analyse des entrailles de la bête
De VKontakte à Telegram : la cartographie de la propagande
L’ONG Join Ukraine, dirigée par Tsybulska, n’a pas découvert le problème hier. Pendant quatre ans, ses chercheurs ont étudié les communautés régionales russes, analysant le contenu diffusé de Telegram à VKontakte dans différentes régions de Russie. Quatre ans de plongée quotidienne dans les égouts informationnels du Kremlin. Quatre ans à documenter, catégoriser, analyser les techniques de manipulation, les narratifs récurrents, les évolutions tactiques.
Ce que cette étude révèle est vertigineux. La propagande russe n’est pas un monolithe. Elle est adaptative. Elle évolue. Elle apprend. Quand une technique est identifiée et neutralisée, une autre prend sa place. Quand VKontakte est bloqué, Telegram prend le relais. Quand Telegram est surveillé, TikTok devient le nouveau front. C’est une hydre informationnelle dont chaque tête coupée repousse en deux. Et la tête qui repousse est toujours plus sophistiquée que celle qui a été coupée.
Quatre ans. Tsybulska et son équipe passent quatre ans à étudier la propagande russe. Ils documentent tout. Ils alertent tout le monde. Ils publient des rapports. Et la machine continue. Plus forte. Plus rapide. Plus efficace. Il y à quelque chose de profondément dérangeant dans le fait que ceux qui sonnent l’alarme sont condamnés à regarder l’incendie se propager.
Les recommandations qui restent lettre morte
Tsybulska ne se contente pas de diagnostiquer. Elle prescrit. Limiter Telegram. Réguler les algorithmes. Imposer la transparence aux plateformes. Former les citoyens à la littératie médiatique. Chacune de ces recommandations est étayée par des années de recherche. Chacune est soutenue par des données. Chacune fait l’objet d’un consensus parmi les experts en désinformation. Et chacune se heurte au même mur : l’inertie politique, la résistance des plateformes, l’indifférence du public.
Le Carnegie Council for Ethics in International Affairs l’a invitée à parler de guerre hybride. La Voice of America a couvert ses travaux. L’Atlantic Council collabore avec des organisations qui font le même constat. La communauté internationale sait. Les gouvernements savent. Les plateformes savent. Et pendant que tout le monde sait, un adolescent de quatorze ans à Lviv reçoit un message Telegram d’un agent russe qui lui demande de photographier un bâtiment militaire « contre un petit billet ».
La guerre invisible : ce que ça change pour vous
Vous n’êtes pas spectateur, vous êtes le champ de bataille
Il serait confortable de lire cet article en se disant que c’est un problème ukrainien. Que la propagande russe sur Telegram, TikTok et Viber ne concerne que les Ukrainiens, que les Européens de l’Est, que les populations directement touchées par la guerre. Ce serait une erreur. Et la Russie compte précisément sur cette erreur.
Les mêmes techniques de manipulation sont déployées dans les élections françaises, allemandes, américaines. Les mêmes fermes de bots ciblent les débats sur l’immigration, le changement climatique, les vaccins. Les mêmes algorithmes amplifient les contenus les plus polarisants dans votre fil d’actualité. La guerre informationnelle russe n’a pas de frontière. Elle est conçue pour fragmenter les sociétés démocratiques de l’intérieur, pour transformer chaque citoyen connecté en relais involontaire de narratifs destructeurs.
Vous lisez cet article sur un appareil qui est aussi une cible. Le téléphone dans votre main est le même type d’appareil que celui par lequel un adolescent ukrainien a été recruté pour poser une bombe. La différence entre vous et lui n’est pas la technologie. C’est le contexte. Et le contexte peut changer.
Ce que vous pouvez faire
La première étape est la conscience. Savoir que l’information que vous consommez sur Telegram, TikTok où Viber peut avoir été manufacturée, amplifiée où instrumentalisée par une puissance étrangère hostile. La deuxième étape est la vérification. Avant de partager, vérifier. Avant de croire, questionner. Avant de s’indigner, s’assurer que l’indignation n’a pas été fabriquée sur mesure pour vous.
La troisième étape est la pression. Sur les plateformes, pour qu’elles assument leur responsabilité. Sur les gouvernements, pour qu’ils légifèrent. Sur les institutions internationales, pour qu’elles agissent. La guerre informationnelle ne se gagne pas en fermant les yeux. Elle se gagne en les ouvrant assez grand pour voir les fils qui tirent les marionnettes.
Conclusion : Le silence est une arme aussi
Victoria Shpylka ne lira pas cet article
Victoria Shpylka avait 23 ans. Elle était policière à Lviv. Le 22 février 2026, elle a répondu à un appel. Elle a fait son travail. Elle est morte. L’engin explosif qui l’a tuée avait été posé par une personne recrutée via Telegram par les services spéciaux russes. Entre la notification Telegram qui a initié le recrutement et l’explosion qui a mis fin à la vie de Victoria, il y a eu des semaines, peut-être des mois, de messages, d’instructions, de planification. Tout ça, sur une application de messagerie.
Quelque part en Ukraine, un enfant de onze ans vient de recevoir un message d’un inconnu sur Telegram. Le message est amical. Il promet de l’argent facile. Il demande juste un petit service. Rien de grave. Juste une photo. Et puis on verra. L’enfant ne sait pas encore ce qu’il ne sait pas. Mais nous, maintenant, nous savons.
Maintenant vous savez que votre téléphone est un champ de bataille. Vous savez que des enfants sont recrutés pour tuer via des applications de messagerie. Vous savez que des bots alimentés par intelligence artificielle fabriquent le consensus dans les territoires occupés. Vous savez que les deepfakes portent l’uniforme ukrainien sur TikTok. Vous savez que la propagande s’infiltre dans le groupe Viber de votre immeuble. Vous savez tout ça. La question qui reste — la seule qui compte vraiment — c’est : qu’est-ce que vous allez en faire?
Le temps de l’innocence est terminé
La guerre informationnelle russe n’est pas un sujet de conférence académique. Ce n’est pas un chapitre dans un livre de géopolitique. Ce n’est pas un rapport de plus à ranger dans un tiroir. C’est une menace active, opérationnelle, quotidienne, qui exploite les outils que nous utilisons tous les jours, qui cible les personnes les plus vulnérables de nos sociétés, qui tue — littéralement — à travers des messages sur des applications de messagerie.
Tsybulska et les experts qui sonnent l’alarme depuis des années ne demandent pas la lune. Ils demandent que les plateformes assument leur responsabilité. Que les gouvernements protègent leurs citoyens. Que les sociétés développent une immunité collective contre la désinformation. Ce sont des demandes raisonnables. Ce sont des demandes urgentes. Et chaque jour où elles restent sans réponse, la Russie gagne du terrain. Pas sur le champ de bataille physique. Sur le champ de bataille qui compte peut-être le plus : nos esprits.
Signé Maxime Marquette
Encadré de transparence du chroniqueur
Positionnement éditorial
Je ne suis PAS journaliste. Je suis chroniqueur indépendant. Cette chronique est une analyse éditoriale qui assume un positionnement clair : la guerre informationnelle russe constitue une menace directe pour les sociétés démocratiques, et les plateformes numériques portent une responsabilité dans la propagation de cette menace. Ce positionnement est fondé sur des rapports d’organisations internationales reconnues, des enquêtes journalistiques vérifiées et des témoignages d’experts du domaine.
Cette analyse ne prétend pas à la neutralité. Elle assume que le recrutement d’enfants pour des actes terroristes, la fabrication industrielle de désinformation et l’utilisation d’applications de messagerie comme vecteurs de guerre sont des phénomènes qui appellent une réponse claire, pas un « débat équilibré ». La neutralité face à l’instrumentalisation d’enfants n’est pas de l’objectivité.
Méthodologie et sources
Cette chronique s’appuie sur les déclarations publiques de Liubov Tsybulska, directrice de l’ONG Join Ukraine et experte en communications stratégiques, telles que rapportées par Ukrinform. Les données sur les réseaux de bots proviennent de l’enquête conjointe de l’Atlantic Council et du Digital Forensic Research Lab. Les informations sur le recrutement de mineurs sont documentées par le Financial Times, le Kyiv Indépendent, l’ONU, Euronews et l’Institute for War and Peace Reporting. Les détails de l’attentat de Lviv proviennent de sources journalistiques multiples dont CNN, le Kyiv Indépendent et les déclarations officielles du président Zelensky.
L’ensemble des faits présentés sont vérifiables et sourcés. Les analyses et opinions éditoriales sont clairement distinguées des faits par l’utilisation de passages en italique.
Nature de l’analyse
Ce texte est une chronique d’opinion fondée sur des faits documentés. Il ne constitue pas un reportage factuel neutre. Les passages en italique représentent les opinions et réflexions personnelles du chroniqueur. Les passages en caractères normaux présentent des faits vérifiés et sourcés. Le lecteur est invité à consulter directement les sources référencées pour se forger sa propre opinion.
Sources
Sources primaires
Ukrinform — Russia’s main influence campaigns run via Telegram, TikTok, Viber — expert
Euronews — Russia uses Telegram to recruit Ukrainian children for bomb attacks, UN says
CNN — Deadly explosions in western Ukraine investigated as terrorist attack
RBC Ukraine — Telegram, Russia’s rôle, killed officer: Details of terrorist attack in Lviv
Carnegie Council — Hybrid Warfare in Ukraine, with Liubov Tsybulska
Sources secondaires
Meduza — How Russia is leveraging TikTok’s algorithm to warp public opinion in Ukraine
UNITED24 Media — Russia recruits Ukrainian teens for espionage and sabotage via Telegram
Security Affairs — Russia-linked APT UAC-0184 uses Viber to spy on Ukrainian military
France 24 — Russian spy network exploits Ukrainian teenagers in Europe
Institute for War and Peace Reporting — Russia Recruits Ukrainian Children for Sabotage
Global Herald — Banned Russian state média finds a home on Telegram
UACRISIS — Key traits of Russian disinformation on Viber
EU DisinfoLab — Massive Russian influence opération on TikTok and beyond
Brookings Institution — Tracing the rise of Russian state média on TikTok
Ce contenu a été créé avec l'aide de l'IA.