Des mots forts, une posture ferme — et puis le silence
Revenons aux faits bruts. En novembre 2024, le gouvernement canadien ordonnait la fermeture des bureaux canadiens de TikTok, situés à Toronto et Vancouver. La décision avait été prise à l’issue d’un examen mené par le groupe consultatif sur la sécurité nationale, un comité qui réunit les représentants des principaux services de renseignement du pays. Le ministre de l’Innovation, de l’Industrie et des Sciences de l’époque avait été catégorique : les activités commerciales de ByteDance au Canada représentaient un risque pour la sécurité nationale. Pas un risque hypothétique. Un risque réel, documenté, évalué par des professionnels du renseignement dont le travail est précisément de ne pas surestimer les menaces. Cette décision avait été saluée par de nombreux experts en cybersécurité, qui rappelaient que le Canada s’alignait ainsi sur une tendance lourde observable dans plusieurs démocraties occidentales, toutes aux prises avec la même question : comment traiter avec une plateforme numérique dont le propriétaire est soumis aux lois chinoises sur la sécurité nationale, des lois qui obligent toute entreprise à coopérer avec les services de renseignement de l’État si celui-ci le demande ? La réponse canadienne, à l’automne 2024, était : on ne traite pas. On ferme.
Mais — et c’est un point crucial souvent oublié dans le débat public — cette décision de fermeture des bureaux ne signifiait pas l’interdiction de TikTok pour les utilisateurs canadiens. L’application restait accessible. Les Canadiens pouvaient continuer à l’utiliser. Ce que le gouvernement fermait, c’était la présence commerciale et opérationnelle de ByteDance sur le territoire canadien, pas l’accès à la plateforme. Cette distinction est importante, parce qu’elle montre que même dans sa décision la plus ferme, Ottawa avait choisi une forme de compromis. On expulsait les bureaux, mais on ne bloquait pas le flux. On donnait l’impression de l’action sans en assumer les conséquences politiques d’une vraie interdiction. Et maintenant, on annonce que même cette demi-mesure est abandonnée. La présence commerciale de TikTok va reprendre. Les bureaux vont-ils rouvrir ? Les opérations vont-elles reprendre comme si rien ne s’était passé ? Les questions restent sans réponse claire.
Qu’est-ce que « poursuivre ses activités » signifie concrètement ?
Le langage du gouvernement canadien dans cette annonce est remarquablement vague — et cette vagueur est elle-même révélatrice. « Poursuivre ses activités » : qu’est-ce que cela englobe exactement ? Est-ce que ByteDance peut rouvrir des bureaux à Toronto ? Embaucher des employés canadiens ? Signer des contrats avec des annonceurs canadiens ? Collecter des données sur les utilisateurs canadiens sans aucune restriction ? Partager ces données avec des serveurs en Chine ? Les autorités canadiennes ont-elles obtenu des garanties écrites, vérifiables et contraignantes sur la localisation des données des citoyens canadiens ? Personne ne le sait. Ou plutôt : ceux qui le savent ne le disent pas. Et cette opacité dans une décision qui touche directement à la vie privée de millions de Canadiens est, en elle-même, un problème démocratique sérieux. Quand un gouvernement prend une décision qui affecte la souveraineté numérique d’un pays, les citoyens ont le droit de savoir exactement ce qui a été négocié, quelles conditions ont été posées, et comment leur respect sera vérifié. Ici, on n’a rien de tout ça. On a une annonce. Et un point.
La vagueur du gouvernement n’est pas un accident de communication. C’est une stratégie. Quand on ne peut pas défendre une décision sur le fond, on la noie dans le flou. On parle de « surveillance continue » et de « conditions d’exploitation » sans jamais les détailler, parce qu’une fois détaillées, ces conditions révéleraient soit leur faiblesse, soit leur inexistence.
La pression des utilisateurs : trente millions de raisons de capituler
Quand la démocratie numérique écrase la sécurité nationale
Soyons honnêtes sur un aspect de cette histoire qu’on ne dit pas assez clairement : le gouvernement canadien a eu peur. Peur de la réaction des utilisateurs. Peur des créateurs de contenu canadiens qui gagnent leur vie sur la plateforme. Peur des entreprises canadiennes qui utilisent TikTok comme canal de marketing. Peur des jeunes électeurs pour qui l’interdiction de TikTok serait perçue comme une attaque directe sur leur mode de vie numérique. Ce n’est pas une hypothèse — c’est une lecture logique d’un revirement qui n’a aucune justification sur le plan de la sécurité nationale. Les risques n’ont pas diminué. Les preuves du problème n’ont pas disparu. Ce qui a changé, c’est la pression politique interne. Au Canada, on estime à près de trente millions le nombre d’utilisateurs actifs de TikTok. C’est presque les trois quarts de la population. Ces utilisateurs ont des voix. Ces utilisateurs votent. Et une décision d’interdiction totale de la plateforme aurait eu un coût politique énorme — un coût que le gouvernement, déjà fragilisé par les tensions commerciales avec les États-Unis et une popularité en berne, n’était visiblement pas prêt à assumer.
Il y a quelque chose de profondément troublant dans ce calcul. La sécurité nationale est l’une des rares missions absolues d’un État souverain. C’est la raison d’être fondamentale du gouvernement : protéger ses citoyens contre les menaces, y compris les menaces moins visibles, moins immédiates, moins spectaculaires que les missiles et les soldats ennemis. La guerre de l’information, la collecte massive de données sur les populations civiles, l’influence algorithmique sur les opinions politiques — ce sont des menaces de cette nature, insidieuses, progressives, difficiles à percevoir au quotidien mais potentiellement dévastatrices à long terme. Quand un gouvernement choisit de mettre de côté ces préoccupations parce qu’elles sont politiquement coûteuses à maintenir, il envoie un message très clair : la sécurité nationale est une priorité jusqu’au moment où elle devient inconfortable. Et à ce moment-là, on trouve des accommodements.
Le cas des créateurs de contenu : une prise d’otage numérique involontaire
Parmi les arguments les plus fréquemment invoqués pour justifier le maintien de TikTok, celui des créateurs de contenu canadiens mérite une attention particulière. Des milliers de Canadiens ont construit leur carrière, leur revenu, parfois toute leur identité professionnelle sur cette plateforme. Des artistes, des humoristes, des entrepreneurs, des éducateurs qui ont investi des années à construire une audience sur TikTok. Une interdiction soudaine de la plateforme aurait signifié la destruction de ce qu’ils ont bâti. C’est une réalité humaine concrète, et elle mérite d’être prise au sérieux. Mais elle mérite aussi d’être nommée pour ce qu’elle est : une forme de prise d’otage numérique structurelle. ByteDance a créé un écosystème économique dans lequel des millions de personnes sont dépendantes de sa plateforme pour vivre. Cette dépendance devient ensuite un argument contre toute régulation sérieuse. Ce modèle est connu, documenté, et il fonctionne partout où les grandes plateformes l’ont déployé. La question que les gouvernements devraient se poser n’est pas « comment protège-t-on les créateurs si on interdit TikTok ? » — elle est : « comment avons-nous laissé une entreprise étrangère potentiellement liée à un État autoritaire devenir aussi centrale dans l’économie créative de nos citoyens ? »
Je comprends la situation des créateurs. Je mesure ce que représente perdre d’un coup une audience construite pendant des années. Mais cette compréhension ne peut pas devenir une raison d’abandonner toute ligne de défense numérique. Si on accepte ce raisonnement, alors n’importe quelle entreprise étrangère peut s’assurer une impunité en créant suffisamment de dépendance économique chez les citoyens du pays qu’elle veut influencer. C’est un précédent terrifiant.
La comparaison américaine : quand les États-Unis ont failli aller jusqu'au bout
Le feuilleton américain de TikTok et ses leçons pour le Canada
Pour comprendre ce que la décision canadienne représente, il est utile de regarder ce qui s’est passé aux États-Unis — ce voisin qui, malgré ses propres contradictions, a au moins poussé le débat beaucoup plus loin. Le Congrès américain avait adopté en 2024 une loi forçant ByteDance à céder TikTok à un propriétaire non chinois ou à quitter le marché américain. La loi avait été votée avec un soutien bipartisan remarquable — démocrates et républicains s’entendant rarement sur quoi que ce soit, mais s’accordant ici sur la réalité de la menace. La Cour suprême avait validé la constitutionnalité de cette loi. L’échéance était fixée, le mécanisme enclenché. Et puis Donald Trump est arrivé au pouvoir et a tout arrêté d’un trait de plume, accordant des délais et des exemptions dans un retournement aussi brutal qu’inexpliqué — certains analystes suggérant que des intérêts personnels et des négociations parallèles avec des investisseurs proches de la plateforme n’étaient pas étrangers à ce revirement. Mais l’épisode américain a au moins eu le mérite de poser clairement les termes du problème. Il a forcé un débat national sur la souveraineté numérique, sur les limites acceptables de la présence de plateformes étrangères sur le marché américain, sur ce que signifie protéger les données des citoyens à l’ère de l’intelligence artificielle.
Le Canada, lui, a évité ce débat. Il n’y a pas eu de grande loi, pas d’auditions parlementaires spectaculaires, pas de confrontation frontale avec ByteDance. Il y a eu une décision administrative en novembre, suivie d’un silence de quelques mois, suivie d’une annonce de retournement. Tout ça sans que les Canadiens aient vraiment été consultés sur la direction qu’ils souhaitaient voir leur gouvernement prendre. C’est peut-être là le problème le plus fondamental : dans une démocratie, les grandes décisions qui touchent à la sécurité nationale et à la vie privée des citoyens méritent un débat public sérieux, pas des revirements administratifs silencieux. Les Canadiens méritaient une explication complète des risques, une présentation honnête des options disponibles, et une décision assumée. Ils ont eu une annonce.
Ce que font les autres démocraties occidentales
La décision canadienne contraste aussi de manière frappante avec les positions adoptées par d’autres démocraties. L’Union européenne a imposé à TikTok des contraintes sévères dans le cadre du Digital Services Act et du Digital Markets Act, lui infligeant des amendes et la soumettant à des audits réguliers. Le Royaume-Uni a interdit TikTok sur les appareils gouvernementaux. L’Inde a carrément banni la plateforme depuis 2020. La France, comme d’autres pays européens, a interdit son utilisation sur les téléphones des fonctionnaires. Ces décisions reflètent une préoccupation commune : TikTok représente un vecteur potentiel d’espionnage et d’influence que les États démocratiques ne peuvent pas ignorer. Le Canada allait dans ce sens. Et puis il a fait demi-tour, pendant que ses partenaires tiennent la ligne. Cette solitude stratégique n’est pas anodine. Elle affaiblit la position collective des démocraties occidentales dans leur rapport de force avec les géants technologiques liés à des États autoritaires. Elle envoie un signal à ByteDance et à Pékin : il suffit d’attendre. Les gouvernements démocratiques cèdent toujours.
Quand le Canada prend une décision différente de ses alliés les plus proches sur une question de sécurité numérique, ça ne signifie pas que le Canada a trouvé une meilleure solution. Ça signifie souvent que le Canada a trouvé une solution plus commode. Et la commodité, en matière de sécurité nationale, est rarement une bonne boussole.
ByteDance et le Parti communiste chinois : le lien qu'on préfère ne pas regarder en face
La loi chinoise sur la sécurité nationale et ses implications concrètes
Au cœur de toute discussion sérieuse sur TikTok se trouve une réalité juridique qu’on ne peut pas contourner : la loi chinoise sur la sécurité nationale de 2017. Cette loi stipule explicitement que toute organisation ou citoyen chinois doit soutenir, aider et coopérer avec les efforts de renseignement national. Elle s’applique à ByteDance. Elle s’applique à tous les employés de ByteDance, quelle que soit leur localisation géographique. Elle signifie que si les autorités chinoises demandent à ByteDance d’accéder aux données des utilisateurs canadiens, américains, européens — ByteDance est légalement obligée d’obtempérer. Il ne s’agit pas d’une possibilité théorique. Il s’agit d’une obligation légale. Et cette obligation n’a pas changé entre novembre 2024 et mars 2026. ByteDance est toujours soumise à cette loi. Ses dirigeants sont toujours soumis à cette loi. Les serveurs de la plateforme sont toujours, en partie, localisés ou accessibles depuis la Chine. La structure de risque est identique. Ce qui a changé, c’est la décision canadienne de vivre avec ce risque plutôt que de l’affronter.
Il est important de noter que ByteDance a toujours nié avec vigueur que les données des utilisateurs occidentaux soient accessibles aux autorités chinoises. L’entreprise a investi massivement dans des projets de localisation des données — notamment le projet « Texas » aux États-Unis, censé stocker les données américaines sur des serveurs américains contrôlés par Oracle. Ces efforts sont réels. Mais ils sont aussi insuffisants, selon de nombreux experts, parce qu’ils ne résolvent pas la question fondamentale du contrôle : tant que ByteDance reste une entreprise chinoise soumise aux lois chinoises, la séparation entre les données et le gouvernement chinois reste structurellement fragile. Des ingénieurs de la plateforme ont témoigné, lors d’auditions au Congrès américain, que leurs collègues basés en Chine avaient accès à des données qui étaient censées être cloisonnées. Des journalistes du magazine Forbes ont révélé que des employés de ByteDance avaient utilisé les données de la plateforme pour surveiller des journalistes américains. Ces incidents ne sont pas des aberrations anecdotiques. Ce sont des fenêtres sur une réalité systémique.
L’algorithme comme arme d’influence : ce qu’on voit et ce qu’on ne voit pas
Au-delà de la question des données personnelles, il y a une dimension encore moins discutée mais peut-être encore plus importante : l’algorithme de TikTok comme instrument d’influence cognitive. La plateforme contrôle ce que voient ses utilisateurs avec une précision et une efficacité que n’atteignent aucune autre plateforme. Son système de recommandation est reconnu comme le plus puissant de l’industrie — une machine à optimiser l’engagement qui apprend avec une rapidité stupéfiante ce qui maintient chaque utilisateur dans un état d’attention maximale. Cette puissance algorithmique n’est pas neutre. Des recherches indépendantes ont montré des divergences entre les contenus qui circulent sur TikTok en Chine — où la plateforme s’appelle Douyin — et ceux qui circulent en Occident. En Chine, Douyin met en avant des contenus éducatifs, patriotiques, scientifiques. En Occident, TikTok montre une proportion beaucoup plus élevée de contenus triviaux, polarisants, déstabilisants. Cette asymétrie n’est peut-être pas intentionnelle. Elle est peut-être simplement le résultat de l’optimisation de l’engagement dans des contextes culturels différents. Mais elle soulève une question que personne ne peut éluder : est-ce que la plateforme qui s’est imposée comme la principale source d’information et de divertissement d’une génération entière de jeunes Canadiens est en train de façonner leur vision du monde selon des critères que les Canadiens n’ont jamais approuvés et ne peuvent pas auditer ?
La vraie menace de TikTok n’est pas dans les données qu’il vole — c’est dans les réalités qu’il construit. Quand une plateforme décide ce que des millions de jeunes voient, ce qu’ils trouvent drôle, ce qui les met en colère, ce qui leur semble normal — elle forge leurs valeurs, leurs références, leur rapport au monde. Confier cette mission à une entreprise soumise à un État autoritaire, c’est potentiellement lui confier l’avenir de notre démocratie. Et nous venons de décider que c’était acceptable.
La souveraineté numérique canadienne : un concept creux ?
Ce que le Canada dit vouloir et ce qu’il fait réellement
Le Canada a une Stratégie nationale de cybersécurité. Il a un Centre canadien pour la cybersécurité. Il a des agences de renseignement — le CSTEC, le SCRS — dont la mission inclut explicitement la protection des Canadiens contre les menaces étrangères dans l’espace numérique. Ces institutions ont publié des rapports, émis des avertissements, documenté les risques. Elles ont fait leur travail. Et le gouvernement a décidé de ne pas les écouter — ou plus précisément, de les écouter jusqu’au moment où leurs recommandations devenaient politiquement coûteuses. Cette contradiction entre les discours sur la souveraineté numérique et les décisions concrètes sur les plateformes étrangères est une plaie ouverte dans la politique technologique canadienne. On veut une industrie technologique nationale forte. On veut protéger les données des Canadiens. On veut un internet qui respecte les valeurs démocratiques. Et en même temps, on laisse les plus grandes plateformes mondiales — toutes américaines ou chinoises — opérer au Canada avec une régulation minimale, en collectant des données massives sur les Canadiens, en façonnant les conversations publiques, en définissant les normes du débat démocratique. La souveraineté numérique est un slogan qu’Ottawa aime utiliser dans les discours. La décision sur TikTok montre ce que ça vaut dans les faits.
Cette incohérence n’est pas propre au Canada — la plupart des démocraties occidentales sont aux prises avec les mêmes contradictions. Mais le Canada avait une opportunité rare : celle de tenir une position claire, assumée, cohérente avec ses propres évaluations de sécurité nationale. Il avait fait le diagnostic. Il avait prescrit le traitement. Et au moment de l’administrer, il a reculé. Ce recul aura des conséquences à long terme qui vont bien au-delà de TikTok. Il établit un précédent : quand une plateforme est suffisamment grande, suffisamment populaire, suffisamment intégrée dans l’économie et la culture d’un pays, elle est trop grande pour être véritablement régulée. C’est une leçon que les autres géants technologiques — Tencent, Alibaba, Baidu, mais aussi les plateformes américaines qui jouent sur des registres similaires — ne manqueront pas de noter et de mettre à profit.
Le paradoxe du libre marché appliqué à la sécurité nationale
Il y a un argument libéral classique qui circule dans le débat sur TikTok : les marchés ouverts, la libre circulation de l’information, la concurrence entre plateformes — tout cela bénéficie aux consommateurs et aux démocraties. Interdire une application, c’est du protectionnisme numérique, de la censure déguisée, une ingérence dans les libertés des citoyens. Cet argument mérite d’être pris au sérieux — et d’être démoli soigneusement. Parce qu’il confond deux choses fondamentalement différentes : la libre circulation de l’information et la liberté d’opération des entreprises. Personne ne propose d’interdire à un Canadien de regarder des vidéos chinoises sur internet. La question est de savoir si une entreprise soumise aux lois d’un régime autoritaire doit être autorisée à construire l’infrastructure numérique dans laquelle vivent les citoyens d’une démocratie. Ce n’est pas la même chose. Les États démocratiques régulent qui peut construire leurs aéroports, leurs réseaux électriques, leurs infrastructures de télécommunications. Ils le font précisément parce que ces infrastructures sont stratégiques — parce que celui qui les contrôle a un levier sur la société entière. Les plateformes numériques sont devenues des infrastructures de cette nature. Et le Canada vient de décider de ne pas les traiter comme telles.
La liberté n’est pas menacée par l’interdiction de TikTok. La liberté est menacée par la présence d’une infrastructure algorithmique géante, opaque, potentiellement liée à un État autoritaire, au cœur de notre espace public numérique. Confondre les deux, c’est se laisser manipuler par un argument rhétorique qui sert les intérêts de ByteDance, pas ceux des Canadiens.
Les jeunes Canadiens dans le collimateur : une génération façonnée de l'extérieur
Qui utilise TikTok et pourquoi ça change tout
Pour mesurer l’enjeu réel de cette décision, il faut regarder qui utilise TikTok au Canada. La plateforme est massivement dominante chez les moins de trente ans. Pour une très grande partie des 15-25 ans canadiens, TikTok est leur première source d’information sur l’actualité, leur principale fenêtre sur le monde, leur espace de socialisation dominant. Ce n’est pas une exagération — les études sur la consommation de médias chez les jeunes montrent de manière cohérente que TikTok a supplanté la télévision, la radio, les journaux, et même les autres réseaux sociaux comme principale source d’information pour cette tranche d’âge. Cette réalité démographique rend la décision canadienne encore plus lourde de conséquences. Ce n’est pas simplement une question de divertissement ou d’économie créative. C’est une question de formation citoyenne. La génération qui va voter, qui va diriger les entreprises, qui va élire les gouvernements et façonner la culture des prochaines décennies se forme politiquement, culturellement, émotionnellement sur une plateforme dont les critères de curation sont opaques et potentiellement orientés selon des intérêts étrangers à leur propre société.
Des études menées aux États-Unis ont montré que TikTok peut avoir un impact mesurable sur les opinions politiques de ses utilisateurs, notamment sur des sujets comme le conflit israélo-palestinien, les relations avec la Chine, la politique étrangère américaine. Ces impacts ne sont pas nécessairement le résultat d’une manipulation délibérée et coordonnée — ils peuvent simplement refléter le biais naturel d’un algorithme optimisé pour l’engagement dans un contexte culturel particulier. Mais qu’ils soient intentionnels ou structurels, ils sont réels. Et ils affectent de manière disproportionnée les jeunes, dont les opinions sont encore en formation et qui sont moins équipés pour reconnaître les dynamiques d’influence algorithmique. Le Canada a décidé que cette réalité n’était pas suffisamment préoccupante pour justifier le maintien d’une position ferme. C’est une décision qui mérite d’être jugée sur le long terme — dans dix ans, quand la génération TikTok sera aux commandes.
L’école, la famille, la société — et l’algorithme
Il y a un parallèle instructif à faire avec d’autres formes de régulation que nos sociétés appliquent pour protéger les jeunes. On régule l’accès à l’alcool, au tabac, aux jeux de hasard — pas parce qu’on veut interdire ces choses aux adultes, mais parce qu’on reconnaît que les jeunes méritent une protection particulière contre des influences qui peuvent façonner leur développement de manière dommageable. On régule les contenus télévisés en fonction des heures de diffusion. On établit des normes pour les jouets, les aliments, les médicaments destinés aux enfants. Toutes ces régulations sont des expressions du même principe : la société a une responsabilité collective envers ses membres les plus jeunes et les plus vulnérables. L’espace numérique n’est pas différent. Les enfants et les adolescents qui passent des heures sur TikTok chaque jour méritent la même protection que celle qu’on leur offre dans les autres sphères de leur vie. Cette protection ne signifie pas nécessairement l’interdiction totale de la plateforme. Mais elle signifie une régulation sérieuse, des audits indépendants de l’algorithme, des exigences de transparence sur les données collectées, des mécanismes de contrôle que les parents et la société peuvent exercer. Rien de tout cela n’est prévu dans l’annonce canadienne. On a juste dit : laissez faire.
On se bat pour mettre des avertissements sur les cigarettes et des heures de diffusion sur les films violents. Et on laisse une machine d’influence algorithmique opaque opérer sans contrainte dans les chambres à coucher de nos adolescents, vingt-quatre heures sur vingt-quatre, sept jours sur sept. Il y a quelque chose de fondamentalement incohérent dans cette hiérarchie de nos préoccupations.
Le moment géopolitique : Trump, les tarifs et le calcul d'Ottawa
Une décision prise dans le contexte de la tempête commerciale canado-américaine
On ne peut pas analyser la décision canadienne sur TikTok sans tenir compte du contexte géopolitique extraordinairement difficile dans lequel elle a été prise. Le Canada traverse en ce moment une des périodes les plus turbulentes de son histoire économique moderne. Donald Trump a imposé des tarifs douaniers de 25% sur les exportations canadiennes vers les États-Unis, menaçant des secteurs entiers de l’économie canadienne — l’automobile, l’acier, l’aluminium, les produits forestiers. Il a remis en question la valeur même de l’alliance canado-américaine, parlant du Canada comme d’une charge pour les États-Unis plutôt que d’un partenaire. Ottawa est en mode gestion de crise permanente avec Washington. Dans ce contexte, prendre une décision ferme sur TikTok — une décision qui s’alignait en fait sur les préoccupations américaines originelles concernant la plateforme — aurait semblé paradoxale. Et surtout, tout le capital politique canadien est absorbé par la gestion de la crise commerciale avec les États-Unis. Il n’en reste plus beaucoup pour des batailles sur d’autres fronts, même si ces batailles sont importantes.
Mais il y a une autre dimension. Certains analystes ont noté que le maintien de TikTok au Canada pourrait représenter une forme subtile de signal vers Pékin — une façon de ne pas fermer toutes les portes avec la Chine au moment où le Canada cherche à diversifier ses partenariats économiques pour réduire sa dépendance excessive aux États-Unis. Cette lecture est peut-être trop sophistiquée pour rendre justice à ce qui est probablement une décision essentiellement dictée par des contraintes politiques internes. Mais elle illustre la complexité du calcul géopolitique canadien en ce moment : un pays qui essaie de maintenir des relations équilibrées avec les États-Unis et la Chine dans un monde où ces deux puissances s’affrontent de plus en plus directement, et qui se retrouve souvent à naviguer entre ces deux pressions contradictoires en espérant que personne ne regardera trop attentivement les compromis qu’il est obligé de faire. Le problème, c’est que sur une question comme la sécurité numérique, les compromis ont un coût réel qui ne se voit peut-être pas immédiatement mais qui s’accumule.
La fragilité stratégique d’un pays pris en étau
Le Canada est structurellement désavantagé dans la gestion de ces dossiers complexes. Sa dépendance économique aux États-Unis — environ 75% de ses exportations vont vers son voisin du Sud — lui laisse peu de marges de manœuvre quand Washington décide de changer les règles du jeu. Sa proximité culturelle et linguistique avec les États-Unis signifie que les débats américains sur des sujets comme TikTok résonnent immédiatement au Canada, sans que le Canada ait nécessairement le cadre institutionnel pour y répondre de manière autonome et cohérente. Sa taille — 40 millions d’habitants face à 340 millions d’Américains et 1,4 milliard de Chinois — signifie qu’il est souvent un acteur secondaire dans des dynamiques géopolitiques qui le concernent pourtant directement. Cette fragilité structurelle ne justifie pas la capitulation sur des principes fondamentaux. Elle l’explique. Et cette explication devrait nous pousser non pas à accepter le statu quo, mais à réfléchir sérieusement à comment le Canada peut construire une capacité stratégique plus robuste dans les domaines numériques — une industrie technologique nationale plus forte, une infrastructure de données souveraine, des partenariats avec des démocraties partageant les mêmes valeurs pour construire des alternatives viables aux plateformes chinoises et américaines.
Être petit dans un monde de grandes puissances n’est pas une excuse pour abandonner ses principes. C’est au contraire une raison supplémentaire de les tenir fermement — parce que pour un pays de la taille du Canada, sa réputation de cohérence et d’intégrité est l’un de ses actifs géopolitiques les plus précieux. Quand il capitule, il ne perd pas seulement une bataille. Il perd quelque chose de plus difficile à reconstruire : la crédibilité.
Ce que cette décision dit sur la gouvernance des plateformes au Canada
Un vide réglementaire persistant dans l’espace numérique canadien
La décision sur TikTok n’est que le symptôme le plus visible d’un problème beaucoup plus large : le Canada n’a toujours pas de cadre réglementaire cohérent et robuste pour les grandes plateformes numériques. Malgré des années de discussions, de consultations, de projets de loi partiels et d’annonces gouvernementales, le pays reste fondamentalement démuni face aux défis posés par les géants de la technologie. La Loi sur la mise à jour de la diffusion (projet de loi C-11), adoptée en 2023, était censée forcer les plateformes étrangères à contribuer à la création de contenu canadien. Sa mise en œuvre reste laborieuse et contestée. La Loi sur les nouvelles en ligne (projet de loi C-18) a conduit Meta à simplement bloquer les nouvelles sur Facebook et Instagram au Canada — une réponse qui montre clairement qui détient le vrai pouvoir dans cette relation. La protection des données personnelles des Canadiens reste régie par une législation vieillissante — la LPRPDE — qui date de 2000 et n’a pas été conçue pour l’ère des algorithmes d’intelligence artificielle et de la collecte de données massives. Dans ce contexte de vide réglementaire chronique, la décision sur TikTok ne surprend pas vraiment. Elle est cohérente avec une tendance de fond : le Canada réagit aux situations, souvent en retard, souvent de manière incomplète, plutôt que de bâtir des cadres proactifs capables d’anticiper les défis.
Ce retard réglementaire n’est pas fatal. D’autres pays ont montré qu’il est possible de construire rapidement des cadres efficaces quand la volonté politique est là. L’Union européenne est l’exemple le plus cité : en quelques années, elle a élaboré le RGPD sur la protection des données, le Digital Services Act sur la modération des contenus, le Digital Markets Act sur les pratiques anticoncurrentielles, et le AI Act sur l’intelligence artificielle. Ces textes sont imparfaits — toute régulation est imparfaite. Mais ils existent. Ils s’appliquent. Ils créent des obligations réelles pour les plateformes qui opèrent sur le territoire européen. Et ils envoient un signal clair : dans l’Union européenne, les plateformes numériques sont des acteurs économiques soumis aux règles du jeu démocratique, pas des entités qui définissent elles-mêmes leurs propres règles. Le Canada pourrait s’en inspirer. La décision sur TikTok montre qu’il ne l’a pas encore fait.
Le lobbying technologique et ses effets sur la décision politique
Il serait naïf d’analyser cette décision sans mentionner le rôle du lobbying des plateformes technologiques dans les capitales des démocraties occidentales. TikTok et ByteDance ont investi massivement dans des équipes de relations publiques et de lobbying à Ottawa, comme dans toutes les capitales où la question de leur présence se pose. Ces équipes ne font pas que plaider la cause de la plateforme — elles construisent des coalitions, mobilisent des créateurs de contenu, organisent des campagnes de communication ciblées, financent des études qui soulignent les contributions économiques de la plateforme au marché local. Le résultat de tout ce travail, c’est une asymétrie d’information et d’influence. D’un côté, les agences de renseignement canadiennes qui produisent des rapports classifiés sur les risques de la plateforme. De l’autre, une machine de communication bien huilée qui inonde l’espace public de récits positifs sur TikTok et de témoignages de créateurs qui ont peur de perdre leur gagne-pain. Dans cette bataille asymétrique, les arguments de sécurité nationale ont du mal à percer parce qu’ils sont, par nature, difficiles à communiquer au grand public sans révéler des informations sensibles. Et les arguments économiques et émotionnels de TikTok sont conçus précisément pour être immédiatement accessibles et résonnants.
La vraie question n’est pas de savoir si TikTok a fait du lobbying — bien sûr qu’il en a fait, c’est son droit. La vraie question est de savoir si les institutions canadiennes sont suffisamment robustes pour résister à ce type de pression quand les enjeux de sécurité nationale l’exigent. La réponse que vient de donner cette décision est troublante : apparemment non.
Les alternatives à l'interdiction : ce qu'on aurait pu faire autrement
Entre le tout et le rien : les voies médianes inexploitées
Soyons honnêtes : l’interdiction totale de TikTok pour tous les utilisateurs canadiens aurait été une mesure extrême, difficile à mettre en œuvre techniquement et aux conséquences imprévisibles. Il y avait des voies intermédiaires que le Canada aurait pu explorer plus sérieusement avant de simplement capituler. La première, et sans doute la plus évidente, est le modèle de cession forcée — comme celui qu’avaient tenté les États-Unis. Obliger ByteDance à vendre TikTok à un propriétaire qui n’est pas soumis aux lois chinoises sur la sécurité nationale résoudrait le problème structurel fondamental tout en préservant la plateforme pour les utilisateurs canadiens. Ce n’est pas simple — la valorisation de TikTok est astronomique, et ByteDance a clairement indiqué qu’elle ne souhaitait pas vendre. Mais c’est une option réelle que le Canada n’a jamais sérieusement mise sur la table. La deuxième voie est celle de la régulation contraignante : imposer à TikTok des audits indépendants réguliers de son algorithme, des exigences strictes de localisation des données canadiennes sur des serveurs canadiens ou dans des pays alliés, des obligations de transparence sur les critères de modération des contenus, et des mécanismes de contrôle réels assortis de sanctions dissuasives en cas de non-respect. C’est l’approche européenne, imparfaite mais sérieuse.
La troisième voie est celle de la réciprocité : le Canada pourrait conditionner l’accès de TikTok à son marché à des conditions de réciprocité — exiger que les plateformes canadiennes aient un accès équivalent au marché chinois, ce qu’elles n’ont évidemment pas (les réseaux sociaux occidentaux sont tous bloqués en Chine). Cette approche a une logique commerciale et politique claire, même si elle est de mise en œuvre complexe. Ce qu’Ottawa n’a pas fait, c’est explorer sérieusement ces options. On a eu une décision de fermeture des bureaux, puis un silence, puis une annonce de retour à la normale. Sans qu’on sache si des négociations ont eu lieu, si des conditions ont été posées, si des garanties ont été obtenues. Cette absence de transparence sur le processus de décision est peut-être le problème le plus immédiat à régler — indépendamment même du fond de la question TikTok.
Investir dans les alternatives : la vraie réponse à long terme
La meilleure réponse à long terme à la domination des plateformes étrangères dans l’espace numérique canadien n’est ni l’interdiction ni la capitulation — c’est la construction d’alternatives. Le Canada a les ressources humaines, les institutions académiques, le capital d’investissement et l’environnement réglementaire pour développer un écosystème numérique national plus robuste. Il a des entreprises technologiques de classe mondiale — Shopify, Coveo, Hootsuite, et des dizaines d’autres. Il a des universités qui produisent des chercheurs en intelligence artificielle reconnus mondialement. Il a une politique d’immigration qui lui permet d’attirer des talents technologiques de partout dans le monde. Ce qu’il lui manque, c’est une vision stratégique cohérente et un engagement gouvernemental sérieux pour transformer ces avantages en capacité numérique souveraine. Plutôt que de débattre des mérites d’interdire TikTok, le Canada devrait débattre sérieusement de comment il peut construire les plateformes de la prochaine génération — des plateformes qui servent les valeurs canadiennes, qui protègent les données des Canadiens, qui créent de la richesse pour les Canadiens, et qui donnent aux créateurs canadiens une infrastructure qui leur appartient vraiment. Ce débat est beaucoup plus difficile et beaucoup plus long que la question de TikTok. Mais c’est le seul qui adresse vraiment le problème de fond.
On passe tellement de temps à discuter si on devrait interdire TikTok qu’on oublie de se poser la question qui devrait structurer toute notre politique numérique : pourquoi est-ce que nos jeunes n’ont comme choix que des plateformes américaines ou chinoises ? Où est l’alternative canadienne ? Où est l’alternative démocratique ? La vraie défaite n’est pas d’avoir permis à TikTok de rester. C’est de ne pas avoir créé quelque chose pour le remplacer.
Les voix qui manquent dans ce débat : experts, jeunes, communautés
Un débat public confisqué par les acteurs économiques et politiques
L’un des aspects les plus frustrants de la saga TikTok au Canada, c’est la qualité du débat public qui l’a accompagnée. D’un côté, le gouvernement qui prend des décisions opaques sans vraiment les expliquer. De l’autre, les groupes de défense des créateurs de contenu et les lobbyistes de ByteDance qui organisent la résistance contre toute forme de régulation. Entre les deux, les voix qui auraient dû être au centre — les experts en cybersécurité, les chercheurs en sciences politiques spécialisés en influence étrangère, les éducateurs qui voient au quotidien les effets de TikTok sur leurs élèves, les parents qui s’interrogent sur l’impact de la plateforme sur leurs enfants, les jeunes eux-mêmes qui méritent une conversation honnête sur ce qu’ils acceptent en échange de leur accès à la plateforme — ces voix ont été largement absentes du débat public. Cette absence n’est pas accidentelle. Les débats sur la régulation des plateformes numériques sont techniquement complexes, politiquement risqués, et facilement détournés par des arguments émotionnels et économiques qui évitent les vraies questions. Il faut du courage institutionnel pour tenir ce débat de manière honnête et complète. Et ce courage, Ottawa ne l’a pas montré.
Les experts canadiens en cybersécurité — et ils sont nombreux, reconnus, compétents — ont été pratiquement absents du débat public sur TikTok. Pas parce qu’ils n’avaient rien à dire. Mais parce que le format du débat ne leur a pas laissé de place. Le débat a été dominé par les récits des créateurs de contenu, les arguments économiques des associations d’entreprises, et les déclarations vagues des responsables gouvernementaux. Les nuances techniques sur les risques réels, les mécanismes d’exploitation des données, les vulnérabilités spécifiques aux algorithmes de recommandation — tout ça a été largement absent. Le résultat, c’est une décision prise dans un contexte d’analphabétisme numérique institutionnel — pas parce que les connaissances n’existaient pas, mais parce que le système politique n’a pas su les intégrer dans le processus de décision d’une manière qui résiste aux pressions politiques à court terme.
Les communautés diasporiques et la complexité du rapport à TikTok
Il y a une dimension souvent oubliée dans le débat canadien sur TikTok : le rapport des communautés diasporiques chinoises du Canada à cette décision. Pour de nombreux Canadiens d’origine chinoise, TikTok n’est pas une plateforme abstraite — c’est un lien avec leur culture d’origine, avec leur famille restée en Chine, avec des créateurs de contenu qui parlent leur langue et partagent leur expérience. Une décision d’interdire la plateforme aurait affecté ces communautés de manière disproportionnée et aurait pu être perçue — et instrumentalisée — comme une forme de discrimination culturelle. Cette réalité mérite d’être reconnue. Mais elle mérite aussi d’être mise en perspective. Le fait que TikTok soit important pour des Canadiens d’origine chinoise ne signifie pas que la plateforme ne représente pas de risques réels pour la sécurité nationale canadienne. Ces deux réalités coexistent. Et une politique publique mature devrait être capable de les adresser simultanément — protéger les Canadiens d’origine chinoise contre toute discrimination, et en même temps protéger tous les Canadiens contre les risques d’une plateforme soumise à un régime autoritaire. La décision canadienne n’a pas essayé de faire cette distinction fine. Elle a simplement choisi la simplicité politique de laisser faire.
Les communautés chinoises du Canada méritent mieux qu’un débat qui les place soit dans le camp de ceux qui défendent TikTok, soit dans le camp de ceux qui s’en méfient. Elles méritent un débat honnête qui reconnaît à la fois leur droit à maintenir leurs liens culturels et leur droit à une protection contre les instruments d’un régime qui, rappelons-le, réprime les Canadiens d’origine ouïghoure, tibétaine et hongkongaise. Ces réalités ne s’annulent pas. Elles coexistent. Et les ignorer, dans un sens ou dans l’autre, est une forme de malhonnêteté intellectuelle.
Conclusion : une décision qui engage l'avenir numérique du Canada
Ce qu’on a perdu en laissant TikTok opérer sans conditions claires
La décision canadienne d’autoriser TikTok à poursuivre ses activités ne va pas déclencher une catastrophe immédiate et visible. Aucune alarme ne va sonner demain matin. Aucune donnée canadienne ne va disparaître du jour au lendemain. Les jeunes vont continuer à scroller, à créer, à rire. La vie numérique va continuer comme avant. Et c’est précisément ce qui rend cette décision si dangereuse : ses conséquences sont lentes, diffuses, difficiles à attribuer directement à une décision politique particulière. Les risques de la collecte massive de données sur les Canadiens par une entité potentiellement liée à un régime autoritaire s’accumulent sur des années. L’effet de l’influence algorithmique sur les opinions politiques d’une génération entière se mesure sur une décennie. La normalisation de la présence d’entreprises soumises à des régimes autoritaires dans l’infrastructure numérique d’une démocratie est un processus qui avance progressivement, sans bruit, sans moment dramatique auquel on peut pointer et dire : voilà, c’est ici que tout a basculé. Mais basculer, ça bascule quand même. Et cette décision canadienne est une étape de ce basculement.
Ce que le Canada a perdu aujourd’hui, c’est plus qu’un dossier sécuritaire. Il a perdu une opportunité de montrer que la souveraineté numérique est une valeur réelle qu’il est prêt à défendre même quand c’est politiquement coûteux. Il a perdu l’occasion d’amorcer un débat public sérieux sur comment les démocraties gèrent la présence des géants technologiques dans leur espace public. Il a perdu la crédibilité qui vient de tenir une position de principe jusqu’au bout. Ces pertes ne font pas la une des journaux. Elles ne déclenchent pas de manifestations. Mais elles comptent. Et elles s’accumulent.
Ce qu’il reste à faire — si la volonté politique existe
La décision est prise. TikTok reste. Maintenant, la question est : qu’est-ce qu’Ottawa fait avec cette réalité ? Est-ce que cette décision s’accompagne d’un cadre de régulation sérieux, d’exigences claires et vérifiables posées à ByteDance, d’audits indépendants réguliers, de mécanismes de sanction crédibles ? Ou est-ce simplement un abandon déguisé en pragmatisme ? Les prochains mois répondront à cette question. Si le gouvernement canadien utilise ce revirement comme un point de départ pour construire enfin le cadre réglementaire que le pays attendait depuis des années — un cadre qui s’applique non seulement à TikTok mais à toutes les grandes plateformes numériques opérant au Canada — alors peut-être que cette décision ne sera pas une capitulation pure et simple, mais un mauvais départ vers quelque chose de meilleur. Mais si, dans six mois, les conditions d’exploitation de TikTok au Canada restent aussi opaques qu’aujourd’hui, si aucun mécanisme d’audit n’a été mis en place, si aucune exigence de localisation des données n’a été imposée — alors il faudra appeler cette décision par son vrai nom : une capitulation dictée par la commodité politique, aux dépens de la sécurité des Canadiens et de l’intégrité de leur espace démocratique numérique.
Je ne suis pas un nostalgique de l’État-nation fermé sur lui-même, méfiant de tout ce qui vient de l’étranger. Je crois au monde ouvert, aux échanges, à la circulation des idées et des cultures. Mais l’ouverture ne signifie pas la naïveté. Elle ne signifie pas laisser les portes grandes ouvertes à des acteurs qui opèrent selon des règles fondamentalement incompatibles avec nos valeurs démocratiques. Ce que le Canada a fait aujourd’hui, c’est choisir la commodité sur la cohérence. Et cette commodité a un prix que nous paierons — lentement, invisiblement, mais sûrement.
Signé Jacques Pj Provost
Encadré de transparence du chroniqueur
Positionnement éditorial
Je ne suis pas journaliste, mais chroniqueur et analyste. Mon expertise réside dans l’observation et l’analyse des dynamiques géopolitiques, économiques et stratégiques qui façonnent notre monde. Mon travail consiste à décortiquer les stratégies politiques, à comprendre les mouvements économiques globaux, à contextualiser les décisions des acteurs internationaux et à proposer des perspectives analytiques sur les transformations qui redéfinissent nos sociétés.
Je ne prétends pas à l’objectivité froide du journalisme traditionnel, qui se limite au rapport factuel. Je prétends à la lucidité analytique, à l’interprétation rigoureuse, à la compréhension approfondie des enjeux complexes qui nous concernent tous. Mon rôle est de donner du sens aux faits, de les situer dans leur contexte historique et stratégique, et d’offrir une lecture critique des événements.
Méthodologie et sources
Ce texte respecte la distinction fondamentale entre faits vérifiés et analyses interprétatives. Les informations factuelles présentées proviennent exclusivement de sources primaires et secondaires v