Une approche fondée sur le risque
Le règlement 2024/1689 — c’est son petit nom officiel — est entré en vigueur le 1er août 2024. Mais comme toute bonne machine bureaucratique européenne, il s’applique par phases. Les pratiques d’IA interdites et les obligations de littératie en IA sont devenues applicables dès le 2 février 2025. Les règles de gouvernance et les obligations pour les modèles d’IA à usage général (GPAI) depuis le 2 août 2025. Et le gros morceau — les systèmes à haut risque — arrive en août 2026 et août 2027. La Commission européenne a elle-même reconnu que le calendrier initial était « trop ambitieux ». Traduction : même Bruxelles ne savait pas dans quoi elle s’embarquait.
L’architecture du règlement repose sur une logique simple en apparence : plus le risque est élevé, plus les exigences sont strictes. À la base de la pyramide, les systèmes à risque minimal ou nul — comme les filtres anti-spam ou les jeux vidéo utilisant l’IA — peuvent opérer librement. Un cran au-dessus, les systèmes à risque limité doivent respecter des obligations de transparence : les chatbots doivent révéler leur nature artificielle, les systèmes de reconnaissance émotionnelle nécessitent une notification utilisateur, les deepfakes doivent porter des filigranes lisibles par machine. Et tout en haut, les systèmes à haut risque font face à un arsenal d’exigences qui ferait pâlir le plus zélé des auditeurs. Quant aux pratiques interdites — manipulation subliminale, notation sociale, reconnaissance faciale en temps réel dans l’espace public sauf exceptions — elles sont tout simplement bannies. Point final.
Ce qui attend les entreprises ukrainiennes
Pour une entreprise ukrainienne qui développe des solutions d’IA et qui veut les vendre sur le marché européen, le parcours du combattant commence maintenant. Prenons un exemple concret. Une startup de Kyiv développe un système d’IA pour le recrutement — un domaine classé haut risque par le règlement. Avant de pouvoir proposer son produit à une entreprise française ou allemande, elle devra : mettre en place un système de gestion des risques documenté et mis à jour en continu ; assurer la gouvernance des données utilisées pour l’entraînement, incluant la vérification de leur qualité et de leur représentativité ; produire une documentation technique détaillée permettant aux autorités d’évaluer la conformité ; concevoir le système pour permettre une surveillance humaine effective ; garantir des niveaux appropriés de précision, robustesse et cybersécurité ; s’enregistrer dans la base de données européenne avant la mise sur le marché.
Et ce n’est que le début. Une fois le produit sur le marché, l’entreprise doit maintenir un système de surveillance post-commercialisation, signaler les incidents graves aux autorités compétentes, et se tenir prête à des audits à tout moment. Le non-respect de ces obligations expose à des amendes pouvant atteindre 35 millions d’euros ou 7 % du chiffre d’affaires mondial — le montant le plus élevé étant retenu. Pour une startup ukrainienne, c’est potentiellement un arrêt de mort. Et la question se pose : est-ce que le jeu en vaut la chandelle ? La réponse de Stanislav Yukhymenko, analyste à l’Institut de recherche économique, est sans appel : l’implémentation représente « non seulement la satisfaction d’exigences formelles » mais « une chance de construire la confiance dans les technologies ukrainiennes à l’international et d’attirer des investissements dans le secteur ».
Il y a quelque chose de profondément absurde dans cette situation. D’un côté, on a un pays qui se bat pour sa survie, qui innove malgré les bombes, qui prouve chaque jour que le talent n’a pas de frontières. De l’autre, on a un appareil bureaucratique — aussi nécessaire soit-il — qui impose des règles pensées pour des entreprises en temps de paix, avec des ressources en temps de paix, dans des bureaux qui n’ont jamais connu une alerte aérienne. Je ne dis pas que l’Ukraine devrait être exemptée. Ce serait contre-productif. Mais quand je lis ces exigences de « documentation technique exhaustive » et de « systèmes de gestion de la qualité », je pense à ces développeurs qui codent avec des coupures d’électricité récurrentes. Et je me demande : l’Europe mesure-t-elle vraiment ce qu’elle demande ?
La stratégie ukrainienne : une approche ascendante
Le Livre blanc comme fondation
Face à ce défi, le ministère ukrainien de la Transformation numérique n’est pas resté les bras croisés. Dès 2024, il a publié un Livre blanc sur la réglementation de l’IA, document fondateur qui trace la voie vers l’alignement avec l’EU AI Act. La philosophie ? Une approche « bottom-up » — du bas vers le haut — qui encourage les entreprises à adopter des pratiques éthiques avant même que la loi ne les y oblige. L’idée est de créer une culture de conformité qui sera payante quand viendra le temps de traiter avec des partenaires européens ou de passer des vérifications de due diligence. C’est malin. C’est pragmatique. Et surtout, c’est adapté à la réalité d’un pays qui ne peut pas se permettre d’attendre que Bruxelles lui dicte chaque virgule.
Concrètement, le gouvernement a déployé plusieurs outils pour accompagner les entreprises. Le bac à sable réglementaire (regulatory sandbox) offre un environnement contrôlé où les entreprises peuvent tester leurs solutions d’IA en conditions réelles, identifier les problèmes de conformité et les résoudre avant le lancement commercial. Les ateliers méthodologiques HUDERIA — du nom de l’outil d’évaluation d’impact du Conseil de l’Europe sur les droits humains, la démocratie et l’état de droit — forment les équipes aux meilleures pratiques d’évaluation. Le Code de conduite permet aux entreprises de signaler publiquement leur engagement vers des pratiques responsables. Plus de 14 entreprises ukrainiennes ont déjà signé ce code — sans aucune obligation légale. Un signal fort qui montre que le secteur a compris l’enjeu.
La Stratégie nationale 2021-2030
L’effort ne date pas d’hier. Dès 2021, l’Ukraine a adopté une Stratégie nationale pour le développement de l’IA couvrant la période 2021-2030. Cette stratégie vise à créer des cadres complets de gouvernance de l’intelligence artificielle dans les secteurs judiciaire, militaire et civil, tout en s’alignant sur les conventions internationales et les standards européens. En avril 2024, le Cabinet des ministres a approuvé une Politique sur l’IA dans les secteurs économiques prioritaires pour la période allant jusqu’à 2026. Cette politique cible le développement de l’IA dans l’éducation, la science et l’innovation, la cybersécurité, la défense et la régulation juridique, en mettant l’accent sur des principes fondamentaux : conformité à l’état de droit, valeurs démocratiques, transparence, responsabilité et redevabilité.
En février 2025, l’Ukraine a franchi une étape symbolique en signant, aux côtés d’une centaine d’États, la Déclaration sur l’IA inclusive et durable pour les personnes et la planète lors du Sommet de l’IA de Paris. Ce geste n’est pas qu’une formalité diplomatique. C’est l’affirmation d’une volonté d’appartenir au club des nations qui façonnent les règles du jeu technologique mondial. L’Ukraine refuse d’être un simple consommateur de normes édictées ailleurs. Elle veut être à la table des négociations. Et pour y parvenir, elle doit prouver qu’elle peut jouer selon les règles — même les plus exigeantes.
Les défis concrets : argent, temps et expertise
Le gouffre financier de la conformité
Parlons chiffres. Les systèmes à faible risque nécessitent principalement des coûts organisationnels et juridiques — consultants, avocats, formation des équipes. Déjà conséquent pour une startup. Mais les systèmes à haut risque ? C’est une autre planète. Les estimations parlent de dizaines de millions d’euros sur trois à cinq ans si 10 à 15 % des entreprises ukrainiennes d’IA développent des modèles classés à haut risque. Ces coûts incluent : l’embauche ou la formation de spécialistes en conformité, l’acquisition d’outils de gestion des risques et de documentation, les audits externes obligatoires, les certifications, les modifications techniques des systèmes pour intégrer la surveillance humaine et les mécanismes de traçabilité. Pour une industrie ukrainienne de 420 millions de dollars, c’est un investissement massif.
D’où viendra l’argent ? C’est la question qui tue. Les investissements étrangers dans le secteur tech ukrainien ont chuté depuis le début de l’invasion russe. Les fonds propres des entreprises sont souvent mobilisés pour la simple survie opérationnelle — maintenir les serveurs, payer les salaires, relocaliser les équipes quand les bureaux sont détruits. Le gouvernement ukrainien, malgré toute sa bonne volonté, fait face à des priorités budgétaires évidentes : défense, reconstruction, aide humanitaire. Reste l’Union européenne elle-même, qui pourrait — devrait ? — accompagner financièrement les pays candidats dans cette transition réglementaire. Mais pour l’instant, les programmes d’aide restent limités et fragmentés.
Vous voulez que je vous dise ce qui me révolte le plus ? C’est l’asymétrie. Une startup ukrainienne qui veut vendre son logiciel d’IA à une entreprise de Lyon doit se conformer aux mêmes règles qu’une multinationale californienne avec des milliards en banque. Les mêmes formulaires. Les mêmes audits. Les mêmes certifications. Sauf que la multinationale a une armée d’avocats et de consultants. La startup ukrainienne a trois développeurs qui dorment quatre heures par nuit. On me dira que c’est le prix de l’accès au marché unique. Peut-être. Mais quand je vois ces entrepreneurs ukrainiens qui se battent pour exporter leurs innovations — alors que leur pays est en guerre — je me dis qu’on pourrait au moins leur tendre la main un peu plus fort. Un fonds d’aide à la conformité pour les PME des pays candidats, ça serait si compliqué ?
Le défi de l’expertise
L’argent n’est pas le seul problème. Il faut aussi des compétences. Et pas n’importe lesquelles. Des experts capables de comprendre les subtilités du règlement européen, de l’appliquer concrètement aux produits développés, de dialoguer avec les autorités de surveillance. Ces profils sont rares. Même en Europe de l’Ouest, les entreprises se les arrachent. En Ukraine, ils sont encore plus précieux — et souvent tentés par des offres à l’étranger. La fuite des cerveaux, déjà préoccupante avant la guerre, s’est accélérée depuis 2022. Comment demander à des spécialistes de rester dans un pays bombardé quand ils peuvent gagner trois fois plus à Varsovie, Berlin ou Londres ?
Le ministère de la Transformation numérique tente de combler ce déficit par la formation. Les ateliers HUDERIA sont un bon début. Mais former des experts prend du temps — un luxe que l’Ukraine n’a pas. Une solution émergente : les partenariats avec des cabinets de conseil européens, des universités, des organisations internationales. L’OCDE a documenté la feuille de route ukrainienne pour la régulation de l’IA et fournit un accompagnement technique. Le Conseil de l’Europe partage ses méthodologies. Mais ces collaborations restent ponctuelles. Il faudrait un programme structuré, massif, à la hauteur de l’enjeu. Pour l’instant, on en est loin.
Les opportunités cachées : transformer la contrainte en avantage
La confiance comme monnaie d’échange
Paradoxalement, cette contrainte réglementaire pourrait devenir un avantage compétitif. Dans un monde où les scandales liés à l’IA se multiplient — biais algorithmiques, violations de la vie privée, manipulations électorales —, la confiance devient une denrée rare. Une entreprise ukrainienne capable de démontrer sa conformité au règlement européen le plus strict du monde envoie un signal puissant : « Nos produits sont fiables. Nos pratiques sont transparentes. Vous pouvez nous faire confiance. » C’est exactement ce que souligne Stanislav Yukhymenko quand il parle de « construire la confiance dans les technologies ukrainiennes à l’international ». La conformité n’est pas qu’un coût. C’est un investissement dans la réputation.
Cette logique est d’autant plus pertinente que l’Ukraine souffre encore d’un déficit d’image dans certains cercles. Les préjugés ont la vie dure. Pour certains acheteurs occidentaux, « technologie ukrainienne » rime encore avec « risque », « instabilité », « incertitude ». La certification EU AI Act pourrait changer la donne. Elle fonctionnerait comme un label de qualité, un sceau d’approbation européen qui rassure les clients les plus frileux. « Oui, cette IA vient d’Ukraine. Mais elle respecte les mêmes standards que celles de Munich ou de Stockholm. » C’est un argument de vente redoutable.
Attirer les investissements
L’autre opportunité concerne les investissements. Les fonds d’investissement, notamment européens, sont de plus en plus sensibles aux critères ESG (environnementaux, sociaux et de gouvernance) et à la conformité réglementaire. Une startup ukrainienne qui peut prouver qu’elle est alignée sur l’EU AI Act devient soudainement plus attractive. Les due diligences sont plus simples. Les risques juridiques sont mieux maîtrisés. La valorisation s’en ressent positivement. Pour un écosystème en quête de capitaux, c’est un levier non négligeable. Le Code de conduite signé par plus de 14 entreprises ukrainiennes est un premier pas dans cette direction : démontrer un engagement volontaire vers des pratiques responsables, avant même que la loi ne l’exige.
Il y a aussi la question de l’accès aux marchés au-delà de l’Europe. Le règlement européen inspire déjà des législations similaires dans d’autres régions du monde. Le Canada, l’Australie, le Brésil, la Corée du Sud développent leurs propres cadres, souvent calqués sur le modèle européen. Une entreprise ukrainienne conforme à l’EU AI Act sera donc mieux positionnée pour conquérir ces marchés également. C’est l’effet domino vertueux de la conformité : un investissement initial qui ouvre des portes multiples.
Je vais vous confier quelque chose. Quand j’ai commencé à creuser ce sujet, je m’attendais à écrire un article sombre, pessimiste, centré sur les obstacles insurmontables. Et puis, j’ai découvert ces 14 entreprises qui ont signé le Code de conduite sans y être obligées. J’ai lu les témoignages de développeurs qui intègrent déjà les principes du règlement européen dans leurs produits. J’ai vu cette énergie, cette volonté farouche de ne pas être laissés pour compte. Et je me suis dit : ces gens-là ne vont pas juste survivre. Ils vont nous surprendre. L’histoire de l’Ukraine, c’est ça : prendre les obstacles qu’on lui jette et les transformer en tremplins. La réglementation européenne de l’IA ? Ce sera pareil.
Le rôle crucial de l'Union européenne
Accompagner plutôt qu’imposer
L’Union européenne a une responsabilité particulière dans cette histoire. L’Ukraine n’est pas un pays tiers ordinaire. C’est un candidat à l’adhésion, un partenaire stratégique, un pays qui se bat — littéralement — pour défendre les valeurs européennes. Imposer des règles sans fournir les moyens de les respecter serait non seulement contre-productif, mais moralement discutable. La Commission européenne a promis de publier des lignes directrices tout au long de 2026 : sur la classification des systèmes à haut risque, sur les exigences de transparence, sur le signalement des incidents graves. Ces documents aideront. Mais ils ne suffiront pas.
Ce dont l’Ukraine a besoin, c’est d’un accompagnement structurel. Des programmes de financement dédiés à la conformité réglementaire des PME technologiques des pays candidats. Des jumelages institutionnels entre autorités de surveillance européennes et ukrainiennes. Des formations massives financées par des fonds européens. Une période de transition adaptée à la réalité d’un pays en guerre. L’article 57 de l’EU AI Act prévoit que chaque État membre établisse au moins un bac à sable réglementaire national d’ici le 2 août 2026. Pourquoi ne pas étendre cette obligation aux pays candidats, avec un financement européen ? Ce serait un signal fort de solidarité.
Une structure institutionnelle à créer
L’Ukraine devra également mettre en place une architecture institutionnelle à deux niveaux, miroir de celle de l’UE : des autorités nationales pour la supervision et l’application du règlement. C’est un chantier colossal. Il faut recruter des experts, former des inspecteurs, créer des procédures, acquérir des outils techniques. Tout cela dans un contexte où l’administration ukrainienne est déjà surchargée par les défis de la guerre et de la reconstruction. Le ministère de la Transformation numérique fait ce qu’il peut, mais il aura besoin de renforts. L’Union européenne pourrait détacher des fonctionnaires expérimentés pour accompagner la montée en compétence. Elle pourrait financer la création d’une agence nationale de l’IA disposant des moyens de sa mission.
La question du calendrier est également cruciale. Bruxelles a reconnu que le calendrier initial était « trop ambitieux ». Cette reconnaissance devrait se traduire par une flexibilité pour les pays candidats. Non pas une exemption — ce serait créer une concurrence déloyale — mais un accompagnement renforcé avec des échéances intermédiaires réalistes. L’Ukraine a montré sa bonne volonté avec le Livre blanc, le Code de conduite, les ateliers HUDERIA. Il est temps que l’Europe lui rende la pareille.
Les prochains mois seront décisifs
Un calendrier serré
Récapitulons. Février 2026 : date limite pour que la Commission fournisse des lignes directrices sur l’implémentation pratique de l’article 6, incluant les plans de surveillance post-commercialisation. Août 2026 : entrée en vigueur complète des exigences pour les systèmes à haut risque de l’Annexe III — biométrie, infrastructures critiques, éducation, emploi, forces de l’ordre, migration, justice, processus démocratiques. Les obligations de transparence de l’article 50 deviennent exécutoires. Chaque État membre doit avoir établi son bac à sable réglementaire national. Pour l’Ukraine, cela signifie six mois pour finaliser sa préparation. Six mois, c’est à la fois beaucoup et très peu.
Les entreprises ukrainiennes qui veulent être prêtes doivent agir maintenant. Pas demain. Maintenant. Première étape : classifier leurs systèmes selon l’échelle de risque du règlement. Deuxième étape : identifier les écarts entre leurs pratiques actuelles et les exigences applicables. Troisième étape : établir un plan d’action priorisé avec des ressources allouées. Quatrième étape : commencer la mise en conformité par les éléments les plus critiques. Cinquième étape : documenter chaque action pour constituer les preuves de conformité. Sixième étape : tester les systèmes de surveillance et de signalement. C’est un marathon, pas un sprint. Mais le départ a déjà été donné.
En terminant cet article, je pense à Olena. Je ne la connais pas personnellement. C’est un prénom que j’invente pour incarner toutes ces développeuses et développeurs ukrainiens qui liront peut-être ces lignes. Olena a peut-être passé la nuit à coder. Elle a peut-être été réveillée par une alerte aérienne. Elle a peut-être perdu un proche à la guerre. Et demain matin, elle retournera à son écran pour travailler sur un algorithme qui, si tout se passe bien, finira dans une entreprise européenne. Elle ne demande pas de pitié. Elle ne demande pas de passe-droit. Elle demande juste une chance équitable. Une main tendue. Un accompagnement à la hauteur des défis. L’Europe lui doit bien ça. L’Europe nous doit bien ça.
L’heure des choix
L’Ukraine est à la croisée des chemins. D’un côté, la tentation du repli : se concentrer sur le marché domestique, reporter la conformité européenne à des jours meilleurs, espérer que les exigences s’assoupliront. C’est une impasse. Le marché ukrainien de l’IA est trop petit pour soutenir 240 entreprises. Sans accès aux marchés internationaux, le secteur s’étiolera. De l’autre côté, l’ambition : embrasser la contrainte réglementaire, en faire un atout, prouver au monde que l’IA ukrainienne peut rivaliser avec les meilleures. C’est un pari. Un pari difficile. Mais c’est le seul qui offre un avenir.
Le 2 août 2026 approche. Chaque jour compte. Chaque décision compte. Chaque euro investi dans la conformité est un euro investi dans l’avenir. L’Ukraine a prouvé, depuis 2022, qu’elle savait relever les défis impossibles. La réglementation européenne de l’IA est un défi de plus. Un défi différent — sans bombes, sans tranchées — mais un défi quand même. Et si l’histoire récente nous a appris quelque chose, c’est que sous-estimer la détermination ukrainienne est toujours une erreur.
Encadré de transparence du chroniqueur
Positionnement éditorial
Je ne suis pas journaliste, mais chroniqueur et analyste. Mon expertise réside dans l’observation et l’analyse des dynamiques géopolitiques, économiques et technologiques qui façonnent notre monde. Mon travail consiste à décortiquer les stratégies politiques, à comprendre les mouvements économiques globaux, à contextualiser les décisions des acteurs internationaux et à proposer des perspectives analytiques sur les transformations qui redéfinissent nos sociétés.
Je ne prétends pas à l’objectivité froide du journalisme traditionnel, qui se limite au rapport factuel. Je prétends à la lucidité analytique, à l’interprétation rigoureuse, à la compréhension approfondie des enjeux complexes qui nous concernent tous. Mon rôle est de donner du sens aux faits, de les situer dans leur contexte historique et stratégique, et d’offrir une lecture critique des événements.
Méthodologie et sources
Ce texte respecte la distinction fondamentale entre faits vérifiés et analyses interprétatives. Les informations factuelles présentées proviennent exclusivement de sources primaires et secondaires vérifiables.
Sources primaires : communiqués officiels du gouvernement ukrainien et des institutions européennes, texte officiel du Règlement européen sur l’intelligence artificielle (2024/1689), Livre blanc du ministère ukrainien de la Transformation numérique, déclarations du Sommet de l’IA de Paris 2025.
Sources secondaires : European Digital Strategy, OCDE AI Policy Observatory, analyses d’institutions de recherche établies, médias spécialisés dans la réglementation technologique.
Nature de l’analyse
Les analyses, interprétations et perspectives présentées dans les sections analytiques de cet article constituent une synthèse critique et contextuelle basée sur les informations disponibles, les tendances observées et les commentaires d’experts cités dans les sources consultées.
Mon rôle est d’interpréter ces faits, de les contextualiser dans le cadre des dynamiques géopolitiques et technologiques contemporaines, et de leur donner un sens cohérent. Ces analyses reflètent une expertise développée à travers l’observation continue des affaires européennes et la compréhension des mécanismes réglementaires qui façonnent l’économie numérique.
Toute évolution ultérieure de la situation pourrait naturellement modifier les perspectives présentées ici. Cet article sera mis à jour si de nouvelles informations officielles majeures sont publiées.
Sources
Sources primaires
European Integration – Ukraine must prepare for EU AI regulation requirements – 26 janvier 2026
European Commission – EU AI Act Official Text (Regulation 2024/1689) – Août 2024
Ministry of Digital Transformation of Ukraine – White Paper on AI Regulation – 2024
Cabinet of Ministers of Ukraine – Policy on AI in Priority Economic Spheres – 13 avril 2024
Sources secondaires
European Digital Strategy – AI Act Implementation Guidelines – Janvier 2026
OECD AI Policy Observatory – Roadmap for AI Regulation in Ukraine – 2025
Artificial Intelligence Act EU – Implementation Timeline and National Plans – Janvier 2026
Ukrainian Law Firms – AI Regulation Overview – Janvier 2026
Montreal AI Ethics Institute – Review of Ukraine’s AI Whitepaper – 2024
Ce contenu a été créé avec l'aide de l'IA.