Skip to content
L’Ukraine face au tsunami réglementaire de l’IA : se préparer ou disparaître du marché européen
Crédit: Adobe Stock

Une approche fondée sur le risque

Le règlement 2024/1689 — c’est son petit nom officiel — est entré en vigueur le 1er août 2024. Mais comme toute bonne machine bureaucratique européenne, il s’applique par phases. Les pratiques d’IA interdites et les obligations de littératie en IA sont devenues applicables dès le 2 février 2025. Les règles de gouvernance et les obligations pour les modèles d’IA à usage général (GPAI) depuis le 2 août 2025. Et le gros morceau — les systèmes à haut risque — arrive en août 2026 et août 2027. La Commission européenne a elle-même reconnu que le calendrier initial était « trop ambitieux ». Traduction : même Bruxelles ne savait pas dans quoi elle s’embarquait.

L’architecture du règlement repose sur une logique simple en apparence : plus le risque est élevé, plus les exigences sont strictes. À la base de la pyramide, les systèmes à risque minimal ou nul — comme les filtres anti-spam ou les jeux vidéo utilisant l’IA — peuvent opérer librement. Un cran au-dessus, les systèmes à risque limité doivent respecter des obligations de transparence : les chatbots doivent révéler leur nature artificielle, les systèmes de reconnaissance émotionnelle nécessitent une notification utilisateur, les deepfakes doivent porter des filigranes lisibles par machine. Et tout en haut, les systèmes à haut risque font face à un arsenal d’exigences qui ferait pâlir le plus zélé des auditeurs. Quant aux pratiques interdites — manipulation subliminale, notation sociale, reconnaissance faciale en temps réel dans l’espace public sauf exceptions — elles sont tout simplement bannies. Point final.

Ce qui attend les entreprises ukrainiennes

Pour une entreprise ukrainienne qui développe des solutions d’IA et qui veut les vendre sur le marché européen, le parcours du combattant commence maintenant. Prenons un exemple concret. Une startup de Kyiv développe un système d’IA pour le recrutement — un domaine classé haut risque par le règlement. Avant de pouvoir proposer son produit à une entreprise française ou allemande, elle devra : mettre en place un système de gestion des risques documenté et mis à jour en continu ; assurer la gouvernance des données utilisées pour l’entraînement, incluant la vérification de leur qualité et de leur représentativité ; produire une documentation technique détaillée permettant aux autorités d’évaluer la conformité ; concevoir le système pour permettre une surveillance humaine effective ; garantir des niveaux appropriés de précision, robustesse et cybersécurité ; s’enregistrer dans la base de données européenne avant la mise sur le marché.

Et ce n’est que le début. Une fois le produit sur le marché, l’entreprise doit maintenir un système de surveillance post-commercialisation, signaler les incidents graves aux autorités compétentes, et se tenir prête à des audits à tout moment. Le non-respect de ces obligations expose à des amendes pouvant atteindre 35 millions d’euros ou 7 % du chiffre d’affaires mondial — le montant le plus élevé étant retenu. Pour une startup ukrainienne, c’est potentiellement un arrêt de mort. Et la question se pose : est-ce que le jeu en vaut la chandelle ? La réponse de Stanislav Yukhymenko, analyste à l’Institut de recherche économique, est sans appel : l’implémentation représente « non seulement la satisfaction d’exigences formelles » mais « une chance de construire la confiance dans les technologies ukrainiennes à l’international et d’attirer des investissements dans le secteur ».

Il y a quelque chose de profondément absurde dans cette situation. D’un côté, on a un pays qui se bat pour sa survie, qui innove malgré les bombes, qui prouve chaque jour que le talent n’a pas de frontières. De l’autre, on a un appareil bureaucratique — aussi nécessaire soit-il — qui impose des règles pensées pour des entreprises en temps de paix, avec des ressources en temps de paix, dans des bureaux qui n’ont jamais connu une alerte aérienne. Je ne dis pas que l’Ukraine devrait être exemptée. Ce serait contre-productif. Mais quand je lis ces exigences de « documentation technique exhaustive » et de « systèmes de gestion de la qualité », je pense à ces développeurs qui codent avec des coupures d’électricité récurrentes. Et je me demande : l’Europe mesure-t-elle vraiment ce qu’elle demande ?

Sources

Sources primaires

European Integration – Ukraine must prepare for EU AI regulation requirements – 26 janvier 2026
European Commission – EU AI Act Official Text (Regulation 2024/1689) – Août 2024
Ministry of Digital Transformation of Ukraine – White Paper on AI Regulation – 2024
Cabinet of Ministers of Ukraine – Policy on AI in Priority Economic Spheres – 13 avril 2024

Sources secondaires

European Digital Strategy – AI Act Implementation Guidelines – Janvier 2026
OECD AI Policy Observatory – Roadmap for AI Regulation in Ukraine – 2025
Artificial Intelligence Act EU – Implementation Timeline and National Plans – Janvier 2026
Ukrainian Law Firms – AI Regulation Overview – Janvier 2026
Montreal AI Ethics Institute – Review of Ukraine’s AI Whitepaper – 2024

Ce contenu a été créé avec l'aide de l'IA.

facebook icon twitter icon linkedin icon
Copié!
Plus de contenu