L'article 111 du Règlement (UE) 2024/1689 établit les dispositions transitoires permettant aux systèmes d'intelligence artificielle déjà mis sur le marché ou en service avant l'application complète du règlement de bénéficier de délais d'adaptation pour se conformer aux nouvelles exigences. Cette disposition organise une transition progressive et réaliste de l'ancien cadre réglementaire vers les obligations de l'AI Act, évitant une rupture brutale qui pourrait paralyser l'écosystème européen de l'IA.

L'article 111 reflète la reconnaissance par le législateur européen que la conformité à un règlement aussi ambitieux et novateur que l'AI Act nécessite du temps : les fournisseurs doivent réviser leurs systèmes existants, adapter leurs processus, réaliser des évaluations de conformité, et parfois refondre substantiellement leurs technologies. Imposer une conformité immédiate serait irréaliste et disproportionné, d'où l'établissement de périodes de transition substantielles.

Les dispositions transitoires distinguent principalement deux catégories de systèmes : les systèmes informatiques de grande échelle utilisés par les autorités publiques (notamment les systèmes biométriques et les bases de données d'identification), qui bénéficient d'un délai jusqu'au 31 décembre 2030, et les modèles d'IA à usage général mis sur le marché avant le 2 août 2025, qui disposent d'un délai jusqu'au 2 août 2027. Ces périodes longues reflètent la complexité technique et opérationnelle de la mise en conformité de systèmes existants déjà largement déployés.

Texte officiel de l'article 111 de l'AI Act

L'article 111 de l'AI Act dispose (extraits principaux) :

Dispositions transitoires

« 1. Le présent règlement ne s'applique pas aux systèmes d'IA qui ont été mis sur le marché ou mis en service avant le 2 août 2026, à moins que le remplacement ou une modification substantielle de ces systèmes n'entraîne une modification importante de leur conception ou de leur finalité après cette date.

2. Les systèmes d'IA à haut risque qui sont des composants de systèmes informatiques de grande échelle établis par des actes juridiques adoptés avant le 2 août 2024 aux fins de l'article 6, paragraphe 2, continuent d'être conformes à ces actes juridiques jusqu'au 31 décembre 2030.

Les systèmes d'IA à haut risque visés à l'annexe III, points 1, 6 et 7, qui ont été mis sur le marché ou mis en service avant le 2 août 2027 et qui sont des composants de systèmes informatiques de grande échelle, peuvent être utilisés sans être conformes au présent règlement jusqu'au 31 décembre 2030.

3. Les modèles d'IA à usage général qui ont été mis sur le marché avant le 2 août 2025 restent régis par le cadre législatif applicable avant cette date jusqu'au 2 août 2027. »

Cet article établit donc des périodes de transition substantielles : exemption générale pour les systèmes mis sur le marché avant août 2026 (sauf modification), délai jusqu'à fin 2030 pour les systèmes IT de grande échelle des autorités publiques, et délai jusqu'à août 2027 pour les modèles GPAI existants.

Analyse juridique de l'article 111

Exemption générale pour les systèmes existants

L'article 111, paragraphe 1, établit une exemption générale : le règlement ne s'applique pas aux systèmes d'IA mis sur le marché ou en service avant le 2 août 2026, sauf en cas de remplacement ou modification substantielle entraînant une modification importante de leur conception ou finalité. Cette disposition garantit la sécurité juridique des opérateurs qui ont développé et déployé des systèmes conformément au cadre réglementaire antérieur : ils ne sont pas contraints de les mettre immédiatement en conformité avec les nouvelles exigences de l'AI Act.

Toutefois, cette exemption cesse en cas de « modification substantielle » entraînant une « modification importante de leur conception ou finalité ». Cette exception vise à éviter que les fournisseurs ne maintiennent indéfiniment en l'état des systèmes obsolètes pour échapper aux nouvelles obligations. Si un système existant fait l'objet d'une refonte majeure, il doit alors se conformer au règlement comme s'il s'agissait d'un nouveau système.

Transition prolongée pour les systèmes IT de grande échelle des autorités

L'article 111, paragraphe 2, prévoit des délais de transition exceptionnellement longs pour les systèmes informatiques de grande échelle établis par les autorités publiques, notamment dans les domaines de l'identification biométrique, de la migration, des contrôles frontaliers, et de la justice (Annexe III, points 1, 6 et 7).

Ces systèmes peuvent continuer d'être utilisés sans conformité au règlement jusqu'au 31 décembre 2030. Ce délai de plus de six ans après l'entrée en vigueur du règlement reconnaît la complexité technique et opérationnelle exceptionnelle de ces systèmes : il s'agit souvent d'infrastructures critiques utilisées quotidiennement par les services de police, de justice, et de contrôle des frontières, impliquant des dizaines voire des centaines de millions de données, et dont la migration ou l'adaptation nécessite des investissements massifs et des années de travail.

Transition pour les modèles GPAI existants

L'article 111, paragraphe 3, prévoit que les modèles d'IA à usage général mis sur le marché avant le 2 août 2025 restent régis par le cadre législatif antérieur jusqu'au 2 août 2027. Cette période de transition de deux ans reconnaît que les modèles GPAI existants (GPT-3.5, GPT-4, Claude 2, Llama 2, etc.) ont été développés sans connaissance des obligations spécifiques de l'AI Act et que leur mise en conformité nécessite des adaptations substantielles en matière de documentation, de transparence, et de gestion des risques.

Objectifs des dispositions transitoires

Les dispositions transitoires poursuivent plusieurs objectifs essentiels. Elles visent d'abord à garantir la sécurité juridique : les opérateurs ne doivent pas craindre de se voir imposer rétroactivement des obligations qu'ils ne pouvaient anticiper. Elles permettent ensuite une transition opérationnelle réaliste : la mise en conformité de systèmes existants complexes nécessite du temps, des ressources et des compétences. Elles évitent également les perturbations de services critiques : pour les systèmes IT de grande échelle utilisés par les autorités, une migration précipitée pourrait compromettre la sécurité publique. Enfin, elles favorisent une adaptation progressive plutôt qu'une rupture brutale de l'écosystème européen de l'IA.

Exemples concrets d'application

Exemple concret d'application de l'article 111 de l'AI Act

Cas 1 : Système RH existant - exemption transitoire

Une entreprise française a mis en service en janvier 2025 un système d'IA de présélection de candidatures pour ses recrutements (système à haut risque selon l'Annexe III). Ce système a été développé conformément aux réglementations alors en vigueur (RGPD, droit du travail). Le 2 août 2026, l'AI Act entre en application complète.

Grâce à l'article 111, paragraphe 1, ce système bénéficie de l'exemption transitoire : il n'est pas immédiatement soumis aux nouvelles obligations de l'AI Act. L'entreprise peut continuer à l'utiliser sans modification tant qu'elle ne procède pas à un « remplacement ou modification substantielle » entraînant une modification importante de sa conception ou finalité.

En 2029, l'entreprise décide de procéder à une refonte majeure du système, utilisant de nouveaux algorithmes de machine learning et élargissant son usage à l'évaluation des performances des employés (modification importante de finalité). Cette refonte fait perdre le bénéfice de l'exemption transitoire : le système doit désormais se conformer intégralement à l'AI Act comme s'il s'agissait d'un nouveau système (évaluation de conformité, documentation technique, etc.).

Cas 2 : Système biométrique Schengen - transition prolongée jusqu'à 2030

Le Système d'Information Schengen (SIS), système informatique de grande échelle utilisé par les autorités de police et de contrôle des frontières des États membres pour échanger des informations sur les personnes et objets recherchés, intègre des composants d'identification biométrique (reconnaissance faciale) déployés en 2023.

Bien que ce système relève de l'Annexe III, point 1 (systèmes d'identification biométrique), et constitue un système à haut risque devant normalement se conformer à l'AI Act dès le 2 août 2026, l'article 111, paragraphe 2, lui accorde une exemption transitoire prolongée jusqu'au 31 décembre 2030.

Cette exemption reconnaît que le SIS est un système critique pour la sécurité des frontières européennes, impliquant des millions de fiches signalétiques, utilisé quotidiennement par des dizaines de milliers d'agents, et dont la mise en conformité nécessite une coopération entre 27 États membres et des investissements techniques massifs.

Entre 2026 et 2030, les autorités nationales compétentes et l'agence eu-LISA (gestionnaire du SIS) travaillent progressivement à la mise en conformité du système, réalisant des audits, adaptant les procédures, renforçant la surveillance humaine, et améliorant la documentation technique. Au 1er janvier 2031, le système doit être pleinement conforme aux exigences de l'AI Act.

Cas 3 : Modèle GPT-4 - transition GPAI

OpenAI a mis sur le marché GPT-4 en mars 2023, bien avant l'entrée en vigueur de l'AI Act le 1er août 2024 et l'application des dispositions GPAI le 2 août 2025. GPT-4 constitue un modèle d'IA à usage général présentant des risques systémiques, normalement soumis aux obligations strictes des articles 53 et suivants.

Grâce à l'article 111, paragraphe 3, GPT-4 bénéficie d'une exemption transitoire jusqu'au 2 août 2027. OpenAI n'est pas immédiatement tenu de mettre GPT-4 en conformité avec toutes les nouvelles exigences de l'AI Act (documentation technique exhaustive, tests adverses conformes aux nouvelles normes, etc.).

Entre août 2025 et août 2027, OpenAI dispose de deux ans pour adapter progressivement GPT-4 aux nouvelles obligations. En pratique, OpenAI profite de cette période pour améliorer la documentation technique du modèle, renforcer les tests adverses, mettre en place des mécanismes de notification d'incidents conformes au règlement, et préparer le rapport de conformité exigé.

Le 2 août 2027, GPT-4 doit être pleinement conforme aux exigences de l'AI Act. À cette date, si OpenAI ne peut démontrer la conformité, le Bureau de l'IA peut ordonner des mesures correctives voire suspendre temporairement la commercialisation du modèle en Europe jusqu'à mise en conformité.

Articulation avec les autres dispositions de l'AI Act

L'article 111 s'articule étroitement avec l'article 113 qui définit le calendrier général d'entrée en vigueur et d'application du règlement. Alors que l'article 113 fixe les dates d'application des différentes dispositions, l'article 111 prévoit des exemptions et délais spécifiques pour les systèmes existants, assurant une transition réaliste entre l'ancien et le nouveau cadre réglementaire.

L'article 111 doit également être lu en cohérence avec les articles 6 et l'Annexe III qui définissent les systèmes à haut risque : les exemptions transitoires concernent précisément ces systèmes qui, s'ils étaient mis sur le marché aujourd'hui, devraient respecter les obligations strictes du Titre III.

Enfin, l'article 111 s'articule avec l'article 112 qui prévoit les modifications d'autres actes juridiques de l'Union pour assurer la cohérence du cadre réglementaire européen en matière d'IA.

Implications pratiques pour les organisations

Pour les organisations qui ont développé ou déployé des systèmes d'IA avant l'application complète de l'AI Act (2 août 2026), l'article 111 offre un répit bienvenu permettant de planifier et d'organiser la mise en conformité sans urgence extrême. Les systèmes existants peuvent généralement continuer à être utilisés pendant la période de transition, à condition de ne pas faire l'objet de modifications substantielles.

Toutefois, les organisations ne doivent pas interpréter ces exemptions transitoires comme un permis d'inaction. Anticiper la mise en conformité dès maintenant présente plusieurs avantages : éviter la précipitation et les erreurs lorsque les délais de transition expireront, bénéficier d'un avantage compétitif en démontrant précocement la conformité, se préparer aux attentes croissantes des clients et partenaires en matière d'IA responsable, et réduire les risques réputationnels et juridiques liés à l'utilisation de systèmes non conformes.

Les organisations développant de nouveaux systèmes d'IA doivent être particulièrement vigilantes : ces nouveaux systèmes ne bénéficient d'aucune exemption transitoire et doivent être conformes dès leur mise sur le marché ou leur mise en service. Toute modification substantielle d'un système existant le transforme en « nouveau système » au regard du règlement, faisant perdre le bénéfice de l'exemption transitoire.

L'article 111 de l'AI Act établit un cadre de dispositions transitoires permettant une adaptation progressive et réaliste des systèmes d'intelligence artificielle existants aux nouvelles exigences du règlement européen. En prévoyant des exemptions et des délais substantiels - jusqu'à fin 2030 pour les systèmes IT de grande échelle des autorités publiques, jusqu'à août 2027 pour les modèles GPAI existants, et exemption générale pour les systèmes mis sur le marché avant août 2026 - cet article évite une rupture brutale qui aurait pu paralyser l'écosystème européen de l'IA.

Ces dispositions transitoires reflètent le pragmatisme du législateur européen qui, tout en affirmant des ambitions élevées en matière d'IA responsable et sûre, reconnaît que la transformation d'un secteur technologique en pleine expansion nécessite du temps, des ressources et une approche progressive. Les délais accordés permettent aux fournisseurs, déployeurs et autorités publiques de planifier et d'organiser méthodiquement leur mise en conformité sans compromettre la continuité de leurs activités ou services.

Pour les organisations, l'article 111 constitue à la fois une opportunité et une responsabilité. L'opportunité de bénéficier de délais raisonnables pour adapter les systèmes existants, mais également la responsabilité d'utiliser ce temps à bon escient pour garantir une conformité effective aux échéances prévues. Les organisations avisées ne considéreront pas les exemptions transitoires comme des dispenses définitives, mais comme des périodes de préparation précieuses pour anticiper les exigences futures et construire dès maintenant une culture d'IA responsable conforme aux standards européens de protection des droits fondamentaux et de sécurité.