L'article 113 du Règlement (UE) 2024/1689 constitue la disposition finale et conclusive du règlement européen sur l'intelligence artificielle. Il établit le calendrier d'entrée en vigueur et d'application progressive du règlement, organisant une mise en œuvre échelonnée sur plusieurs années permettant aux différents acteurs de l'écosystème européen de l'IA de s'adapter aux nouvelles obligations selon un calendrier réaliste et proportionné.

L'article 113 distingue clairement l'« entrée en vigueur » (moment où le règlement devient juridiquement existant) de l'« application » (moment où ses dispositions deviennent effectivement contraignantes). Le règlement est entré en vigueur le 1er août 2024, vingt jours après sa publication au Journal officiel de l'Union européenne le 12 juillet 2024, mais ses différentes dispositions s'appliquent selon un calendrier échelonné s'étendant jusqu'au 2 août 2027.

Cette approche progressive reflète le pragmatisme du législateur européen qui, tout en affirmant des ambitions élevées en matière de régulation de l'IA, reconnaît la nécessité de laisser aux entreprises, aux administrations publiques, et aux autorités de surveillance le temps nécessaire pour comprendre les nouvelles règles, adapter leurs systèmes et leurs processus, former leurs équipes, et mettre en place les infrastructures de conformité et de supervision requises. Le calendrier échelonné évite une disruption brutale de l'écosystème européen de l'IA tout en garantissant une mise en conformité progressive et structurée.

Texte officiel de l'article 113 de l'AI Act

L'article 113 de l'AI Act dispose :

Entrée en vigueur et application

« 1. Le présent règlement entre en vigueur le vingtième jour suivant celui de sa publication au Journal officiel de l'Union européenne.

2. Le présent règlement s'applique à compter du 2 août 2026, à l'exception :

a) des chapitres I et II, qui s'appliquent à compter du 2 février 2025 ;

b) de l'article 6, paragraphe 1, et des obligations correspondantes qui s'appliquent à compter du 2 août 2027 ;

c) du titre VI et des articles 78 et 79, qui s'appliquent à compter du 2 août 2025 ;

d) du chapitre V, section 2, et des articles 101 à 110, qui s'appliquent à compter du 2 août 2025 ;

e) de l'article 97, qui s'applique à compter du 1er août 2024.

3. Le présent règlement est obligatoire dans tous ses éléments et directement applicable dans tout État membre. »

Cet article établit donc un calendrier d'application échelonné : 1er août 2024 pour l'article 97 (délégation), 2 février 2025 pour les pratiques interdites, 2 août 2025 pour la gouvernance et les modèles GPAI, 2 août 2026 pour l'application générale, et 2 août 2027 pour certains systèmes à haut risque spécifiques.

Analyse juridique de l'article 113

Entrée en vigueur : 1er août 2024

L'article 113, paragraphe 1, prévoit que le règlement entre en vigueur « le vingtième jour suivant celui de sa publication au Journal officiel de l'Union européenne ». Le règlement ayant été publié au JOUE le 12 juillet 2024, il est entré en vigueur le 1er août 2024. À cette date, le règlement devient juridiquement existant et obligatoire, mais cela ne signifie pas que toutes ses dispositions deviennent immédiatement applicables.

L'entrée en vigueur marque principalement le début de la période de préparation et d'adaptation : les États membres commencent à désigner leurs autorités de surveillance, les institutions européennes mettent en place le Bureau de l'IA et le Comité européen de l'IA, les fournisseurs et déployeurs de systèmes d'IA commencent à analyser leurs obligations et à planifier leur mise en conformité.

Application échelonnée : quatre dates clés

L'article 113, paragraphe 2, organise l'application progressive du règlement selon quatre dates principales. Le 2 février 2025 (six mois après l'entrée en vigueur) marque l'application des Chapitres I et II, notamment l'article 5 qui interdit les pratiques d'IA les plus dangereuses : systèmes de notation sociale par les autorités publiques, techniques de manipulation subliminale, exploitation des vulnérabilités de groupes spécifiques, certaines formes d'identification biométrique en temps réel dans les espaces publics. Cette application précoce des interdictions reflète l'urgence de protéger les droits fondamentaux contre les pratiques les plus attentatoires.

Le 2 août 2025 (un an après l'entrée en vigueur) voit l'application de plusieurs ensembles de dispositions essentielles : le Titre VI relatif à la gouvernance (articles 56 à 84), notamment les dispositions créant et organisant le Bureau de l'IA, le Comité européen de l'IA, les autorités nationales de surveillance, et les mécanismes de coopération entre elles. Le Chapitre V, Section 2 (articles 53 à 56) relatif aux modèles d'IA à usage général (GPAI), imposant aux fournisseurs de ces modèles des obligations de transparence, de documentation, et de gestion des risques systémiques. Les articles 101 à 110 relatifs aux sanctions, permettant aux autorités de surveillance d'imposer des amendes en cas de violation du règlement.

Le 2 août 2026 (deux ans après l'entrée en vigueur) constitue la date d'application générale du règlement : l'ensemble des autres dispositions deviennent applicables, notamment les obligations des fournisseurs et déployeurs de systèmes à haut risque (Titre III), les obligations de transparence pour certains systèmes d'IA (article 52), les mécanismes de bacs à sable réglementaires (article 57), et les mesures de soutien aux PME et startups (article 77).

Le 2 août 2027 (trois ans après l'entrée en vigueur) marque l'application de l'article 6, paragraphe 1, et des obligations correspondantes pour certaines catégories spécifiques de systèmes à haut risque dont la complexité justifie un délai supplémentaire d'adaptation.

Application directe dans tous les États membres

L'article 113, paragraphe 3, affirme que « le présent règlement est obligatoire dans tous ses éléments et directement applicable dans tout État membre ». Cette formule standard conclut tous les règlements européens et signifie que l'AI Act crée directement des droits et obligations pour les personnes physiques et morales dans les 27 États membres, sans nécessiter de transposition nationale (contrairement aux directives).

Cette applicabilité directe garantit l'harmonisation complète des règles relatives à l'IA dans l'ensemble de l'Union européenne : un même système d'IA est soumis aux mêmes règles qu'il soit développé ou déployé en France, en Allemagne, en Espagne, ou dans tout autre État membre. Cette harmonisation facilite le fonctionnement du marché intérieur et élimine les obstacles réglementaires à la libre circulation des systèmes d'IA entre États membres.

Rationnalité du calendrier échelonné

Le calendrier échelonné sur trois ans reflète plusieurs considérations pragmatiques. Les pratiques interdites (article 5) s'appliquent en premier (février 2025) car elles ne nécessitent pas de mise en conformité technique complexe : il suffit de cesser de développer ou d'utiliser ces pratiques. Leur interdiction protège immédiatement les droits fondamentaux les plus essentiels.

La gouvernance et les sanctions s'appliquent ensuite (août 2025) car leur effectivité est une condition préalable à l'application des obligations substantielles : il faut que les autorités de surveillance soient opérationnelles et puissent sanctionner les violations avant d'imposer massivement les obligations aux opérateurs.

Les obligations pour les systèmes à haut risque s'appliquent en dernier (août 2026-2027) car elles nécessitent des adaptations techniques et organisationnelles complexes : révision des algorithmes, amélioration de la qualité des données, mise en place de systèmes de gestion des risques, réalisation d'évaluations de conformité, formation des équipes. Deux à trois ans constituent un délai raisonnable pour ces transformations substantielles.

Exemples concrets d'application

Exemple concret d'application de l'article 113 de l'AI Act

Calendrier de mise en conformité d'une entreprise européenne d'IA

Une entreprise française développe plusieurs types de systèmes d'intelligence artificielle : un système de notation sociale des employés basé sur leur comportement (analyse des emails, présence au bureau, participation aux réunions), un grand modèle de langage destiné à être intégré dans diverses applications clients, et un système de recommandation de produits pour sites e-commerce (non haut risque).

Juillet 2024 - Publication et préparation :

Le 12 juillet 2024, l'AI Act est publié au Journal officiel de l'Union européenne. L'entreprise commence immédiatement son analyse de conformité :
- Constitution d'une équipe de projet AI Act (juristes, experts techniques, DPO)
- Formation de l'ensemble des équipes au nouveau règlement
- Cartographie complète de tous les systèmes d'IA développés ou utilisés
- Classification préliminaire selon les catégories du règlement (interdit, haut risque, GPAI, autres)

1er août 2024 - Entrée en vigueur :

Le règlement entre en vigueur. L'entreprise intensifie sa préparation :
- Analyse juridique détaillée des obligations applicables à chaque système
- Identification des écarts entre l'état actuel et les exigences futures
- Élaboration d'un plan de mise en conformité échelonné selon les dates d'application
- Budgétisation des investissements nécessaires (outils, formations, audits, documentation)

2 février 2025 - Application des pratiques interdites (Chapitres I-II, article 5) :

Les interdictions de l'article 5 deviennent applicables. L'entreprise réalise avec inquiétude que son système de notation sociale des employés relève manifestement de l'article 5, paragraphe 1, point c : « systèmes d'IA qui sont utilisés par les autorités publiques ou pour le compte de celles-ci aux fins d'évaluer ou de classer la fiabilité des personnes physiques [...] sur la base de leur comportement social ou de caractéristiques personnelles ou de leur personnalité [...] ». Bien que l'entreprise soit privée, le système évalue et classe les employés sur la base de leur comportement, créant un risque juridique majeur.

Action immédiate (février 2025) :
- Suspension immédiate du système de notation sociale
- Communication transparente aux employés sur la cessation de cette pratique
- Suppression de toutes les données de notation accumulées
- Réévaluation complète de tous les autres systèmes RH pour vérifier qu'aucun ne relève des pratiques interdites

Cette décision est difficile car l'entreprise avait investi significativement dans ce système, mais le risque de sanctions (jusqu'à 35M€ ou 7% du CA mondial selon l'article 99) et de dommages réputationnels justifie largement l'abandon du projet.

2 août 2025 - Application gouvernance, GPAI, sanctions :

Trois ensembles de dispositions deviennent applicables :

1. Gouvernance (Titre VI) :
Les autorités nationales de surveillance deviennent opérationnelles. L'entreprise :
- Identifie l'autorité de surveillance française compétente
- Établit un canal de communication avec cette autorité
- Prépare les procédures de notification d'incidents graves

2. Modèles GPAI (Chapitre V, Section 2) :
Le grand modèle de langage de l'entreprise devient soumis aux obligations spécifiques des modèles à usage général. L'entreprise doit :
- Élaborer une documentation technique exhaustive du modèle (architecture, données d'entraînement, capacités, limites)
- Mettre en place un système de gestion des risques adapté
- Si le modèle présente des risques systémiques : réaliser des tests adverses approfondis
- Établir des procédures de notification d'incidents graves au Bureau de l'IA
- Fournir des informations transparentes aux clients intégrant le modèle dans leurs applications

Action (août 2025) :
- Recrutement d'experts en sécurité IA pour les tests adverses
- Rédaction de la documentation technique complète (6 mois de travail)
- Mise en place d'une cellule de veille sur les incidents et anomalies
- Engagement de consultants juridiques spécialisés pour vérifier la conformité

3. Sanctions (articles 101-110) :
Les autorités peuvent désormais imposer des amendes. L'entreprise réalise que la non-conformité n'est plus théorique mais peut avoir des conséquences financières majeures. Cela renforce l'urgence et la priorité du projet de conformité.

2 août 2026 - Application générale du règlement :

L'ensemble des obligations deviennent applicables. Pour le système de recommandation e-commerce (non haut risque), l'entreprise doit :
- Vérifier les obligations de transparence (article 52) : informer les utilisateurs qu'ils interagissent avec un système d'IA
- S'assurer du respect du RGPD et des principes généraux de l'AI Act (loyauté, non-discrimination, sécurité)
- Documenter le système même s'il n'est pas à haut risque (bonne pratique et préparation à d'éventuels contrôles)

Action (août 2026) :
- Ajout de mentions de transparence sur tous les sites clients utilisant le système
- Audit de conformité RGPD + AI Act par un auditeur externe
- Mise en place d'un registre interne de tous les systèmes d'IA (même non obligatoire, utile pour la gouvernance)

2 août 2027 - Application article 6, paragraphe 1 :

Les dernières catégories de systèmes à haut risque deviennent soumises. L'entreprise vérifie qu'aucun de ses systèmes n'entre dans ces catégories tardives. Si c'était le cas, elle disposerait d'un an supplémentaire (par rapport à août 2026) pour finaliser la mise en conformité.

Bilan (fin 2027) :

Trois ans après l'entrée en vigueur, l'entreprise est pleinement conforme :
- Abandon du système de notation sociale (pratique interdite)
- Modèle GPAI conforme aux obligations spécifiques
- Système de recommandation transparent et documenté
- Équipes formées et culture de conformité IA ancrée
- Relations établies avec les autorités de surveillance
- Procédures de gouvernance IA robustes et opérationnelles

Investissement total estimé : 1,5 million d'euros (formations, recrutements, consultants, audits, outils). Mais l'entreprise bénéficie désormais d'un avantage compétitif significatif (label « IA responsable conforme AI Act »), d'une réduction des risques juridiques et réputationnels, et d'une meilleure qualité et fiabilité de ses systèmes d'IA.

Le calendrier échelonné de l'article 113 a permis cette transformation progressive et structurée, évitant une disruption brutale tout en garantissant une conformité effective à l'issue de la période de transition.

Articulation avec les autres dispositions de l'AI Act

L'article 113 s'articule étroitement avec l'article 111 relatif aux dispositions transitoires : alors que l'article 113 définit le calendrier général d'application du règlement pour les nouveaux systèmes, l'article 111 prévoit des exemptions et délais spécifiques pour les systèmes existants. Ensemble, ces deux articles organisent une transition complète et cohérente de l'ancien vers le nouveau cadre réglementaire.

L'article 113 doit également être lu en cohérence avec l'article 112 qui modifie d'autres actes juridiques de l'Union : les modifications apportées par l'article 112 s'appliquent selon le même calendrier échelonné que le reste de l'AI Act, garantissant la cohérence temporelle de l'ensemble du cadre réglementaire européen.

Enfin, l'article 113 structure l'applicabilité temporelle de toutes les dispositions substantielles du règlement : les interdictions de l'article 5, les obligations des articles 16 et 26 pour les systèmes à haut risque, les exigences de transparence de l'article 52, les pouvoirs de surveillance et de sanction des autorités. Comprendre le calendrier de l'article 113 est donc indispensable pour déterminer à partir de quelle date chaque obligation devient contraignante.

Implications pratiques pour les organisations

Pour les organisations développant ou utilisant des systèmes d'intelligence artificielle, la maîtrise du calendrier établi par l'article 113 est essentielle pour planifier efficacement leur mise en conformité. Chaque date d'application marque un jalon où certaines obligations deviennent contraignantes et où le non-respect peut donner lieu à des sanctions.

Les organisations doivent adopter une approche proactive plutôt que réactive : attendre passivement chaque échéance pour se conformer au dernier moment crée des risques majeurs (précipitation, erreurs, coûts démultipliés, impossibilité de respecter les délais). Une planification dès l'entrée en vigueur (août 2024) permet une mise en conformité progressive, structurée et maîtrisée.

Les dates d'application de l'article 113 doivent être intégrées dans les feuilles de route stratégiques et opérationnelles des organisations : budgets pluriannuels, plans de recrutement et de formation, roadmaps de développement de produits, stratégies de R&D. La conformité à l'AI Act ne peut être une réflexion après-coup mais doit irriguer l'ensemble de la stratégie d'entreprise.

Enfin, les organisations doivent rester attentives aux évolutions post-2027 : l'article 97 confère à la Commission le pouvoir d'adopter des actes délégués pour ajuster et préciser certaines dispositions. Le cadre réglementaire n'est pas figé mais évolutif, nécessitant une veille réglementaire continue et une capacité d'adaptation permanente.

L'article 113 de l'AI Act établit le calendrier d'entrée en vigueur et d'application progressive du règlement européen sur l'intelligence artificielle, organisant une transition échelonnée sur trois ans entre l'entrée en vigueur (1er août 2024) et l'application complète des dernières dispositions (2 août 2027). Ce calendrier réaliste et proportionné reflète le pragmatisme du législateur européen qui, tout en affirmant des ambitions élevées en matière d'IA responsable, reconnaît la nécessité de laisser aux acteurs de l'écosystème le temps d'adapter leurs systèmes, leurs processus et leurs compétences aux nouvelles exigences.

L'application échelonnée selon quatre dates principales - février 2025 pour les pratiques interdites, août 2025 pour la gouvernance et les modèles GPAI, août 2026 pour l'application générale, et août 2027 pour certains systèmes spécifiques - permet une montée en puissance progressive évitant une disruption brutale de l'écosystème européen de l'IA tout en garantissant une protection rapide des droits fondamentaux contre les pratiques les plus dangereuses.

Pour les organisations, l'article 113 constitue à la fois une feuille de route et un appel à l'action. La feuille de route définit clairement les jalons temporels de la conformité, permettant une planification structurée et anticipée. L'appel à l'action rappelle que chaque date d'application marque un moment où les obligations deviennent contraignantes et où le non-respect peut donner lieu à des sanctions substantielles. Les organisations avisées ne considéreront pas ces échéances comme des ultimatums mais comme des objectifs à atteindre avec anticipation, transformant la contrainte réglementaire en opportunité de différenciation par la démonstration précoce d'une IA responsable, digne de confiance et conforme aux standards européens les plus élevés de protection des droits fondamentaux et de sécurité.