L'article 38 du Règlement (UE) 2024/1689 institue un mécanisme de coordination entre les organismes notifiés chargés de l'évaluation de conformité des systèmes d'IA. Cette coordination est essentielle pour garantir l'uniformité et la qualité des évaluations dans l'ensemble de l'Union européenne.
Dans un marché unique où les systèmes d'IA certifiés circulent librement entre États membres, il est crucial que les organismes notifiés appliquent des standards cohérents. Un système évalué en Allemagne doit répondre aux mêmes critères qu'un système évalué en France ou en Espagne.
Le groupe sectoriel d'organismes notifiés prévu par cet article constitue le forum où cette harmonisation se construit, à travers le partage d'expériences, l'élaboration de guides communs et la résolution des questions d'interprétation.
Texte officiel de l'article 38 de l'AI Act
1. La Commission veille à ce qu'une coordination et une coopération appropriées soient organisées entre les organismes notifiés actifs dans les procédures d'évaluation de la conformité des systèmes d'IA au titre du présent règlement, sous la forme d'un groupe sectoriel d'organismes notifiés.
2. Chaque autorité notifiante veille à ce que les organismes qu'elle a notifiés participent aux travaux du groupe visé au paragraphe 1, directement ou par l'intermédiaire de représentants désignés.
3. La Commission assure l'échange d'expériences entre les autorités nationales responsables de la politique en matière de notification.
Analyse juridique approfondie
Le groupe sectoriel d'organismes notifiés (paragraphe 1)
La Commission européenne a la responsabilité d'organiser un groupe sectoriel spécifique à l'IA. Ce groupe s'inscrit dans la tradition des groupes de coordination existants pour d'autres réglementations du Nouveau Cadre Législatif (dispositifs médicaux, machines, équipements de protection individuelle, etc.).
Le terme "sectoriel" indique que ce groupe est spécifique au domaine de l'intelligence artificielle, distingué des groupes existants pour d'autres catégories de produits. Cette spécialisation permet de traiter les problématiques techniques et éthiques propres à l'IA.
Les missions typiques de ce groupe incluent :
- Harmonisation des pratiques : Développer des interprétations communes des exigences du règlement
- Élaboration de guides : Produire des documents méthodologiques pour les procédures d'évaluation
- Partage d'expériences : Échanger sur les cas difficiles et les bonnes pratiques
- Veille technologique : Suivre l'évolution des technologies d'IA et adapter les méthodes d'évaluation
- Résolution de divergences : Traiter les questions d'interprétation soulevées par les organismes
La participation obligatoire (paragraphe 2)
Le paragraphe 2 impose aux autorités notifiantes de veiller à la participation effective des organismes qu'elles ont notifiés. Cette obligation présente plusieurs caractéristiques :
- Responsabilité de l'autorité notifiante : C'est l'autorité (et non l'organisme lui-même) qui porte la responsabilité de garantir la participation
- Flexibilité des modalités : La participation peut être directe ou via des représentants désignés
- Caractère obligatoire : La participation n'est pas optionnelle - elle fait partie des obligations liées au statut d'organisme notifié
Cette obligation garantit que tous les organismes notifiés bénéficient des travaux du groupe et contribuent à la qualité collective des évaluations dans l'Union.
L'échange entre autorités nationales (paragraphe 3)
Au-delà de la coordination des organismes notifiés, la Commission doit également organiser l'échange d'expériences entre les autorités nationales responsables de la politique de notification. Ce niveau de coordination permet :
- D'harmoniser les critères d'évaluation des candidatures à la notification
- De partager les bonnes pratiques de surveillance des organismes notifiés
- De coordonner les réponses aux situations problématiques
- D'assurer la cohérence des politiques nationales de notification
Exemple d'application
📋 Élaboration d'un guide d'évaluation des biais
Les organismes notifiés de plusieurs pays constatent des difficultés d'interprétation de l'exigence de non-discrimination de l'article 10 pour les systèmes d'IA de recrutement. Les approches d'évaluation varient significativement d'un organisme à l'autre.
Le groupe sectoriel se réunit et travaille sur cette question :
- Les organismes partagent leurs méthodes d'évaluation actuelles
- Un sous-groupe rédige un projet de guide méthodologique
- Le guide définit les métriques de biais à évaluer et les seuils acceptables
- Après validation par le groupe, le guide est diffusé à tous les organismes
Résultat : les évaluations des systèmes d'IA de recrutement deviennent plus cohérentes à travers l'Europe.
Articulation avec d'autres dispositions
L'article 38 s'inscrit dans le système global de gouvernance de l'AI Act :
- Article 31 (Exigences applicables aux organismes notifiés) : Le groupe contribue à l'interprétation uniforme de ces exigences
- Article 33 (Numéros d'identification et listes) : Tous les membres du groupe sont identifiés dans la base NANDO
- Article 45 (Obligations d'information) : Le partage d'informations au sein du groupe complète les obligations de reporting
- Article 64 (Comité IA) : Le groupe peut faire remonter des questions au Comité IA pour clarification
- Article 40 (Normes harmonisées) : Le groupe peut contribuer aux travaux de normalisation en partageant son expérience terrain
Implications pratiques
Pour les organismes notifiés
- Participer activement aux travaux du groupe sectoriel
- Soumettre les questions d'interprétation au groupe pour harmonisation
- Appliquer les guides et documents méthodologiques élaborés collectivement
- Contribuer au partage d'expériences, notamment sur les cas difficiles
Pour les autorités notifiantes
- S'assurer de la participation effective des organismes sous leur responsabilité
- Participer aux échanges entre autorités organisés par la Commission
- Relayer les orientations du groupe aux organismes notifiés
Pour les fournisseurs de systèmes d'IA
- Bénéficier d'évaluations plus prévisibles et cohérentes
- Pouvoir anticiper les attentes des organismes grâce aux guides publiés
- Avoir l'assurance qu'un certificat obtenu dans un État membre sera reconnu partout
Fonctionnement pratique du groupe
Bien que l'AI Act ne détaille pas le fonctionnement opérationnel du groupe, on peut s'attendre à ce qu'il s'inspire des modèles existants :
- Réunions régulières : Sessions plénières plusieurs fois par an, en présentiel ou en visioconférence
- Sous-groupes thématiques : Groupes de travail spécialisés sur des sujets techniques (biais, explicabilité, cybersécurité, etc.)
- Secrétariat : La Commission assure le support logistique et administratif
- Publications : Guides, FAQ, documents de position rendus publics
- Plateforme collaborative : Outils de partage de documents et de communication entre sessions
L'article 38 établit un mécanisme de coordination indispensable au bon fonctionnement du système d'évaluation de conformité des systèmes d'IA. En réunissant les organismes notifiés au sein d'un groupe sectoriel et en organisant les échanges entre autorités nationales, cette disposition garantit l'harmonisation des pratiques à l'échelle européenne. Cette coordination contribue directement à la confiance dans le système de certification et à l'intégrité du marché unique pour les systèmes d'IA.