L'article 62 du Règlement (UE) 2024/1689 détaille les conditions spécifiques que doivent respecter les tests de systèmes d'IA en conditions réelles. Ces garanties visent à protéger les personnes impliquées tout en permettant l'innovation.
Texte officiel de l'article 62 de l'AI Act (extraits)
Les tests en conditions réelles de systèmes d'IA à haut risque respectent toutes les conditions suivantes :
a) le fournisseur ou le fournisseur potentiel a établi un plan de test conformément à l'article 61 et l'a soumis à l'autorité de surveillance du marché de l'État membre dans lequel les tests en conditions réelles doivent être effectués ;
b) l'autorité de surveillance du marché de l'État membre dans lequel les tests doivent être effectués a approuvé le test et le plan de test ;
c) le fournisseur ou le fournisseur potentiel a obtenu le consentement libre et éclairé des sujets du test ou, le cas échéant, de leur représentant légal ;
d) les tests n'ont pas d'effet négatif sur la santé, la sécurité ou les droits fondamentaux des sujets du test ;
e) toute décision prise automatiquement par le système d'IA pendant le test peut être annulée ou ignorée par un opérateur humain.
Analyse juridique
Approbation préalable
Contrairement à une simple notification, l'article 62 exige une approbation explicite du plan de test par l'autorité de surveillance du marché. Cette approbation garantit un contrôle préalable des conditions de test.
Consentement éclairé
Le consentement des sujets du test doit être :
- Libre : sans contrainte ni pression
- Éclairé : après information complète sur le test
- Documenté : preuve du consentement conservée
Pour les personnes incapables de consentir (mineurs, personnes sous tutelle), le consentement du représentant légal est requis.
Protection des sujets
Les tests ne doivent pas avoir d'effet négatif sur la santé, la sécurité ou les droits fondamentaux. Cette exigence impose une analyse de risques préalable et des mesures de mitigation.
Contrôle humain
Toute décision automatique du système pendant le test doit pouvoir être annulée par un opérateur humain. Cette condition garantit que le système en test ne prend pas de décisions irréversibles affectant les sujets.
L'article 62 établit des garanties strictes pour les tests en conditions réelles, assurant la protection des personnes tout en permettant la validation opérationnelle des systèmes d'IA avant leur mise sur le marché.