L'article 60 du Règlement (UE) 2024/1689 établit un cadre complémentaire aux bacs à sable réglementaires en permettant aux fournisseurs de systèmes d'IA à haut risque de tester leurs systèmes en conditions réelles en dehors des environnements contrôlés que constituent les bacs à sable. Cette disposition reconnaît que certains fournisseurs, tout en ayant besoin de tester leurs systèmes sur des cas d'usage réels pour valider leurs performances et leur conformité, ne nécessitent pas ou ne souhaitent pas l'accompagnement intensif et le cadre structuré d'un bac à sable réglementaire.

L'article 60 constitue un mécanisme complémentaire à l'article 57 : alors que les bacs à sable offrent un environnement d'expérimentation privilégié avec accompagnement de l'autorité et certaines flexibilités réglementaires, l'article 60 permet des tests en conditions réelles plus autonomes mais également plus encadrés en termes d'exigences de conformité et de protection des personnes. Ce dispositif vise à offrir aux fournisseurs, notamment aux entreprises disposant déjà d'une maturité en conformité réglementaire, une voie alternative pour valider leurs systèmes avant la mise sur le marché officielle.

L'article 60 impose des conditions strictes garantissant que les tests en conditions réelles ne compromettent pas la sécurité, les droits fondamentaux et le bien-être des personnes concernées. Il établit un équilibre entre la nécessité de permettre des tests réalistes et l'impératif de protection des personnes exposées aux systèmes d'IA en phase de test. Il prévoit également des mécanismes de supervision par les autorités compétentes et de transparence vis-à-vis des personnes concernées.

Texte officiel de l'article 60 de l'AI Act

L'article 60 de l'AI Act dispose (extraits principaux) :

« 1. Les systèmes d'IA à haut risque peuvent faire l'objet de tests en conditions réelles à toute étape avant leur mise sur le marché ou leur mise en service, sans préjudice des exigences énoncées aux articles 9 à 15 et à condition que toutes les conditions suivantes soient remplies :

a) le fournisseur ou le futur déployeur testant le système d'IA à haut risque a obtenu le consentement éclairé et spécifique des personnes participant au test en conditions réelles ou les a informées de manière appropriée avant de les inclure dans le test, conformément au droit applicable en matière de consentement ;

b) les personnes qui participent aux tests en conditions réelles peuvent retirer leur consentement à tout moment sans détriment et peuvent facilement faire valoir leur droit de retrait ;

c) les données personnelles collectées dans le cadre des tests en conditions réelles sont traitées conformément au règlement (UE) 2016/679 ;

d) des garanties appropriées sont mises en place pour protéger les droits et libertés des personnes, notamment en ce qui concerne la supervision humaine appropriée ;

e) les tests en conditions réelles sont notifiés à l'autorité de surveillance compétente avant leur début, conformément aux procédures établies par cette autorité. »

« 2. Les fournisseurs ou futurs déployeurs testant le système d'IA à haut risque dans le cadre de tests en conditions réelles assument la responsabilité de tout préjudice causé par le système d'IA à haut risque, conformément aux règles de responsabilité civile applicables. »

Cet article établit donc un cadre strict permettant les tests en conditions réelles hors bacs à sable, sous réserve du respect de conditions protectrices et d'une notification préalable aux autorités compétentes.

Analyse juridique de l'article 60

Principe général et maintien des exigences essentielles

L'article 60, paragraphe 1, autorise les tests en conditions réelles de systèmes d'IA à haut risque « à toute étape avant leur mise sur le marché ou leur mise en service », offrant ainsi une flexibilité temporelle importante. Les fournisseurs peuvent tester des prototypes relativement précoces ou des systèmes quasi-finalisés, selon leurs besoins de validation.

Toutefois, cette autorisation est subordonnée à une condition essentielle : les tests doivent se faire « sans préjudice des exigences énoncées aux articles 9 à 15 ». Cette formulation signifie que les systèmes testés doivent déjà satisfaire aux exigences essentielles de l'AI Act en matière de gestion des risques (article 9), gouvernance des données (article 10), documentation technique (article 11), conservation des registres (article 12), transparence (article 13), surveillance humaine (article 14), et exactitude, robustesse et cybersécurité (article 15).

Cette exigence distingue fondamentalement l'article 60 des bacs à sable (article 57) : alors que les bacs à sable peuvent offrir certaines flexibilités temporaires sur ces exigences sous supervision de l'autorité, l'article 60 impose une conformité complète dès le stade des tests. Cette approche vise à garantir que seuls des systèmes déjà robustes et sûrs sont testés en conditions réelles hors environnement contrôlé.

Consentement éclairé et spécifique

L'article 60, paragraphe 1, point a), impose que « le fournisseur ou le futur déployeur testant le système d'IA à haut risque a obtenu le consentement éclairé et spécifique des personnes participant au test en conditions réelles ou les a informées de manière appropriée avant de les inclure dans le test ». Cette double alternative (consentement OU information appropriée) reflète la diversité des situations de test.

Le « consentement éclairé et spécifique » doit satisfaire aux exigences du RGPD (article 4, point 11, et article 7) : le consentement doit être libre (donné sans contrainte), éclairé (la personne comprend à quoi elle consent), spécifique (relatif précisément au test en question), et univoque (manifesté par un acte positif clair). L'information fournie avant le consentement doit inclure : la nature du système d'IA testé, les finalités du test, les données collectées et leur utilisation, les risques potentiels, la durée du test, et le droit de retrait.

L'alternative de l'information « de manière appropriée » (sans consentement explicite) peut s'appliquer dans des situations où le test n'implique pas de traitement de données personnelles nécessitant un consentement, ou lorsqu'une autre base légale est applicable. Toutefois, même dans ce cas, une information claire et préalable des personnes concernées est requise, garantissant la transparence.

Droit de retrait facilité

L'article 60, paragraphe 1, point b), garantit que « les personnes qui participent aux tests en conditions réelles peuvent retirer leur consentement à tout moment sans détriment et peuvent facilement faire valoir leur droit de retrait ». Cette disposition offre une protection importante aux participants, reflétant le principe du droit de retrait du consentement prévu à l'article 7, paragraphe 3, du RGPD.

Le retrait doit pouvoir s'effectuer « à tout moment », sans limitation temporelle. Il doit être « sans détriment », c'est-à-dire que la personne ne doit subir aucune conséquence négative du fait de son retrait (pas de pénalités, de discrimination, ou de refus de service). Le retrait doit pouvoir être exercé « facilement », impliquant que les fournisseurs mettent en place des mécanismes simples et accessibles (par exemple, lien de désabonnement, formulaire en ligne, contact dédié).

Cette facilité de retrait constitue une garantie essentielle pour l'acceptabilité éthique des tests : les personnes conservent leur autonomie et peuvent cesser leur participation si elles le souhaitent, pour quelque raison que ce soit.

Conformité RGPD et protection des données

L'article 60, paragraphe 1, point c), impose que « les données personnelles collectées dans le cadre des tests en conditions réelles sont traitées conformément au règlement (UE) 2016/679 ». Cette disposition rappelle que l'AI Act ne déroge pas au RGPD et que tous les tests impliquant des données personnelles doivent satisfaire pleinement aux exigences de protection des données.

La conformité RGPD implique notamment : l'identification d'une base légale appropriée pour le traitement (souvent le consentement pour les tests, mais d'autres bases peuvent être applicables), le respect des principes de licéité, loyauté, transparence, limitation des finalités, minimisation des données, exactitude, limitation de la conservation, intégrité et confidentialité (article 5 du RGPD), la fourniture d'informations complètes aux personnes concernées (articles 13-14 du RGPD), le respect des droits des personnes (accès, rectification, effacement, limitation, portabilité, opposition - articles 15-21 du RGPD), et la mise en œuvre de mesures de sécurité appropriées (article 32 du RGPD).

Si le test implique un traitement de données personnelles susceptible d'engendrer un risque élevé pour les droits et libertés, une analyse d'impact relative à la protection des données (AIPD) doit être réalisée conformément à l'article 35 du RGPD.

Garanties pour les droits et supervision humaine

L'article 60, paragraphe 1, point d), impose que « des garanties appropriées sont mises en place pour protéger les droits et libertés des personnes, notamment en ce qui concerne la supervision humaine appropriée ». Cette disposition reconnaît que, même avec un consentement éclairé et le respect du RGPD, des garanties supplémentaires sont nécessaires pour protéger les personnes exposées à des systèmes d'IA à haut risque en phase de test.

Ces garanties peuvent inclure : une supervision humaine renforcée garantissant qu'aucune décision défavorable n'est prise automatiquement sans intervention humaine, des mécanismes de détection et d'intervention en cas d'anomalie ou de dysfonctionnement, des procédures de recours permettant aux personnes de contester des décisions ou de signaler des problèmes, une limitation de la portée et de la durée des tests pour minimiser l'exposition aux risques, et des assurances couvrant les éventuels préjudices.

La mention explicite de la « supervision humaine appropriée » renvoie à l'article 14 de l'AI Act qui impose des mesures de surveillance humaine pour les systèmes à haut risque. Durant les tests en conditions réelles, cette supervision doit être particulièrement vigilante compte tenu du caractère expérimental du système.

Notification préalable à l'autorité de surveillance

L'article 60, paragraphe 1, point e), impose que « les tests en conditions réelles sont notifiés à l'autorité de surveillance compétente avant leur début, conformément aux procédures établies par cette autorité ». Cette notification préalable permet à l'autorité de superviser les tests, de vérifier que les conditions de l'article 60 sont remplies, et d'intervenir si nécessaire pour protéger les personnes.

La notification doit être effectuée « avant leur début », garantissant que l'autorité dispose d'un temps suffisant pour examiner le projet de test et, le cas échéant, formuler des observations ou demander des compléments. Les « procédures établies par cette autorité » seront précisées par chaque autorité de surveillance, mais devront probablement inclure la fourniture d'informations sur : le système d'IA testé et ses caractéristiques, les objectifs et la méthodologie du test, le périmètre (nombre de personnes, durée, lieux), les mesures de protection mises en place, les modalités de consentement/information des personnes, et les mesures de conformité aux exigences des articles 9 à 15.

Cette notification ne constitue pas nécessairement une demande d'autorisation préalable, mais un mécanisme d'information et de supervision permettant à l'autorité d'exercer ses pouvoirs de surveillance. Toutefois, certaines autorités pourraient mettre en place des procédures impliquant une validation ou un délai d'opposition avant le début effectif des tests.

Responsabilité civile du testeur

L'article 60, paragraphe 2, établit un principe de responsabilité clair : « Les fournisseurs ou futurs déployeurs testant le système d'IA à haut risque dans le cadre de tests en conditions réelles assument la responsabilité de tout préjudice causé par le système d'IA à haut risque, conformément aux règles de responsabilité civile applicables. »

Cette disposition garantit que les personnes affectées par des dysfonctionnements ou des préjudices durant les tests disposent d'un recours contre le testeur. La responsabilité s'applique « conformément aux règles de responsabilité civile applicables », c'est-à-dire selon le droit de la responsabilité de chaque État membre (responsabilité pour faute, responsabilité du fait des produits défectueux, etc.) et selon la future législation européenne sur la responsabilité en matière d'IA (AI Liability Directive en cours d'élaboration).

Cette règle incite les testeurs à mettre en place des garanties robustes et des assurances appropriées pour couvrir les risques potentiels. Elle contribue également à la confiance du public en garantissant que les personnes participant aux tests ne supporteront pas les conséquences de défaillances du système testé.

Exemples concrets d'application

Exemple concret d'application de l'article 60 de l'AI Act

Test en conditions réelles d'un système d'IA de diagnostic médical

« MedAI Solutions », une entreprise européenne, a développé un système d'IA à haut risque destiné à assister les médecins dans le diagnostic de maladies cardiovasculaires à partir d'images d'échocardiographie. Le système a été développé conformément aux exigences des articles 9 à 15 de l'AI Act et aux exigences du règlement sur les dispositifs médicaux. L'entreprise souhaite maintenant tester le système en conditions réelles dans plusieurs hôpitaux pour valider ses performances cliniques avant la demande de marquage CE.

Mise en œuvre de l'article 60 :

1. Conformité préalable aux exigences essentielles (paragraphe 1, introductif) :

Avant de débuter les tests en conditions réelles, MedAI Solutions s'assure que le système satisfait pleinement aux exigences des articles 9 à 15 :
- Article 9 (Gestion des risques) : Système de gestion des risques documenté, analyse des risques cliniques, mesures d'atténuation en place
- Article 10 (Données) : Entraînement sur ensemble de données de haute qualité, représentatif et vérifié
- Article 11 (Documentation technique) : Documentation technique complète conforme à l'Annexe IV
- Article 12 (Registres) : Système de logs enregistrant toutes les analyses et décisions
- Article 13 (Transparence) : Instructions d'utilisation détaillées pour les médecins
- Article 14 (Surveillance humaine) : Le système propose des suggestions de diagnostic que le médecin valide toujours (aucune décision automatisée)
- Article 15 (Exactitude et robustesse) : Tests de performance et de robustesse réalisés, niveaux d'exactitude documentés

2. Consentement éclairé des patients (paragraphe 1, point a) :

MedAI Solutions prépare un processus de consentement éclairé pour les patients :

Document d'information patient :
« Participation à un test clinique d'un système d'intelligence artificielle d'aide au diagnostic cardiovasculaire

Nous vous proposons de participer à un test clinique d'un nouveau système d'intelligence artificielle (IA) visant à aider les médecins dans le diagnostic des maladies cardiovasculaires à partir d'échocardiographies.

En quoi consiste ce test ?
Si vous acceptez de participer, vos images d'échocardiographie seront analysées à la fois par votre médecin (comme habituellement) et par le système d'IA en test. Le système d'IA propose des suggestions de diagnostic que votre médecin examine et valide. La décision finale appartient toujours à votre médecin. Le fait de participer ou non n'affecte en rien la qualité de vos soins.

Quels sont les bénéfices et les risques ?
Bénéfice potentiel : Le système d'IA pourrait aider votre médecin à identifier certaines anomalies. Risque : Le système étant en test, il pourrait faire des erreurs. C'est pourquoi votre médecin vérifie toujours ses suggestions et prend la décision finale.

Vos données :
Vos images et données de santé seront traitées de manière pseudonymisée (votre nom sera remplacé par un code). Elles seront utilisées uniquement pour ce test et conservées de manière sécurisée. Vous disposez de droits sur vos données (accès, rectification, effacement) que vous pouvez exercer en contactant [coordonnées].

Votre participation est volontaire :
Vous pouvez refuser de participer ou retirer votre consentement à tout moment, sans avoir à vous justifier et sans aucune conséquence sur vos soins. Pour vous retirer, contactez simplement [coordonnées] ou parlez-en à votre médecin. »

Formulaire de consentement :
« Je soussigné(e) [nom], déclare avoir été informé(e) de manière claire et complète sur le test du système d'IA d'aide au diagnostic cardiovasculaire. J'ai pu poser toutes mes questions et obtenir des réponses satisfaisantes. Je comprends que ma participation est volontaire et que je peux me retirer à tout moment. J'accepte de participer à ce test.
Date : _____ Signature : _____ »

Les médecins des hôpitaux partenaires expliquent le test aux patients éligibles et recueillent leur consentement écrit avant toute inclusion.

3. Droit de retrait facilité (paragraphe 1, point b) :

MedAI Solutions met en place plusieurs mécanismes facilitant le retrait :
- Information claire sur le droit de retrait dans le document d'information
- Coordonnées dédiées (email, téléphone) pour exercer le retrait
- Possibilité de se retirer en parlant simplement à son médecin
- Engagement que le retrait n'affecte en rien la qualité des soins
- En cas de retrait, arrêt immédiat de l'utilisation du système d'IA pour ce patient et effacement des données collectées (sauf obligation légale de conservation)

4. Conformité RGPD (paragraphe 1, point c) :

MedAI Solutions assure la conformité RGPD complète :
- Base légale : Consentement explicite des patients (article 9, paragraphe 2, point a, du RGPD pour données de santé)
- Information complète : Document d'information conforme aux articles 13-14 du RGPD
- Droits des personnes : Procédures permettant l'exercice des droits d'accès, rectification, effacement, limitation, portabilité
- Sécurité : Pseudonymisation des données, chiffrement, contrôles d'accès stricts, formation du personnel
- AIPD : Analyse d'impact relative à la protection des données réalisée (traitement de données de santé à risque élevé)
- Accord DPO/CNIL : Le Délégué à la Protection des Données de l'entreprise a validé le projet ; consultation de la CNIL effectuée

5. Garanties appropriées et supervision humaine (paragraphe 1, point d) :

Garanties mises en place :
- Supervision humaine systématique : Aucune décision automatisée. Les suggestions de l'IA sont toujours validées par un médecin qualifié avant toute action
- Comité de surveillance : Comité indépendant incluant cardiologues, éthiciens, représentants de patients, supervisant le déroulement du test
- Monitoring continu : Surveillance en temps réel des performances et détection d'anomalies
- Procédure d'escalade : En cas de désaccord significatif entre l'IA et le médecin, consultation d'un second expert
- Assurance : Police d'assurance responsabilité civile de 5 millions d'euros couvrant les risques du test
- Limitation : Test limité à 500 patients sur 6 mois pour minimiser l'exposition aux risques

6. Notification préalable à l'autorité (paragraphe 1, point e) :

MedAI Solutions notifie l'autorité de surveillance compétente (l'ANSM en France, ou autorité équivalente selon les pays) 30 jours avant le début des tests. La notification inclut :
- Description détaillée du système d'IA (finalité, architecture, données d'entraînement, performances attendues)
- Objectifs et méthodologie du test clinique
- Périmètre : 500 patients, 3 hôpitaux, 6 mois
- Démonstration de conformité aux exigences des articles 9 à 15
- Copie du document d'information patient et du formulaire de consentement
- Description des garanties mises en place
- Analyse d'impact relative à la protection des données
- Plan de gestion des incidents
- Coordonnées du responsable du test et du comité de surveillance

L'ANSM accuse réception de la notification, examine le dossier, et formule quelques recommandations complémentaires (renforcement de certaines mesures de surveillance) que MedAI Solutions met en œuvre avant le début des tests.

7. Responsabilité civile (paragraphe 2) :

MedAI Solutions assume pleinement la responsabilité de tout préjudice potentiel causé par le système d'IA durant les tests. L'assurance responsabilité civile de 5 millions d'euros couvre :
- Erreurs de diagnostic causées par le système d'IA
- Retards de diagnostic en cas de dysfonctionnement
- Stress ou préjudice moral pour les patients
- Frais médicaux supplémentaires en cas de préjudice

Un mécanisme de déclaration et d'indemnisation rapide est prévu pour traiter tout préjudice de manière diligente.

Déroulement et résultats :

Le test se déroule conformément au plan :
- 500 patients consentent à participer (taux d'acceptation de 85%)
- Aucun incident grave n'est signalé
- Les performances du système sont validées en conditions réelles (sensibilité 89%, spécificité 92%, en ligne avec les performances attendues)
- Quelques cas de désaccords entre l'IA et le médecin sont identifiés et analysés, conduisant à des améliorations du système
- 3 patients se retirent du test (pour des raisons personnelles sans lien avec le système), leurs données sont immédiatement effacées
- Le comité de surveillance émet un avis favorable sur le déroulement éthique du test

À l'issue des 6 mois, MedAI Solutions dispose de preuves de performances cliniques robustes en conditions réelles, complétant le dossier technique nécessaire pour la demande de marquage CE. L'entreprise soumet ensuite le dossier à l'organisme notifié pour l'évaluation de conformité et l'obtention du marquage CE, ouvrant la voie à la commercialisation régulière du système.

Articulation avec les autres dispositions de l'AI Act

L'article 60 complète le cadre des mesures de soutien à l'innovation établi par les articles 57 à 59 relatifs aux bacs à sable réglementaires. Il offre une voie alternative pour les fournisseurs souhaitant tester leurs systèmes en conditions réelles avec moins d'accompagnement et de structure que dans un bac à sable, mais en contrepartie avec des exigences de conformité plus strictes (pas de flexibilité sur les articles 9 à 15) et une autonomie plus grande (notification préalable plutôt que plan convenu).

L'article 60 s'applique aux systèmes d'IA à haut risque au sens du Titre III du règlement. Il s'inscrit donc dans la logique de l'approche fondée sur les risques : les systèmes présentant les risques les plus élevés sont soumis aux obligations les plus strictes, y compris pour leurs tests en conditions réelles. L'article 60 garantit que même à ce stade précommercialisation, les exigences essentielles de sécurité et de protection des droits sont respectées.

L'exigence de conformité RGPD (paragraphe 1, point c) crée un lien direct avec le Règlement Général sur la Protection des Données. Comme pour l'article 59 relatif aux bacs à sable, l'article 60 reconnaît que l'AI Act et le RGPD s'appliquent de manière cumulative et cohérente, garantissant un niveau élevé de protection des données personnelles y compris dans les phases d'expérimentation.

Le principe de responsabilité civile établi au paragraphe 2 s'articulera avec la future législation européenne sur la responsabilité en matière d'IA (AI Liability Directive) actuellement en cours d'élaboration. Cette future directive précisera les régimes de responsabilité applicables aux systèmes d'IA, complétant le cadre général posé par l'article 60.

Implications pratiques pour les organisations

Pour les fournisseurs de systèmes d'IA à haut risque, l'article 60 offre une voie précieuse pour valider leurs systèmes en conditions réelles avant la mise sur le marché officielle. Cette validation est souvent essentielle pour démontrer les performances effectives du système, identifier les limites et les améliorations nécessaires, et constituer un dossier technique robuste pour l'évaluation de conformité et le marquage CE.

Toutefois, l'article 60 impose des exigences strictes qui nécessitent une préparation minutieuse. Les fournisseurs doivent notamment : garantir que leur système satisfait pleinement aux exigences des articles 9 à 15 avant le début des tests, ce qui implique un niveau de maturité déjà avancé, concevoir et mettre en œuvre des processus de consentement éclairé ou d'information appropriée des personnes concernées, garantir une conformité RGPD complète incluant la réalisation d'une AIPD si nécessaire, mettre en place des garanties robustes incluant une supervision humaine renforcée, préparer une notification complète pour l'autorité de surveillance, et souscrire une assurance responsabilité civile appropriée couvrant les risques potentiels des tests.

Les organisations devront également établir des partenariats avec des déployeurs acceptant de participer aux tests (hôpitaux, entreprises, administrations selon le domaine), et garantir que ces déployeurs comprennent leurs obligations et les risques. Une gouvernance claire du test, incluant un comité de surveillance, des procédures de gestion des incidents, et des mécanismes de reporting régulier, est essentielle pour garantir le déroulement éthique et conforme des tests.

Pour les autorités de surveillance, l'article 60 impose de mettre en place des procédures de notification et d'examen des projets de tests en conditions réelles. Ces procédures devront trouver un équilibre entre la nécessité de superviser efficacement les tests pour protéger les personnes et celle de ne pas alourdir excessivement les charges pour les fournisseurs ni retarder indûment l'innovation.

L'article 60 de l'AI Act établit un cadre rigoureux mais nécessaire pour les tests de systèmes d'IA à haut risque en conditions réelles en dehors des bacs à sable réglementaires. En imposant le respect des exigences essentielles de l'AI Act, le consentement éclairé ou l'information appropriée des personnes, la conformité RGPD complète, des garanties appropriées incluant une supervision humaine, et une notification préalable aux autorités, il garantit que ces tests ne compromettent pas la sécurité et les droits fondamentaux des personnes concernées.

Ce cadre reflète l'approche européenne fondée sur les risques : les systèmes d'IA à haut risque, même en phase de test, doivent respecter des exigences strictes en raison des risques qu'ils présentent. L'article 60 offre néanmoins une voie praticable pour l'innovation, permettant aux fournisseurs de valider leurs systèmes en conditions réelles tout en garantissant un niveau élevé de protection.

Pour les organisations, l'article 60 souligne l'importance d'intégrer la conformité réglementaire dès les premières phases de développement : seuls les systèmes déjà conformes aux exigences essentielles peuvent être testés en conditions réelles hors bacs à sable. Cette approche « compliance by design » devient ainsi non seulement une obligation réglementaire, mais également une condition préalable à la validation et à la commercialisation réussie des systèmes d'IA à haut risque en Europe.