L'article 13 du Règlement (UE) 2024/1689 impose aux fournisseurs de systèmes d'IA à haut risque de concevoir ces systèmes de manière à ce que leur fonctionnement soit suffisamment transparent pour permettre aux déployeurs de comprendre et d'utiliser correctement le système. Cette exigence de transparence se double d'une obligation de fournir des instructions d'utilisation détaillées, claires et complètes accompagnant le système lors de sa mise sur le marché ou de sa mise en service.
La transparence prévue par l'article 13 poursuit plusieurs objectifs complémentaires. Premièrement, elle permet aux déployeurs de déterminer si le système est adapté à leur cas d'usage spécifique et de l'utiliser de manière conforme à sa finalité prévue. Deuxièmement, elle facilite l'exercice de la surveillance humaine requise par l'article 14, en fournissant aux opérateurs les informations nécessaires pour comprendre les sorties du système et détecter d'éventuelles anomalies. Troisièmement, elle contribue à la redevabilité (accountability) en documentant les caractéristiques, capacités et limitations du système.
L'article 13 s'inscrit dans une conception européenne de la transparence comme condition de la confiance dans les systèmes d'IA. Contrairement à une vision simpliste de la transparence qui se limiterait à la publication du code source ou des algorithmes, l'article 13 adopte une approche pragmatique centrée sur la fourniture d'informations utiles et compréhensibles pour les utilisateurs professionnels des systèmes d'IA à haut risque. Il s'agit moins de rendre le système entièrement « explicable » dans ses mécanismes internes que de fournir les informations nécessaires à son utilisation appropriée et à la supervision de ses décisions.
Texte officiel de l'article 13 de l'AI Act
L'article 13 de l'AI Act dispose :
« 1. Les systèmes d'IA à haut risque sont conçus et développés de manière à garantir que leur fonctionnement soit suffisamment transparent pour permettre aux déployeurs d'interpréter les sorties d'un système et de l'utiliser de manière appropriée. Un type et un degré appropriés de transparence sont assurés en vue de garantir le respect des obligations pertinentes incombant au déployeur et au fournisseur énoncées dans la section 3.
2. Les systèmes d'IA à haut risque sont accompagnés d'instructions d'utilisation dans un format numérique approprié ou autre qui inclut des informations concises, complètes, correctes et claires qui sont pertinentes, accessibles et compréhensibles pour les déployeurs.
3. Les instructions d'utilisation contiennent au moins les informations suivantes :
a) l'identité et les coordonnées du fournisseur et, le cas échéant, de son mandataire ;
b) les caractéristiques, les capacités et les limites de performance du système d'IA à haut risque, y compris :
i) sa finalité prévue ;
ii) le niveau de précision, y compris ses mesures, de robustesse et de cybersécurité visés à l'article 15 en rapport avec lequel le système d'IA à haut risque a été testé et validé et qui peut être attendu, ainsi que toute circonstance connue et prévisible susceptible d'avoir une incidence sur la précision, la robustesse et la cybersécurité attendues ;
iii) toute circonstance connue ou prévisible, liée à l'utilisation du système d'IA à haut risque conformément à sa finalité prévue ou dans des conditions de mauvaise utilisation raisonnablement prévisible, qui peut entraîner des risques pour la santé et la sécurité ou pour les droits fondamentaux ;
iv) le cas échéant, les spécifications techniques relatives aux données d'entrée, ou toute autre information pertinente relative aux ensembles de données d'entraînement, de validation et de test utilisés, en tenant compte de la finalité prévue du système d'IA ;
v) le cas échéant, les informations permettant aux déployeurs d'interpréter les sorties du système et de les utiliser de manière appropriée ;
c) les modifications et mises à jour du système d'IA à haut risque ;
d) les mesures de surveillance humaine visées à l'article 14, y compris les mesures techniques mises en œuvre pour faciliter l'interprétation des sorties des systèmes d'IA par les déployeurs ;
e) les performances attendues du système d'IA à haut risque en ce qui concerne des personnes ou groupes de personnes spécifiques sur lesquels le système est destiné à être utilisé ;
f) le cas échéant, selon le caractère raisonnable en fonction de la nature de la technologie et de la finalité prévue du système d'IA à haut risque, une description des mécanismes du système d'IA. »
Cet article établit donc un double niveau d'exigences : d'une part, une exigence de conception pour la transparence du système lui-même ; d'autre part, une obligation de documentation complète via les instructions d'utilisation.
Analyse juridique de l'article 13
Exigence de transparence par la conception
L'article 13, paragraphe 1, impose que les systèmes d'IA à haut risque soient « conçus et développés » de manière à garantir un fonctionnement suffisamment transparent. Cette formulation souligne qu'il s'agit d'une exigence de conception (transparency by design), qui doit être prise en compte dès les premières phases de développement du système, et non d'une simple obligation de documentation ex post.
La transparence requise est définie par sa finalité : permettre aux déployeurs d'interpréter les sorties du système et de l'utiliser de manière appropriée. Cette approche fonctionnelle de la transparence se distingue d'une transparence totale ou absolue, qui pourrait être techniquement impossible (notamment pour les systèmes d'apprentissage profond) ou inadaptée. La transparence doit être « suffisante » pour atteindre ses objectifs, ce qui introduit un principe de proportionnalité.
Le paragraphe 1 précise que le type et le degré de transparence doivent être appropriés pour garantir le respect des obligations des déployeurs et des fournisseurs. Cette formulation crée un lien direct entre la transparence et la capacité à respecter les autres obligations du règlement. Par exemple, pour qu'un déployeur puisse exercer la surveillance humaine requise à l'article 14, il doit disposer d'informations suffisantes sur le fonctionnement du système ; la transparence du système conditionne donc l'effectivité de la surveillance humaine.
En pratique, la transparence par la conception peut se traduire par différentes approches techniques : utilisation de modèles intrinsèquement interprétables lorsque possible ; mise en œuvre de techniques d'explicabilité (explainability) pour les modèles complexes, telles que LIME (Local Interpretable Model-agnostic Explanations) ou SHAP (SHapley Additive exPlanations) ; fourniture d'interfaces utilisateur présentant les informations pertinentes de manière compréhensible ; visualisation des données et des processus décisionnels.
Instructions d'utilisation : exigences formelles
L'article 13, paragraphe 2, impose que les systèmes d'IA à haut risque soient accompagnés d'instructions d'utilisation dans un format approprié. Ces instructions doivent être fournies « dans un format numérique approprié ou autre », ce qui permet une flexibilité dans le support (documentation électronique, manuel papier, intégration dans l'interface du système), tout en imposant que le format soit adapté à l'usage prévu.
Le paragraphe 2 énonce cinq qualités cumulatives que les instructions d'utilisation doivent présenter. Elles doivent être concises, c'est-à-dire aller à l'essentiel sans développements inutiles qui rendraient la documentation trop volumineuse et difficilement exploitable. Elles doivent être complètes, couvrant l'ensemble des informations nécessaires à l'utilisation appropriée du système. Elles doivent être correctes, c'est-à-dire exactes et à jour. Elles doivent être pertinentes, se concentrant sur les informations utiles pour les déployeurs. Enfin, elles doivent être accessibles et compréhensibles pour les déployeurs, ce qui implique l'utilisation d'un langage adapté au niveau de compétence attendu des utilisateurs professionnels.
Cette combinaison d'exigences apparemment contradictoires (concision et complétude) impose un effort de rédaction important : les instructions doivent fournir toutes les informations nécessaires tout en évitant les redondances et les développements superflus. Une structuration claire et une utilisation appropriée de niveaux de détail différents (par exemple, un résumé exécutif suivi de sections détaillées pour les utilisateurs souhaitant approfondir) peuvent faciliter cet équilibre.
Contenu des instructions d'utilisation
L'article 13, paragraphe 3, énumère six catégories d'informations que les instructions d'utilisation doivent « au moins » contenir. L'utilisation de « au moins » indique que cette liste est un minimum : d'autres informations peuvent devoir être fournies en fonction de la nature spécifique du système.
Le point a) impose l'identification du fournisseur et de son mandataire éventuel. Cette information permet aux déployeurs de savoir qui est responsable du système et qui contacter en cas de question, de problème ou de besoin d'assistance. L'identification doit inclure les coordonnées permettant un contact effectif (adresse, email, téléphone).
Le point b) concerne les caractéristiques, capacités et limites de performance du système. Cette catégorie englobe cinq sous-catégories d'informations détaillées.
Le sous-point i) exige la description de la finalité prévue du système. Cette information est fondamentale car elle délimite le périmètre d'utilisation légitime du système. La finalité prévue doit être décrite avec suffisamment de précision pour permettre au déployeur de déterminer si son cas d'usage particulier entre dans ce périmètre. Une description trop générique (« aide à la décision ») serait insuffisante ; une description appropriée préciserait le domaine d'application, le type de décisions concernées, les contextes d'utilisation prévus.
Le sous-point ii) impose la communication des niveaux de précision, de robustesse et de cybersécurité atteints par le système lors des tests de validation, ainsi que des circonstances susceptibles d'affecter ces performances. Cette exigence crée un lien direct avec l'article 15. Les fournisseurs doivent communiquer les métriques de performance (par exemple, taux de précision, taux de faux positifs et faux négatifs, scores de robustesse) et préciser dans quelles conditions ces performances ont été mesurées. Ils doivent également identifier les facteurs susceptibles de dégrader les performances (par exemple, qualité des données d'entrée, conditions environnementales, évolution du contexte d'utilisation).
Le sous-point iii) impose la description des circonstances connues ou prévisibles pouvant entraîner des risques pour la santé, la sécurité ou les droits fondamentaux. Cette exigence reflète les résultats du système de gestion des risques (article 9) et permet aux déployeurs d'identifier et de gérer les risques dans leur contexte spécifique d'utilisation. Elle couvre à la fois l'utilisation conforme et la mauvaise utilisation raisonnablement prévisible.
Le sous-point iv) concerne les spécifications techniques relatives aux données d'entrée et aux ensembles de données d'entraînement, validation et test. Cette information permet aux déployeurs de vérifier que les données sur lesquelles ils appliqueront le système sont similaires à celles utilisées pour son développement, condition essentielle pour obtenir des performances comparables. Par exemple, pour un système de diagnostic médical, il faut préciser les caractéristiques démographiques et cliniques des populations sur lesquelles le système a été entraîné et testé.
Le sous-point v) impose la fourniture d'informations permettant aux déployeurs d'interpréter les sorties du système. Selon la nature du système, cela peut inclure : la signification des différents types de sorties possibles ; les niveaux de confiance ou scores de probabilité et leur interprétation ; les facteurs ayant le plus influencé le résultat (feature importance) ; des exemples d'interprétation correcte et incorrecte des sorties.
Le point c) concerne les modifications et mises à jour du système. Les instructions doivent décrire la politique de mise à jour du fournisseur : fréquence prévue des mises à jour, types de modifications possibles (corrections de bugs, améliorations de performance, nouvelles fonctionnalités), modalités de déploiement des mises à jour. Cette information permet aux déployeurs de planifier la gestion des mises à jour et de comprendre comment le système évoluera au fil du temps.
Le point d) impose la description des mesures de surveillance humaine prévues à l'article 14. Les instructions doivent expliquer comment la surveillance humaine doit être exercée, quelles sont les responsabilités des opérateurs humains, quelles mesures techniques facilitent cette surveillance (par exemple, interfaces permettant de comprendre les décisions du système, alertes en cas d'anomalie, possibilité d'override des décisions du système).
Le point e) exige la description des performances attendues du système pour des personnes ou groupes spécifiques sur lesquels il est destiné à être utilisé. Cette exigence reconnaît que les performances d'un système d'IA peuvent varier selon les sous-populations auxquelles il est appliqué. Par exemple, un système de reconnaissance faciale peut avoir des performances différentes selon l'âge, le sexe ou l'origine ethnique des personnes. Les fournisseurs doivent communiquer ces variations de performance lorsqu'elles sont connues, permettant aux déployeurs d'identifier d'éventuels biais et d'adapter leur utilisation du système en conséquence.
Le point f) impose, « le cas échéant » et « selon le caractère raisonnable », une description des mécanismes du système d'IA. Cette exigence introduit une certaine flexibilité : tous les systèmes n'ont pas besoin d'une description détaillée de leurs mécanismes internes. Le caractère raisonnable s'apprécie en fonction de la nature de la technologie (certains systèmes sont plus facilement explicables que d'autres) et de la finalité prévue (certains cas d'usage peuvent nécessiter une compréhension plus approfondie des mécanismes). Pour les systèmes complexes basés sur l'apprentissage profond, une description complète des mécanismes internes peut être impossible, mais une description de haut niveau de l'architecture et des principes de fonctionnement reste généralement possible et utile.
Articulation avec la protection des données personnelles
L'article 13 de l'AI Act présente des similitudes avec l'article 13 du RGPD, qui impose également une obligation d'information, mais dans un contexte et avec des objectifs différents. Alors que l'article 13 du RGPD vise à informer les personnes concernées par un traitement de données personnelles de leurs droits et des modalités du traitement, l'article 13 de l'AI Act vise à informer les déployeurs professionnels des caractéristiques et modalités d'utilisation du système d'IA.
Lorsqu'un système d'IA à haut risque traite des données à caractère personnel, les deux obligations d'information s'appliquent cumulativement, mais s'adressent à des destinataires différents. Les instructions d'utilisation prévues par l'article 13 de l'AI Act s'adressent aux déployeurs (personnes morales utilisant le système dans le cadre de leur activité professionnelle), tandis que les informations prévues par l'article 13 du RGPD s'adressent aux personnes physiques dont les données sont traitées. Les déployeurs doivent donc recevoir les instructions d'utilisation du système d'IA et, en tant que responsables de traitement au sens du RGPD, fournir aux personnes concernées les informations requises par le RGPD.
Exemples concrets d'application
📋 Exemple concret d'application de l'article 13 de l'AI Act
Cas d'un système d'IA d'aide au diagnostic médical :
Un éditeur de logiciels médicaux développe un système d'IA destiné à aider les radiologues à détecter des nodules pulmonaires suspects sur des scanners thoraciques. Ce système relève de l'annexe III (dispositifs médicaux) et constitue un système d'IA à haut risque soumis à l'article 13.
Transparence par la conception (article 13, paragraphe 1) :
Le système est conçu dès l'origine pour assurer une transparence suffisante :
- Interface utilisateur présentant non seulement la détection (localisation des nodules suspects) mais aussi un score de confiance pour chaque détection ;
- Visualisation des zones de l'image ayant le plus influencé la décision du système (heat maps) ;
- Comparaison avec des cas similaires issus de la base d'entraînement (cas-based reasoning) ;
- Possibilité pour le radiologue de consulter les caractéristiques des nodules détectés (taille, densité, forme, localisation) utilisées par le système ;
- Alertes automatiques lorsque les caractéristiques de l'image s'écartent significativement de celles des données d'entraînement (détection de out-of-distribution).
Instructions d'utilisation (article 13, paragraphe 2) :
L'éditeur fournit des instructions d'utilisation dans un format numérique (manuel PDF interactif de 80 pages, accessible via l'interface du logiciel) structuré comme suit :
- Résumé exécutif (2 pages) : points clés pour une utilisation rapide ;
- Guide d'utilisation détaillé (30 pages) : description complète des fonctionnalités ;
- Spécifications techniques (25 pages) : données de performance, limitations, spécifications des données d'entrée ;
- Guide d'interprétation des résultats (15 pages) : exemples commentés, cas limites ;
- Annexes techniques (8 pages) : références scientifiques, glossaire.
Le langage utilisé est adapté aux radiologues (utilisateurs professionnels ayant une expertise médicale mais pas nécessairement une expertise technique en IA).
Contenu des instructions (article 13, paragraphe 3) :
a) Identité du fournisseur :
- Nom de l'entreprise : MedAI Solutions SAS ;
- Adresse : 123 Avenue de la Technologie, 75015 Paris, France ;
- Contact technique : support@medai-solutions.fr / +33 1 XX XX XX XX ;
- Représentant légal : Dr. Marie Dupont, CEO ;
- Numéro d'enregistrement : [numéro SIREN].
b) Caractéristiques, capacités et limites :
i) Finalité prévue :
« Le système LungDetect AI est destiné à assister les radiologues dans la détection de nodules pulmonaires suspects sur des scanners thoraciques (CT chest) réalisés chez des patients adultes (≥18 ans) dans un contexte de dépistage ou de diagnostic. Le système n'est pas destiné à remplacer le jugement clinique du radiologue, mais à fournir une aide à la détection (CAD - Computer-Aided Detection). La décision diagnostique finale reste de la responsabilité du radiologue. Le système ne doit pas être utilisé pour d'autres types d'imagerie (radiographie simple, IRM) ou pour d'autres pathologies que les nodules pulmonaires. »
ii) Niveaux de performance :
« Le système a été testé et validé sur un ensemble de 5 000 scanners thoraciques provenant de 15 centres hospitaliers en France, Allemagne et Italie. Les performances suivantes ont été mesurées :
- Sensibilité (taux de détection) : 94,2% pour les nodules ≥6mm ; 87,5% pour les nodules de 4-6mm ;
- Spécificité : 91,8% (taux de faux positifs : 8,2%, soit en moyenne 1,2 faux positifs par scanner) ;
- Valeur prédictive positive : 78,3% ;
- Temps de traitement moyen : 45 secondes par scanner.
Circonstances susceptibles d'affecter la performance :
- Qualité de l'image : les performances peuvent diminuer avec des images de faible qualité (artéfacts, bruit important, résolution insuffisante) ;
- Épaisseur de coupe : le système a été validé pour des coupes de 1-3mm ; des coupes plus épaisses peuvent réduire la sensibilité ;
- Pathologies associées : la présence de pathologies pulmonaires étendues (pneumonie, fibrose diffuse) peut augmenter le taux de faux positifs ;
- Populations non représentées : les performances n'ont pas été validées pour les enfants et adolescents (<18 ans). »
iii) Circonstances pouvant entraîner des risques :
« Risques identifiés :
- Faux négatifs (nodules non détectés) : risque de retard diagnostique si le radiologue se fie excessivement au système sans exercer son propre jugement clinique. Pour minimiser ce risque, le radiologue doit toujours examiner l'intégralité de l'image indépendamment du système ;
- Faux positifs : risque d'examens complémentaires inutiles et d'anxiété pour le patient. Le radiologue doit vérifier chaque détection et utiliser son jugement clinique pour écarter les faux positifs ;
- Utilisation inappropriée : utilisation du système pour des populations ou des types d'imagerie pour lesquels il n'a pas été validé pourrait conduire à des performances fortement dégradées. Le système ne doit être utilisé que dans les limites de sa finalité prévue. »
iv) Spécifications des données d'entrée :
« Le système accepte en entrée des images au format DICOM provenant de scanners thoraciques (CT chest) avec les caractéristiques suivantes :
- Modalité : CT (tomodensitométrie) ;
- Région anatomique : thorax ;
- Épaisseur de coupe recommandée : 1-3mm ;
- Format : DICOM 3.0 ou supérieur ;
- Résolution minimale : 512x512 pixels.
Ensembles de données utilisés pour le développement :
- Données d'entraînement : 25 000 scanners thoraciques provenant de 30 centres en Europe et Amérique du Nord ;
- Distribution démographique : 52% hommes, 48% femmes ; âge moyen 58 ans (18-95 ans) ; 68% caucasiens, 18% asiatiques, 10% africains, 4% autres ;
- Prévalence de nodules : 35% des scanners contiennent au moins un nodule ≥4mm ;
- Annotation : chaque scanner annoté indépendamment par au moins 2 radiologues experts, avec arbitrage par un 3ème radiologue en cas de désaccord. »
v) Interprétation des sorties :
« Le système fournit pour chaque nodule détecté :
- Localisation 3D dans le volume (coordonnées x, y, z) avec visualisation sur l'interface ;
- Score de confiance (0-100%) : probabilité que la détection corresponde à un nodule réel. Interprétation :
* >90% : haute confiance - très probablement un nodule réel ;
* 70-90% : confiance modérée - vérification recommandée ;
* <70% : faible confiance - faux positif probable ;
- Caractéristiques calculées : taille estimée (diamètre moyen en mm), densité, forme ;
- Heat map : visualisation des zones de l'image ayant contribué à la détection ;
- Cas similaires : 3 cas de la base d'entraînement présentant des caractéristiques similaires.
Recommandations d'interprétation :
- Ne jamais considérer une détection comme un diagnostic définitif ;
- Vérifier visuellement chaque détection sur les images natives ;
- Examiner les détections à faible score de confiance pour identifier les faux positifs ;
- Rechercher activement les nodules que le système aurait pu manquer (fonction de 'seconde lecture', pas de lecture unique). »
c) Modifications et mises à jour :
« MedAI Solutions publie des mises à jour du système selon le calendrier suivant :
- Mises à jour de sécurité critiques : dès que nécessaire, sous 48h ;
- Mises à jour correctives (bug fixes) : mensuelles ;
- Mises à jour fonctionnelles (améliorations de performance) : trimestrielles ;
- Versions majeures : annuelles.
Les mises à jour sont notifiées par email aux administrateurs systèmes et peuvent être déployées automatiquement (après approbation) ou manuellement. Chaque mise à jour est accompagnée de notes de version détaillant les modifications. Les mises à jour de performance impliquant un réentraînement du modèle font l'objet d'une revalidation et d'une mise à jour de la documentation. »
d) Mesures de surveillance humaine :
« Le système est conçu pour fonctionner sous surveillance humaine constante :
- Chaque détection doit être examinée et validée ou rejetée par le radiologue ;
- L'interface permet au radiologue d'ajouter des nodules non détectés par le système ;
- Le radiologue peut modifier les caractéristiques des nodules détectés ;
- Un rapport final est généré incluant à la fois les détections du système et les annotations du radiologue ;
- Formation recommandée : 2 sessions de 2 heures incluant théorie de l'IA médicale, fonctionnement du système, cas pratiques, limites et bonnes pratiques. »
e) Performances selon les sous-groupes :
« Analyse des performances par sous-groupes :
- Sexe : sensibilité 94,5% (hommes) vs 93,8% (femmes) - différence non significative ;
- Âge : sensibilité 95,1% (<65 ans) vs 93,2% (≥65 ans) - légère diminution chez les seniors, probablement due à la fréquence accrue de pathologies associées ;
- Origine ethnique : sensibilité 94,8% (caucasiens) vs 92,5% (asiatiques) vs 91,7% (africains) - variations modérées ;
- Taille de nodule : sensibilité 98,2% (≥10mm), 94,2% (6-10mm), 87,5% (4-6mm) - diminution attendue pour les petits nodules. »
f) Description des mécanismes :
« Le système utilise un réseau de neurones convolutif profond (CNN - Convolutional Neural Network) de type U-Net modifié, entraîné sur 25 000 scanners thoraciques annotés. L'architecture comprend :
- Phase de détection : localisation des candidats nodules dans le volume 3D ;
- Phase de classification : discrimination des vrais nodules vs faux positifs ;
- Phase de caractérisation : estimation des propriétés des nodules détectés.
Le système ne fournit pas d'interprétabilité totale (boîte grise) mais utilise des techniques d'explicabilité (Grad-CAM) pour visualiser les zones de l'image influençant les décisions. Des détails techniques supplémentaires sont disponibles dans les publications scientifiques listées en annexe. »
Articulation avec les autres dispositions de l'AI Act
L'article 13 s'articule étroitement avec l'article 14 sur la surveillance humaine : les informations fournies dans les instructions d'utilisation doivent permettre aux opérateurs humains d'exercer effectivement cette surveillance. Sans informations appropriées sur le fonctionnement du système, ses limites et l'interprétation de ses sorties, la surveillance humaine serait réduite à une formalité ineffective.
L'article 13 est en lien direct avec l'article 9 sur la gestion des risques : les informations relatives aux risques identifiés et aux circonstances pouvant affecter la sécurité ou les droits fondamentaux (paragraphe 3, point b, sous-point iii) découlent directement du système de gestion des risques. Les instructions d'utilisation constituent ainsi l'un des principaux vecteurs de communication des résultats de l'analyse des risques aux déployeurs.
L'article 13 s'inscrit dans la continuité de l'article 11 sur la documentation technique. Alors que la documentation technique s'adresse principalement aux autorités compétentes et aux organismes notifiés, les instructions d'utilisation s'adressent aux déployeurs. Ces deux types de documentation peuvent se recouper partiellement, mais poursuivent des objectifs distincts et s'adressent à des publics différents.
L'article 13 crée également un lien avec l'article 15 sur l'exactitude, la robustesse et la cybersécurité, puisque les instructions d'utilisation doivent communiquer les niveaux de performance atteints pour ces dimensions (paragraphe 3, point b, sous-point ii). Cette exigence garantit que les déployeurs connaissent les performances réelles du système et peuvent former des attentes appropriées.
Enfin, l'article 13 s'articule avec les obligations des déployeurs prévues à l'article 26, qui impose notamment aux déployeurs d'utiliser les systèmes d'IA conformément aux instructions d'utilisation. Les instructions constituent ainsi l'interface normative entre fournisseurs et déployeurs, définissant les conditions d'utilisation appropriée du système.
Implications pratiques pour les organisations
Pour les fournisseurs de systèmes d'IA à haut risque, l'article 13 impose un investissement significatif dans la rédaction d'instructions d'utilisation de qualité. Cette documentation ne peut être considérée comme une simple formalité administrative, mais doit constituer un véritable outil opérationnel facilitant l'utilisation appropriée du système par les déployeurs.
La rédaction des instructions d'utilisation doit mobiliser des compétences pluridisciplinaires : expertise technique pour expliquer le fonctionnement du système, connaissance du domaine d'application pour identifier les informations pertinentes pour les utilisateurs, compétences rédactionnelles pour produire une documentation claire et accessible. Le recours à des rédacteurs techniques professionnels et à des experts du domaine d'application peut être nécessaire pour garantir la qualité de la documentation.
L'exigence de transparence par la conception (paragraphe 1) doit être prise en compte dès les premières phases de développement du système. Les organisations doivent intégrer des fonctionnalités d'explicabilité et de visualisation des décisions du système dans les spécifications fonctionnelles initiales, plutôt que de tenter de les ajouter a posteriori. Le choix des architectures de modèles et des techniques d'apprentissage peut être influencé par cette exigence de transparence.
Les instructions d'utilisation doivent être maintenues à jour tout au long du cycle de vie du système, reflétant les modifications apportées au système, les mises à jour de performance, et les nouveaux risques ou limitations identifiés grâce à la surveillance après commercialisation. Les organisations doivent mettre en place des processus de gestion documentaire garantissant que la version en vigueur des instructions est toujours accessible aux déployeurs et correspond effectivement au système déployé.
Pour les déployeurs, l'article 13 impose de lire et de comprendre les instructions d'utilisation avant de déployer le système. Les organisations déployeuses doivent allouer du temps à la formation de leurs opérateurs sur la base de ces instructions, et s'assurer que les procédures internes d'utilisation du système sont cohérentes avec les instructions du fournisseur. Le non-respect des instructions d'utilisation peut engager la responsabilité du déployeur en cas d'incident.
Les contrats entre fournisseurs et déployeurs devraient inclure des clauses spécifiques relatives à la fourniture, la mise à jour et la prise en compte des instructions d'utilisation, définissant les responsabilités de chaque partie et les modalités de communication des mises à jour documentaires.
L'article 13 de l'AI Act établit un cadre complet pour la transparence des systèmes d'IA à haut risque et la fourniture d'informations aux déployeurs. En combinant une exigence de conception pour la transparence du système lui-même et une obligation de documentation détaillée via les instructions d'utilisation, il garantit que les déployeurs disposent des informations nécessaires pour utiliser les systèmes de manière appropriée et exercer la surveillance humaine requise.
Le niveau de détail des informations requises dans les instructions d'utilisation témoigne de l'approche pragmatique du règlement : plutôt que d'exiger une transparence totale et théorique des mécanismes internes des systèmes d'IA, l'AI Act se concentre sur la fourniture d'informations utiles et compréhensibles permettant une utilisation éclairée et responsable. Cette approche reconnaît les limites de l'explicabilité des systèmes complexes tout en garantissant un niveau d'information suffisant pour la redevabilité.
Pour les organisations, l'article 13 impose des investissements dans la conception de systèmes transparents et dans la rédaction de documentation de qualité. Ces investissements ne doivent pas être perçus comme une contrainte purement réglementaire, mais comme un facteur de confiance et d'adoption des systèmes d'IA : des utilisateurs bien informés sont des utilisateurs plus confiants et plus compétents, contribuant au succès des déploiements d'IA.