L'article 69 du Règlement (UE) 2024/1689 encourage l'élaboration de codes de conduite volontaires pour les systèmes d'IA qui ne sont pas classés à haut risque. Ces codes permettent d'étendre les bonnes pratiques au-delà des obligations réglementaires strictes.
Texte officiel de l'article 69 de l'AI Act
1. Le Bureau de l'IA et les États membres encouragent et facilitent l'élaboration de codes de conduite, y compris par les fournisseurs et les déployeurs, destinés à favoriser l'application volontaire à des systèmes d'IA autres que les systèmes d'IA à haut risque de tout ou partie des exigences prévues au chapitre III, section 2, compte tenu des solutions techniques disponibles et des bonnes pratiques du secteur permettant l'application de ces exigences.
2. Le Bureau de l'IA et les États membres facilitent l'élaboration de codes de conduite concernant l'application volontaire d'exigences spécifiques à tous les systèmes d'IA, y compris par les fournisseurs et les déployeurs, sur la base d'objectifs clairs et d'indicateurs de performance clés permettant de mesurer la réalisation de ces objectifs.
3. Les codes de conduite peuvent être élaborés par des fournisseurs ou déployeurs individuels de systèmes d'IA ou par des organisations les représentant, ou les deux, y compris avec la participation de toute partie prenante intéressée et de leurs organisations représentatives.
Analyse juridique
Champ d'application étendu
Contrairement aux articles précédents qui visent les systèmes à haut risque ou les modèles à usage général, l'article 69 concerne tous les systèmes d'IA, y compris ceux à risque limité ou minimal. Il encourage l'application volontaire des bonnes pratiques.
Application volontaire des exigences
Les codes peuvent porter sur l'application volontaire des exigences du chapitre III, section 2 (gestion des risques, données, transparence, etc.) à des systèmes qui n'y sont pas soumis obligatoirement. Cette approche "by design" favorise une IA responsable à tous les niveaux.
Objectifs et indicateurs
Les codes doivent définir des objectifs clairs et des indicateurs de performance (KPIs) permettant de mesurer leur mise en œuvre effective. Cette exigence de mesurabilité distingue les codes sérieux des simples déclarations d'intention.
Élaboration participative
Les codes peuvent être élaborés individuellement ou collectivement, avec la participation de toutes les parties prenantes (fournisseurs, déployeurs, société civile, chercheurs). Cette approche multi-acteurs renforce leur légitimité.
Exemple d'application
📋 Code de conduite sectoriel
Une association de fournisseurs de chatbots (systèmes à risque limité) élabore un code de conduite volontaire prévoyant : transparence sur la nature IA du système, non-collecte de données sensibles sans consentement explicite, mécanismes de recours pour les utilisateurs, et audit annuel par un tiers. Des KPIs mesurent l'application : taux de conformité des membres, nombre de réclamations, résultats d'audits.
L'article 69 promeut une culture de l'IA responsable au-delà des obligations légales, encourageant l'ensemble de l'écosystème à adopter des pratiques éthiques et transparentes.