L'article 95 du Règlement (UE) 2024/1689 encourage l'élaboration de codes de conduite volontaires pour les systèmes d'intelligence artificielle non classés comme à haut risque, ainsi que pour les systèmes à haut risque souhaitant aller au-delà des exigences minimales obligatoires. Cette disposition reflète une approche réglementaire équilibrée combinant obligations contraignantes pour les systèmes les plus risqués et incitation à l'autorégulation responsable pour l'ensemble de l'écosystème de l'IA. Les codes de conduite constituent un instrument de soft law complémentaire à la hard law que représentent les obligations contraignantes de l'AI Act.

L'article 95 reconnaît que la régulation de l'IA ne peut se limiter aux seuls systèmes à haut risque : de nombreux systèmes d'IA, bien que non soumis aux obligations les plus strictes, présentent des enjeux éthiques, sociaux, ou environnementaux méritant une attention. Les codes de conduite offrent un mécanisme permettant aux fournisseurs et déployeurs d'adopter volontairement des bonnes pratiques allant au-delà du minimum légal, démontrant leur engagement envers une IA responsable, renforçant la confiance du public et des parties prenantes, anticipant d'éventuelles évolutions réglementaires futures, et se différenciant positivement sur le marché.

L'article 95 confie à la Commission européenne et aux États membres un rôle d'encouragement et de facilitation de l'élaboration de ces codes, sans les rendre obligatoires. Cette approche incitative vise à mobiliser l'initiative de l'industrie, des associations professionnelles, et des parties prenantes pour développer des standards éthiques et techniques adaptés aux spécificités sectorielles et technologiques, tout en préservant la flexibilité et l'innovation. Les codes de conduite constituent ainsi un pont entre régulation contraignante et responsabilité volontaire, contribuant à l'émergence d'une culture européenne de l'IA responsable.

Texte officiel de l'article 95 de l'AI Act

L'article 95 de l'AI Act dispose :

« 1. La Commission et les États membres encouragent et facilitent l'élaboration de codes de conduite destinés à favoriser l'application volontaire, par les fournisseurs ou déployeurs de systèmes d'IA autres que les systèmes d'IA à haut risque, d'au moins une partie des exigences énoncées au titre III, chapitre 2.

2. La Commission et les États membres facilitent l'élaboration de codes de conduite concernant l'application volontaire d'exigences spécifiques aux systèmes d'IA à haut risque par les fournisseurs de ces systèmes, sur la base des spécifications techniques disponibles et en coopération avec les parties prenantes concernées et leurs organisations représentatives, y compris les organisations de consommateurs et les organisations sociales et environnementales.

Les codes de conduite peuvent être élaborés par des fournisseurs ou déployeurs individuels ou par des organisations les représentant ou par les deux, y compris avec la participation de toutes les parties prenantes intéressées et de leurs organisations représentatives, y compris les organisations de consommateurs et les organisations sociales et environnementales.

3. Les codes de conduite peuvent porter notamment sur les aspects suivants :

a) l'application d'exigences allant au-delà des obligations prévues au titre III, chapitre 2, y compris par la prise en compte des spécifications techniques et des solutions disponibles visant à mesurer et à réduire la consommation d'énergie et de ressources des systèmes d'IA et leur empreinte environnementale globale, y compris celle du modèle d'IA et du processus d'entraînement ;

b) l'application volontaire des exigences énoncées au titre III, chapitre 2, aux systèmes d'IA autres que les systèmes d'IA à haut risque ;

c) la mise en place de mécanismes de gouvernance adéquats pour garantir le respect des codes de conduite. »

« 4. La Commission et les États membres tiennent compte des intérêts et des besoins spécifiques des PME, y compris des jeunes pousses, lors de l'encouragement et de la facilitation de l'élaboration de codes de conduite. »

Cet article encourage donc l'élaboration volontaire de codes de conduite pour systèmes IA non haut risque (application de tout ou partie des exigences du Titre III, Chapitre 2) et pour systèmes haut risque souhaitant aller au-delà des obligations, avec attention particulière aux PME et aux enjeux environnementaux.

Analyse juridique de l'article 95

Encouragement des codes de conduite pour systèmes non haut risque

L'article 95, paragraphe 1, prévoit que « la Commission et les États membres encouragent et facilitent l'élaboration de codes de conduite destinés à favoriser l'application volontaire, par les fournisseurs ou déployeurs de systèmes d'IA autres que les systèmes d'IA à haut risque, d'au moins une partie des exigences énoncées au titre III, chapitre 2 ». Cette disposition vise les systèmes d'IA qui, n'étant pas classés à haut risque, ne sont pas soumis aux obligations contraignantes du Titre III, Chapitre 2 (articles 9-15 : gestion des risques, qualité des données, documentation technique, transparence, surveillance humaine, exactitude, robustesse, cybersécurité).

« Encouragent et facilitent » : La Commission et les États membres ne créent pas eux-mêmes les codes de conduite, mais jouent un rôle de catalyseur et de soutien. Ils peuvent lancer des consultations publiques sur les thématiques prioritaires, fournir des plateformes de dialogue et de co-élaboration réunissant industrie, société civile, académie, offrir des ressources méthodologiques (guides sur l'élaboration de codes de conduite, exemples de bonnes pratiques), reconnaître publiquement les codes de conduite élaborés (certification, label), ou financer des initiatives d'élaboration de codes (subventions, appels à projets).

« Application volontaire » : L'adhésion aux codes de conduite est libre. Les fournisseurs et déployeurs choisissent de s'y conformer sans y être légalement contraints. Toutefois, une fois qu'un acteur s'engage publiquement à respecter un code, cet engagement peut créer des attentes légitimes et potentiellement des responsabilités contractuelles ou réputationnelles en cas de non-respect.

« D'au moins une partie des exigences énoncées au titre III, chapitre 2 » : Les codes de conduite peuvent ne pas reprendre l'intégralité des exigences des systèmes à haut risque (ce qui pourrait être disproportionné pour certains systèmes à risque limité), mais au moins une partie. Par exemple, un code pourrait se concentrer sur la transparence et la documentation sans imposer l'ensemble du système de gestion des risques complet, ou se limiter à certaines exigences de qualité des données. Cette flexibilité permet une proportionnalité adaptée aux différents niveaux de risque des systèmes non haut risque.

Codes de conduite pour systèmes à haut risque allant au-delà des obligations

L'article 95, paragraphe 2, prévoit que « la Commission et les États membres facilitent l'élaboration de codes de conduite concernant l'application volontaire d'exigences spécifiques aux systèmes d'IA à haut risque par les fournisseurs de ces systèmes, sur la base des spécifications techniques disponibles et en coopération avec les parties prenantes concernées ». Cette disposition vise les fournisseurs de systèmes à haut risque qui, au-delà du respect des obligations minimales contraignantes, souhaitent démontrer un engagement renforcé.

« Exigences spécifiques aux systèmes d'IA à haut risque » allant au-delà des obligations peuvent inclure des niveaux de performance ou d'exactitude supérieurs aux minima requis, des mesures de transparence renforcées (explications détaillées des décisions au-delà des exigences de base), des tests et audits plus fréquents ou plus approfondis que le minimum requis, des engagements environnementaux (réduction de l'empreinte carbone de l'entraînement), ou des garanties sociales (engagement de diversité dans les équipes de développement, consultation de groupes affectés).

« Sur la base des spécifications techniques disponibles » : Les codes de conduite doivent s'appuyer sur l'état de l'art technique et scientifique, garantissant qu'ils sont réalistes et fondés sur des méthodologies éprouvées. Les spécifications techniques peuvent provenir de normes harmonisées, de travaux d'organismes de normalisation, de recherches académiques, ou de bonnes pratiques industrielles.

« En coopération avec les parties prenantes concernées et leurs organisations représentatives, y compris les organisations de consommateurs et les organisations sociales et environnementales » : L'élaboration des codes doit être inclusive, intégrant les perspectives non seulement des fournisseurs mais aussi des utilisateurs (organisations de consommateurs), de la société civile (organisations sociales préoccupées par les impacts sur les droits, l'équité, l'inclusion), et d'acteurs environnementaux. Cette approche multi-parties prenantes garantit l'équilibre et la légitimité des codes.

Acteurs de l'élaboration des codes

L'article 95, paragraphe 2, alinéa 2, précise que « les codes de conduite peuvent être élaborés par des fournisseurs ou déployeurs individuels ou par des organisations les représentant ou par les deux, y compris avec la participation de toutes les parties prenantes intéressées et de leurs organisations représentatives ». Cette formulation reconnaît la diversité des modalités d'élaboration possibles.

Des « fournisseurs ou déployeurs individuels » peuvent élaborer leurs propres codes internes, publiquement engageants, démontrant leur approche responsable de l'IA. Ces codes uniques permettent aux entreprises pionnières de se différencier. Des « organisations les représentant » (associations professionnelles, fédérations sectorielles, chambres de commerce) peuvent élaborer des codes collectifs adoptés par leurs membres, mutualisant les efforts et harmonisant les pratiques au sein d'un secteur. Une « combinaison » fournisseurs/déployeurs individuels et organisations permet des initiatives hybrides (par exemple, un consortium temporaire réunissant quelques grandes entreprises et une association sectorielle).

« Y compris avec la participation de toutes les parties prenantes intéressées » : Bien que les fournisseurs/déployeurs ou leurs organisations soient les porteurs des codes, la participation d'autres parties prenantes (académiques, ONG, syndicats, représentants d'utilisateurs) enrichit les codes et renforce leur légitimité sociale. Les codes co-construits ont généralement une meilleure acceptabilité que ceux élaborés unilatéralement par l'industrie.

Contenu potentiel des codes

L'article 95, paragraphe 3, énumère de manière non exhaustive (« notamment ») trois domaines que les codes de conduite peuvent couvrir.

Point a) Exigences renforcées et enjeux environnementaux : « L'application d'exigences allant au-delà des obligations prévues au titre III, chapitre 2, y compris par la prise en compte des spécifications techniques et des solutions disponibles visant à mesurer et à réduire la consommation d'énergie et de ressources des systèmes d'IA et leur empreinte environnementale globale, y compris celle du modèle d'IA et du processus d'entraînement. »

Cette mention explicite des enjeux environnementaux est significative : l'AI Act reconnaît que l'entraînement de grands modèles d'IA peut avoir une empreinte carbone et énergétique substantielle (notamment pour les modèles de deep learning nécessitant des calculs massifs sur GPU). Les codes de conduite peuvent encourager la mesure et la transparence de cette empreinte (reporting de l'empreinte carbone de l'entraînement), l'utilisation d'énergies renouvelables pour les centres de données, l'optimisation algorithmique réduisant les besoins en calcul, le partage de modèles pré-entraînés évitant des entraînements redondants, ou la prise en compte du cycle de vie complet (fabrication du matériel, utilisation, fin de vie).

Cette dimension environnementale, absente des obligations contraignantes de l'AI Act, peut devenir un axe de différenciation pour les fournisseurs responsables et un levier de pression pour les parties prenantes soucieuses de durabilité.

Point b) Application volontaire aux systèmes non haut risque : « L'application volontaire des exigences énoncées au titre III, chapitre 2, aux systèmes d'IA autres que les systèmes d'IA à haut risque. » Cette disposition reprend et précise le paragraphe 1 : les codes peuvent encourager les fournisseurs de systèmes non haut risque à appliquer volontairement tout ou partie des exigences strictes des systèmes à haut risque (gestion des risques, documentation, tests, etc.), démontrant un engagement proactif envers la qualité et la sécurité au-delà du strict minimum légal.

Point c) Mécanismes de gouvernance : « La mise en place de mécanismes de gouvernance adéquats pour garantir le respect des codes de conduite. » Cette dimension est essentielle pour l'effectivité des codes : sans mécanismes de vérification et de responsabilisation, les codes risquent de rester des déclarations d'intention sans portée réelle. Les mécanismes de gouvernance peuvent inclure des procédures de contrôle interne (audits réguliers de conformité au code), des vérifications par des tiers indépendants (certification par des organismes externes), des mécanismes de plainte et de recours (permettant aux parties prenantes de signaler des violations), des sanctions ou des conséquences en cas de non-respect (exclusion d'une association, retrait d'un label, publication du non-respect), et un reporting public sur la conformité au code (transparence).

Ces mécanismes renforcent la crédibilité des codes et les distinguent de simples déclarations marketing.

Attention aux PME et aux jeunes pousses

L'article 95, paragraphe 4, impose que « la Commission et les États membres tiennent compte des intérêts et des besoins spécifiques des PME, y compris des jeunes pousses, lors de l'encouragement et de la facilitation de l'élaboration de codes de conduite ». Cette disposition reconnaît que les PME et les startups disposent de ressources limitées et peuvent rencontrer des difficultés pour participer à l'élaboration de codes ou pour s'y conformer si ceux-ci sont trop exigeants.

« Tenir compte » des besoins des PME peut impliquer de prévoir des versions simplifiées ou allégées des codes adaptées aux PME, de fournir des outils et des ressources d'accompagnement gratuits ou subventionnés, d'accorder des délais de mise en conformité plus longs pour les PME adhérant à un code, de favoriser la participation des représentants de PME dans les instances d'élaboration des codes, ou d'éviter des coûts de certification ou de contrôle prohibitifs pour les petites structures.

Cette attention aux PME reflète la volonté de ne pas créer de barrières disproportionnées à l'entrée et de garantir que les codes de conduite bénéficient à l'ensemble de l'écosystème, pas uniquement aux grands acteurs disposant de ressources substantielles.

Exemples concrets d'application

Exemple concret d'application de l'article 95 de l'AI Act

Élaboration d'un code de conduite sectoriel pour l'IA dans le retail

Contexte :

En 2027, un an après l'entrée en application complète de l'AI Act, l'association professionnelle européenne du retail « RetailEurope » (représentant 500 entreprises de commerce de détail, dont 80% de PME) constate que ses membres utilisent de nombreux systèmes d'IA non classés à haut risque : systèmes de recommandation de produits aux consommateurs, chatbots de service client, outils d'optimisation de stocks, systèmes de prévision de la demande, ou outils d'analyse du comportement des consommateurs en magasin.

Bien que ces systèmes ne soient pas à haut risque au sens de l'Annexe III de l'AI Act, ils présentent des enjeux éthiques (respect de la vie privée, transparence, équité) et des préoccupations de consommateurs et de régulateurs. RetailEurope décide d'élaborer un code de conduite volontaire conformément à l'article 95.

1. Initiative et encouragement par la Commission (paragraphes 1, 4) :

En janvier 2027, la Commission européenne lance un appel à initiatives « Codes de conduite IA responsable » avec un budget de 5 millions d'euros pour soutenir l'élaboration de codes sectoriels. RetailEurope candidate et obtient un financement de 200 000€ pour :
- Organiser des ateliers multi-parties prenantes
- Engager des consultants spécialisés en IA éthique
- Développer des outils d'accompagnement pour les PME
- Piloter et évaluer le code sur 1 an

La Commission met également à disposition une méthodologie d'élaboration de codes de conduite et facilite les contacts avec des organisations de consommateurs et des experts.

2. Élaboration multi-parties prenantes (paragraphe 2) :

RetailEurope constitue un groupe de travail de 30 membres :

- 15 représentants d'entreprises membres (10 PME, 5 grandes enseignes)
- 5 représentants d'organisations de consommateurs européennes (BEUC, associations nationales)
- 3 experts académiques en IA éthique et protection des données
- 3 représentants d'ONG de protection de la vie privée
- 2 représentants de syndicats (préoccupations sur l'impact de l'IA sur l'emploi dans le retail)
- 2 représentants du Bureau de l'IA et du Comité européen de l'IA (observateurs-conseillers)

Entre février et septembre 2027, le groupe se réunit mensuellement (6 réunions physiques, 3 visioconférences) et mène des consultations publiques auprès de 200 entreprises du retail et de 5000 consommateurs.

3. Contenu du code de conduite (paragraphes 1-3) :

En octobre 2027, le groupe finalise le « Code de conduite européen pour une IA responsable dans le retail ». Le code comporte 25 pages et couvre :

Préambule :
- Reconnaissance des enjeux éthiques de l'IA dans le retail
- Engagement volontaire des signataires envers des pratiques responsables
- Complémentarité avec les obligations légales (AI Act, RGPD, législation consommateurs)

Chapitre 1 - Transparence envers les consommateurs (paragraphe 3, point b - application volontaire d'exigences Titre III) :

Engagement 1.1 : Les signataires s'engagent à informer clairement les consommateurs lorsqu'ils interagissent avec un système d'IA (par exemple, un chatbot) ou lorsque des recommandations de produits sont générées par IA.
Modalités pratiques : Mention visible « Recommandé par IA » sur les sites web et applications, information accessible sur le fonctionnement général des systèmes d'IA utilisés.

Engagement 1.2 : Les signataires expliquent de manière accessible les principaux facteurs influençant les recommandations personnalisées (historique d'achat, navigation, préférences déclarées, etc.).

Chapitre 2 - Protection de la vie privée et qualité des données (paragraphe 3, point b) :

Engagement 2.1 : Conformité stricte au RGPD (déjà obligatoire, mais réaffirmé) : consentement éclairé pour collecte de données, droit d'accès et d'effacement, sécurité des données.
Engagement 2.2 : Minimisation des données : Les systèmes d'IA n'utilisent que les données strictement nécessaires à leur finalité.
Engagement 2.3 : Qualité et diversité des données d'entraînement : Les signataires s'efforcent d'entraîner leurs systèmes sur des données représentatives de la diversité des consommateurs, évitant les biais discriminatoires.

Chapitre 3 - Équité et non-discrimination :

Engagement 3.1 : Les signataires s'engagent à évaluer régulièrement leurs systèmes d'IA pour détecter d'éventuels biais discriminatoires (par exemple, recommandations systématiquement différentes selon le genre, l'origine supposée, l'âge).
Engagement 3.2 : En cas de détection de biais significatifs, les signataires s'engagent à prendre des mesures correctrices dans un délai de 3 mois.

Chapitre 4 - Surveillance humaine et recours :

Engagement 4.1 : Les signataires garantissent qu'aucune décision défavorable au consommateur (refus de crédit, exclusion d'une promotion, etc.) n'est prise uniquement sur la base d'une décision automatisée d'IA sans intervention humaine.
Engagement 4.2 : Les consommateurs disposent d'un mécanisme de recours leur permettant de contester une recommandation ou une décision d'IA et de demander une révision humaine.

Chapitre 5 - Durabilité environnementale (paragraphe 3, point a) :

Engagement 5.1 : Les signataires s'engagent à mesurer annuellement l'empreinte carbone de leurs systèmes d'IA (entraînement des modèles, inférence).
Engagement 5.2 : Les signataires s'efforcent de réduire progressivement cette empreinte en privilégiant les centres de données alimentés par énergies renouvelables, en optimisant les algorithmes, et en partageant les modèles pré-entraînés au sein de l'industrie lorsque possible.
Engagement 5.3 : Reporting annuel public (agrégé) de l'empreinte environnementale des IA du secteur.

Chapitre 6 - Gouvernance et respect du code (paragraphe 3, point c) :

Engagement 6.1 : Chaque signataire désigne un responsable interne « IA Responsable » chargé de superviser la conformité au code.
Engagement 6.2 : Auto-évaluation annuelle de conformité au code, avec rapport soumis à RetailEurope.
Engagement 6.3 : Audit externe indépendant tous les 2 ans pour les grandes entreprises (facultatif pour PME compte tenu des coûts - paragraphe 4).
Engagement 6.4 : Mécanisme de plainte : Les consommateurs ou parties prenantes peuvent signaler des violations présumées du code à un comité de supervision créé par RetailEurope.
Engagement 6.5 : Sanctions en cas de non-respect avéré et non corrigé : Avertissement privé, avertissement public, exclusion de l'association (mesure ultime).

Chapitre 7 - Accompagnement des PME (paragraphe 4) :

RetailEurope s'engage à fournir aux PME signataires :
- Guide simplifié d'application du code (15 pages au lieu de 25)
- Templates et checklists facilitant l'auto-évaluation
- Webinaires de formation gratuits (4 par an)
- Hotline téléphonique pour questions pratiques
- Délai de mise en conformité de 18 mois pour PME (contre 12 mois pour grandes entreprises)

4. Lancement et adhésion (octobre 2027) :

RetailEurope organise un événement de lancement du code en présence de la Commissaire européenne au Marché intérieur, de représentants du Bureau de l'IA, et des médias.

Dans les 3 premiers mois :
- 80 entreprises signent le code (dont 60 PME, 20 grandes enseignes)
- Les signataires reçoivent un logo « IA Responsable Retail » à afficher sur leurs sites et magasins
- Un site web dédié publie la liste des signataires et le texte du code

5. Mise en œuvre et effets (2028-2029) :

Effets positifs :

Pour les consommateurs :
- Transparence accrue : Les consommateurs comprennent mieux quand et comment l'IA est utilisée
- Confiance renforcée : 67% des consommateurs interrogés déclarent avoir plus confiance envers les enseignes signataires
- Recours effectifs : 150 demandes de révision humaine traitées en 2028, dont 30% aboutissant à des corrections

Pour les entreprises :
- Différenciation positive : Les signataires peuvent communiquer sur leur engagement éthique
- Anticipation réglementaire : Le code prépare les entreprises à d'éventuelles futures obligations
- Mutualisation : Partage de bonnes pratiques, réduction de coûts de R&D éthique
- 12 PME signataires rapportent avoir gagné des appels d'offres grâce à leur adhésion au code

Pour le secteur :
- Image positive : Le secteur retail est perçu comme proactif et responsable
- Réduction des risques réglementaires : Le code démontre la capacité d'autorégulation, réduisant la pression pour des réglementations supplémentaires
- Empreinte environnementale : Réduction agrégée de 15% de l'empreinte carbone des IA du retail en 2 ans (optimisations, énergies vertes)

Difficultés rencontrées :
- 5 PME signataires renoncent après 1 an, jugeant les exigences trop lourdes malgré les allégements
- 2 cas de violations du code identifiés (biais discriminatoires non corrigés) : Avertissements émis, mesures correctrices exigées
- Certains acteurs non-signataires critiquent le code comme « barrière à l'entrée » ou « marketing trompeur »

6. Reconnaissance et extension (2029) :

En 2029 :
- 150 entreprises signataires (30% du marché européen du retail)
- La Commission européenne publie un rapport saluant le code comme « exemple de bonne pratique d'autorégulation responsable »
- D'autres secteurs (finance, tourisme, médias) s'inspirent du modèle pour développer leurs propres codes
- Le Comité européen de l'IA intègre certains éléments du code dans ses lignes directrices générales sur l'IA non haut risque

Cet exemple illustre comment l'article 95 fonctionne concrètement : une association sectorielle, encouragée et soutenue par la Commission, élabore un code de conduite volontaire en coopération avec des parties prenantes diverses, couvrant des exigences allant au-delà du strict minimum légal (transparence, équité, environnement), prévoyant des mécanismes de gouvernance garantissant le respect, et tenant compte des besoins des PME. Le code crée de la valeur pour les consommateurs, les entreprises, et le secteur, démontrant l'efficacité de l'autorégulation responsable complémentaire à la réglementation contraignante.

Articulation avec les autres dispositions de l'AI Act

L'article 95 complète l'approche réglementaire de l'AI Act en offrant un mécanisme volontaire pour les systèmes non soumis aux obligations les plus strictes. Alors que le Titre III établit des obligations contraignantes pour les systèmes à haut risque, l'article 95 encourage une élévation volontaire des standards pour l'ensemble de l'écosystème de l'IA.

L'article 95 s'articule avec les travaux du Comité européen de l'IA (articles 65-66) et du Forum consultatif (article 67) : ces organes peuvent contribuer à l'élaboration de codes de conduite en fournissant de l'expertise, en facilitant le dialogue entre parties prenantes, et en reconnaissant les codes conformes aux objectifs de l'AI Act.

L'article 95 peut également s'articuler avec l'article 40 de l'AI Act relatif aux normes harmonisées : les codes de conduite peuvent s'appuyer sur des normes techniques en cours d'élaboration, créant un pont entre autorégulation volontaire et normalisation technique.

Pour les systèmes d'IA relevant d'autres réglementations (RGPD, législation consommateurs, réglementations sectorielles), les codes de conduite de l'article 95 peuvent intégrer et articuler ces différentes obligations, offrant une vision cohérente et holistique de la conformité.

Implications pratiques pour les organisations

Pour les fournisseurs et déployeurs de systèmes d'IA non haut risque, l'article 95 offre une opportunité de démontrer volontairement leur engagement envers l'IA responsable. L'adhésion à un code de conduite peut constituer un avantage compétitif (différenciation positive, confiance des clients), une anticipation réglementaire (préparation à d'éventuelles futures obligations), une mutualisation des coûts de conformité (via des ressources collectives), et une protection réputationnelle (démonstration proactive de responsabilité).

Toutefois, les organisations doivent être conscientes que l'adhésion à un code crée des attentes et potentiellement des responsabilités : le non-respect d'engagements publics peut entraîner des conséquences réputationnelles, des sanctions par les pairs (exclusion d'associations), ou des actions en justice (publicité mensongère si l'adhésion au code est utilisée à des fins marketing sans respect effectif). Les organisations ne doivent adhérer qu'aux codes qu'elles sont réellement capables et déterminées à respecter.

Pour les PME et les startups, l'article 95, paragraphe 4, garantit que leurs besoins spécifiques doivent être pris en compte. Les PME devraient rechercher des codes offrant des versions simplifiées, des outils d'accompagnement, et des délais de mise en conformité adaptés. Elles peuvent également se regrouper au sein d'associations pour mutualiser les efforts d'élaboration et de respect des codes.

Pour les associations professionnelles et les organisations sectorielles, l'article 95 constitue une opportunité de leadership et de valorisation : en prenant l'initiative d'élaborer des codes de conduite, elles démontrent la maturité et la responsabilité de leur secteur, contribuent à façonner les standards éthiques et techniques de leur domaine, et peuvent influencer positivement les futures évolutions réglementaires en démontrant la capacité d'autorégulation.

L'article 95 de l'AI Act encourage l'élaboration de codes de conduite volontaires comme instrument complémentaire à la régulation contraignante, reconnaissant que l'IA responsable ne peut reposer uniquement sur des obligations légales minimales mais nécessite également l'engagement proactif des acteurs économiques et la mobilisation des parties prenantes. En incitant les fournisseurs et déployeurs de systèmes d'IA non haut risque à adopter volontairement des bonnes pratiques, et en encourageant les fournisseurs de systèmes à haut risque à aller au-delà des exigences minimales, cet article vise à élever les standards de l'ensemble de l'écosystème de l'IA en Europe.

Les codes de conduite reflètent une approche réglementaire équilibrée combinant hard law (obligations contraignantes pour les risques les plus élevés) et soft law (incitations et autorégulation pour le reste du spectre). Cette combinaison permet de garantir un niveau de protection minimal tout en encourageant l'excellence et l'innovation responsable. Les codes offrent également une flexibilité et une adaptabilité que la réglementation contraignante, par nature plus rigide, ne peut toujours fournir, permettant des réponses sectorielles, technologiques, ou contextuelles aux enjeux spécifiques de l'IA.

Pour les organisations, l'article 95 constitue à la fois une opportunité et un appel à la responsabilité. En adhérant à des codes de conduite, en contribuant à leur élaboration, et en les respectant effectivement, les acteurs de l'écosystème IA démontrent que l'autorégulation responsable est possible et efficace, contribuant à l'émergence d'une culture européenne de l'IA fondée sur l'éthique, la transparence, l'équité, la durabilité, et le respect des droits fondamentaux. Cette culture, si elle s'enracine, peut devenir un avantage compétitif majeur pour l'Europe dans la compétition technologique mondiale, attirant utilisateurs, investisseurs, et talents par la qualité et la fiabilité de ses systèmes d'IA plutôt que par une course au moins-disant réglementaire.