L'article 67 du Règlement (UE) 2024/1689 institue le Forum consultatif (Advisory Forum), organe de gouvernance de l'AI Act chargé de représenter les parties prenantes non gouvernementales et de faciliter leur participation au processus de mise en œuvre du règlement. Cette création institutionnelle reflète l'importance accordée par le législateur européen au dialogue multi-parties prenantes et à la prise en compte de la diversité des perspectives dans la régulation de l'intelligence artificielle, technologie transversale touchant tous les secteurs de l'économie et de la société.

Le Forum consultatif réunit des représentants de l'industrie (grands groupes et PME), de la société civile (associations de défense des droits, organisations de consommateurs), du monde académique et de la recherche, ainsi que d'autres parties intéressées. Cette composition pluraliste garantit que les orientations et décisions relatives à l'application de l'AI Act bénéficient d'une diversité de regards et d'expertises, dépassant la seule perspective des autorités publiques pour intégrer les réalités économiques, les préoccupations sociales, et les avancées scientifiques.

L'article 67 établit le cadre juridique du Forum consultatif, définissant sa composition, ses missions, et ses modalités de fonctionnement. Le Forum constitue un mécanisme institutionnel de participation et de consultation garantissant que la régulation de l'IA en Europe soit informée, équilibrée, et ancrée dans les réalités du terrain, favorisant ainsi l'acceptabilité sociale du règlement et son efficacité pratique.

Texte officiel de l'article 67 de l'AI Act

L'article 67 de l'AI Act dispose (extraits principaux) :

« 1. Un Forum consultatif est institué afin de conseiller le Comité, la Commission et les autorités nationales compétentes et de contribuer à leurs travaux.

2. Le Forum consultatif est composé d'un nombre équilibré et représentatif de parties prenantes, notamment :

a) des représentants de l'industrie, des startups et des PME ;

b) des représentants de la société civile, y compris des organisations de consommateurs ;

c) des représentants du monde académique et de la recherche ;

d) d'autres parties prenantes pertinentes. »

« 3. Le Bureau de l'IA, après consultation du Comité, établit la composition du Forum consultatif et nomme ses membres. Le Bureau de l'IA veille à ce que la composition du Forum consultatif soit équilibrée en ce qui concerne les domaines d'expertise et les intérêts représentés. »

« 4. Le Forum consultatif peut formuler des avis, des recommandations et des contributions écrites à l'attention du Comité et du Bureau de l'IA concernant des questions liées à la mise en œuvre du présent règlement. »

Cet article institue donc le Forum consultatif comme organe représentant les parties prenantes non gouvernementales, définit sa composition pluraliste (industrie, société civile, académie), confie au Bureau de l'IA la responsabilité d'établir cette composition de manière équilibrée, et précise les missions consultatives du Forum.

Analyse juridique de l'article 67

Institution du Forum et mission générale

L'article 67, paragraphe 1, « institue » le Forum consultatif « afin de conseiller le Comité, la Commission et les autorités nationales compétentes et de contribuer à leurs travaux ». Cette formulation indique que le Forum est créé directement par le règlement et entre en existence dès l'entrée en application de l'AI Act (2 août 2025).

Le Forum exerce une mission de « conseil » auprès de trois types d'acteurs : le Comité européen de l'IA (article 65), organe représentant les États membres, la Commission européenne et le Bureau de l'IA (article 64), représentant la dimension supranationale, et les autorités nationales compétentes (article 70), responsables de la mise en œuvre au niveau national. Cette triple adresse garantit que l'expertise et les perspectives des parties prenantes irriguent tous les niveaux de gouvernance de l'AI Act.

« Contribuer à leurs travaux » signifie que le Forum ne se limite pas à répondre à des consultations ponctuelles, mais participe de manière continue et proactive aux réflexions et aux élaborations de ces organes. Cette contribution peut prendre diverses formes : avis écrits, recommandations, participation à des groupes de travail, présentation lors de réunions, ou soumission de contributions spontanées.

Composition pluraliste et représentative

L'article 67, paragraphe 2, précise que « le Forum consultatif est composé d'un nombre équilibré et représentatif de parties prenantes ». Cette exigence d'équilibre et de représentativité vise à garantir que le Forum ne soit pas dominé par une catégorie particulière d'acteurs et que la diversité des perspectives soit effectivement prise en compte.

Les catégories de parties prenantes mentionnées sont :

Point a) Représentants de l'industrie, des startups et des PME : Cette catégorie regroupe les acteurs économiques développant, commercialisant ou déployant des systèmes d'IA. La mention explicite des « startups et des PME » aux côtés de « l'industrie » (qui peut inclure de grands groupes) souligne la volonté de garantir que les petites et moyennes structures, souvent plus innovantes mais disposant de moins de ressources, soient entendues. Les représentants peuvent provenir d'associations professionnelles sectorielles, de fédérations d'entreprises, ou être des entreprises individuelles reconnues pour leur expertise.

Point b) Représentants de la société civile, y compris des organisations de consommateurs : Cette catégorie englobe les associations de défense des droits fondamentaux, les organisations de protection de la vie privée, les associations de consommateurs, les syndicats de travailleurs, les organisations de défense de l'environnement, et d'autres acteurs de la société civile concernés par les impacts de l'IA. Leur participation garantit que les préoccupations sociales, éthiques et de protection des droits soient présentes dans les délibérations.

Point c) Représentants du monde académique et de la recherche : Cette catégorie inclut des universitaires, des chercheurs, des laboratoires, et des instituts spécialisés en intelligence artificielle, en éthique des technologies, en droit du numérique, ou dans d'autres domaines pertinents. Leur expertise scientifique et leur indépendance institutionnelle apportent une perspective éclairée et critique sur les enjeux techniques et sociétaux de l'IA.

Point d) Autres parties prenantes pertinentes : Cette catégorie résiduelle permet d'inclure d'autres acteurs dont la contribution serait utile, tels que des organismes de normalisation, des représentants de secteurs régulés (santé, finance, transport), des organismes notifiés, ou des experts indépendants reconnus.

Établissement de la composition par le Bureau de l'IA

L'article 67, paragraphe 3, confie au Bureau de l'IA la responsabilité d'« établir la composition du Forum consultatif et de nommer ses membres », « après consultation du Comité ». Cette modalité garantit que la composition du Forum bénéficie à la fois de l'expertise du Bureau et de la validation des États membres (via le Comité).

Le Bureau doit « veiller à ce que la composition du Forum consultatif soit équilibrée en ce qui concerne les domaines d'expertise et les intérêts représentés ». Cette exigence d'équilibre implique plusieurs dimensions : équilibre entre les différentes catégories de parties prenantes (industrie, société civile, académie), équilibre entre grands groupes et PME au sein de la représentation industrielle, équilibre géographique garantissant la représentation de différents États membres et régions d'Europe, équilibre sectoriel couvrant les différents domaines d'application de l'IA (santé, finance, transport, etc.), et équilibre en termes de perspectives (promoteurs de l'IA et voix critiques).

En pratique, le Bureau de l'IA lancera vraisemblablement un appel public à candidatures, recueillant les propositions de différentes organisations souhaitant participer au Forum. Il sélectionnera ensuite les membres en fonction de critères de compétence, de représentativité, et d'équilibre. La transparence de ce processus et la publication de la composition finale seront essentielles pour garantir la légitimité du Forum.

Missions consultatives du Forum

L'article 67, paragraphe 4, précise que « le Forum consultatif peut formuler des avis, des recommandations et des contributions écrites à l'attention du Comité et du Bureau de l'IA concernant des questions liées à la mise en œuvre du présent règlement ». Cette formulation indique que le Forum dispose d'une capacité d'initiative : il peut, de sa propre volonté, élaborer et transmettre des avis sans attendre d'être consulté formellement.

Les « avis » sont des positions argumentées sur des questions spécifiques, apportant l'éclairage des parties prenantes sur des enjeux d'interprétation, d'application, ou de révision du règlement. Les « recommandations » sont des suggestions d'actions ou d'orientations que le Forum estime souhaitables pour améliorer la mise en œuvre de l'AI Act. Les « contributions écrites » sont des documents plus généraux, pouvant inclure des analyses, des rapports, des études de cas, ou des propositions.

Ces productions sont adressées « au Comité et au Bureau de l'IA », qui sont les destinataires privilégiés des apports du Forum. Toutefois, compte tenu de la mission du Forum de conseiller également « les autorités nationales compétentes » (paragraphe 1), les avis et recommandations peuvent également être partagés avec ces autorités ou rendus publics pour informer l'ensemble de l'écosystème.

Les questions sur lesquelles le Forum peut se prononcer sont « liées à la mise en œuvre du présent règlement », formulation large couvrant potentiellement tous les aspects pratiques de l'application de l'AI Act : interprétation des exigences et des concepts juridiques, proportionnalité et faisabilité des obligations pour différents types d'acteurs, impact économique et social de la réglementation, difficultés ou obstacles rencontrés par les opérateurs, évolutions technologiques nécessitant des adaptations réglementaires, ou articulation avec d'autres réglementations.

Exemples concrets d'application

Exemple concret d'application de l'article 67 de l'AI Act

Travaux du Forum consultatif sur les défis de conformité pour les PME

Contexte - Constitution du Forum consultatif (paragraphes 1-3) :

En août 2025, après l'entrée en application de l'AI Act, le Bureau de l'IA lance un appel public à candidatures pour constituer le Forum consultatif. Plus de 200 organisations soumettent leur candidature. Après consultation du Comité européen de l'IA, le Bureau sélectionne 45 membres garantissant un équilibre représentatif :

Représentants de l'industrie, startups et PME (15 membres, point a) :
- 3 grandes entreprises technologiques (une française, une allemande, une néerlandaise)
- 4 PME innovantes spécialisées en IA (santé, finance, retail, mobilité)
- 3 startups émergentes
- 2 associations professionnelles européennes (DigitalEurope, SMEunited)
- 3 représentants sectoriels (automobile, dispositifs médicaux, services financiers)

Représentants de la société civile (15 membres, point b) :
- 4 associations de défense des droits fondamentaux (EDRi, Access Now, Amnesty International, La Quadrature du Net)
- 3 organisations de protection des consommateurs (BEUC et organisations nationales)
- 3 syndicats européens représentant les travailleurs
- 2 associations de défense de la diversité et de lutte contre les discriminations
- 2 organisations de protection de l'enfance
- 1 association environnementale

Représentants académiques et de la recherche (12 membres, point c) :
- 5 professeurs d'universités européennes spécialisés en IA, droit du numérique, éthique
- 3 chercheurs de laboratoires publics (INRIA, Fraunhofer, etc.)
- 2 représentants d'instituts d'éthique de l'IA
- 2 experts indépendants reconnus

Autres parties prenantes (3 membres, point d) :
- 1 représentant d'organisme de normalisation (CEN-CENELEC)
- 1 représentant d'organismes notifiés
- 1 expert en cybersécurité

Le Forum se réunit pour la première fois en octobre 2025. Il adopte son règlement intérieur et élit un président et deux vice-présidents issus respectivement de l'industrie, de la société civile et de l'académie, garantissant l'équilibre des perspectives dans la gouvernance interne.

Identification d'un enjeu prioritaire (paragraphe 4) :

Dès les premières réunions, les représentants des PME et des startups alertent sur les difficultés majeures de mise en conformité avec l'AI Act :

« Nos membres PME sont enthousiastes quant à l'innovation en IA, mais ils sont submergés par la complexité du règlement. Les exigences de documentation technique (article 11), de gestion des risques (article 9), et de conformité RGPD simultanée représentent des charges considérables. Beaucoup envisagent de renoncer à certains projets ou de délocaliser hors UE. Nous avons besoin de guidance simplifiée, d'outils pratiques, et potentiellement d'un régime proportionné pour les petites structures. » - Représentant de SMEunited

Les représentants de la société civile expriment une préoccupation différente mais convergente :

« Nous voulons que l'AI Act soit appliqué strictement pour protéger les droits fondamentaux. Toutefois, nous reconnaissons que si les PME ne peuvent pas se conformer et abandonnent le marché européen, nous nous retrouverons avec un oligopole de grandes entreprises non européennes, potentiellement moins respectueuses des droits. Il faut trouver un équilibre. » - Représentant d'EDRi

Les représentants académiques apportent un éclairage technique :

« Nos recherches montrent que les PME manquent de capacités internes en conformité réglementaire et en évaluation technique. Des ressources mutualisées (outils open source, méthodologies simplifiées, formations accessibles) pourraient réduire significativement les barrières à l'entrée sans compromettre la protection. » - Professeure d'université spécialisée en IA

Élaboration d'un avis par le Forum (paragraphe 4) :

Le Forum consultatif décide d'élaborer un avis formel sur « les défis de conformité à l'AI Act pour les PME et les startups innovantes, et les mesures d'accompagnement recommandées ». Un groupe de travail de 12 membres (4 industrie, 4 société civile, 4 académie) est constitué pour préparer l'avis.

Entre novembre 2025 et février 2026, le groupe de travail :

1. Recueille des données : Enquête auprès de 200 PME européennes développant des systèmes d'IA, identification des principales difficultés, estimation des coûts de conformité.

2. Analyse juridique : Examen des dispositions de l'AI Act posant le plus de difficultés aux PME, identification des marges d'interprétation permettant une approche proportionnée.

3. Benchmark international : Étude des approches adoptées dans d'autres juridictions (États-Unis, Canada, Royaume-Uni, Singapour) pour soutenir les PME dans l'innovation en IA.

4. Consultations : Auditions de PME, d'autorités compétentes, d'organismes notifiés, et d'experts en soutien à l'innovation.

En mars 2026, le projet d'avis est présenté au Forum plénier. Après discussion et quelques amendements, il est adopté à la quasi-unanimité (42 voix pour, 1 abstention, 2 absents).

Contenu de l'avis :

L'avis du Forum consultatif contient 15 recommandations structurées autour de quatre axes :

1. Guidance simplifiée et outils pratiques :
- Élaboration de guides de conformité simplifiés spécifiquement destinés aux PME, rédigés en langage accessible
- Développement de templates et d'outils numériques pour faciliter la documentation technique et la gestion des risques
- Création d'une plateforme en ligne interactive permettant aux PME d'évaluer si leurs systèmes sont à haut risque et quelles obligations s'appliquent
- Production de vidéos pédagogiques et de webinaires expliquant les exigences clés

2. Soutien financier et ressources mutualisées :
- Création d'un fonds européen de soutien à la conformité AI Act pour les PME et startups, finançant des audits, des formations, ou des prestations de conseil
- Développement de ressources open source mutualisées (bibliothèques de code pour la transparence, frameworks de gestion des risques, datasets de test)
- Mise en place de programmes de mentorat où les grandes entreprises conformes accompagnent des PME

3. Approche proportionnée de la surveillance :
- Priorisation par les autorités compétentes de l'accompagnement et du dialogue plutôt que de la sanction pour les PME de bonne foi
- Délais de mise en conformité plus longs pour les PME en cas de premières infractions mineures
- Communication proactive des autorités sur les attentes et les bonnes pratiques

4. Simplification procédurale :
- Procédures d'évaluation de conformité allégées pour les systèmes d'IA à haut risque développés par des PME et déployés à petite échelle (sans réduire le niveau de protection)
- Reconnaissance mutuelle automatique des évaluations de conformité entre États membres pour éviter les duplications
- Guichet unique numérique permettant aux PME d'accomplir toutes leurs démarches administratives (notifications, enregistrements) en un seul point de contact

Transmission et diffusion de l'avis (paragraphe 4) :

L'avis est formellement transmis en avril 2026 :
- Au Bureau de l'IA
- Au Comité européen de l'IA
- Aux autorités nationales compétentes
- À la Commission européenne (DG GROW, DG CNECT)

Il est également publié sur le site internet du Bureau de l'IA et largement diffusé auprès des médias spécialisés, des associations professionnelles, et des acteurs de l'écosystème IA.

Réception et mise en œuvre (paragraphes 1, 4) :

L'avis du Forum consultatif est très bien accueilli :

Le Bureau de l'IA :
- Lance en mai 2026 le développement d'une plateforme numérique « AI Act Compliance Assistant for SMEs » intégrant les outils et templates recommandés
- Élabore un guide de conformité simplifié de 30 pages (contre 150 pages pour le guide général)
- Coordonne avec les autorités nationales pour harmoniser les approches d'accompagnement des PME

Le Comité européen de l'IA :
- Adopte des lignes directrices sur l'approche proportionnée de surveillance pour les PME
- Crée un groupe de travail « soutien aux PME » pour partager les bonnes pratiques entre autorités nationales

La Commission européenne :
- Propose dans le cadre du programme Horizon Europe un nouveau volet de financement « AI Act Compliance for SMEs » doté de 50 millions d'euros
- Mandate les organismes européens de normalisation (CEN-CENELEC) pour développer des normes harmonisées simplifiées adaptées aux PME

Les États membres :
- Plusieurs pays lancent des programmes nationaux de soutien à la conformité (formations gratuites, audits subventionnés, hotlines d'assistance)

Évaluation d'impact (un an après) :

En avril 2027, le Forum consultatif réalise une enquête de suivi auprès de 300 PME :

- 78% déclarent que les outils et guides simplifiés ont significativement facilité leur mise en conformité
- 65% ont utilisé la plateforme « AI Act Compliance Assistant »
- Le nombre de PME ayant abandonné des projets IA en raison de l'AI Act est passé de 35% (enquête initiale 2025) à 12%
- 82% des PME jugent que l'approche des autorités compétentes est constructive et proportionnée
- Les coûts moyens de conformité ont diminué de 40% grâce aux outils mutualisés

Le Forum consultatif publie un rapport d'évaluation saluant les progrès réalisés et formulant de nouvelles recommandations pour poursuivre l'amélioration.

Cet exemple illustre comment le Forum consultatif, institué par l'article 67, exerce sa mission de conseil en identifiant des enjeux pratiques majeurs, en élaborant des avis équilibrés reflétant la diversité des perspectives, et en contribuant effectivement à l'amélioration de la mise en œuvre de l'AI Act au bénéfice de l'innovation responsable, de la protection des droits, et du bon fonctionnement du marché intérieur.

Articulation avec les autres dispositions de l'AI Act

L'article 67 s'inscrit dans l'architecture de gouvernance établie par le Titre VII de l'AI Act, aux côtés du Bureau de l'IA (article 64), du Comité européen de l'IA (article 65), et du groupe scientifique d'experts indépendants (article 68). Le Forum consultatif complète ces organes en apportant la perspective des parties prenantes non gouvernementales, garantissant que la régulation de l'IA ne soit pas élaborée et appliquée de manière purement technocratique mais bénéficie de l'ancrage dans les réalités économiques et sociales.

Le Forum conseille notamment le Comité européen de l'IA (article 65-66) : les travaux du Comité (élaboration de lignes directrices, avis sur l'interprétation du règlement, harmonisation des pratiques) peuvent s'appuyer sur les contributions du Forum pour intégrer les préoccupations et expertises des parties prenantes. Cette articulation garantit que les orientations du Comité soient informées et équilibrées.

Le Forum interagit également avec le groupe scientifique d'experts indépendants (article 68) : bien que leurs compositions et missions diffèrent (le groupe scientifique apporte une expertise technique et scientifique pointue, le Forum apporte une diversité de perspectives parties prenantes), les deux organes peuvent échanger et contribuer mutuellement à leurs travaux.

Les avis et recommandations du Forum portent sur « la mise en œuvre du présent règlement » (paragraphe 4), ce qui couvre potentiellement tous les aspects de l'AI Act : interprétation des exigences du Titre III sur les systèmes à haut risque, application des obligations de transparence, supervision des modèles d'IA à usage général (Chapitre V), ou fonctionnement de la surveillance du marché. Le Forum constitue ainsi un vecteur de remontée d'informations du terrain vers les instances de gouvernance.

Implications pratiques pour les organisations

Pour les organisations développant ou déployant des systèmes d'IA, l'article 67 et le Forum consultatif qu'il institue offrent une opportunité précieuse de participer à l'élaboration de la régulation et d'influencer son application pratique. Les associations professionnelles, les entreprises individuelles reconnues pour leur expertise, et les organisations de la société civile concernées par l'IA devraient envisager de candidater pour participer au Forum ou, à défaut, de contribuer à ses travaux via des consultations publiques ou des échanges avec les membres.

Les avis et recommandations du Forum, bien que non juridiquement contraignants, exercent une influence significative sur les orientations du Bureau de l'IA, du Comité, et de la Commission. Ils constituent également des références utiles pour les opérateurs cherchant à comprendre les attentes et les bonnes pratiques émergentes. Les organisations doivent suivre les publications du Forum et les intégrer dans leurs réflexions stratégiques de conformité.

Pour les PME et les startups en particulier, le Forum représente un canal d'expression de leurs préoccupations et de plaidoyer pour des mesures de soutien proportionnées. La représentation explicite des PME et des startups dans la composition du Forum (paragraphe 2, point a) garantit que leurs voix sont entendues et que leurs difficultés spécifiques sont prises en compte dans l'élaboration des politiques.

Pour les organisations de la société civile, le Forum offre un mécanisme institutionnel de participation garantissant que les préoccupations relatives aux droits fondamentaux, à la non-discrimination, à la protection de la vie privée, et aux impacts sociaux de l'IA sont intégrées dans les délibérations et les orientations. Cette participation contribue à la légitimité sociale de l'AI Act et à son acceptabilité.

L'article 67 de l'AI Act institue le Forum consultatif comme organe essentiel de participation des parties prenantes non gouvernementales à la gouvernance de l'intelligence artificielle en Europe. En réunissant représentants de l'industrie, de la société civile, du monde académique et d'autres acteurs pertinents, le Forum garantit que la régulation de l'IA soit informée par une diversité de perspectives, ancrée dans les réalités du terrain, et équilibrée entre promotion de l'innovation et protection des droits.

Le Forum consultatif reflète l'approche européenne de gouvernance participative et de dialogue multi-parties prenantes, reconnaissant que la régulation de technologies complexes et transversales comme l'IA ne peut être efficace que si elle intègre l'expertise et les préoccupations de tous les acteurs concernés. Cette ouverture institutionnelle contribue à la légitimité, à l'acceptabilité sociale, et à l'efficacité pratique de l'AI Act.

Pour les organisations, le Forum représente à la fois une opportunité de participation et une source d'orientation. En suivant ses travaux, en contribuant à ses consultations, et en intégrant ses recommandations dans leurs pratiques, les acteurs de l'écosystème IA contribuent à l'émergence d'une culture européenne de l'intelligence artificielle responsable, respectueuse des droits fondamentaux, et favorable à l'innovation socialement bénéfique.