L'article 65 du Règlement (UE) 2024/1689 institue le Comité européen de l'intelligence artificielle (European Artificial Intelligence Board), organe collégial réunissant les représentants des autorités compétentes de tous les États membres et jouant un rôle central dans la gouvernance multilatérale de l'AI Act. Cette création institutionnelle reflète l'approche européenne fondée sur la coopération entre États membres pour l'application harmonisée du droit de l'Union, à l'image du Comité européen de la protection des données (CEPD) institué par le RGPD.

Le Comité européen de l'IA constitue le principal organe de représentation des États membres dans l'architecture de gouvernance de l'AI Act. Il assure un équilibre institutionnel entre le Bureau de l'IA, qui représente la dimension supranationale et la Commission européenne, et les autorités nationales compétentes, qui représentent les États membres et assurent la mise en œuvre concrète du règlement sur leurs territoires respectifs. Ce dialogue institutionnel structuré vise à garantir que les décisions et orientations en matière d'IA reflètent à la fois l'intérêt européen commun et les spécificités nationales.

L'article 65 établit la composition du Comité (un représentant par État membre) et son rattachement au Bureau de l'IA, précisant ainsi les modalités de cette coopération institutionnelle. Le Comité dispose de missions consultatives et de coordination détaillées à l'article 66, faisant de lui un acteur essentiel pour l'interprétation harmonisée de l'AI Act, le développement de bonnes pratiques communes, et la résolution de questions transfrontalières complexes.

Texte officiel de l'article 65 de l'AI Act

L'article 65 de l'AI Act dispose :

« 1. Un Comité européen de l'intelligence artificielle (ci-après dénommé "Comité") est institué.

2. Le Comité est composé d'un représentant de haut niveau de chaque État membre. La Commission européenne participe aux activités et réunions du Comité sans droit de vote.

3. Le Comité adopte son règlement intérieur à la majorité simple de ses membres. Le règlement intérieur fixe notamment les modalités de fonctionnement du Comité, y compris les modalités de rotation de la présidence et les arrangements concernant la participation aux réunions du Comité.

4. Le Comité est présidé par un représentant d'un État membre. Le mandat du président est de deux ans et peut être renouvelé une fois. Le Bureau de l'IA assure le secrétariat du Comité.

5. Le Comité tient ses réunions à la demande de son président ou du Bureau de l'IA. Le Bureau de l'IA peut participer aux activités et réunions du Comité.

6. Le Comité peut inviter des experts et observateurs à assister à ses réunions et peut échanger des informations avec des parties prenantes intéressées afin de mener à bien ses missions. »

Cet article institue donc le Comité européen de l'IA comme organe représentant les États membres, définit sa composition (un représentant par État), ses modalités de fonctionnement (règlement intérieur, présidence tournante, secrétariat assuré par le Bureau de l'IA), et sa capacité d'expertise (invitation d'experts et observateurs).

Analyse juridique de l'article 65

Institution du Comité et nature juridique

L'article 65, paragraphe 1, « institue » le Comité européen de l'intelligence artificielle. Cette formulation signifie que le Comité est créé directement par le règlement, sans nécessiter d'acte institutionnel complémentaire. Le Comité entre en existence dès l'entrée en application de l'AI Act (2 août 2025), date à laquelle les États membres doivent avoir désigné leurs représentants.

Le Comité constitue un organe consultatif et de coordination intégré à la structure de gouvernance de l'AI Act. Il ne dispose pas de personnalité juridique propre et n'est pas une agence indépendante. Il s'inscrit dans l'architecture institutionnelle établie par le Titre VII du règlement, en lien étroit avec le Bureau de l'IA (article 64) qui en assure le secrétariat.

Le modèle institutionnel du Comité européen de l'IA est largement inspiré du Comité européen de la protection des données (CEPD ou EDPB) créé par le RGPD (article 68 du RGPD). Les deux comités partagent des caractéristiques structurelles similaires : composition d'un représentant par État membre, règlement intérieur adopté par le comité lui-même, présidence tournante assurée par un représentant d'État membre, missions consultatives et de coordination, et capacité d'émettre des avis et lignes directrices contribuant à l'harmonisation de l'application du règlement.

Composition et représentation des États membres

L'article 65, paragraphe 2, précise que « le Comité est composé d'un représentant de haut niveau de chaque État membre ». Cette formulation garantit une représentation équitable de tous les États membres, indépendamment de leur taille ou de leur poids démographique. Chaque État dispose d'une voix égale, reflétant le principe d'égalité souveraine des États membres de l'Union.

Les représentants doivent être « de haut niveau », expression suggérant qu'ils doivent disposer d'une autorité et d'une légitimité suffisantes pour engager leur État membre dans les décisions et avis du Comité. En pratique, les représentants seront vraisemblablement les responsables des autorités nationales compétentes désignées en vertu de l'article 70 (autorités de surveillance de l'IA dans chaque État membre), ou des hauts fonctionnaires de ces autorités.

La Commission européenne « participe aux activités et réunions du Comité sans droit de vote ». Cette participation garantit la présence de la Commission, qui représente l'intérêt général européen et dispose de responsabilités importantes en matière de mise en œuvre de l'AI Act. L'absence de droit de vote reflète la nature intergouvernementale du Comité, représentant les États membres. Toutefois, la participation de la Commission permet un dialogue continu et une coordination entre la dimension supranationale (Commission et Bureau de l'IA) et la dimension intergouvernementale (Comité représentant les États).

Règlement intérieur et autonomie d'organisation

L'article 65, paragraphe 3, confère au Comité le pouvoir d'adopter son règlement intérieur « à la majorité simple de ses membres ». Cette autonomie d'organisation est caractéristique des organes représentant les États membres : le Comité détermine lui-même ses modalités de fonctionnement, sous réserve du respect du cadre établi par l'AI Act.

Le règlement intérieur « fixe notamment les modalités de fonctionnement du Comité, y compris les modalités de rotation de la présidence et les arrangements concernant la participation aux réunions du Comité ». Ces modalités peuvent inclure la fréquence des réunions (mensuelles, trimestrielles, ad hoc), les procédures de convocation et d'ordre du jour, les modalités de prise de décision et de vote (majorité simple, qualifiée, consensus), les procédures de délégation ou de représentation (un État membre peut-il déléguer sa voix à un autre ?), les modalités de participation à distance (visioconférence), les règles de confidentialité des délibérations, les procédures de publication des avis et recommandations, et les modalités de rotation de la présidence (ordre alphabétique, tirage au sort, autre critère).

L'exigence de « majorité simple » (plus de la moitié des membres) pour adopter le règlement intérieur garantit que celui-ci reflète la volonté d'une majorité d'États membres, sans requérir le consensus unanime qui pourrait être difficile à atteindre sur des questions procédurales.

Présidence tournante et représentation

L'article 65, paragraphe 4, prévoit que « le Comité est présidé par un représentant d'un État membre ». Cette présidence assurée par un pair (un représentant d'État membre) plutôt que par la Commission renforce le caractère intergouvernemental du Comité. Le président joue un rôle de coordination, de représentation du Comité, et de facilitation des travaux.

« Le mandat du président est de deux ans et peut être renouvelé une fois. » Cette durée relativement longue (comparée à une présidence semestrielle comme celle du Conseil de l'UE) garantit une continuité dans les travaux du Comité et permet au président de développer une expertise et une autorité dans la durée. La possibilité de renouvellement (une fois, soit un maximum de quatre ans) offre une flexibilité tout en évitant une présidence indéfiniment prolongée.

« Le Bureau de l'IA assure le secrétariat du Comité. » Cette disposition établit un lien institutionnel direct entre le Comité (représentant les États membres) et le Bureau de l'IA (représentant la Commission). Le secrétariat assuré par le Bureau implique que celui-ci organise matériellement les réunions (convocations, salles, documentation), prépare les ordres du jour en coordination avec le président, rédige les comptes rendus et procès-verbaux, assure le suivi des décisions et recommandations, et facilite la communication entre le Comité et les autres organes de gouvernance (Forum consultatif, groupe scientifique).

Ce rôle de secrétariat place le Bureau de l'IA au cœur des échanges et lui confère une influence sur l'agenda et les travaux du Comité, tout en préservant l'autonomie décisionnelle de ce dernier.

Modalités de réunion et rôle du Bureau de l'IA

L'article 65, paragraphe 5, précise que « le Comité tient ses réunions à la demande de son président ou du Bureau de l'IA ». Cette double modalité de convocation garantit que le Comité peut se réunir à l'initiative de ses membres (via le président) ou à l'initiative du Bureau de l'IA lorsque celui-ci estime nécessaire de consulter le Comité ou de coordonner les actions des États membres.

Cette flexibilité permet une réactivité face aux enjeux émergents ou aux situations nécessitant une concertation rapide. En pratique, un calendrier de réunions régulières (par exemple trimestrielles) sera vraisemblablement établi, complété par des réunions extraordinaires en tant que de besoin.

« Le Bureau de l'IA peut participer aux activités et réunions du Comité. » Cette participation (distincte de celle de la Commission mentionnée au paragraphe 2) garantit que le Bureau, en tant qu'acteur central de la mise en œuvre de l'AI Act, peut contribuer aux délibérations du Comité, apporter des informations sur ses propres activités (notamment la supervision des modèles d'IA à usage général), et bénéficier de l'expertise et des perspectives des autorités nationales.

Ouverture aux experts et parties prenantes

L'article 65, paragraphe 6, confère au Comité la capacité d'« inviter des experts et observateurs à assister à ses réunions et [d']échanger des informations avec des parties prenantes intéressées afin de mener à bien ses missions ». Cette ouverture garantit que le Comité peut mobiliser l'expertise nécessaire à ses travaux, au-delà des seuls représentants des États membres.

Les « experts » peuvent inclure des spécialistes techniques en intelligence artificielle, des universitaires et chercheurs, des représentants d'organismes de normalisation, des experts en droits fondamentaux ou en éthique, ou des consultants spécialisés. Les « observateurs » peuvent être des représentants de pays tiers (par exemple dans le cadre de coopérations internationales), des représentants d'organisations internationales (OCDE, Conseil de l'Europe, UNESCO), ou des représentants d'institutions européennes autres que la Commission.

Les « parties prenantes intéressées » incluent l'industrie (fournisseurs et déployeurs de systèmes d'IA), la société civile (associations de défense des droits, organisations de consommateurs), les syndicats et représentants des travailleurs, le monde académique et de la recherche, et les représentants des secteurs régulés (santé, finance, transports, etc.).

Cette capacité d'ouverture permet au Comité de bénéficier d'une pluralité de perspectives et de renforcer la légitimité et la pertinence de ses avis et recommandations. Elle facilite également le dialogue avec le Forum consultatif (article 67) et le groupe scientifique (article 68), autres organes consultatifs de la gouvernance de l'AI Act.

Exemples concrets d'application

Exemple concret d'application de l'article 65 de l'AI Act

Fonctionnement du Comité européen de l'IA : élaboration d'un avis sur la qualification de systèmes d'IA à haut risque

En septembre 2025, un mois après l'entrée en application de l'AI Act, le Comité européen de l'intelligence artificielle tient sa première réunion constitutive à Bruxelles. Les 27 États membres ont désigné leurs représentants, issus des autorités nationales compétentes nouvellement créées ou désignées conformément à l'article 70.

Mise en place du Comité (paragraphes 1-4) :

Composition : Le Comité est composé de 27 représentants nationaux, parmi lesquels :
- France : Directrice de la Direction du Numérique (rattachée au ministère de l'Économie), autorité nationale désignée
- Allemagne : Président de l'Office fédéral pour la sécurité de l'information (BSI)
- Italie : Directeur de l'Agence pour l'Italie Numérique (AgID)
- Espagne : Directrice de l'Agence espagnole de supervision de l'intelligence artificielle (AESIA)
- Pays-Bas : Représentant de l'Autorité des consommateurs et des marchés (ACM)
- Etc. pour les 22 autres États membres

La Commission européenne participe sans droit de vote, représentée par un membre du cabinet du Commissaire au Marché intérieur. Le Bureau de l'IA, nouvellement créé et dirigé par un Directeur nommé par la Commission, assure le secrétariat.

Adoption du règlement intérieur : Lors de la première réunion, le Comité adopte son règlement intérieur à la majorité simple (19 voix pour, 6 abstentions, 2 contre). Le règlement prévoit :
- Réunions trimestrielles ordinaires, plus réunions extraordinaires si nécessaire
- Présidence tournante par ordre alphabétique des États membres en langue nationale, mandat de 2 ans
- Décisions et avis adoptés par majorité simple (sauf indication contraire)
- Possibilité de participation à distance par visioconférence
- Publication des avis et recommandations sur le site du Bureau de l'IA
- Confidentialité des délibérations internes (les débats ne sont pas publics, seuls les avis finaux le sont)

Élection du président : Conformément à l'ordre alphabétique prévu, l'Autriche (Österreich) préside le Comité pour les deux premières années. Le représentant autrichien, un haut fonctionnaire du ministère fédéral du Climat, de l'Environnement, de l'Énergie, de la Mobilité, de l'Innovation et de la Technologie, accepte le mandat.

Contexte d'un premier avis : divergences d'interprétation sur la qualification de systèmes d'IA à haut risque :

En novembre 2025, le Bureau de l'IA constate que plusieurs États membres appliquent différemment l'Annexe III de l'AI Act, qui liste les domaines et cas d'usage de systèmes d'IA considérés comme à haut risque. Trois divergences principales émergent :

1. Systèmes de recommandation de contenu : Certains États (France, Allemagne) considèrent que les systèmes de recommandation de contenu sur les réseaux sociaux et plateformes en ligne, lorsqu'ils influencent significativement l'opinion publique, devraient être qualifiés de systèmes à haut risque (par analogie avec les systèmes influençant les processus démocratiques). D'autres États (Pays-Bas, Irlande) estiment que ces systèmes ne relèvent pas de l'Annexe III et ne sont soumis qu'aux obligations de transparence pour les systèmes d'IA à usage général.

2. Systèmes d'IA dans les PME de recrutement : L'Annexe III qualifie de haut risque les systèmes d'IA utilisés pour le recrutement. Certains États (Espagne, Italie) appliquent cette qualification strictement à tous les systèmes, y compris ceux utilisés par de très petites entreprises pour trier quelques CV. D'autres États (Danemark, Suède) considèrent qu'une approche proportionnée devrait exempter les micro-entreprises ou les systèmes très simples.

3. Systèmes d'assistance médicale : L'Annexe III inclut les systèmes d'IA destinés à être utilisés pour le diagnostic et le traitement médical. Une divergence émerge sur la qualification des systèmes d'aide à la décision médicale qui fournissent des suggestions que le médecin valide toujours : sont-ils à haut risque ou non ?

Convocation d'une réunion extraordinaire par le Bureau de l'IA (paragraphe 5) :

Face à ces divergences susceptibles de fragmenter le marché intérieur et de créer des insécurités juridiques, le Bureau de l'IA convoque une réunion extraordinaire du Comité en décembre 2025, conformément à l'article 65, paragraphe 5. L'ordre du jour porte sur « l'harmonisation de l'interprétation de l'Annexe III - qualification de systèmes d'IA à haut risque ».

Invitation d'experts et parties prenantes (paragraphe 6) :

Pour éclairer ses délibérations, le Comité invite :
- Deux experts techniques du groupe scientifique d'experts indépendants (article 68) spécialisés respectivement en IA de recommandation et en IA médicale
- Un représentant du Forum consultatif (article 67) représentant les PME européennes
- Un représentant d'une grande plateforme en ligne (observateur invité)
- Un représentant d'une association de patients (société civile)
- Un professeur de droit spécialisé dans la réglementation de l'IA

Délibérations du Comité :

Durant la réunion, qui dure une journée complète :

1. Le Bureau de l'IA présente les divergences constatées et leurs implications (fragmentation du marché, insécurité juridique, risques de forum shopping).

2. Les experts techniques expliquent le fonctionnement des systèmes concernés et leurs risques potentiels pour les droits fondamentaux.

3. Les représentants des parties prenantes exposent leurs préoccupations : les plateformes soulignent les charges de conformité, les PME alertent sur le risque de surréglementation, l'association de patients insiste sur l'importance d'une supervision stricte des IA médicales.

4. Les 27 représentants des États membres débattent, échangent sur leurs pratiques nationales, et recherchent un consensus.

Adoption d'un avis par le Comité :

À l'issue des délibérations, le Comité adopte un avis détaillé sur l'interprétation de l'Annexe III, à la majorité qualifiée (21 voix pour, 4 abstentions, 2 contre). L'avis précise :

1. Systèmes de recommandation de contenu :
« Les systèmes de recommandation de contenu sur les réseaux sociaux et plateformes en ligne ne relèvent pas, en tant que tels, de l'Annexe III. Toutefois, si un tel système est spécifiquement conçu ou adapté pour influencer le comportement électoral ou les processus démocratiques (par exemple, ciblage politique durant une campagne électorale), il doit être qualifié de système à haut risque au titre de l'Annexe III, point 1 (systèmes utilisés pour influencer l'issue d'une élection). Les États membres et les autorités compétentes doivent évaluer au cas par cas si un système de recommandation relève de ce cas d'usage spécifique. »

2. Systèmes d'IA dans les PME de recrutement :
« La qualification de système à haut risque pour les systèmes de recrutement (Annexe III, point 4) s'applique indépendamment de la taille de l'employeur. Toutefois, une approche proportionnée doit être adoptée dans la surveillance : les autorités compétentes peuvent prioriser les contrôles sur les systèmes déployés à grande échelle ou présentant des risques manifestes, tout en informant et accompagnant les PME dans leur mise en conformité. Des lignes directrices simplifiées pour les PME seront élaborées par le Bureau de l'IA en coordination avec le Comité. »

3. Systèmes d'assistance médicale :
« Les systèmes d'IA d'aide à la décision médicale, même lorsque le médecin valide toujours la décision finale, sont qualifiés de systèmes à haut risque dès lors qu'ils sont destinés à fournir des informations utilisées pour le diagnostic ou la détermination du traitement (Annexe III, point 5). La supervision humaine prévue à l'article 14 de l'AI Act garantit que la décision finale appartient au professionnel de santé, mais n'exempte pas le système de la qualification de haut risque en raison de l'impact potentiel sur la santé des patients. »

Publication et effets de l'avis :

L'avis du Comité est publié sur le site internet du Bureau de l'IA en janvier 2026. Bien que non juridiquement contraignant (il s'agit d'un avis interprétatif, non d'un acte réglementaire), il exerce une forte influence :
- Les autorités nationales alignent leurs pratiques sur l'avis du Comité pour garantir une application harmonisée
- Les opérateurs (fournisseurs et déployeurs) disposent d'une clarification précieuse réduisant l'insécurité juridique
- Le Bureau de l'IA développe des lignes directrices complémentaires sur la base de cet avis
- La cohérence de l'application de l'AI Act à l'échelle européenne est renforcée

Suivi et coordination continue :

Lors des réunions trimestrielles suivantes, le Comité :
- Suit la mise en œuvre de l'avis dans les États membres
- Échange les bonnes pratiques de surveillance et de soutien aux PME
- Identifie de nouvelles divergences d'interprétation nécessitant des clarifications
- Conseille le Bureau de l'IA sur les priorités d'élaboration de normes harmonisées
- Contribue à l'élaboration de lignes directrices sectorielles (santé, recrutement, finance, etc.)

Cet exemple illustre comment le Comité européen de l'IA, institué par l'article 65, fonctionne comme un organe de coordination et d'harmonisation, mobilisant l'expertise des États membres, des experts, et des parties prenantes pour assurer une application cohérente de l'AI Act tout en respectant les spécificités nationales et les réalités pratiques du déploiement de l'IA.

Articulation avec les autres dispositions de l'AI Act

L'article 65 s'inscrit au cœur de l'architecture de gouvernance établie par le Titre VII de l'AI Act. Il s'articule directement avec l'article 64 qui institue le Bureau de l'IA : le Comité représente les États membres tandis que le Bureau représente la Commission, et les deux organes collaborent étroitement (le Bureau assure le secrétariat du Comité, peut convoquer ses réunions, et participe à ses travaux).

Les missions du Comité sont détaillées à l'article 66, qui précise ses tâches de conseil, de coordination, et de contribution à l'harmonisation de l'application de l'AI Act. L'article 66 complète ainsi l'article 65 en définissant les attributions concrètes du Comité au-delà de sa simple composition et de ses modalités de fonctionnement.

L'article 65 s'articule également avec l'article 67 qui institue le Forum consultatif réunissant les parties prenantes non gouvernementales (industrie, société civile, académie). Le Comité peut échanger avec ce Forum (paragraphe 6 de l'article 65) et bénéficier de ses contributions, créant ainsi un dialogue entre représentants publics et parties prenantes privées.

L'article 68, qui crée le groupe scientifique d'experts indépendants, est également en lien direct avec l'article 65 : le Comité peut inviter ces experts à ses réunions (paragraphe 6) et bénéficier de leur expertise technique pour éclairer ses avis et recommandations.

Enfin, l'article 70, qui prévoit la désignation par chaque État membre d'une autorité nationale compétente, est fondamental pour le Comité : les représentants des États membres au Comité sont généralement issus de ces autorités nationales, garantissant une coordination directe entre le niveau européen (Comité) et le niveau national (autorités compétentes).

Implications pratiques pour les organisations

Pour les fournisseurs et déployeurs de systèmes d'IA, l'article 65 et le Comité européen de l'IA qu'il institue ont des implications indirectes mais significatives. Bien que le Comité n'exerce pas de pouvoirs de supervision directe sur les opérateurs (ces pouvoirs appartiennent au Bureau de l'IA et aux autorités nationales), ses avis, recommandations et lignes directrices influencent fortement l'interprétation et l'application de l'AI Act dans toute l'Union européenne.

Les organisations doivent suivre attentivement les publications du Comité, disponibles sur le site du Bureau de l'IA. Ces documents constituent des références précieuses pour comprendre comment les autorités compétentes interpréteront les exigences du règlement, anticiper les priorités de surveillance des autorités, et adapter leurs pratiques de conformité pour aligner sur les standards harmonisés émergents. Les avis du Comité, bien que non juridiquement contraignants, exercent une autorité morale et pratique importante.

Les organisations, notamment les grandes entreprises et les associations professionnelles, peuvent contribuer indirectement aux travaux du Comité via le Forum consultatif (article 67) ou en répondant à des consultations publiques que le Comité peut organiser. Cette participation permet d'apporter des perspectives pratiques et de signaler les difficultés de mise en œuvre, contribuant ainsi à des orientations réalistes et équilibrées.

Pour les États membres et leurs autorités compétentes, l'article 65 impose de participer activement au Comité, de désigner un représentant de haut niveau disposant de l'autorité et de l'expertise nécessaires, et de contribuer aux délibérations et à l'élaboration d'avis. La qualité de cette participation conditionne largement l'efficacité du Comité comme organe de coordination et d'harmonisation. Les États membres doivent également assurer une cohérence entre leurs pratiques nationales et les avis du Comité, sauf justification spécifique et transparente.

L'article 65 de l'AI Act institue le Comité européen de l'intelligence artificielle comme organe central de représentation des États membres et de coordination de l'application du règlement. En réunissant les représentants des 27 autorités nationales compétentes, le Comité constitue un forum privilégié d'échange, de délibération, et d'élaboration de positions communes sur les questions d'interprétation et de mise en œuvre de l'AI Act.

Le modèle institutionnel du Comité, inspiré du Comité européen de la protection des données créé par le RGPD, reflète l'approche européenne de gouvernance multilatérale fondée sur la coopération entre Commission et États membres. Le Comité assure un équilibre entre centralisation (coordination européenne) et décentralisation (respect des spécificités nationales), entre supranationalité (Bureau de l'IA) et intergouvernementalité (représentation des États).

Pour les organisations, le Comité représente un acteur clé de la gouvernance de l'IA en Europe, dont les avis et recommandations façonnent l'interprétation pratique de l'AI Act et contribuent à l'émergence d'une culture commune de régulation de l'intelligence artificielle respectueuse des droits fondamentaux, favorable à l'innovation responsable, et garantissant la sécurité juridique nécessaire au développement du marché intérieur de l'IA.