L'article 66 du Règlement (UE) 2024/1689 définit les tâches et missions du Comité européen de l'intelligence artificielle institué par l'article 65. Cet article est essentiel car il précise le rôle concret du Comité au-delà de sa simple composition institutionnelle : rassembler et partager l'expertise technique et réglementaire, fournir des avis et recommandations à la Commission et aux États membres, coordonner les autorités compétentes, et contribuer à l'harmonisation des pratiques d'application de l'AI Act à l'échelle européenne.

L'article 66 confère au Comité une mission fondamentale de conseil et de coordination qui s'exerce à plusieurs niveaux : vis-à-vis de la Commission européenne et du Bureau de l'IA, en apportant l'expertise et les perspectives des États membres, vis-à-vis des États membres eux-mêmes, en facilitant les échanges et la convergence de leurs pratiques, et vis-à-vis de l'ensemble de l'écosystème de l'IA, en contribuant à l'élaboration de normes, de lignes directrices et de bonnes pratiques favorisant une application cohérente et proportionnée du règlement.

Les tâches du Comité reflètent la nécessité d'une gouvernance européenne de l'IA qui soit à la fois techniquement compétente, juridiquement rigoureuse, et pragmatiquement adaptée aux réalités du terrain. Le Comité constitue ainsi le principal mécanisme institutionnel permettant de traduire les exigences abstraites de l'AI Act en orientations concrètes, de résoudre les questions d'interprétation complexes, et de garantir que l'application du règlement respecte les objectifs d'harmonisation du marché intérieur tout en protégeant efficacement les droits fondamentaux.

Texte officiel de l'article 66 de l'AI Act

L'article 66 de l'AI Act dispose (extraits principaux) :

« Le Comité conseille et assiste la Commission et les États membres afin de faciliter l'application cohérente et efficace du présent règlement. À cette fin, le Comité effectue les tâches suivantes :

a) contribuer à la coopération administrative efficace entre les autorités compétentes et à l'échange d'informations concernant l'application du présent règlement ;

b) recueillir et partager une expertise technique et réglementaire en matière d'intelligence artificielle et émettre des recommandations concernant la mise en œuvre du présent règlement ;

c) fournir, à la demande de la Commission ou de sa propre initiative, des avis écrits ou des conseils concernant des questions liées à la mise en œuvre du présent règlement, y compris sur l'utilisation de normes harmonisées ou de spécifications communes ;

d) contribuer à l'élaboration de lignes directrices en ce qui concerne la mise en œuvre du présent règlement, en particulier concernant les systèmes d'IA à haut risque ;

e) contribuer à l'harmonisation des pratiques administratives dans les États membres concernant tous les aspects couverts par le présent règlement. »

Cet article définit donc les missions du Comité autour de cinq axes principaux : coopération administrative et échange d'informations, expertise technique et réglementaire, avis et conseils sur la mise en œuvre, contribution aux lignes directrices, et harmonisation des pratiques administratives.

Analyse juridique de l'article 66

Mission générale de conseil et d'assistance

L'article 66 établit la mission générale du Comité : « Le Comité conseille et assiste la Commission et les États membres afin de faciliter l'application cohérente et efficace du présent règlement. » Cette formulation indique que le Comité n'exerce pas de pouvoirs décisionnels ou réglementaires propres, mais joue un rôle consultatif et de soutien.

« Conseiller » signifie que le Comité apporte son expertise, ses analyses et ses recommandations pour éclairer les décisions de la Commission et des États membres. « Assister » implique un rôle de support plus actif, incluant la fourniture d'outils, de méthodologies, et de ressources facilitant la mise en œuvre pratique du règlement.

L'objectif est double : « cohérence » de l'application (garantir que le règlement est interprété et appliqué de manière similaire dans les 27 États membres, évitant les divergences fragmentant le marché intérieur) et « efficacité » de l'application (garantir que le règlement atteint ses objectifs de protection des droits et de promotion de l'innovation de manière proportionnée et praticable).

La formulation « conseille et assiste la Commission et les États membres » indique que le Comité s'adresse aux deux niveaux de gouvernance : européen (Commission, Bureau de l'IA) et national (autorités compétentes des États membres). Il fait ainsi le lien entre ces deux niveaux, facilitant leur coordination.

Coopération administrative et échange d'informations

L'article 66, point a), confie au Comité la tâche de « contribuer à la coopération administrative efficace entre les autorités compétentes et à l'échange d'informations concernant l'application du présent règlement ». Cette mission vise à créer une véritable communauté administrative européenne de supervision de l'IA, dépassant les cloisonnements nationaux.

La « coopération administrative efficace » implique la mise en place de mécanismes et de procédures permettant aux autorités compétentes des différents États membres de collaborer sur des dossiers communs ou transfrontaliers, de partager leurs expériences et leurs pratiques, de s'entraider en cas de difficultés techniques ou juridiques, et de coordonner leurs actions de surveillance du marché pour éviter les duplications ou les incohérences.

L'« échange d'informations » porte notamment sur les cas de non-conformité identifiés et les mesures prises (pour permettre aux autres autorités de surveiller les mêmes fournisseurs ou systèmes), les interprétations adoptées face à des questions juridiques ou techniques complexes, les bonnes pratiques de surveillance et de soutien aux opérateurs, les incidents graves ou les risques émergents nécessitant une vigilance particulière, et les évolutions technologiques ou de marché ayant des implications pour l'application du règlement.

En pratique, cette mission se concrétise par l'organisation de groupes de travail thématiques réunissant des experts des différents États membres, la création de bases de données partagées ou de plateformes d'échange d'informations, la tenue de séminaires, d'ateliers ou de formations conjointes, et l'élaboration de protocoles de coopération pour les investigations transfrontalières.

Expertise technique et réglementaire

L'article 66, point b), confie au Comité la tâche de « recueillir et partager une expertise technique et réglementaire en matière d'intelligence artificielle et émettre des recommandations concernant la mise en œuvre du présent règlement ». Cette mission fait du Comité un centre d'expertise européen sur les questions d'IA et de régulation.

« Recueillir » l'expertise implique que le Comité mobilise les connaissances et compétences disponibles dans les différents États membres, sollicite des experts externes (via le groupe scientifique de l'article 68, des universitaires, des consultants), et organise des consultations avec les parties prenantes (via le Forum consultatif de l'article 67 ou d'autres mécanismes).

« Partager » l'expertise garantit que les connaissances acquises bénéficient à tous les États membres, évitant que certains ne restent isolés faute de ressources ou de compétences. Cette mutualisation est particulièrement importante compte tenu de la complexité technique de l'IA et de l'évolution rapide des technologies.

L'expertise porte à la fois sur les aspects « techniques » (fonctionnement des systèmes d'IA, méthodes d'évaluation, tests et audits, mesures de cybersécurité, etc.) et « réglementaires » (interprétation juridique des dispositions de l'AI Act, articulation avec d'autres réglementations, procédures administratives, régimes de sanctions, etc.).

« Émettre des recommandations concernant la mise en œuvre » signifie que le Comité traduit cette expertise en orientations pratiques destinées à guider les autorités compétentes et, indirectement, les opérateurs. Ces recommandations peuvent porter sur les méthodes de surveillance du marché, les critères de priorisation des contrôles, les modalités d'évaluation de conformité, l'interprétation de concepts juridiques ambigus, ou les approches face à des situations nouvelles ou complexes.

Avis et conseils sur demande ou de propre initiative

L'article 66, point c), confie au Comité la tâche de « fournir, à la demande de la Commission ou de sa propre initiative, des avis écrits ou des conseils concernant des questions liées à la mise en œuvre du présent règlement, y compris sur l'utilisation de normes harmonisées ou de spécifications communes ». Cette mission fait du Comité un organe consultatif à la fois réactif (répondant aux demandes) et proactif (agissant de sa propre initiative).

Les avis « à la demande de la Commission » permettent à celle-ci de solliciter l'expertise et les perspectives des États membres avant de prendre des décisions importantes (élaboration de spécifications communes, actes délégués ou d'exécution, orientations sur l'interprétation du règlement, etc.). Cette consultation garantit que les décisions de la Commission tiennent compte des réalités de terrain et bénéficient de la légitimité conférée par le soutien des États membres.

Les avis « de sa propre initiative » permettent au Comité de signaler proactivement des questions nécessitant une attention, des divergences d'interprétation ou de pratiques, des difficultés d'application rencontrées par les autorités compétentes, ou des évolutions technologiques ou de marché appelant des adaptations réglementaires. Cette capacité d'initiative garantit que le Comité n'est pas un simple organe réactif, mais un acteur contribuant activement à l'identification et à la résolution des enjeux.

Les avis peuvent porter sur « des questions liées à la mise en œuvre du présent règlement », formulation large couvrant potentiellement tous les aspects du règlement : interprétation des définitions et des concepts juridiques, application des exigences aux systèmes d'IA spécifiques, modalités de surveillance du marché, coordination des autorités compétentes, articulation avec d'autres réglementations (RGPD, législation sectorielle), ou approches face à des innovations technologiques disruptives.

La mention spécifique de « l'utilisation de normes harmonisées ou de spécifications communes » souligne l'importance de ces instruments techniques pour la mise en œuvre de l'AI Act. Les normes harmonisées, élaborées par les organismes européens de normalisation, confèrent une présomption de conformité aux exigences du règlement. Le Comité peut émettre des avis sur l'adéquation de normes proposées, les domaines nécessitant une normalisation prioritaire, ou l'utilisation pratique de ces normes par les opérateurs et les autorités.

Contribution aux lignes directrices

L'article 66, point d), confie au Comité la tâche de « contribuer à l'élaboration de lignes directrices en ce qui concerne la mise en œuvre du présent règlement, en particulier concernant les systèmes d'IA à haut risque ». Les lignes directrices constituent des documents d'orientation non contraignants visant à faciliter la compréhension et l'application du règlement.

« Contribuer à l'élaboration » suggère que le Comité ne rédige pas seul les lignes directrices (la Commission et le Bureau de l'IA jouent également un rôle), mais apporte son expertise, ses perspectives, et ses contributions aux projets de lignes directrices. Cette contribution peut prendre la forme de propositions de contenu, de commentaires sur des projets, de validation de versions préliminaires, ou de co-rédaction avec le Bureau de l'IA.

Les lignes directrices peuvent porter sur des sujets variés : interprétation des exigences de l'AI Act (gestion des risques, gouvernance des données, transparence, surveillance humaine, etc.), méthodologies d'évaluation de conformité pour des types spécifiques de systèmes d'IA, bonnes pratiques de conception et de déploiement respectant le règlement, approches sectorielles adaptées aux spécificités de domaines particuliers (santé, finance, transport, etc.), ou modalités de mise en œuvre proportionnée pour les PME.

La mention « en particulier concernant les systèmes d'IA à haut risque » souligne la priorité accordée à cette catégorie, soumise aux obligations les plus strictes et représentant les enjeux les plus importants en termes de droits fondamentaux et de sécurité. Toutefois, les lignes directrices peuvent également couvrir d'autres aspects du règlement (pratiques interdites, obligations de transparence, modèles d'IA à usage général, etc.).

Harmonisation des pratiques administratives

L'article 66, point e), confie au Comité la tâche de « contribuer à l'harmonisation des pratiques administratives dans les États membres concernant tous les aspects couverts par le présent règlement ». Cette mission vise à garantir que, au-delà de l'harmonisation des règles juridiques (assurée par le règlement lui-même), les modalités concrètes d'application de ces règles soient également harmonisées, évitant que des divergences administratives ne fragmentent le marché intérieur.

Les « pratiques administratives » incluent les procédures de surveillance du marché (modalités de contrôle, fréquence, critères de ciblage des opérateurs), les méthodes d'évaluation de conformité (tests, audits, analyses documentaires), les modalités d'interaction avec les opérateurs (demandes d'informations, inspections, dialogues de conformité), les régimes de sanctions (niveaux, modalités de calcul, circonstances atténuantes ou aggravantes), ou les mécanismes de soutien aux opérateurs (guidance, accompagnement, outils mis à disposition).

« Contribuer à l'harmonisation » implique que le Comité identifie les divergences de pratiques entre États membres, analyse leurs causes et leurs implications, élabore des recommandations ou des protocoles communs pour converger vers des approches harmonisées, et suit la mise en œuvre de ces recommandations pour mesurer les progrès et ajuster si nécessaire.

L'harmonisation porte sur « tous les aspects couverts par le présent règlement », formulation extensive garantissant que l'ensemble du champ d'application de l'AI Act bénéficie de pratiques cohérentes. Cette harmonisation est essentielle pour garantir l'effectivité du marché intérieur de l'IA : des fournisseurs opérant dans plusieurs États membres doivent pouvoir anticiper des exigences et des modalités de contrôle comparables, évitant les coûts de fragmentation et les risques de forum shopping.

Exemples concrets d'application

Exemple concret d'application de l'article 66 de l'AI Act

Élaboration de lignes directrices sur l'évaluation de conformité des systèmes d'IA à haut risque en santé

En 2026, un an après l'entrée en application de l'AI Act, le Comité européen de l'IA constate que les autorités compétentes des États membres rencontrent des difficultés pour évaluer la conformité des systèmes d'IA à haut risque dans le secteur de la santé (diagnostic médical, aide à la décision thérapeutique, gestion de dossiers patients). Les divergences d'approche entre États membres créent des incertitudes pour les fournisseurs et des risques de fragmentation du marché.

Identification du besoin et initiative du Comité (points a, b, c) :

Lors de sa réunion trimestrielle d'avril 2026, le Comité :

1. Échange d'informations (point a) : Les représentants des autorités compétentes partagent leurs expériences :
- France : « Nous avons contrôlé 5 systèmes d'IA de diagnostic médical. Les fournisseurs ont des difficultés à démontrer la qualité et la représentativité de leurs données d'entraînement. Nous manquons de critères précis. »
- Allemagne : « Nous avons développé une checklist d'évaluation, mais nous craignons qu'elle soit trop stricte par rapport à ce que font d'autres États, créant un désavantage pour nos entreprises. »
- Pays-Bas : « Nous avons identifié des systèmes d'IA médicale commercialisés dans plusieurs États avec des interprétations différentes des exigences de l'article 14 (surveillance humaine). Certains exigent une validation systématique par un médecin, d'autres acceptent une supervision moins stricte. »
- Espagne : « Nous sommes submergés par les demandes de clarification des fournisseurs. Nous aurions besoin de lignes directrices sectorielles pour la santé. »

2. Expertise technique et réglementaire (point b) : Le Comité décide de recueillir une expertise approfondie :
- Invitation du groupe scientifique d'experts indépendants (article 68) spécialisé en IA médicale
- Invitation de représentants du Forum consultatif (article 67) représentant les fabricants de dispositifs médicaux et les associations de patients
- Consultation de l'Agence européenne des médicaments (EMA) et des organismes notifiés compétents pour les dispositifs médicaux
- Échange avec plusieurs fournisseurs de systèmes d'IA médicale pour comprendre les difficultés pratiques

3. Décision d'initiative (point c) : Le Comité décide, de sa propre initiative, d'élaborer des lignes directrices spécifiques sur l'évaluation de conformité des systèmes d'IA à haut risque dans le secteur de la santé. Un groupe de travail est créé, composé de représentants de 8 États membres volontaires, du Bureau de l'IA, et d'experts invités.

Travaux du groupe de travail (points b, d) :

Entre mai et septembre 2026, le groupe de travail se réunit mensuellement (physiquement et en visioconférence) et mène les activités suivantes :

1. Cartographie des pratiques existantes : Recueil des approches adoptées par les différentes autorités compétentes pour évaluer les systèmes d'IA médicale, identification des convergences et des divergences.

2. Analyse technique : Avec le groupe scientifique, analyse des spécificités techniques des systèmes d'IA médicale (entraînement sur données de santé sensibles, validation clinique, interfaces avec les professionnels de santé, intégration dans les flux de travail hospitaliers, gestion des erreurs et des incertitudes).

3. Analyse juridique : Analyse de l'articulation entre l'AI Act et le règlement sur les dispositifs médicaux (MDR), clarification des exigences spécifiques applicables (articles 9-15 de l'AI Act, Annexe IV sur la documentation technique).

4. Consultations : Audition de fournisseurs de systèmes d'IA médicale, d'organismes notifiés, de professionnels de santé, et d'associations de patients pour recueillir leurs perspectives et identifier les enjeux pratiques.

5. Rédaction : Rédaction d'un projet de lignes directrices couvrant :
- Interprétation des exigences de l'AI Act pour les systèmes d'IA médicale
- Méthodologie d'évaluation de la qualité et de la représentativité des données d'entraînement (article 10)
- Critères de robustesse clinique et d'exactitude (article 15)
- Modalités de surveillance humaine adaptées aux différents types de systèmes médicaux (article 14)
- Articulation entre évaluation AI Act et évaluation MDR (éviter duplications)
- Exemples concrets et cas pratiques

Validation et adoption par le Comité (point d) :

En octobre 2026, le projet de lignes directrices est présenté au Comité plénier. Après discussion et quelques amendements, le Comité l'adopte à la majorité qualifiée (23 voix pour, 3 abstentions, 1 contre). Les lignes directrices sont intitulées : « Lignes directrices du Comité européen de l'IA sur l'évaluation de conformité des systèmes d'intelligence artificielle à haut risque dans le secteur de la santé ».

Publication et diffusion :

Les lignes directrices sont publiées sur le site internet du Bureau de l'IA en novembre 2026, en 24 langues officielles de l'UE. Elles sont accompagnées d'un communiqué expliquant leur objectif et leur portée, et d'une annexe contenant des exemples concrets et des FAQ.

Formation et harmonisation des pratiques (points a, e) :

Pour garantir l'harmonisation effective des pratiques administratives :

1. Formation des autorités compétentes : En décembre 2026, le Bureau de l'IA, en coordination avec le Comité, organise un séminaire de formation de deux jours réunissant les inspecteurs et évaluateurs des autorités compétentes de tous les États membres. Les lignes directrices sont présentées en détail, avec des exercices pratiques d'application à des cas concrets.

2. Réseau d'experts : Un réseau d'experts en IA médicale est constitué, réunissant des spécialistes de chaque État membre. Ce réseau se réunit trimestriellement pour échanger sur les cas difficiles, partager les bonnes pratiques, et proposer des actualisations des lignes directrices si nécessaire.

3. Plateforme de coopération : Une plateforme numérique sécurisée est mise en place, permettant aux autorités compétentes de partager des informations sur les évaluations en cours, de signaler des difficultés, et de demander conseil aux pairs.

Effets et résultats (tous les points) :

Six mois après la publication des lignes directrices (mai 2027), le Comité évalue leur impact :

1. Harmonisation accrue : Les divergences d'approche entre États membres se sont significativement réduites. Les fournisseurs opérant dans plusieurs pays constatent des exigences plus cohérentes.

2. Sécurité juridique : Les fournisseurs de systèmes d'IA médicale disposent de références claires pour guider leur mise en conformité, réduisant les incertitudes et les coûts.

3. Efficacité de la surveillance : Les autorités compétentes disposent d'outils et de méthodologies harmonisés, améliorant l'efficacité de leurs contrôles et réduisant les charges administratives.

4. Protection des patients : L'harmonisation des exigences garantit un niveau de protection élevé et cohérent des patients dans tous les États membres.

5. Dialogue constructif : Le processus d'élaboration des lignes directrices, incluant la consultation des parties prenantes, a créé un dialogue constructif entre régulateurs, industrie, professionnels de santé et représentants des patients.

Actualisation continue :

Le Comité décide de réviser les lignes directrices tous les 18 mois pour tenir compte des évolutions technologiques, des retours d'expérience des autorités compétentes et des opérateurs, et de l'émergence de nouvelles normes harmonisées sectorielles. Des addenda peuvent être publiés plus fréquemment pour traiter de questions spécifiques urgentes.

Extension à d'autres secteurs :

Fort du succès de ces lignes directrices sectorielles pour la santé, le Comité lance des travaux similaires pour d'autres secteurs à enjeux : finance (systèmes d'IA pour l'évaluation de crédit, la détection de fraude), ressources humaines (systèmes de recrutement et de gestion du personnel), et forces de l'ordre (systèmes d'identification biométrique, d'analyse prédictive).

Cet exemple illustre comment le Comité européen de l'IA, en vertu de l'article 66, exerce ses tâches de coordination, d'expertise, de conseil, d'élaboration de lignes directrices, et d'harmonisation des pratiques pour garantir une application cohérente et efficace de l'AI Act, au bénéfice de la sécurité juridique, de la protection des droits fondamentaux, et du bon fonctionnement du marché intérieur de l'IA.

Articulation avec les autres dispositions de l'AI Act

L'article 66 complète directement l'article 65 qui institue le Comité européen de l'IA : alors que l'article 65 définit la composition et les modalités de fonctionnement du Comité, l'article 66 précise ses missions concrètes. Les deux articles forment un ensemble cohérent établissant le cadre institutionnel et fonctionnel du Comité.

Les tâches du Comité définies à l'article 66 s'articulent avec les missions du Bureau de l'IA (article 64) : le Comité conseille et assiste le Bureau, contribue à l'élaboration des lignes directrices que le Bureau facilite, et coordonne les autorités compétentes dont le Bureau supervise les actions. Cette complémentarité garantit une gouvernance équilibrée entre la dimension supranationale (Bureau) et la dimension intergouvernementale (Comité).

L'article 66 fait référence implicite au Forum consultatif (article 67) et au groupe scientifique d'experts indépendants (article 68) : le Comité peut s'appuyer sur ces organes pour recueillir l'expertise et les perspectives nécessaires à l'accomplissement de ses tâches. Ces trois organes (Comité, Forum, groupe scientifique) constituent ensemble l'architecture consultative de la gouvernance de l'AI Act.

Les tâches du Comité relatives à l'harmonisation des pratiques administratives (point e) s'articulent avec les dispositions du Titre VIII sur la surveillance du marché et l'application du règlement. Le Comité contribue à garantir que les autorités compétentes des États membres exercent leurs pouvoirs de surveillance de manière cohérente et proportionnée.

La contribution du Comité à l'élaboration de lignes directrices (point d) s'articule avec l'article 40 de l'AI Act sur les normes harmonisées : les lignes directrices peuvent porter sur l'utilisation de ces normes, facilitant leur appropriation par les opérateurs et les autorités.

Implications pratiques pour les organisations

Pour les fournisseurs et déployeurs de systèmes d'IA, l'article 66 et les tâches du Comité qu'il définit ont des implications pratiques importantes. Les avis, recommandations et lignes directrices élaborés par le Comité constituent des références essentielles pour comprendre comment les autorités compétentes interpréteront et appliqueront l'AI Act. Bien que non juridiquement contraignants, ces documents exercent une forte autorité interprétative et sont généralement suivis par les autorités.

Les organisations doivent suivre attentivement les publications du Comité, disponibles sur le site du Bureau de l'IA. Elles doivent intégrer ces orientations dans leurs processus de conformité, adapter leurs systèmes et leurs pratiques pour aligner sur les bonnes pratiques recommandées, et participer aux consultations publiques que le Comité peut organiser pour apporter leurs perspectives pratiques.

Les lignes directrices sectorielles élaborées par le Comité (santé, finance, ressources humaines, etc.) sont particulièrement précieuses car elles traduisent les exigences générales de l'AI Act en orientations spécifiques adaptées aux contextes particuliers de chaque secteur. Les organisations doivent privilégier les lignes directrices pertinentes pour leur domaine d'activité.

Pour les États membres et leurs autorités compétentes, l'article 66 impose de contribuer activement aux travaux du Comité, de participer aux groupes de travail, d'échanger informations et expertise avec les autres autorités, et d'aligner leurs pratiques administratives sur les recommandations du Comité. Cette participation est essentielle pour garantir que les orientations élaborées reflètent les réalités de terrain et bénéficient de la légitimité et de l'appropriation nécessaires.

Les autorités compétentes doivent également mettre en œuvre les lignes directrices et recommandations du Comité dans leurs activités de surveillance du marché, garantissant ainsi l'harmonisation effective des pratiques à l'échelle européenne.

L'article 66 de l'AI Act définit les tâches essentielles du Comité européen de l'intelligence artificielle, faisant de lui l'organe central de coordination, d'expertise et d'harmonisation de l'application du règlement à l'échelle européenne. En confiant au Comité des missions de conseil, de partage d'expertise, d'élaboration de lignes directrices, et d'harmonisation des pratiques administratives, l'AI Act crée un mécanisme institutionnel garantissant que le règlement est interprété et appliqué de manière cohérente dans les 27 États membres.

Le Comité constitue ainsi le principal vecteur de l'émergence d'une culture administrative commune de supervision de l'IA en Europe, dépassant les approches nationales fragmentées pour créer un véritable espace européen de régulation de l'intelligence artificielle. Cette harmonisation est essentielle pour le bon fonctionnement du marché intérieur de l'IA, garantissant aux opérateurs la prévisibilité et la sécurité juridique nécessaires, tout en assurant un niveau élevé et cohérent de protection des droits fondamentaux sur l'ensemble du territoire européen.

Pour les organisations, les travaux du Comité constituent une source incontournable d'orientation pratique et d'anticipation des attentes des autorités. Le suivi attentif des avis, recommandations et lignes directrices du Comité, et leur intégration dans les stratégies de conformité, représentent un investissement essentiel pour naviguer avec succès dans le cadre réglementaire de l'AI Act et contribuer au développement d'une IA européenne responsable, sûre et respectueuse des valeurs fondamentales de l'Union.