L'article 64 du Règlement (UE) 2024/1689 établit le Bureau de l'IA (AI Office), une nouvelle entité institutionnelle rattachée à la Commission européenne et chargée de coordonner la mise en œuvre de l'AI Act dans l'ensemble des États membres. Cette création institutionnelle constitue une innovation majeure de la gouvernance européenne de l'intelligence artificielle, reconnaissant la nécessité d'une autorité centrale dotée d'expertise technique et de pouvoirs d'intervention pour garantir l'application harmonisée et efficace du règlement à l'échelle de l'Union européenne.
Le Bureau de l'IA assume un double rôle stratégique : d'une part, il coordonne l'action des autorités nationales compétentes des 27 États membres pour assurer une interprétation et une application cohérentes de l'AI Act sur l'ensemble du territoire européen ; d'autre part, il exerce des pouvoirs de supervision directe sur les fournisseurs de modèles d'IA à usage général, catégorie particulièrement stratégique compte tenu de leur déploiement transnational et de leur impact systémique potentiel. Cette double mission reflète l'architecture à plusieurs niveaux de la gouvernance de l'AI Act, combinant supervision centralisée et mise en œuvre décentralisée.
L'article 64 attribue au Bureau de l'IA des pouvoirs d'enquête et d'intervention substantiels, incluant la capacité de demander des informations aux opérateurs, de mener des investigations, et de prendre des mesures correctrices en cas de non-conformité. Ces pouvoirs, détaillés dans d'autres dispositions du règlement, positionnent le Bureau comme un acteur central de l'application effective de l'AI Act, capable d'agir directement face aux manquements, notamment pour les systèmes d'IA les plus puissants et les plus répandus.
Texte officiel de l'article 64 de l'AI Act
L'article 64 de l'AI Act dispose (extraits principaux) :
« 1. Le Bureau de l'IA est institué au sein de la Commission. Il assure l'application et la mise en œuvre cohérentes du présent règlement au niveau de l'Union et coordonne les actions connexes des autorités des États membres. »
« 2. Le Bureau de l'IA exerce les tâches suivantes :
a) contribuer au développement harmonieux de l'intelligence artificielle dans l'Union, en facilitant la mise en œuvre effective du présent règlement ;
b) soutenir les États membres et les autorités compétentes dans l'application du présent règlement ;
c) superviser la mise en œuvre et l'application du présent règlement en ce qui concerne les fournisseurs de modèles d'IA à usage général ;
d) faciliter l'élaboration de normes harmonisées, de spécifications communes et de lignes directrices concernant la mise en œuvre du présent règlement ;
e) contribuer à la coordination des activités de surveillance du marché menées par les autorités de surveillance du marché. »
« 3. Aux fins d'exercer les tâches qui lui sont confiées en vertu du présent règlement, le Bureau de l'IA peut demander aux fournisseurs, aux déployeurs et à d'autres personnes concernées de fournir toute information dont il a besoin pour exercer ses tâches au titre du présent règlement. »
« 4. Le Bureau de l'IA est habilité à mener les enquêtes nécessaires sur les questions relevant de son champ de compétence. »
Cet article institue donc le Bureau de l'IA comme autorité centrale de coordination et de supervision de l'application de l'AI Act au niveau européen, avec des compétences particulières sur les modèles d'IA à usage général.
Analyse juridique de l'article 64
Création institutionnelle et rattachement à la Commission
L'article 64, paragraphe 1, « institue » le Bureau de l'IA « au sein de la Commission ». Cette formulation signifie que le Bureau n'est pas une agence indépendante dotée de la personnalité juridique (comme l'Agence européenne des médicaments ou l'Autorité européenne de protection des données), mais une structure administrative intégrée à la Commission européenne. Ce choix institutionnel présente plusieurs avantages : intégration directe dans l'appareil exécutif de l'Union, accès facilité aux ressources et à l'expertise de la Commission, coordination aisée avec les autres services de la Commission (notamment ceux chargés du marché intérieur, de la concurrence, de la protection des données), et réactivité dans la prise de décision.
Le rattachement à la Commission confère au Bureau une légitimité institutionnelle forte et un positionnement stratégique au cœur de l'exécutif européen. Le Bureau bénéficie de l'autorité et des moyens de la Commission tout en développant une expertise spécialisée sur l'intelligence artificielle. Cette structure permet également une cohérence avec d'autres initiatives de la Commission en matière de numérique et de régulation des technologies (Digital Services Act, Digital Markets Act, Data Act, etc.).
Le mandat du Bureau est double : « assurer l'application et la mise en œuvre cohérentes du présent règlement au niveau de l'Union » et « coordonner les actions connexes des autorités des États membres ». Cette formulation souligne la dimension européenne et transnationale de la mission du Bureau : il ne se substitue pas aux autorités nationales, mais assure la cohérence de leurs actions à l'échelle de l'Union.
Missions de coordination et de soutien aux États membres
L'article 64, paragraphe 2, points a) et b), confie au Bureau des missions de facilitation et de soutien : « contribuer au développement harmonieux de l'intelligence artificielle dans l'Union, en facilitant la mise en œuvre effective du présent règlement » et « soutenir les États membres et les autorités compétentes dans l'application du présent règlement ».
Ces missions impliquent que le Bureau joue un rôle de coordination, d'harmonisation des pratiques, de partage d'expertise, et d'assistance aux autorités nationales. Concrètement, le Bureau peut élaborer des orientations, des lignes directrices et des bonnes pratiques pour faciliter l'interprétation et l'application harmonisées de l'AI Act, organiser des formations et des échanges entre autorités nationales pour développer une culture commune de supervision de l'IA, faciliter le partage d'informations et la coopération entre autorités pour les dossiers transnationaux, apporter un soutien technique aux États membres disposant de ressources limitées en matière d'IA, et assurer une veille technologique et réglementaire pour anticiper les évolutions et adapter la mise en œuvre.
Le « développement harmonieux de l'intelligence artificielle dans l'Union » mentionné au point a) souligne que l'objectif n'est pas seulement de réglementer l'IA, mais aussi de créer les conditions d'un développement équilibré, sûr et respectueux des droits fondamentaux, favorisant l'innovation responsable tout en protégeant les personnes.
Supervision directe des modèles d'IA à usage général
L'article 64, paragraphe 2, point c), attribue au Bureau une compétence de supervision directe : « superviser la mise en œuvre et l'application du présent règlement en ce qui concerne les fournisseurs de modèles d'IA à usage général ». Cette compétence constitue une des missions les plus stratégiques du Bureau, compte tenu de l'importance croissante des modèles d'IA à usage général (general-purpose AI models ou GPAI) tels que les grands modèles de langage (GPT, Claude, Gemini, LLaMA, etc.), les modèles de génération d'images (DALL-E, Midjourney, Stable Diffusion, etc.), ou les modèles multimodaux.
Les modèles d'IA à usage général se caractérisent par leur polyvalence : ils peuvent être utilisés pour une multitude de tâches et d'applications, souvent bien au-delà des usages initialement prévus par leurs développeurs. Cette polyvalence, combinée à leur déploiement à grande échelle (souvent mondial), justifie une supervision centralisée au niveau européen plutôt qu'une fragmentation entre 27 autorités nationales. Le Bureau dispose ainsi de l'expertise, des ressources et de l'autorité nécessaires pour superviser des acteurs souvent de très grande taille (OpenAI, Google, Anthropic, Meta, etc.) et opérant à l'échelle internationale.
La supervision du Bureau inclut notamment la vérification de la conformité des fournisseurs de modèles d'IA à usage général aux obligations spécifiques qui leur sont imposées (transparence, documentation, gestion des risques systémiques pour les modèles les plus puissants - voir Chapitre V du règlement), la surveillance des risques systémiques potentiels associés aux modèles les plus avancés, l'investigation en cas de suspicion de non-conformité ou d'incidents graves, et la coordination avec les autorités nationales lorsque des modèles d'IA à usage général sont intégrés dans des systèmes d'IA spécifiques relevant de la compétence de ces autorités.
Facilitation de l'élaboration de normes et de lignes directrices
L'article 64, paragraphe 2, point d), confie au Bureau la mission de « faciliter l'élaboration de normes harmonisées, de spécifications communes et de lignes directrices concernant la mise en œuvre du présent règlement ». Cette mission reconnaît que l'effectivité de l'AI Act dépend largement de la disponibilité d'instruments techniques et méthodologiques permettant aux opérateurs de comprendre et de mettre en œuvre les exigences réglementaires.
Les « normes harmonisées » sont des normes techniques élaborées par les organismes européens de normalisation (CEN, CENELEC, ETSI) sur demande de la Commission. L'AI Act prévoit que la conformité à ces normes harmonisées crée une présomption de conformité aux exigences du règlement. Le Bureau facilite leur élaboration en identifiant les besoins de normalisation, en participant aux travaux des organismes de normalisation, et en veillant à la cohérence entre normes et exigences réglementaires.
Les « spécifications communes » sont des documents techniques élaborés par la Commission lorsque les normes harmonisées sont insuffisantes ou inexistantes, et présentent un caractère contraignant. Le Bureau contribue à leur élaboration en mobilisant l'expertise nécessaire et en consultant les parties prenantes.
Les « lignes directrices » sont des documents d'orientation non contraignants visant à faciliter l'interprétation et l'application harmonisées de l'AI Act. Le Bureau élabore ces lignes directrices en consultation avec le Comité européen de l'intelligence artificielle (article 65), les autorités nationales, et les parties prenantes, garantissant leur pertinence pratique et leur acceptation.
Coordination de la surveillance du marché
L'article 64, paragraphe 2, point e), confie au Bureau la mission de « contribuer à la coordination des activités de surveillance du marché menées par les autorités de surveillance du marché ». Cette mission vise à garantir que la surveillance du marché de l'IA est cohérente et efficace à l'échelle de l'Union, évitant les divergences d'interprétation et de pratiques entre États membres qui pourraient fragmenter le marché intérieur ou créer des failles dans la protection.
La coordination implique notamment la facilitation du partage d'informations entre autorités de surveillance du marché sur les systèmes d'IA contrôlés, les non-conformités identifiées, et les mesures prises, l'harmonisation des méthodes et des critères de contrôle pour garantir une surveillance comparable sur tout le territoire européen, la coordination des investigations transfrontalières concernant des systèmes d'IA commercialisés dans plusieurs États membres, l'identification des tendances et des risques émergents nécessitant une attention prioritaire, et l'élaboration de lignes directrices sur les bonnes pratiques de surveillance du marché spécifiques à l'IA.
Pouvoirs d'investigation et de demande d'informations
L'article 64, paragraphe 3, confère au Bureau des pouvoirs de demande d'informations : le Bureau « peut demander aux fournisseurs, aux déployeurs et à d'autres personnes concernées de fournir toute information dont il a besoin pour exercer ses tâches au titre du présent règlement ». Cette prérogative est essentielle pour permettre au Bureau d'exercer effectivement ses missions de supervision et de coordination.
Le pouvoir de demande d'informations est large : il s'applique aux « fournisseurs » (développeurs de systèmes d'IA ou de modèles d'IA à usage général), aux « déployeurs » (utilisateurs professionnels de systèmes d'IA), et à « d'autres personnes concernées » (distributeurs, importateurs, mandataires, organismes notifiés, etc.). Il porte sur « toute information dont il a besoin », sans limitation thématique, dès lors que l'information est nécessaire à l'exercice des missions du Bureau.
En pratique, le Bureau peut demander des informations sur les caractéristiques techniques des systèmes d'IA, les données d'entraînement et de test, les processus de gestion des risques et de conformité, les incidents et dysfonctionnements constatés, les volumes de commercialisation et les modalités de déploiement, ou toute autre information pertinente pour évaluer la conformité. Les destinataires de ces demandes sont légalement tenus d'y répondre de manière complète et exacte ; le refus ou la fourniture d'informations inexactes peut entraîner des sanctions.
Pouvoir d'enquête
L'article 64, paragraphe 4, confère au Bureau un pouvoir d'enquête général : le Bureau « est habilité à mener les enquêtes nécessaires sur les questions relevant de son champ de compétence ». Ce pouvoir complète le pouvoir de demande d'informations et permet au Bureau de conduire des investigations approfondies en cas de suspicion de non-conformité ou de risques pour la sécurité ou les droits fondamentaux.
Les « enquêtes » peuvent inclure des demandes d'informations et de documents détaillées, des auditions de représentants des opérateurs, des inspections sur site (si prévues par d'autres dispositions et sous réserve du respect des droits de la défense), des analyses techniques de systèmes d'IA, l'engagement d'experts indépendants pour évaluer des aspects techniques complexes, et la coopération avec d'autres autorités (autorités de protection des données, de concurrence, de cybersécurité, etc.).
Le pouvoir d'enquête est limité aux « questions relevant de son champ de compétence », c'est-à-dire principalement la supervision des fournisseurs de modèles d'IA à usage général et la coordination de la mise en œuvre de l'AI Act. Pour les systèmes d'IA spécifiques relevant de la compétence des autorités nationales, le Bureau intervient en coordination avec ces autorités plutôt qu'en substitution.
Exemples concrets d'application
Exemple concret d'application de l'article 64 de l'AI Act
Supervision d'un fournisseur de grand modèle de langage par le Bureau de l'IA
« LinguaAI », une entreprise européenne de taille importante, a développé et commercialise « EuroLLM », un grand modèle de langage multilingue à usage général capable de générer du texte, de traduire, de résumer, de coder, et d'effectuer diverses tâches de traitement du langage naturel. Le modèle est accessible via API et est utilisé par des milliers d'entreprises et développeurs européens pour créer des applications variées (chatbots, assistants virtuels, outils de rédaction, systèmes de traduction, etc.). EuroLLM compte 50 milliards de paramètres et a été entraîné sur un corpus de données massif incluant des textes provenant d'internet, de livres, et d'autres sources.
Contexte : En vertu du Chapitre V de l'AI Act (articles 51-56), LinguaAI est soumis à des obligations spécifiques en tant que fournisseur de modèle d'IA à usage général, incluant la fourniture d'une documentation technique détaillée, la mise en place de politiques de respect du droit d'auteur, la transparence sur les données d'entraînement, et - si le modèle présente des risques systémiques - des obligations renforcées de gestion des risques et d'évaluation. Le Bureau de l'IA, conformément à l'article 64, paragraphe 2, point c), est compétent pour superviser la conformité de LinguaAI.
Mise en œuvre de l'article 64 :
1. Demande d'informations initiale (paragraphe 3) :
En août 2025 (date d'entrée en application de l'AI Act), le Bureau de l'IA envoie à LinguaAI une demande d'informations standard adressée à tous les fournisseurs de modèles d'IA à usage général opérant dans l'Union. La demande, fondée sur l'article 64, paragraphe 3, requiert la fourniture des informations suivantes dans un délai de 30 jours :
- Description détaillée du modèle EuroLLM (architecture, nombre de paramètres, capacités, limitations connues)
- Informations sur les données d'entraînement (sources, volume, langues, processus de collecte et de curation)
- Documentation technique conforme à l'Annexe XI du règlement
- Politiques mises en place pour le respect du droit d'auteur (article 53)
- Résumé public des données d'entraînement (article 53)
- Évaluation des risques systémiques potentiels (si applicable - article 55)
- Nombre d'utilisateurs, volumes d'utilisation, principaux cas d'usage constatés
- Incidents ou dysfonctionnements significatifs survenus depuis le lancement
- Mesures de gouvernance interne pour la conformité à l'AI Act
LinguaAI répond dans les délais en fournissant un dossier complet de 250 pages documentant la conformité du modèle aux exigences applicables.
2. Analyse de conformité et identification d'un point d'attention (paragraphes 2, c et 3) :
Le Bureau de l'IA examine le dossier fourni par LinguaAI avec l'assistance du groupe scientifique d'experts indépendants (article 68). L'examen révèle que :
- La documentation technique est globalement conforme et détaillée
- Les politiques de respect du droit d'auteur sont en place, bien que leur efficacité nécessite une surveillance continue
- Le résumé public des données d'entraînement est fourni, mais manque de précisions sur certaines catégories de données sensibles (données de santé, données biométriques)
- Le modèle, avec 50 milliards de paramètres et une utilisation massive, pourrait être qualifié de modèle « à risque systémique » au sens de l'article 3, point 66, et de l'article 51
Le Bureau demande des informations complémentaires sur :
1. La présence et les volumes de données de santé et biométriques dans le corpus d'entraînement
2. Les mesures prises pour garantir que le modèle ne génère pas de contenus illicites, discriminatoires ou nuisibles
3. L'évaluation des risques systémiques conformément à l'article 55
LinguaAI fournit les informations complémentaires dans un délai de 15 jours.
3. Qualification de modèle à risque systémique et imposition d'obligations renforcées (paragraphes 2, c et 4) :
Après analyse des informations complémentaires et consultation du groupe scientifique, le Bureau de l'IA conclut que EuroLLM présente des « risques systémiques » au sens de l'article 3, point 66, en raison de :
- Ses capacités élevées (50 milliards de paramètres, performances de pointe sur de nombreuses tâches)
- Son impact significatif (utilisé par des milliers d'applications touchant des millions de personnes)
- Les risques potentiels de génération de désinformation à grande échelle, de contenus nuisibles, ou d'utilisation malveillante
Le Bureau notifie formellement à LinguaAI que EuroLLM est qualifié de modèle d'IA à usage général présentant des risques systémiques, et que l'entreprise est donc soumise aux obligations renforcées de l'article 55 :
- Réaliser une évaluation des modèles conformément à des protocoles normalisés
- Évaluer et atténuer les risques systémiques (diffusion de contenus illicites, effets sur les processus démocratiques, sécurité publique, etc.)
- Effectuer des tests contradictoires (adversarial testing)
- Suivre et signaler les incidents graves
- Garantir un niveau de cybersécurité adéquat
- Rapporter au Bureau les informations pertinentes, notamment l'évaluation des risques systémiques
LinguaAI dispose de 6 mois pour se conformer pleinement à ces obligations renforcées.
4. Supervision continue et coordination (paragraphes 2, a, b, e) :
Le Bureau de l'IA met en place une supervision continue de LinguaAI et d'EuroLLM :
- Réunions trimestrielles avec l'équipe de gouvernance de LinguaAI pour suivre la mise en œuvre des obligations
- Examen des évaluations de risques systémiques et des mesures d'atténuation
- Analyse des incidents signalés (génération de contenus problématiques, utilisation pour créer des deepfakes, etc.)
- Coordination avec les autorités nationales de surveillance du marché pour les cas où EuroLLM est intégré dans des systèmes d'IA à haut risque spécifiques (par exemple, un système d'aide à la décision médicale utilisant EuroLLM)
Le Bureau contribue également au développement de lignes directrices européennes sur l'évaluation des risques systémiques des grands modèles de langage, en s'appuyant sur l'expérience acquise avec LinguaAI et d'autres fournisseurs.
5. Investigation sur un incident de génération de contenu nuisible (paragraphe 4) :
En mars 2026, plusieurs médias signalent que EuroLLM a été utilisé pour générer à grande échelle de faux articles de presse et de la désinformation lors d'une campagne électorale dans un État membre. Le Bureau de l'IA ouvre une enquête formelle conformément à l'article 64, paragraphe 4.
L'enquête du Bureau vise à déterminer :
- Comment EuroLLM a été utilisé pour générer ce contenu
- Si les mesures d'atténuation mises en place par LinguaAI étaient adéquates
- Si LinguaAI a respecté ses obligations de signalement d'incidents
- Quelles améliorations sont nécessaires pour prévenir des incidents similaires
Le Bureau demande à LinguaAI de fournir :
- Logs détaillés des utilisations d'EuroLLM ayant généré le contenu en question
- Analyse interne de l'incident
- Mesures prises pour détecter et bloquer l'utilisation malveillante
- Plan d'amélioration des mécanismes de détection et de prévention
Le Bureau mène également des auditions avec l'équipe de LinguaAI et engage des experts indépendants pour évaluer l'efficacité des mesures de sécurité du modèle.
6. Conclusion de l'enquête et mesures correctives :
L'enquête révèle que :
- LinguaAI avait mis en place des mesures de détection de contenus nuisibles, mais celles-ci n'ont pas détecté l'utilisation malveillante en raison de techniques de contournement sophistiquées
- LinguaAI a signalé l'incident au Bureau de l'IA dès qu'elle en a eu connaissance (conformité à l'obligation de signalement)
- Des améliorations sont nécessaires dans les mécanismes de détection et de modération
Le Bureau de l'IA :
- Reconnaît que LinguaAI a agi de bonne foi et a respecté ses obligations de signalement
- Exige la mise en œuvre de mesures correctives renforcées dans un délai de 3 mois : amélioration des systèmes de détection d'utilisation malveillante, renforcement des limites de débit (rate limits) pour prévenir l'utilisation massive, développement d'un système de classification de contenu en temps réel
- Publie un rapport public sur l'incident (anonymisé) et des recommandations pour tous les fournisseurs de grands modèles de langage
- Organise un atelier avec l'ensemble des fournisseurs de modèles d'IA à usage général opérant dans l'UE pour partager les leçons apprises
7. Contribution à l'harmonisation européenne (paragraphes 2, d et e) :
Fort de son expérience avec LinguaAI et d'autres fournisseurs, le Bureau de l'IA :
- Élabore des lignes directrices sur l'évaluation et l'atténuation des risques de désinformation pour les grands modèles de langage
- Facilite l'élaboration d'une norme harmonisée européenne sur les tests contradictoires (adversarial testing) de modèles d'IA à usage général, en coopération avec le CEN-CENELEC
- Partage les bonnes pratiques identifiées avec les autorités nationales et le Comité européen de l'intelligence artificielle (article 65)
- Contribue à la coordination des actions de surveillance du marché en informant les autorités nationales des risques identifiés liés à l'utilisation d'EuroLLM dans des applications spécifiques
Résultats :
Grâce à l'action du Bureau de l'IA :
- LinguaAI améliore significativement ses mécanismes de détection et de prévention d'utilisations malveillantes
- Les autres fournisseurs de modèles d'IA à usage général bénéficient des lignes directrices et bonnes pratiques développées
- Une approche harmonisée de la supervision des grands modèles de langage se développe à l'échelle européenne
- La confiance du public et des autorités dans la gouvernance de l'IA en Europe est renforcée
Cet exemple illustre comment le Bureau de l'IA, en vertu de l'article 64, coordonne la supervision des modèles d'IA à usage général, exerce ses pouvoirs d'investigation et de demande d'informations, contribue au développement de normes et de bonnes pratiques, et assure une mise en œuvre cohérente et effective de l'AI Act à l'échelle de l'Union européenne.
Articulation avec les autres dispositions de l'AI Act
L'article 64 constitue la pierre angulaire de l'architecture de gouvernance établie par le Titre VII de l'AI Act. Il s'articule étroitement avec l'article 65 qui institue le Comité européen de l'intelligence artificielle, organe représentant les États membres et assistant le Bureau dans ses missions, l'article 66 qui précise les tâches de ce Comité (notamment fournir des avis et recommandations au Bureau), l'article 67 qui crée le Forum consultatif permettant la participation des parties prenantes non gouvernementales, l'article 68 qui établit le groupe scientifique d'experts indépendants apportant l'expertise technique nécessaire au Bureau, et l'article 70 qui prévoit la désignation par chaque État membre d'autorités nationales compétentes avec lesquelles le Bureau coordonne ses actions.
L'article 64 fonde les compétences du Bureau en matière de supervision des modèles d'IA à usage général, compétences détaillées dans le Chapitre V du règlement (articles 51-56). Ce chapitre impose aux fournisseurs de tels modèles des obligations de transparence, de documentation, et - pour les modèles présentant des risques systémiques - d'évaluation et d'atténuation des risques. Le Bureau de l'IA est l'autorité compétente pour vérifier la conformité à ces obligations et prendre des mesures en cas de manquement.
L'article 64 s'inscrit également dans le cadre plus large du Titre VIII (articles 71-73) relatif à la surveillance du marché et à l'application du règlement. Il complète les compétences des autorités nationales de surveillance du marché en assurant une coordination à l'échelle européenne et en exerçant des compétences directes sur certaines catégories d'opérateurs (fournisseurs de modèles d'IA à usage général).
La mission du Bureau de faciliter l'élaboration de normes harmonisées (paragraphe 2, point d) s'articule avec l'article 40 de l'AI Act qui prévoit le recours à de telles normes et la présomption de conformité qu'elles confèrent. Le Bureau joue ainsi un rôle de lien entre le cadre réglementaire de l'AI Act et le système européen de normalisation technique.
Implications pratiques pour les organisations
Pour les fournisseurs de modèles d'IA à usage général, l'article 64 signifie qu'ils sont directement soumis à la supervision du Bureau de l'IA plutôt qu'à celle d'autorités nationales disparates. Cette centralisation présente des avantages (interlocuteur unique, cohérence de traitement à l'échelle européenne) et des défis (exigences potentiellement élevées compte tenu de l'expertise du Bureau, visibilité accrue des actions de l'entreprise). Ces fournisseurs doivent se préparer à interagir régulièrement avec le Bureau, à répondre à ses demandes d'informations dans des délais contraints, et à démontrer de manière proactive leur conformité aux obligations de l'AI Act.
Pour les autres fournisseurs et déployeurs de systèmes d'IA, bien que leur supervision relève principalement des autorités nationales, ils peuvent être indirectement concernés par les actions du Bureau : les lignes directrices élaborées par le Bureau s'appliquent à l'ensemble du territoire européen et constituent des références pour l'interprétation de l'AI Act, le Bureau peut demander des informations à tout opérateur si nécessaire à l'exercice de ses missions, et les actions du Bureau en matière de coordination de la surveillance du marché peuvent influencer les pratiques des autorités nationales.
Pour les États membres et leurs autorités compétentes, l'article 64 impose de collaborer étroitement avec le Bureau de l'IA, de participer aux mécanismes de coordination qu'il met en place, et de contribuer à l'harmonisation des pratiques de supervision à l'échelle européenne. Les autorités nationales bénéficient du soutien et de l'expertise du Bureau, mais doivent également aligner leurs actions sur les orientations et lignes directrices qu'il élabore.
L'entrée en application de l'article 64 le 2 août 2025 marque une étape majeure : à partir de cette date, le Bureau de l'IA est pleinement opérationnel et exerce ses missions. Les organisations concernées doivent donc se préparer dès maintenant à cette nouvelle réalité de gouvernance de l'IA en Europe, en développant des capacités de conformité, de documentation, et de dialogue avec l'autorité centrale européenne.
L'article 64 de l'AI Act institue le Bureau de l'IA comme acteur central de la gouvernance européenne de l'intelligence artificielle. En lui confiant la coordination de la mise en œuvre de l'AI Act à l'échelle de l'Union et la supervision directe des fournisseurs de modèles d'IA à usage général, le règlement crée une architecture de gouvernance à plusieurs niveaux combinant centralisation stratégique et mise en œuvre décentralisée.
Le Bureau de l'IA, doté de pouvoirs substantiels de demande d'informations, d'enquête, et d'intervention, a vocation à devenir une référence en matière de régulation de l'IA, comparable au rôle joué par le Comité européen de la protection des données (CEPD) pour le RGPD. Sa capacité à mobiliser expertise technique, ressources de la Commission européenne, et coopération des autorités nationales en fait un acteur potentiellement très influent sur le développement et le déploiement de l'IA en Europe et au-delà.
Pour les organisations développant ou déployant des systèmes d'IA, l'article 64 souligne l'importance de se préparer à une supervision européenne structurée, exigeante, et techniquement compétente. La conformité à l'AI Act ne se limitera pas au respect formel de règles, mais impliquera un dialogue continu avec les autorités, une démonstration proactive de la gestion des risques, et une contribution au développement d'une culture européenne de l'IA responsable et respectueuse des droits fondamentaux.