L'article 52 du Règlement (UE) 2024/1689 établit les procédures et mécanismes permettant de mettre en œuvre la classification des modèles d'IA à usage général présentant un risque systémique définie à l'article 51. Cette disposition organise les aspects procéduraux essentiels qui garantissent la sécurité juridique des fournisseurs, la transparence des décisions de classification, et l'efficacité de la surveillance par les autorités compétentes, en particulier le Bureau européen de l'IA.

La procédure de classification ne repose pas uniquement sur l'application automatique du seuil quantitatif de 10^25 FLOPs, mais intègre également des mécanismes d'évaluation qualitative, de dialogue avec les fournisseurs, et de révision périodique. Cette approche procédurale équilibrée vise à garantir que les classifications sont fondées sur des éléments factuels robustes, tout en permettant aux fournisseurs de présenter des arguments ou des éléments de contexte pertinents avant qu'une décision définitive ne soit prise.

L'article 52 reconnaît également le caractère dynamique des technologies d'intelligence artificielle : un modèle peut évoluer après sa mise sur le marché initiale (par exemple, par réentraînement, fine-tuning, ou augmentation de ses capacités), nécessitant une réévaluation de sa classification. Le règlement prévoit donc des mécanismes de révision permettant de reclasser un modèle si les circonstances changent, garantissant ainsi que la réglementation reste alignée sur la réalité technique des modèles en exploitation.

Texte officiel de l'article 52 de l'AI Act

L'article 52 de l'AI Act dispose :

« 1. Lorsque le Bureau de l'IA a des raisons de considérer qu'un modèle d'IA à usage général répond aux conditions énoncées à l'article 51, paragraphe 1, point a) ou b), il peut demander au fournisseur concerné de lui confirmer dans les 15 jours calendaires suivant la demande si ces conditions sont remplies ou de lui apporter toute information pertinente permettant d'évaluer si tel est le cas.

2. Si, après avoir évalué les informations reçues conformément au paragraphe 1, le Bureau de l'IA conclut que le modèle d'IA à usage général répond aux conditions énoncées à l'article 51, paragraphe 1, point a) ou b), il demande à la Commission de prendre une décision conformément à l'article 51, paragraphe 4.

3. Les fournisseurs de modèles d'IA à usage général présentant un risque systémique peuvent, sur demande adressée au Bureau de l'IA, présenter des informations et arguments tendant à démontrer que, malgré le franchissement du seuil prévu à l'article 51, paragraphe 2, leur modèle ne présente pas de risque systémique. Le Bureau de l'IA évalue ces informations et arguments et peut décider de ne pas proposer à la Commission de prendre une décision conformément à l'article 51, paragraphe 4.

4. Lorsqu'un fournisseur d'un modèle d'IA à usage général considère que son modèle ne répond plus aux conditions énoncées à l'article 51, paragraphe 1, il peut introduire une demande motivée auprès du Bureau de l'IA pour réévaluer la classification. Le Bureau de l'IA évalue la demande et peut recommander à la Commission de réviser la décision de classification.

5. Le Bureau de l'IA publie sur son site internet une liste des modèles d'IA à usage général présentant un risque systémique. Cette liste est mise à jour régulièrement. »

Cet article établit donc un cadre procédural complet et équilibré, garantissant à la fois l'efficacité de la surveillance et les droits procéduraux des fournisseurs, tout en assurant la transparence vis-à-vis du public et des déployeurs.

Analyse juridique de l'article 52

Procédure d'investigation par le Bureau de l'IA

L'article 52, paragraphe 1, confère au Bureau européen de l'IA le pouvoir d'initier une procédure d'évaluation lorsqu'il a « des raisons de considérer » qu'un modèle d'IA à usage général pourrait présenter un risque systémique au sens de l'article 51, paragraphe 1, points a) ou b). Cette formulation souple permet au Bureau d'agir sur la base d'indices ou d'informations préliminaires, sans nécessiter de preuves définitives au stade initial.

Les sources d'information permettant au Bureau d'identifier des modèles potentiellement à risque systémique peuvent être diverses : veille technologique, signalements d'autorités nationales, alertes de groupes scientifiques, publications académiques, communications des fournisseurs eux-mêmes, ou encore rapports d'incidents. Le Bureau peut également s'appuyer sur des benchmarks publics et des analyses techniques pour identifier les modèles présentant des capacités exceptionnelles.

Lorsque le Bureau initie une procédure, il peut demander au fournisseur concerné de « confirmer dans les 15 jours calendaires » si les conditions de l'article 51 sont remplies, ou d'apporter « toute information pertinente » permettant d'évaluer la situation. Ce délai de 15 jours calendaires est relativement court, reflétant le besoin d'une évaluation rapide, mais il reste raisonnable compte tenu du fait que les fournisseurs devraient disposer des informations techniques sur leurs propres modèles.

Les informations demandées peuvent inclure : le calcul détaillé des FLOPs utilisés pour l'entraînement, les résultats de benchmarks évaluant les capacités du modèle, les informations sur l'adoption et l'utilisation du modèle, les évaluations de risques déjà réalisées par le fournisseur, ou toute autre donnée pertinente pour l'évaluation. Le fournisseur a une obligation de coopération et doit fournir des informations complètes et exactes.

Proposition de décision de classification

L'article 52, paragraphe 2, prévoit que si, après évaluation des informations reçues, le Bureau de l'IA conclut que le modèle répond aux conditions de l'article 51, paragraphe 1, points a) ou b), il « demande à la Commission de prendre une décision » conformément à l'article 51, paragraphe 4. Cette formulation précise la répartition des rôles : le Bureau de l'IA effectue l'évaluation technique et formule une proposition, mais la décision formelle de classification appartient à la Commission européenne.

Cette séparation entre l'évaluation technique (Bureau de l'IA) et la décision administrative (Commission) offre plusieurs garanties : elle permet une évaluation par une entité technique spécialisée, tout en maintenant la responsabilité politique de la décision au niveau de la Commission. Elle facilite également une révision ou un contrôle de la décision, en distinguant clairement les constats techniques des choix administratifs.

La demande du Bureau de l'IA à la Commission devra être motivée et s'appuyer sur les éléments factuels et techniques recueillis. La Commission disposera ensuite d'un pouvoir d'appréciation pour décider d'adopter ou non un acte d'exécution classant formellement le modèle comme présentant un risque systémique. En pratique, il est probable que la Commission suive généralement les recommandations techniques du Bureau, mais elle conserve la possibilité de ne pas le faire si des considérations plus larges le justifient.

Droit de contestation du seuil quantitatif

L'article 52, paragraphe 3, établit un mécanisme important permettant aux fournisseurs de contester la présomption de risque systémique découlant du dépassement du seuil de 10^25 FLOPs. Cette disposition reconnaît que le critère quantitatif, bien que généralement fiable, pourrait dans certains cas conduire à une classification excessive pour un modèle qui, malgré son calcul d'entraînement élevé, ne présente pas réellement de risque systémique.

Les situations dans lesquelles cette contestation pourrait être justifiée incluent notamment : un modèle entraîné avec un calcul élevé mais fortement spécialisé dans un domaine étroit ne présentant pas de risque systémique, un modèle dont les performances effectives sont limitées malgré le calcul important (par exemple, en raison d'un entraînement sous-optimal ou de données de faible qualité), ou encore un modèle conçu avec des garanties de sécurité intégrées particulièrement robustes limitant intrinsèquement son potentiel de risque systémique.

Le fournisseur peut « présenter des informations et arguments tendant à démontrer que, malgré le franchissement du seuil », son modèle ne présente pas de risque systémique. Ces informations peuvent inclure : des évaluations techniques détaillées des capacités réelles du modèle, des benchmarks montrant des performances limitées sur certaines tâches critiques, des informations sur les restrictions d'usage ou les mécanismes de contrôle limitant le potentiel de risque, ou des analyses comparatives avec d'autres modèles.

Le Bureau de l'IA « évalue ces informations et arguments et peut décider de ne pas proposer à la Commission » une décision de classification. Cette formulation confère au Bureau un pouvoir d'appréciation : il n'est pas automatiquement lié par les arguments du fournisseur, mais il doit les examiner de manière objective et peut, s'il les juge convaincants, renoncer à proposer une classification. Cette procédure offre une soupape de sécurité importante contre des classifications excessives, tout en préservant l'efficacité du mécanisme de surveillance.

Procédure de révision de classification

L'article 52, paragraphe 4, prévoit une procédure permettant de réviser une classification de risque systémique lorsque les circonstances évoluent. Un fournisseur peut introduire une « demande motivée » auprès du Bureau de l'IA pour réévaluer la classification si son modèle « ne répond plus aux conditions » de l'article 51, paragraphe 1.

Cette situation peut survenir dans plusieurs scénarios : le fournisseur a mis en place des mesures d'atténuation substantielles réduisant les risques, le modèle n'est plus activement utilisé ou a été retiré du marché, les capacités du modèle se sont révélées inférieures aux estimations initiales après utilisation en conditions réelles, ou encore l'évolution technologique générale a fait que des capacités initialement considérées comme exceptionnelles sont devenues courantes.

Le Bureau de l'IA « évalue la demande et peut recommander à la Commission de réviser la décision de classification ». Cette formulation est similaire à celle du paragraphe 3 : le Bureau effectue l'évaluation technique et formule une recommandation, mais la décision finale appartient à la Commission. Si la recommandation est positive et que la Commission l'accepte, le modèle sera retiré de la liste des modèles présentant un risque systémique, et les obligations renforcées cesseront de s'appliquer (sous réserve des éventuelles obligations transitoires).

Cette procédure de révision est essentielle pour garantir que la classification reste alignée sur la réalité technique et que les obligations imposées demeurent proportionnées. Elle évite que des modèles restent indéfiniment soumis à des obligations renforcées alors que les circonstances ayant justifié leur classification initiale ont changé.

Publication de la liste des modèles à risque systémique

L'article 52, paragraphe 5, impose au Bureau de l'IA de « publier sur son site internet une liste des modèles d'IA à usage général présentant un risque systémique ». Cette obligation de transparence remplit plusieurs fonctions importantes.

Pour les déployeurs et utilisateurs de modèles d'IA, la liste publiée permet d'identifier facilement quels modèles sont soumis aux obligations renforcées et présentent donc des garanties plus élevées en termes d'évaluation et de gestion des risques. Elle facilite les décisions d'acquisition ou d'intégration de ces modèles en fournissant une information claire sur leur statut réglementaire.

Pour les autorités de surveillance des États membres, la liste constitue une référence officielle pour l'application des obligations et le contrôle de la conformité. Elle évite les divergences d'interprétation entre différentes autorités sur le statut d'un modèle donné.

Pour le grand public et la société civile, la liste offre une transparence sur les modèles d'IA les plus puissants et potentiellement les plus impactants, facilitant le débat public et la surveillance citoyenne.

La liste doit être « mise à jour régulièrement », reflétant les nouvelles classifications (modèles dépassant le seuil, modèles classés par décision de la Commission) et les déclassifications (modèles révisés ne présentant plus de risque systémique). La fréquence exacte des mises à jour n'est pas précisée, mais devrait être suffisamment rapide pour garantir que l'information reste à jour compte tenu du rythme d'évolution du secteur.

Exemples concrets d'application

Exemple concret d'application de l'article 52 de l'AI Act

Scénario 1 : Investigation et classification par le Bureau de l'IA

En mai 2026, une entreprise technologique américaine annonce publiquement le lancement de son nouveau modèle de langage « UltraLLM-5 », décrit comme le modèle le plus puissant jamais créé. Dans le communiqué de presse, l'entreprise mentionne avoir utilisé 30 000 GPU de dernière génération pendant 4 mois pour l'entraînement.

Étape 1 : Identification par le Bureau de l'IA (paragraphe 1)
Le Bureau européen de l'IA, dans le cadre de sa veille technologique, identifie cette annonce. Sur la base des informations publiques (30 000 GPU × 4 mois), le Bureau estime que le calcul d'entraînement pourrait dépasser 10^25 FLOPs. Le Bureau a donc « des raisons de considérer » que le modèle pourrait présenter un risque systémique.

Le Bureau de l'IA envoie une demande formelle au fournisseur, lui demandant de confirmer dans les 15 jours calendaires :
1. Le calcul exact en FLOPs utilisé pour l'entraînement d'UltraLLM-5
2. La méthodologie de calcul utilisée
3. Les caractéristiques techniques du modèle (nombre de paramètres, architecture, données d'entraînement)
4. Les résultats de benchmarks standards évaluant les capacités du modèle
5. Toute évaluation des risques déjà effectuée par l'entreprise

Étape 2 : Réponse du fournisseur
Le fournisseur répond dans le délai imparti, confirmant que le calcul d'entraînement s'élève à 8 × 10^25 FLOPs, largement au-dessus du seuil. Le fournisseur fournit également une documentation technique détaillée et les résultats d'évaluations internes des risques.

Étape 3 : Évaluation et proposition (paragraphe 2)
Après examen de la documentation, le Bureau de l'IA conclut que le modèle dépasse clairement le seuil de 10^25 FLOPs et présente des capacités exceptionnelles selon les benchmarks fournis. Le Bureau rédige une demande motivée à la Commission européenne, recommandant la classification d'UltraLLM-5 comme modèle présentant un risque systémique.

Étape 4 : Décision de la Commission (article 51, paragraphe 4)
La Commission européenne adopte un acte d'exécution classant formellement UltraLLM-5 comme modèle d'IA à usage général présentant un risque systémique. Le fournisseur est notifié de cette décision et dispose de recours selon le droit administratif européen.

Étape 5 : Publication (paragraphe 5)
Le Bureau de l'IA met à jour la liste publiée sur son site internet, ajoutant UltraLLM-5 à la liste des modèles présentant un risque systémique. Le fournisseur doit désormais se conformer aux obligations renforcées prévues pour cette catégorie.

Scénario 2 : Contestation du seuil quantitatif

Une institution de recherche européenne développe un modèle d'IA à usage général spécialisé dans l'analyse de données scientifiques complexes. Par souci de qualité et pour expérimenter avec différentes configurations, l'institution a effectué un entraînement très long utilisant au total 1,2 × 10^25 FLOPs, dépassant légèrement le seuil.

Cependant, le modèle résultant présente des capacités relativement limitées en raison d'un processus d'entraînement sous-optimal (mauvais choix d'hyperparamètres découvert trop tard dans le processus). Les benchmarks montrent que les performances du modèle sont équivalentes à celles de modèles entraînés avec 10^23 FLOPs, soit 100 fois moins de calcul.

Application du paragraphe 3 :
L'institution de recherche adresse une demande au Bureau de l'IA, présentant :
1. Une documentation complète du processus d'entraînement et des problèmes techniques rencontrés
2. Des résultats détaillés de benchmarks montrant les capacités réelles limitées du modèle
3. Une analyse comparative avec d'autres modèles du domaine scientifique
4. Une argumentation selon laquelle, malgré le calcul élevé, le modèle ne présente pas de risque systémique en raison de ses capacités limitées et de son usage restreint au domaine scientifique

Le Bureau de l'IA évalue attentivement ces informations. Après consultation de groupes scientifiques et examen des éléments techniques, le Bureau conclut que les arguments de l'institution sont convaincants : le modèle, bien qu'ayant dépassé le seuil de calcul, ne présente manifestement pas les capacités ou l'impact à haute incidence caractéristiques d'un risque systémique.

Le Bureau décide de ne pas proposer à la Commission une décision de classification. L'institution est informée que son modèle n'est pas considéré comme présentant un risque systémique et reste soumis uniquement aux obligations générales des modèles d'IA à usage général standard (article 53).

Scénario 3 : Révision de classification

En 2027, un modèle « VisionAI-Pro » avait été classé comme présentant un risque systémique en raison de son calcul d'entraînement de 2 × 10^25 FLOPs et de ses capacités exceptionnelles en génération d'images et de vidéos réalistes.

En 2029, le fournisseur constate que :
1. Le seuil de risque systémique a été relevé à 5 × 10^25 FLOPs par acte délégué
2. De nombreux modèles similaires ou plus puissants sont désormais disponibles sur le marché
3. Les capacités de VisionAI-Pro, initialement exceptionnelles, sont devenues courantes dans l'industrie
4. L'utilisation du modèle a fortement diminué, la plupart des clients ayant migré vers des modèles plus récents

Application du paragraphe 4 :
Le fournisseur introduit une demande motivée de révision auprès du Bureau de l'IA, argumentant que VisionAI-Pro ne répond plus aux conditions de l'article 51 en raison de l'évolution technologique générale et de la baisse d'utilisation.

Le Bureau de l'IA évalue la demande en considérant :
- Le nouveau seuil (VisionAI-Pro est désormais en dessous)
- Les données d'utilisation montrant une adoption limitée
- L'évolution du marché avec de nombreux modèles comparables
- L'absence d'incidents ou de risques spécifiques associés à ce modèle

Le Bureau recommande à la Commission de réviser la classification. La Commission adopte un acte d'exécution retirant VisionAI-Pro de la liste des modèles présentant un risque systémique. Le Bureau met à jour la liste publiée sur son site internet. Le fournisseur peut cesser d'appliquer les obligations renforcées (tout en maintenant les obligations générales des modèles GPAI standard).

Articulation avec les autres dispositions de l'AI Act

L'article 52 met en œuvre de manière opérationnelle les critères de classification définis à l'article 51. Il s'agit d'un article essentiellement procédural qui organise la manière dont les critères substantiels de l'article 51 sont appliqués en pratique. Les deux articles doivent donc être lus conjointement : l'article 51 définit « quand » un modèle présente un risque systémique, et l'article 52 définit « comment » cette qualification est établie et révisée.

L'article 52 s'articule étroitement avec les dispositions relatives au Bureau européen de l'IA (articles 64 et suivants) qui définissent les missions, les pouvoirs et l'organisation de cette autorité. Le Bureau joue un rôle central dans l'article 52, effectuant les évaluations techniques et formulant les propositions de classification ou de révision. Les procédures de l'article 52 s'inscrivent donc dans le cadre institutionnel plus large établi pour la gouvernance européenne de l'IA.

Les procédures d'information et d'évaluation prévues à l'article 52 doivent également être lues en cohérence avec les obligations de transparence et de documentation imposées par l'article 53 aux fournisseurs de modèles d'IA à usage général. Un fournisseur qui a correctement documenté son modèle conformément à l'article 53 sera en mesure de répondre plus facilement et rapidement aux demandes d'information du Bureau de l'IA dans le cadre de l'article 52.

La liste publique prévue au paragraphe 5 de l'article 52 s'articule avec les obligations d'information prévues dans diverses dispositions du règlement. Par exemple, les déployeurs de systèmes d'IA intégrant des modèles à risque systémique devront en tenir compte dans leurs processus d'évaluation des risques et de conformité. La liste facilite également l'application des obligations de l'article 54 sur les représentants autorisés pour les fournisseurs établis hors UE.

Enfin, les procédures de recours et de révision prévues à l'article 52 s'inscrivent dans le cadre plus large des droits procéduraux et des voies de recours garantis par le droit administratif européen. Les décisions de classification adoptées par la Commission sur proposition du Bureau de l'IA sont susceptibles de recours devant les juridictions de l'Union européenne, conformément aux articles 263 et suivants du Traité sur le fonctionnement de l'Union européenne (TFUE).

Implications pratiques pour les organisations

Pour les fournisseurs de modèles d'IA à usage général, l'article 52 impose de maintenir une documentation technique complète et à jour permettant de répondre rapidement aux demandes d'information du Bureau de l'IA. Cette documentation doit inclure notamment : le calcul précis des FLOPs utilisés pour l'entraînement avec la méthodologie de calcul, les caractéristiques techniques détaillées du modèle, les résultats de benchmarks et d'évaluations des capacités, et les évaluations de risques déjà effectuées.

Les organisations doivent mettre en place des processus permettant de répondre dans le délai de 15 jours calendaires prévu au paragraphe 1. Ce délai étant relativement court, il est recommandé d'identifier à l'avance les personnes responsables (équipes techniques, juridiques, conformité) et de préparer des modèles de réponse intégrant les informations standard susceptibles d'être demandées. Un dialogue proactif avec le Bureau de l'IA peut également être bénéfique pour clarifier les attentes et faciliter les échanges ultérieurs.

Pour les modèles approchant le seuil de 10^25 FLOPs, les fournisseurs doivent évaluer s'il est opportun d'utiliser la procédure de contestation prévue au paragraphe 3. Cette évaluation doit être réaliste : la contestation ne sera pertinente que si des éléments objectifs démontrent que, malgré le calcul élevé, le modèle ne présente pas réellement de risque systémique. Une contestation non fondée pourrait être contre-productive et retarder inutilement le processus de conformité.

Les fournisseurs doivent également surveiller régulièrement la liste publique des modèles présentant un risque systémique publiée par le Bureau de l'IA. Cette surveillance permet de vérifier que leurs modèles sont correctement identifiés et de détecter d'éventuelles erreurs ou omissions nécessitant une clarification avec le Bureau.

Pour les modèles classés comme présentant un risque systémique, les fournisseurs doivent surveiller les évolutions susceptibles de justifier une demande de révision de classification. Ces évolutions peuvent inclure : l'adoption d'un nouveau seuil par acte délégué plaçant le modèle en dessous du seuil, la baisse significative de l'utilisation du modèle, l'évolution technologique rendant les capacités du modèle courantes, ou la mise en place de mesures d'atténuation substantielles réduisant les risques. La procédure de révision du paragraphe 4 offre une opportunité de réduire les charges de conformité lorsque les circonstances le justifient.

Les déployeurs et intégrateurs de modèles d'IA à usage général doivent consulter régulièrement la liste publiée pour identifier quels modèles sont soumis aux obligations renforcées. Cette information est pertinente pour les décisions d'acquisition (les modèles à risque systémique offrent des garanties de conformité plus élevées, mais peuvent être plus coûteux), pour les processus d'évaluation des risques (intégration d'un modèle à risque systémique peut influencer le niveau de risque global d'un système), et pour les obligations contractuelles (certains secteurs ou clients peuvent exiger ou préférer l'utilisation de modèles à risque systémique en raison de leurs garanties renforcées).

L'article 52 de l'AI Act établit un cadre procédural équilibré et transparent pour la classification des modèles d'IA à usage général présentant un risque systémique. En organisant les modalités d'investigation par le Bureau de l'IA, les droits procéduraux des fournisseurs, et les mécanismes de révision et de transparence, cet article garantit que les classifications sont fondées sur des éléments factuels robustes et respectent les principes de sécurité juridique et de proportionnalité.

Le cadre procédural de l'article 52 reconnaît la complexité technique de l'évaluation des modèles d'IA et la nécessité d'un dialogue entre les autorités de surveillance et les fournisseurs. Les mécanismes de contestation et de révision offrent des soupapes de sécurité importantes contre les classifications excessives ou devenues obsolètes, tout en préservant l'efficacité de la surveillance réglementaire.

Pour les organisations, l'article 52 souligne l'importance d'une documentation technique rigoureuse et d'une capacité à dialoguer efficacement avec les autorités. Les fournisseurs qui auront investi dans la documentation, la traçabilité et l'évaluation de leurs modèles seront mieux préparés aux procédures prévues par cet article et pourront naviguer plus efficacement dans le cadre réglementaire établi par l'AI Act.