L'article 71 du Règlement (UE) 2024/1689 institue la base de données européenne pour les systèmes d'intelligence artificielle à haut risque, infrastructure informationnelle centrale garantissant la transparence et facilitant la surveillance du marché de l'IA dans l'Union européenne. Cette base de données constitue un registre public des systèmes d'IA à haut risque mis sur le marché ou mis en service dans l'UE, permettant aux autorités compétentes, aux utilisateurs professionnels, et au public d'identifier et de consulter les informations essentielles sur ces systèmes présentant des risques significatifs pour les droits fondamentaux et la sécurité.

L'article 71 reflète le principe de transparence au cœur de l'AI Act : les systèmes d'IA à haut risque, en raison de leurs impacts potentiels, doivent être identifiables et traçables. La base de données permet aux déployeurs potentiels de vérifier qu'un système est conforme avant de l'acquérir, aux autorités compétentes de surveiller efficacement le marché en disposant d'une vue d'ensemble des systèmes déployés, au public et aux parties prenantes de connaître les systèmes d'IA à haut risque utilisés dans des domaines les concernant (santé, emploi, justice, etc.), et aux chercheurs et analystes d'étudier les tendances du marché de l'IA en Europe.

L'article 71 établit le cadre juridique de cette base de données, précisant son objet, son contenu, les modalités d'enregistrement, et les régimes d'accès. Il prévoit également des exceptions pour les systèmes utilisés par les autorités répressives ou de gestion des migrations, dont l'enregistrement public pourrait compromettre la sécurité ou l'efficacité opérationnelle. Cette base de données constitue un outil essentiel de l'architecture de gouvernance et de surveillance de l'IA Act, traduisant concrètement l'engagement européen envers la transparence et la redevabilité des systèmes d'IA.

Texte officiel de l'article 71 de l'AI Act

L'article 71 de l'AI Act dispose (extraits principaux) :

« 1. La Commission établit et maintient une base de données de l'UE contenant des informations relatives aux systèmes d'IA à haut risque visés à l'article 6, paragraphe 2, qui ont été enregistrés conformément à l'article 49 et aux systèmes d'IA à haut risque qui ont été enregistrés par les déployeurs conformément à l'article 60, paragraphe 4.

2. Les données contenues dans la base de données de l'UE sont saisies et mises à jour par les fournisseurs, leurs représentants autorisés ou les déployeurs, selon le cas, conformément aux articles 49 et 60.

3. La base de données de l'UE contient les informations suivantes relatives aux systèmes d'IA à haut risque :

a) le nom, l'adresse et les coordonnées du fournisseur ou, le cas échéant, de son représentant autorisé ;

b) le nom commercial du système d'IA et toute information additionnelle permettant l'identification et la traçabilité du système ;

c) une description du système d'IA et de sa finalité prévue ;

d) le statut du système (sur le marché, retiré du marché, rappelé) ;

e) l'indication du type d'évaluation de la conformité menée ;

f) le nom et le numéro d'identification de l'organisme notifié, le cas échéant ;

g) pour les déployeurs qui sont des autorités publiques ou des institutions de l'Union, l'utilisation prévue du système. »

« 4. Les informations contenues dans la base de données de l'UE sont accessibles au public gratuitement de manière aisée et conviviale et dans un format lisible par machine. »

« 5. Par dérogation au paragraphe 4, les informations relatives aux systèmes d'IA à haut risque visés à l'article 6, paragraphe 2, utilisés par les autorités répressives, les autorités de gestion des migrations, de l'asile ou des contrôles aux frontières ne sont pas rendues publiques dans la base de données de l'UE mais restent accessibles uniquement aux autorités de surveillance du marché et à la Commission. »

Cet article établit donc la base de données UE comme registre des systèmes d'IA à haut risque, définit son contenu informatif, prévoit un accès public gratuit et convivial, et crée une exception pour les systèmes utilisés par les forces de l'ordre et autorités de gestion des migrations (accès restreint aux autorités compétentes).

Analyse juridique de l'article 71

Établissement et maintenance de la base de données par la Commission

L'article 71, paragraphe 1, impose à « la Commission » d'« établir et maintenir » la base de données de l'UE. Cette responsabilité confiée à la Commission (en pratique, au Bureau de l'IA institué par l'article 64) garantit une gestion centralisée et harmonisée à l'échelle européenne, évitant la fragmentation qui résulterait de bases de données nationales disparates.

« Établir » la base de données implique de développer l'infrastructure technique (serveurs, interfaces, bases de données relationnelles, APIs), de définir les formats de données et les standards d'interopérabilité, de créer les interfaces utilisateur (pour la saisie par les fournisseurs, pour la consultation publique, pour l'accès des autorités), et de mettre en place les mécanisures de sécurité, d'authentification, et de confidentialité. Cette mise en place technique devait être achevée avant l'entrée en application complète de l'obligation d'enregistrement (2 août 2026).

« Maintenir » la base de données implique une responsabilité continue d'assurer la disponibilité et la performance technique du système (uptime, temps de réponse), d'effectuer les mises à jour et améliorations techniques, de garantir la sécurité contre les cyberattaques et les accès non autorisés, de fournir un support technique aux utilisateurs (fournisseurs, déployeurs, autorités), et de gérer les évolutions réglementaires ou techniques nécessitant des adaptations.

La base de données contient « des informations relatives aux systèmes d'IA à haut risque visés à l'article 6, paragraphe 2 ». L'article 6, paragraphe 2, définit les systèmes d'IA à haut risque comme ceux listés à l'Annexe III (emploi, éducation, application de la loi, justice, etc.) et ceux constituant des composants de sûreté de produits ou étant eux-mêmes des produits couverts par certaines législations sectorielles. La base de données couvre donc l'ensemble des systèmes à haut risque, offrant une vision complète de ce segment de marché.

Les systèmes enregistrés sont ceux « qui ont été enregistrés conformément à l'article 49 » (par les fournisseurs lors de la mise sur le marché) « et aux systèmes d'IA à haut risque qui ont été enregistrés par les déployeurs conformément à l'article 60, paragraphe 4 » (pour les systèmes utilisés par les autorités publiques). Cette double source d'enregistrement garantit une couverture étendue.

Saisie et mise à jour par les opérateurs

L'article 71, paragraphe 2, précise que « les données contenues dans la base de données de l'UE sont saisies et mises à jour par les fournisseurs, leurs représentants autorisés ou les déployeurs, selon le cas, conformément aux articles 49 et 60 ». Cette responsabilité de saisie confiée aux opérateurs eux-mêmes (plutôt qu'aux autorités) reflète le principe de responsabilité (accountability) : les fournisseurs et déployeurs sont tenus de déclarer publiquement leurs systèmes à haut risque.

Les « fournisseurs » (développeurs/commercialisateurs de systèmes d'IA) saisissent les informations lors de la mise sur le marché d'un système à haut risque (article 49). Les « représentants autorisés » (mandataires établis dans l'UE pour les fournisseurs hors UE) effectuent cette saisie au nom des fournisseurs qu'ils représentent. Les « déployeurs » (utilisateurs professionnels de systèmes d'IA) saisissent les informations pour les systèmes qu'ils utilisent lorsqu'ils sont des autorités publiques ou institutions de l'Union (article 60, paragraphe 4).

La mention « mises à jour » indique que l'enregistrement n'est pas statique : les opérateurs doivent actualiser les informations en cas de modifications significatives du système, de changement de statut (retrait du marché, rappel), de changement de coordonnées du fournisseur, ou de toute autre évolution pertinente. Cette obligation de mise à jour garantit que la base de données reflète en permanence l'état actuel du marché.

Contenu informatif de la base de données

L'article 71, paragraphe 3, détaille « les informations suivantes relatives aux systèmes d'IA à haut risque » devant figurer dans la base de données. Ce contenu vise à fournir les éléments essentiels permettant l'identification, la traçabilité, et la compréhension de chaque système enregistré.

Point a) Identité du fournisseur : « Le nom, l'adresse et les coordonnées du fournisseur ou, le cas échéant, de son représentant autorisé. » Ces informations permettent d'identifier le responsable légal du système, facilitant les contacts pour les autorités, les utilisateurs, ou le public. Pour les fournisseurs hors UE, les coordonnées du représentant autorisé établi dans l'UE sont fournies, garantissant un point de contact européen.

Point b) Identification du système : « Le nom commercial du système d'IA et toute information additionnelle permettant l'identification et la traçabilité du système. » Le nom commercial est l'appellation sous laquelle le système est commercialisé. Les « informations additionnelles » peuvent inclure le numéro de version, le numéro de série ou identifiant unique, la référence commerciale, ou d'autres éléments garantissant une identification univoque (important pour distinguer différentes versions d'un même système).

Point c) Description et finalité : « Une description du système d'IA et de sa finalité prévue. » La description présente les caractéristiques et fonctionnalités principales du système de manière accessible. La « finalité prévue » précise l'usage pour lequel le système est conçu (par exemple : « système d'aide au diagnostic de maladies cardiovasculaires à partir d'échocardiographies », « système de tri de CV pour le recrutement », « système de reconnaissance faciale pour le contrôle d'accès »). Cette information est essentielle pour que les utilisateurs potentiels et le public comprennent l'objet du système et évaluent sa pertinence ou ses risques.

Point d) Statut du système : « Le statut du système (sur le marché, retiré du marché, rappelé). » Cette information dynamique indique si le système est actuellement commercialisé et disponible (« sur le marché »), s'il a été volontairement retiré par le fournisseur (« retiré du marché »), ou s'il fait l'objet d'un rappel ordonné par une autorité en raison de non-conformité ou de risques (« rappelé »). Cette transparence protège les utilisateurs potentiels et permet aux autorités de suivre les évolutions du marché.

Point e) Type d'évaluation de conformité : « L'indication du type d'évaluation de la conformité menée. » Les systèmes à haut risque sont soumis à différentes procédures d'évaluation de conformité selon leur catégorie (évaluation interne par le fournisseur, évaluation par un organisme notifié, etc.). Cette information indique quelle procédure a été suivie, apportant une transparence sur le niveau de vérification externe dont a bénéficié le système.

Point f) Organisme notifié : « Le nom et le numéro d'identification de l'organisme notifié, le cas échéant. » Lorsque l'évaluation de conformité a impliqué un organisme notifié (tiers indépendant accrédité), son identité est indiquée, permettant de tracer la chaîne de responsabilité et de vérification. Cette information renforce la confiance en identifiant l'évaluateur tiers.

Point g) Utilisation par les autorités publiques : « Pour les déployeurs qui sont des autorités publiques ou des institutions de l'Union, l'utilisation prévue du système. » Cette disposition spécifique vise à apporter une transparence renforcée lorsque des systèmes d'IA à haut risque sont utilisés par des acteurs publics (administrations, tribunaux, hôpitaux publics, etc.). Le public a un droit particulier de savoir quels systèmes d'IA influencent les décisions publiques les concernant (recrutement dans la fonction publique, décisions judiciaires, prestations sociales, etc.).

Accès public gratuit et convivial

L'article 71, paragraphe 4, impose que « les informations contenues dans la base de données de l'UE sont accessibles au public gratuitement de manière aisée et conviviale et dans un format lisible par machine ». Cette disposition garantit la transparence effective de la base de données, évitant qu'elle ne devienne un outil théorique inaccessible en pratique.

« Accessibles au public » signifie que toute personne (citoyens, entreprises, chercheurs, journalistes, associations) peut consulter les informations, sans restriction ni besoin d'autorisation préalable. Cette transparence publique est un choix politique fort : les systèmes d'IA à haut risque, compte tenu de leurs impacts, doivent être connus de tous.

« Gratuitement » signifie qu'aucun frais ne peut être exigé pour l'accès ou la consultation de la base de données. Cette gratuité garantit l'accessibilité universelle, évitant que des barrières économiques ne limitent la transparence.

« De manière aisée et conviviale » impose que l'interface de consultation soit intuitive, ergonomique, et accessible techniquement. La base de données doit proposer des fonctionnalités de recherche (par fournisseur, par type de système, par finalité, etc.), des filtres et tris permettant de naviguer efficacement, une présentation claire et lisible des informations, et une accessibilité pour les personnes en situation de handicap (conformité aux standards WCAG).

« Dans un format lisible par machine » impose que les données soient disponibles dans des formats structurés et standardisés (JSON, XML, CSV, etc.) permettant leur extraction et leur traitement automatisé. Cette exigence facilite les analyses statistiques, les études académiques, le développement d'outils tiers de visualisation ou d'analyse, et l'intégration dans d'autres systèmes d'information. Elle reflète les principes de l'open data et de la réutilisation des informations publiques.

Exception pour les autorités répressives et de gestion des migrations

L'article 71, paragraphe 5, prévoit une « dérogation au paragraphe 4 » (accès public) pour les « systèmes d'IA à haut risque visés à l'article 6, paragraphe 2, utilisés par les autorités répressives, les autorités de gestion des migrations, de l'asile ou des contrôles aux frontières ». Pour ces systèmes, les informations « ne sont pas rendues publiques dans la base de données de l'UE mais restent accessibles uniquement aux autorités de surveillance du marché et à la Commission ».

Cette exception reconnaît que la publicité de certaines informations pourrait compromettre l'efficacité opérationnelle ou la sécurité des activités de maintien de l'ordre, de lutte contre la criminalité, ou de gestion des frontières. Par exemple, rendre publiques les caractéristiques précises d'un système d'IA de reconnaissance faciale utilisé par la police pourrait permettre aux criminels de développer des contre-mesures. De même, divulguer les systèmes d'IA utilisés aux frontières pourrait faciliter les tentatives de contournement par des réseaux de passeurs.

Toutefois, l'exception n'est pas absolue : les informations « restent accessibles uniquement aux autorités de surveillance du marché et à la Commission ». Cette accessibilité restreinte garantit que la surveillance réglementaire n'est pas compromise : les autorités compétentes et le Bureau de l'IA peuvent toujours vérifier la conformité de ces systèmes sensibles, enquêter en cas de suspicion de non-conformité, et exercer leurs pouvoirs de contrôle. Seul l'accès public est limité, préservant la supervision tout en protégeant la sécurité opérationnelle.

Cette exception équilibrée reflète la tension entre transparence démocratique et impératifs de sécurité, optant pour une solution pragmatique : transparence publique pour la plupart des systèmes, transparence restreinte aux autorités pour les systèmes les plus sensibles.

Exemples concrets d'application

Exemple concret d'application de l'article 71 de l'AI Act

Mise en place et utilisation de la base de données UE pour les systèmes d'IA à haut risque

1. Développement de la base de données par la Commission (paragraphe 1) :

Entre août 2025 et juillet 2026, la Commission européenne (via le Bureau de l'IA) développe la base de données UE pour les systèmes d'IA à haut risque, baptisée « EU AI Registry ».

Architecture technique :
- Infrastructure cloud sécurisée et redondante garantissant disponibilité 24/7
- Base de données relationnelle permettant recherches complexes et génération de rapports
- API RESTful permettant l'intégration avec systèmes tiers et l'extraction de données
- Interface web responsive accessible desktop, tablette, mobile
- Disponible dans les 24 langues officielles de l'UE
- Conformité RGPD et sécurité renforcée (chiffrement, authentification forte pour saisie)

Fonctionnalités :
- Module de saisie pour fournisseurs/représentants autorisés/déployeurs (authentification via eIDAS)
- Module de recherche public avec filtres multiples (secteur, type, fournisseur, pays, statut)
- Module d'export de données (CSV, JSON, XML)
- Module de visualisation statistique (graphiques, cartes)
- Module d'administration pour autorités (accès étendu, dont systèmes sensibles)
- Module de notification automatique (alertes lors de nouveaux enregistrements, changements de statut)

La base de données est officiellement lancée le 1er août 2026, un jour avant l'entrée en application complète de l'obligation d'enregistrement.

2. Enregistrement par un fournisseur (paragraphes 2-3) :

Cas : « MedAI Solutions » enregistre son système d'IA de diagnostic médical

« MedAI Solutions », entreprise française, développe « CardioDetect », un système d'IA à haut risque d'aide au diagnostic de maladies cardiovasculaires à partir d'échocardiographies. En août 2026, après avoir obtenu le marquage CE suite à l'évaluation de conformité par un organisme notifié, l'entreprise doit enregistrer le système dans la base de données UE conformément à l'article 49.

Procédure d'enregistrement :

1. Le responsable conformité de MedAI Solutions se connecte au portail « EU AI Registry » avec l'identité numérique eIDAS de l'entreprise.

2. Il remplit le formulaire d'enregistrement en fournissant les informations requises (article 71, paragraphe 3) :

a) Identité du fournisseur :
- Nom : MedAI Solutions SAS
- Adresse : 123 rue de l'Innovation, 75001 Paris, France
- Coordonnées : contact@medai-solutions.eu / +33 1 23 45 67 89
- Numéro SIRET : 123 456 789 00012

b) Identification du système :
- Nom commercial : CardioDetect
- Version : 2.1
- Numéro de série : CD-2024-001
- Identifiant unique : EU-FR-MED-CD-202400001

c) Description et finalité :
- Description : « Système d'intelligence artificielle d'aide au diagnostic des maladies cardiovasculaires basé sur l'analyse automatisée d'images d'échocardiographie. Le système identifie des anomalies cardiaques potentielles et fournit des suggestions de diagnostic que le médecin valide. »
- Finalité prévue : « Aide au diagnostic médical en cardiologie pour les professionnels de santé (cardiologues, médecins généralistes) dans les hôpitaux et cliniques. »

d) Statut :
- Sur le marché (depuis août 2026)

e) Type d'évaluation de conformité :
- Évaluation de conformité par organisme notifié (procédure de l'Annexe VII)

f) Organisme notifié :
- Nom : TÜV SÜD Product Service GmbH
- Numéro d'identification : NB 0123
- Pays : Allemagne

3. Le système génère automatiquement un numéro d'enregistrement unique : EU-AIHR-2026-FR-00042

4. L'enregistrement est immédiatement visible publiquement sur le portail « EU AI Registry ».

3. Consultation publique de la base de données (paragraphe 4) :

Cas 1 : Un hôpital recherche un système d'IA de diagnostic cardiaque

Le CHU de Lyon souhaite acquérir un système d'IA d'aide au diagnostic cardiaque. Le responsable des achats consulte la base de données « EU AI Registry » :

1. Accède au portail gratuitement (pas d'inscription requise pour consultation)
2. Utilise les filtres : Secteur = Santé / Type = Diagnostic médical / Domaine = Cardiologie
3. Obtient une liste de 12 systèmes conformes enregistrés
4. Compare les fournisseurs, les organismes notifiés, les descriptions
5. Identifie CardioDetect de MedAI Solutions comme candidat potentiel
6. Contacte MedAI Solutions pour demande de démonstration et devis

La base de données a facilité l'identification de fournisseurs conformes, garantissant au CHU qu'il évalue des systèmes ayant satisfait aux exigences de l'AI Act.

Cas 2 : Une association de patients analyse l'utilisation de l'IA en santé

L'association « Patients Connectés » souhaite étudier le déploiement de systèmes d'IA dans le système de santé français. Un analyste :

1. Accède à « EU AI Registry »
2. Exporte toutes les données relatives aux systèmes d'IA à haut risque dans le secteur santé en France (format CSV via API)
3. Analyse les données : 87 systèmes d'IA à haut risque enregistrés en santé en France
4. Identifie les domaines les plus couverts (imagerie médicale 35%, aide au diagnostic 28%, gestion de dossiers patients 15%, etc.)
5. Publie un rapport public alertant sur la concentration de systèmes d'IA dans certains domaines et l'absence dans d'autres

La transparence de la base de données a permis une analyse indépendante et un débat public éclairé sur l'IA en santé.

4. Mise à jour du statut (paragraphe 2) :

En mars 2027, MedAI Solutions identifie un défaut dans CardioDetect (version 2.1) pouvant conduire à des faux négatifs dans certaines conditions rares. L'entreprise :

1. Décide volontairement de retirer la version 2.1 du marché
2. Se connecte à « EU AI Registry » et met à jour le statut : « Retiré du marché »
3. Ajoute une note : « Retrait volontaire pour correction d'un défaut technique. Version 2.2 corrigée sera disponible en mai 2027. »
4. Informe tous les clients existants du retrait et des mesures correctives

La mise à jour publique du statut alerte immédiatement les utilisateurs et les autorités, garantissant une transparence sur les incidents.

5. Exception pour systèmes sensibles (paragraphe 5) :

Cas : Système d'IA de reconnaissance faciale pour la police

« SecureVision », entreprise néerlandaise, développe « FaceTrack », un système d'IA à haut risque de reconnaissance faciale temps réel destiné aux forces de l'ordre pour identifier des suspects recherchés dans des lieux publics.

En raison de l'utilisation par une autorité répressive, l'enregistrement de FaceTrack dans « EU AI Registry » n'est pas rendu public (article 71, paragraphe 5). Toutefois :

1. SecureVision doit quand même enregistrer le système dans la base de données
2. Les informations sont saisies de manière identique
3. L'enregistrement est visible uniquement par :
- Les autorités de surveillance du marché (pour contrôler la conformité)
- La Commission européenne / Bureau de l'IA (pour supervision)
- Les autorités compétentes des États membres utilisant le système

4. Le grand public ne peut pas consulter ces informations via le portail public

Cette exception préserve la sécurité opérationnelle tout en garantissant la surveillance réglementaire.

6. Utilisation par les autorités de surveillance (paragraphe 4 pour accès public, paragraphe 5 pour accès étendu) :

En octobre 2026, la DGCCRF (autorité française) mène une campagne de contrôles sur les systèmes d'IA à haut risque dans le secteur du recrutement. Un inspecteur :

1. Se connecte à « EU AI Registry » avec ses identifiants d'autorité compétente
2. Accède au module réservé aux autorités avec fonctionnalités étendues :
- Vision de tous les systèmes, y compris ceux sensibles (police, migration)
- Génération de listes ciblées pour contrôles
- Historique des modifications d'enregistrements
- Alertes sur anomalies (enregistrements incomplets, incohérences)

3. Génère une liste de 23 systèmes d'IA de recrutement enregistrés en France
4. Planifie des contrôles ciblés sur 8 fournisseurs
5. Vérifie que les systèmes contrôlés correspondent aux enregistrements (cohérence des informations)

La base de données facilite considérablement la surveillance du marché en offrant une vision centralisée et actualisée.

Cet exemple illustre comment la base de données UE instituée par l'article 71 fonctionne concrètement, facilitant la transparence publique, l'accès à l'information pour les utilisateurs potentiels et les parties prenantes, et la surveillance du marché par les autorités compétentes, tout en préservant la sécurité opérationnelle des systèmes sensibles utilisés par les forces de l'ordre et les autorités de gestion des migrations.

Articulation avec les autres dispositions de l'AI Act

L'article 71 s'articule directement avec l'article 49 qui impose aux fournisseurs de systèmes d'IA à haut risque de procéder à l'enregistrement dans la base de données UE avant la mise sur le marché. L'article 49 établit l'obligation, tandis que l'article 71 définit le cadre technique et juridique de la base de données support de cette obligation. Les deux articles forment un ensemble cohérent garantissant la traçabilité des systèmes à haut risque.

L'article 71 s'articule également avec l'article 60, paragraphe 4, qui impose aux déployeurs qui sont des autorités publiques ou des institutions de l'Union d'enregistrer les systèmes d'IA à haut risque qu'ils utilisent. Cette obligation complémentaire garantit que les systèmes déployés par le secteur public, même s'ils n'ont pas été mis sur le marché au sens commercial, sont également transparents et traçables.

La base de données UE constitue un outil essentiel pour l'exercice des missions de surveillance du marché par les autorités nationales compétentes (article 70). Elle leur offre une vision centralisée des systèmes à haut risque, facilite l'identification des cibles de contrôle, et permet la vérification de la cohérence entre enregistrements et réalité du marché.

L'exception prévue au paragraphe 5 pour les systèmes utilisés par les autorités répressives et de gestion des migrations s'articule avec le Titre III, Chapitre 4 de l'AI Act (articles 26-32) qui établit les obligations spécifiques applicables aux systèmes d'IA utilisés par les autorités répressives. L'exception de publicité préserve la sécurité opérationnelle tout en maintenant la supervision réglementaire.

Implications pratiques pour les organisations

Pour les fournisseurs de systèmes d'IA à haut risque, l'article 71 impose une obligation pratique d'enregistrement dans la base de données UE avant ou lors de la mise sur le marché. Cette obligation nécessite de se familiariser avec le portail « EU AI Registry », de préparer les informations requises (identité, description, évaluation de conformité), de procéder à l'enregistrement dans les délais impartis, et de maintenir les informations à jour en cas de modifications ou de changements de statut.

L'enregistrement public représente également une opportunité de visibilité et de marketing : les systèmes enregistrés sont consultables par des utilisateurs potentiels recherchant des solutions conformes. Les fournisseurs peuvent mettre en avant leur enregistrement dans « EU AI Registry » comme preuve de conformité et gage de qualité.

Pour les déployeurs, notamment les autorités publiques et institutions de l'Union, l'article 71 impose une obligation d'enregistrement de leurs utilisations de systèmes d'IA à haut risque (article 60, paragraphe 4). Cette transparence renforcée pour le secteur public reflète l'exigence démocratique de redevabilité : le public a le droit de savoir quels systèmes d'IA influencent les décisions publiques.

Pour les utilisateurs potentiels (entreprises, administrations, associations), la base de données UE constitue une ressource précieuse pour identifier des fournisseurs conformes, vérifier la conformité d'un système avant acquisition, et comparer les solutions disponibles sur le marché. La consultation de la base devrait devenir un réflexe systématique dans les processus d'achat de systèmes d'IA à haut risque.

Pour le public, les chercheurs, les journalistes et les organisations de la société civile, la base de données offre une transparence inédite sur le marché européen de l'IA à haut risque, permettant des analyses, des études, des débats publics, et un contrôle citoyen sur le déploiement de ces technologies sensibles.

L'article 71 de l'AI Act institue la base de données européenne pour les systèmes d'IA à haut risque comme outil essentiel de transparence, de traçabilité, et de surveillance du marché de l'IA en Europe. En imposant l'enregistrement public des systèmes à haut risque avec leurs caractéristiques essentielles, et en garantissant un accès gratuit, convivial, et en format ouvert, cet article traduit concrètement l'engagement européen envers une régulation de l'IA transparente et démocratiquement contrôlable.

La base de données « EU AI Registry » constitue une innovation institutionnelle majeure, créant pour la première fois un registre public harmonisé de systèmes d'intelligence artificielle à l'échelle d'un continent. Cette transparence favorise la confiance du public, facilite les choix éclairés des utilisateurs, et rend possible un débat démocratique informé sur le déploiement et les impacts de l'IA dans nos sociétés.

Pour les organisations, la base de données représente à la fois une obligation de transparence et une opportunité de visibilité. En s'appropriant cet outil, en y enregistrant leurs systèmes de manière complète et actualisée, et en consultant régulièrement les informations disponibles, les acteurs de l'écosystème IA contribuent à l'émergence d'un marché européen de l'IA transparent, compétitif, et digne de confiance, fondé sur le respect des règles communes et la redevabilité de tous les acteurs.