L'article 5 du Règlement (UE) 2024/1689 constitue l'une des dispositions les plus emblématiques et les plus contraignantes de l'AI Act. Il établit une liste de pratiques d'intelligence artificielle qui sont absolument interdites dans l'Union européenne en raison des risques inacceptables qu'elles présentent pour les droits fondamentaux, la dignité humaine et l'État de droit. Ces interdictions s'appliquent à tous les systèmes d'IA, sans exception ni possibilité de dérogation, dès l'entrée en vigueur de cette disposition.

L'approche retenue par l'article 5 s'inscrit dans une logique de « lignes rouges » : certaines utilisations de l'IA sont considérées comme incompatibles avec les valeurs européennes, quels que soient les bénéfices potentiels qu'elles pourraient apporter. Cette position de principe marque la volonté du législateur européen de placer les droits fondamentaux au cœur de la régulation de l'intelligence artificielle et de prévenir les dérives observées dans d'autres parties du monde.

Les pratiques interdites couvrent quatre catégories principales : les techniques subliminales de manipulation, l'exploitation de vulnérabilités, le scoring social généralisé par les autorités publiques, et l'identification biométrique en temps réel dans les espaces accessibles au public à des fins répressives, cette dernière catégorie faisant l'objet d'exceptions strictement encadrées.

Texte officiel de l'article 5 de l'AI Act

L'article 5 de l'AI Act dispose (extraits des principales interdictions) :

1. Les pratiques d'IA suivantes sont interdites :

a) La mise sur le marché, la mise en service ou l'utilisation d'un système d'IA qui déploie des techniques subliminales agissant sans qu'une personne en ait conscience ou des techniques délibérément manipulatrices ou trompeuses, avec pour objectif ou pour effet de fausser sensiblement le comportement d'une personne ou d'un groupe de personnes en compromettant de manière substantielle leur capacité à prendre une décision éclairée, causant ainsi à une personne un préjudice substantiel.

b) La mise sur le marché, la mise en service ou l'utilisation d'un système d'IA qui exploite l'une des vulnérabilités d'un groupe de personnes spécifique en raison de leur âge, d'un handicap ou d'une situation sociale ou économique spécifique, avec pour objectif ou pour effet de fausser sensiblement le comportement d'une personne appartenant à ce groupe d'une manière qui cause ou est susceptible de causer à cette personne ou à une autre personne un préjudice substantiel.

c) La mise sur le marché, la mise en service ou l'utilisation de systèmes d'IA par les autorités publiques ou pour le compte de celles-ci, aux fins d'évaluer ou de classer la fiabilité des personnes physiques sur une certaine période en fonction de leur comportement social ou de caractéristiques personnelles ou de leur personnalité connues ou prédites, l'évaluation ou la notation sociale conduisant à l'un des résultats suivants ou aux deux :
i) un traitement préjudiciable ou défavorable de certaines personnes physiques ou de groupes entiers de personnes physiques dans des contextes sociaux qui ne sont pas liés aux contextes dans lesquels les données ont été générées ou collectées à l'origine ;
ii) un traitement préjudiciable ou défavorable de certaines personnes physiques ou de groupes entiers de personnes physiques qui est injustifié ou disproportionné par rapport à leur comportement social ou à la gravité de celui-ci.

d) L'utilisation de systèmes d'identification biométrique à distance « en temps réel » dans des espaces accessibles au public à des fins répressives, sauf si et dans la mesure où une telle utilisation est strictement nécessaire pour atteindre l'un des objectifs suivants :
i) la recherche ciblée de victimes spécifiques d'infractions pénales, y compris d'enfants disparus ;
ii) la prévention d'une menace spécifique, substantielle et imminente pour la vie ou la sécurité physique de personnes physiques ou d'une attaque terroriste réelle et actuelle ou imminente ;
iii) la localisation ou l'identification d'une personne soupçonnée d'avoir commis une infraction pénale visée à l'article 2, paragraphe 2, de la décision-cadre 2002/584/JAI, et passible d'une peine privative de liberté maximale d'au moins quatre ans.

L'article prévoit également des garanties procédurales strictes et des conditions d'utilisation exceptionnelles pour l'identification biométrique en temps réel à des fins répressives, notamment l'autorisation préalable d'une autorité judiciaire ou administrative indépendante.

Analyse juridique de l'article 5

Techniques subliminales et manipulatrices

L'interdiction des techniques subliminales vise les systèmes d'IA qui influencent le comportement des personnes sans qu'elles en aient conscience. Cette disposition couvre notamment les techniques de « nudging » (incitation comportementale) lorsqu'elles sont employées de manière trompeuse ou sans le consentement éclairé des personnes, ainsi que les systèmes exploitant des biais cognitifs pour orienter les choix des individus sans qu'ils puissent l'identifier.

L'interdiction s'applique dès lors que ces techniques ont pour objectif ou pour effet de fausser sensiblement le comportement d'une personne en compromettant sa capacité à prendre une décision éclairée, et qu'elles causent un préjudice substantiel. Cette formulation large vise à couvrir l'ensemble des pratiques manipulatrices, qu'elles soient intentionnelles ou résultent de l'architecture même du système d'IA.

Exploitation des vulnérabilités

L'article 5, point b), interdit l'exploitation des vulnérabilités de groupes spécifiques, notamment en raison de l'âge (enfants, personnes âgées), d'un handicap physique ou mental, ou d'une situation sociale ou économique précaire. Cette disposition reconnaît que certaines personnes ou catégories de personnes sont particulièrement exposées aux risques de manipulation par l'IA et méritent une protection renforcée.

L'interdiction couvre les systèmes conçus pour exploiter ces vulnérabilités, mais également ceux qui, sans être spécifiquement conçus à cette fin, ont un tel effet. Cette approche préventive vise à responsabiliser les fournisseurs et déployeurs de systèmes d'IA, en les obligeant à évaluer les risques de leurs systèmes sur les populations vulnérables.

Scoring social par les autorités publiques

L'interdiction du scoring social constitue l'une des dispositions les plus emblématiques de l'AI Act. Elle vise directement les systèmes de notation généralisée des citoyens par les autorités publiques, sur le modèle du « crédit social » déployé dans certains pays. Ces systèmes, qui évaluent et classent les personnes en fonction de leur comportement social ou de caractéristiques personnelles, sont interdits lorsqu'ils conduisent à un traitement préjudiciable ou disproportionné.

Cette interdiction ne s'applique qu'aux autorités publiques ou aux entités agissant pour leur compte. Les systèmes de notation développés par des acteurs privés dans un cadre commercial (scoring bancaire, notation des conducteurs, etc.) ne sont pas couverts par cette interdiction, bien qu'ils puissent être soumis à d'autres obligations du règlement s'ils présentent un haut risque.

Identification biométrique en temps réel : principe d'interdiction et exceptions

L'article 5, point d), interdit l'utilisation de systèmes d'identification biométrique à distance « en temps réel » dans les espaces accessibles au public à des fins répressives. Cette interdiction vise les technologies de reconnaissance faciale qui permettent d'identifier des personnes dans la rue, dans les transports publics ou dans d'autres lieux publics, en temps réel et à leur insu.

Toutefois, cette interdiction n'est pas absolue. Le règlement prévoit trois exceptions strictement encadrées : la recherche de victimes d'infractions (notamment d'enfants disparus), la prévention de menaces graves et imminentes pour la vie ou la sécurité, et la localisation de personnes soupçonnées d'infractions graves. Ces exceptions sont soumises à des conditions procédurales strictes, notamment l'autorisation préalable d'une autorité judiciaire ou administrative indépendante.

Exemples concrets d'application

📋 Exemple concret d'application de l'article 5 de l'AI Act

Cas 1 - Technique sublim inale interdite : Une plateforme de commerce en ligne utilise un système d'IA qui analyse en temps réel le comportement de navigation de l'utilisateur (mouvements de souris, temps de lecture, hésitations) pour afficher des messages incitatifs subliminaux (flashs rapides de promotions, couleurs et sons spécifiques déclenchant des réactions émotionnelles) visant à précipiter l'acte d'achat en court-circuitant la réflexion consciente de l'utilisateur. Ce système est interdit par l'article 5, point a), car il déploie des techniques agissant sans que la personne en ait conscience avec pour effet de fausser son comportement.

Cas 2 - Exploitation de vulnérabilité interdite : Une application mobile utilise l'IA pour cibler des personnes âgées isolées avec des publicités émotionnellement manipulatrices pour des produits financiers risqués, en exploitant leur solitude et leur méconnaissance des produits financiers complexes. Ce système est interdit par l'article 5, point b), car il exploite une vulnérabilité liée à l'âge et à la situation sociale pour induire un comportement préjudiciable.

Cas 3 - Scoring social interdit : Une municipalité européenne envisage de mettre en place un système d'IA qui attribuerait à chaque citoyen un « score de civisme » basé sur divers comportements (paiement des impôts locaux, respect des règles de tri des déchets, participation à des événements communautaires, signalements au service de police municipale). Les citoyens ayant un score élevé bénéficieraient de priorités d'accès à certains services publics (crèches, logements sociaux, aides municipales). Ce système est strictement interdit par l'article 5, point c), car il constitue un scoring social généralisé par une autorité publique conduisant à un traitement différencié des citoyens dans des contextes non liés aux données collectées initialement.

Cas 4 - Identification biométrique : exception autorisée : Suite à un enlèvement d'enfant, les forces de police souhaitent utiliser un système de reconnaissance faciale en temps réel dans les gares et aéroports pour retrouver rapidement la victime. Cette utilisation, bien qu'interdite en principe par l'article 5, point d), peut être autorisée dans le cadre de l'exception prévue pour la recherche de victimes d'infractions, sous réserve d'obtenir l'autorisation préalable d'une autorité judiciaire, de limiter strictement la zone et la durée de déploiement, et de respecter les garanties procédurales prévues par le règlement.

Articulation avec les autres dispositions de l'AI Act

L'article 5 occupe une position centrale dans l'architecture du règlement. Il définit les « lignes rouges » absolues que ne peuvent franchir les systèmes d'IA, quelle que soit leur finalité ou leur performance technique. Ces interdictions s'appliquent indépendamment des autres catégorisations du règlement : un système interdit par l'article 5 ne peut être légalisé même s'il respecterait toutes les exigences applicables aux systèmes à haut risque.

L'article 5 doit être lu en cohérence avec les considérants du règlement qui explicitent les valeurs européennes protégées : la dignité humaine (article 1 de la Charte des droits fondamentaux), le droit à la vie privée (article 7), la protection des données personnelles (article 8), et l'égalité de traitement (articles 20 et 21).

Les sanctions prévues pour violation de l'article 5 sont les plus élevées du règlement : jusqu'à 35 millions d'euros ou 7% du chiffre d'affaires annuel mondial, selon le montant le plus élevé. Ce niveau de sanction reflète la gravité des pratiques interdites et la volonté du législateur de dissuader effectivement leur mise en œuvre.

Implications pratiques pour les organisations

Pour les organisations développant ou déployant des systèmes d'IA, l'article 5 impose une vigilance absolue. Avant tout déploiement, il est impératif de vérifier que le système ne relève d'aucune des pratiques interdites. Cette vérification doit être documentée et conservée à des fins de démonstration de conformité.

Les organisations doivent porter une attention particulière aux systèmes d'IA déployés dans des contextes sensibles : marketing ciblé, profilage comportemental, gestion des ressources humaines, accès aux services publics, ou surveillance des espaces publics. Dans ces domaines, le risque de franchir les lignes rouges de l'article 5 est particulièrement élevé.

Les autorités publiques envisageant l'utilisation de systèmes d'identification biométrique doivent s'assurer qu'elles disposent d'une base légale claire, que l'utilisation envisagée entre strictement dans l'une des exceptions prévues, et que toutes les garanties procédurales sont mises en place. L'utilisation d'une exception doit rester véritablement exceptionnelle et proportionnée.

Pour les forces de l'ordre, l'article 5 impose de revoir les pratiques existantes et de mettre en place des procédures d'autorisation judiciaire préalable pour toute utilisation d'identification biométrique en temps réel, même dans les cas d'urgence. Les États membres doivent également établir des registres publics des utilisations autorisées.

L'article 5 de l'AI Act établit des interdictions absolues pour certaines pratiques d'intelligence artificielle jugées incompatibles avec les valeurs européennes et les droits fondamentaux. En définissant ces « lignes rouges », le règlement affirme que l'innovation technologique ne peut justifier l'atteinte à la dignité humaine, la manipulation des personnes vulnérables ou la mise en place d'une surveillance généralisée.

Ces interdictions s'appliquent dès l'entrée en vigueur de cette disposition, sans période de transition, et sont assorties des sanctions les plus élevées du règlement. Elles concernent aussi bien les acteurs privés que publics et s'imposent à tous les opérateurs actifs sur le marché européen, quels que soient leur lieu d'établissement ou la localisation de leurs serveurs.

L'article 5 constitue ainsi le socle éthique du règlement européen sur l'intelligence artificielle, marquant la volonté de l'Union européenne de promouvoir une IA digne de confiance, respectueuse des droits fondamentaux et conforme aux valeurs démocratiques.