L'article 50 du Règlement (UE) 2024/1689 établit un cadre spécifique d'obligations de transparence pour certaines catégories de systèmes d'intelligence artificielle qui, bien que ne présentant pas nécessairement un risque élevé au sens du Titre III, soulèvent des enjeux particuliers en termes d'information du public et de prévention des risques de manipulation, de tromperie ou d'atteinte à la confiance. Cette disposition reconnaît que la transparence constitue un mécanisme de régulation essentiel pour certains usages de l'IA, indépendamment de leur classification formelle en tant que systèmes à haut risque.
L'article 50 identifie quatre catégories distinctes de situations nécessitant des mesures de transparence spécifiques : les systèmes d'IA interagissant directement avec des personnes physiques, les systèmes d'IA générative produisant du contenu artificiel (texte, audio, image, vidéo), les systèmes de reconnaissance des émotions ou de catégorisation biométrique, et enfin les contenus générés par IA et diffusés sur des sujets d'intérêt public. Pour chacune de ces catégories, l'article définit des obligations proportionnées visant à garantir que les personnes concernées sont correctement informées de l'utilisation de l'IA et peuvent ainsi exercer leur capacité de jugement en connaissance de cause.
Ces obligations de transparence s'appliquent à l'ensemble des acteurs concernés - fournisseurs et déployeurs - et s'articulent avec les exigences générales de transparence prévues pour les systèmes d'IA à haut risque. L'article 50 étend ainsi le principe de transparence au-delà du seul périmètre des systèmes à haut risque, reconnaissant que certains usages de l'IA, même lorsqu'ils ne présentent pas de risques élevés, requièrent néanmoins une information claire des personnes concernées pour préserver la confiance et prévenir les risques de désinformation ou de manipulation.
Texte officiel de l'article 50 de l'AI Act
L'article 50 de l'AI Act dispose :
« 1. Les fournisseurs veillent à ce que les systèmes d'IA destinés à interagir directement avec des personnes physiques soient conçus et développés de manière à ce que les personnes physiques soient informées qu'elles interagissent avec un système d'IA, sauf si cela est évident compte tenu des circonstances et du contexte d'utilisation. Cette obligation ne s'applique pas aux systèmes d'IA autorisés par la législation pour détecter, prévenir ou enquêter sur des infractions pénales, sous réserve de garanties appropriées pour les droits et libertés des tiers, sauf si ces systèmes sont à la disposition du public pour signaler des infractions pénales.
2. Les fournisseurs de systèmes d'IA, y compris de modèles d'IA à usage général, qui génèrent du contenu artificiel sous forme de texte, audio, image ou vidéo (« contenu généré par IA ») veillent à ce que les sorties du système d'IA soient marquées dans un format lisible par machine et détectables comme ayant été générées ou manipulées artificiellement. Les fournisseurs veillent à ce que leurs solutions techniques soient efficaces, interopérables, robustes et fiables dans la mesure où cela est techniquement faisable, compte tenu des spécificités et des limites des différents types de contenu, des coûts de mise en œuvre et de l'état de l'art généralement reconnu, tel qu'il peut être reflété dans les normes techniques pertinentes.
3. Les déployeurs d'un système de reconnaissance des émotions ou d'un système de catégorisation biométrique informent de manière claire et distincte les personnes physiques exposées au système du fonctionnement du système. Cette obligation ne s'applique pas aux systèmes d'IA utilisés pour la catégorisation biométrique et la reconnaissance des émotions autorisés par la législation pour détecter, prévenir ou enquêter sur des infractions pénales.
4. Les déployeurs d'un système d'IA qui génère ou manipule du contenu sous forme de texte, audio, image ou vidéo, lorsqu'ils publient ce contenu sur un sujet susceptible d'intéresser le public, divulguent que le contenu a été généré ou manipulé artificiellement. Cette obligation ne s'applique pas lorsque l'utilisation du système d'IA est autorisée par la législation pour détecter, prévenir ou enquêter sur des infractions pénales, ou lorsque le contenu généré ou manipulé artificiellement a fait l'objet d'un examen humain ou d'un contrôle éditorial et qu'une personne physique ou morale est responsable de la publication du contenu. »
Cet article établit donc un cadre progressif et proportionné d'obligations de transparence adaptées aux différents types d'usages de l'IA et aux risques spécifiques qu'ils présentent en termes d'information du public.
Analyse juridique de l'article 50
Systèmes d'IA interagissant avec des personnes physiques
L'article 50, paragraphe 1, impose que les systèmes d'IA destinés à interagir directement avec des personnes physiques soient conçus de manière à informer ces personnes qu'elles interagissent avec un système d'IA. Cette obligation vise principalement les chatbots, assistants virtuels, systèmes de réponse vocale interactive et autres interfaces conversationnelles utilisant l'intelligence artificielle.
L'obligation d'information ne s'applique toutefois pas « si cela est évident compte tenu des circonstances et du contexte d'utilisation ». Cette exception reconnaît que dans certaines situations, la nature artificielle de l'interaction est manifeste et qu'une information explicite serait superflue. Par exemple, un assistant virtuel présenté explicitement comme tel, avec une interface clairement identifiée comme automatisée, peut ne pas nécessiter d'avertissement supplémentaire. L'appréciation du caractère « évident » doit se faire du point de vue d'une personne moyenne raisonnablement attentive.
Une exception importante est prévue pour les systèmes d'IA utilisés dans le cadre de la détection, la prévention ou l'enquête sur des infractions pénales, sous réserve de garanties appropriées pour les droits des tiers. Cette exception vise à ne pas compromettre l'efficacité des enquêtes. Toutefois, si ces systèmes sont mis à la disposition du public pour signaler des infractions (par exemple, un chatbot permettant de déposer des signalements), l'obligation d'information s'applique.
Systèmes d'IA générative et marquage du contenu artificiel
L'article 50, paragraphe 2, établit une obligation de marquage pour les contenus générés ou manipulés par des systèmes d'IA, qu'il s'agisse de texte, audio, image ou vidéo. Cette obligation s'applique aux fournisseurs de systèmes d'IA générative, y compris les fournisseurs de modèles d'IA à usage général comme GPT, Claude, Midjourney, Stable Diffusion ou DALL-E.
Le marquage doit être effectué « dans un format lisible par machine », permettant ainsi une détection automatisée du contenu généré par IA. Cette exigence vise à faciliter la vérification de l'authenticité des contenus à grande échelle et à permettre le développement d'outils de détection. Les technologies envisagées incluent notamment les filigranes numériques (watermarking), les métadonnées structurées, ou les signatures cryptographiques intégrées au contenu.
L'article 50 reconnaît toutefois que ces solutions techniques doivent être « efficaces, interopérables, robustes et fiables dans la mesure où cela est techniquement faisable ». Cette formulation introduit un principe de faisabilité technique et de proportionnalité : les fournisseurs ne sont pas tenus d'atteindre un niveau de performance impossible ou disproportionné par rapport à l'état de l'art. Le texte mentionne explicitement que la mise en œuvre doit tenir compte « des spécificités et des limites des différents types de contenu, des coûts de mise en œuvre et de l'état de l'art généralement reconnu ».
L'interopérabilité est particulièrement importante : les solutions de marquage adoptées par différents fournisseurs doivent pouvoir être détectées par des outils communs. Cela nécessitera probablement l'émergence de standards techniques partagés, que la Commission européenne pourra favoriser par l'adoption de spécifications harmonisées ou de standards communs.
Systèmes de reconnaissance des émotions et de catégorisation biométrique
L'article 50, paragraphe 3, impose aux déployeurs de systèmes de reconnaissance des émotions ou de catégorisation biométrique d'informer « de manière claire et distincte » les personnes exposées au système. Cette obligation s'applique aux systèmes qui analysent les expressions faciales, le ton de la voix, ou d'autres caractéristiques biométriques pour inférer l'état émotionnel d'une personne ou pour la catégoriser selon certains attributs.
L'information doit être « claire et distincte », c'est-à-dire facilement compréhensible et visible. Elle doit porter sur « le fonctionnement du système », ce qui implique d'expliquer de manière accessible ce que le système fait, quelles données il collecte, comment il les traite, et à quelles fins. Cette exigence s'ajoute aux obligations d'information prévues par le RGPD lorsque des données à caractère personnel sont traitées.
Comme pour le paragraphe 1, une exception est prévue pour les systèmes utilisés dans le cadre de la détection, la prévention ou l'enquête sur des infractions pénales, toujours sous réserve du respect des garanties appropriées.
Publication de contenu généré par IA sur des sujets d'intérêt public
L'article 50, paragraphe 4, impose une obligation de divulgation aux déployeurs qui publient du contenu généré ou manipulé par IA « sur un sujet susceptible d'intéresser le public ». Cette obligation vise notamment à lutter contre la désinformation et à préserver l'intégrité du débat public en permettant au public de distinguer les contenus authentiques des contenus artificiels.
La notion de « sujet susceptible d'intéresser le public » doit être interprétée largement : elle couvre notamment les sujets politiques, sociaux, économiques, sanitaires, environnementaux, ou toute question faisant l'objet d'un débat public. Elle ne se limite pas aux contenus journalistiques ou d'actualité, mais englobe tout contenu pertinent pour la formation de l'opinion publique.
Deux exceptions importantes sont prévues. Premièrement, l'exception pour les activités de détection, prévention ou enquête sur des infractions pénales. Deuxièmement, l'exception pour les contenus ayant fait l'objet d'un « examen humain ou d'un contrôle éditorial » et pour lesquels « une personne physique ou morale est responsable de la publication ». Cette seconde exception reconnaît que lorsqu'un contenu généré par IA est soumis à une validation humaine et qu'un éditeur en assume la responsabilité (comme dans le journalisme professionnel), l'obligation de divulgation systématique n'est pas nécessaire, la responsabilité éditoriale constituant une garantie suffisante.
Exemples concrets d'application
Exemple concret d'application de l'article 50 de l'AI Act
Cas d'une plateforme de services en ligne utilisant un chatbot IA
Une banque en ligne déploie un assistant virtuel alimenté par un modèle de langage avancé (LLM) pour répondre aux questions des clients sur ses services bancaires. L'assistant est capable de mener des conversations naturelles très convaincantes.
Application du paragraphe 1 (interaction avec des personnes) :
Conformément à l'article 50, paragraphe 1, la banque doit s'assurer que les clients sont informés qu'ils interagissent avec un système d'IA. Cette information peut prendre plusieurs formes :
- Message d'accueil explicite : « Bonjour, je suis l'assistant virtuel automatisé de [Banque]. Je suis propulsé par l'intelligence artificielle et je suis ici pour répondre à vos questions. »
- Indication visuelle permanente dans l'interface (icône robot, mention « Assistant IA »)
- Rappel périodique au cours de conversations longues
Si l'interface du chatbot est clairement identifiée comme automatisée (avec un avatar robot, un nom comme « BotBanque », et une présentation explicite comme « assistant automatisé »), l'exception pour les situations « évidentes » pourrait s'appliquer, mais il reste recommandé de fournir une information explicite pour éviter toute ambiguïté.
Cas d'un média utilisant l'IA générative pour créer des illustrations
Un journal en ligne utilise un système d'IA générative (comme Midjourney ou DALL-E) pour créer des illustrations accompagnant certains articles d'opinion ou de fiction.
Application du paragraphe 2 (marquage du contenu généré) :
Le fournisseur du système d'IA générative (par exemple, Midjourney) doit intégrer dans les images produites un marquage lisible par machine indiquant qu'elles ont été générées par IA. Ce marquage peut prendre la forme :
- De métadonnées EXIF ou XMP incluant des informations structurées (par exemple, « AIGenerated: true », « Generator: Midjourney v6 »)
- D'un filigrane numérique invisible à l'œil nu mais détectable par des outils spécialisés
- D'une signature cryptographique certifiant l'origine artificielle de l'image
Application du paragraphe 4 (divulgation pour sujets d'intérêt public) :
Si le journal utilise ces images pour illustrer un article sur un sujet d'intérêt public (par exemple, un article de fond sur les enjeux climatiques), il doit divulguer que les illustrations ont été générées par IA. Cette divulgation peut prendre la forme :
- D'une légende sous l'image : « Illustration générée par intelligence artificielle »
- D'une mention dans les crédits de l'article
- D'une icône ou d'un badge visible indiquant le caractère artificiel de l'image
Toutefois, si l'article a fait l'objet d'un contrôle éditorial complet et que le journal assume la responsabilité éditoriale du contenu (ce qui est généralement le cas dans les médias professionnels), l'exception du paragraphe 4, alinéa 2, peut s'appliquer. Dans ce cas, la divulgation reste recommandée par souci de transparence, mais n'est pas juridiquement obligatoire selon l'AI Act.
Cas d'un magasin utilisant la reconnaissance des émotions
Un centre commercial déploie un système de reconnaissance des émotions analysant les expressions faciales des visiteurs pour évaluer leur satisfaction et optimiser l'agencement des magasins.
Application du paragraphe 3 (reconnaissance des émotions) :
Le centre commercial doit informer les visiteurs de manière claire et distincte de l'utilisation de ce système. Cette information peut être fournie par :
- Des panneaux visibles à l'entrée du centre commercial expliquant : « Ce site utilise un système d'analyse des émotions par intelligence artificielle pour améliorer votre expérience. Le système analyse les expressions faciales pour évaluer la satisfaction des visiteurs. Les données sont anonymisées et conservées pendant 30 jours. »
- Des pictogrammes normalisés indiquant la présence d'un système de reconnaissance
- Des informations détaillées disponibles dans la politique de confidentialité et sur des bornes d'information
Cette information doit être complétée par les obligations d'information du RGPD (base juridique du traitement, finalités, durées de conservation, droits des personnes, etc.).
Sanctions en cas de non-respect :
Le non-respect des obligations de l'article 50 peut entraîner des amendes administratives pouvant atteindre 15 millions d'euros ou 3% du chiffre d'affaires annuel mondial total de l'exercice précédent, le montant le plus élevé étant retenu (article 99, paragraphe 4, de l'AI Act). Les violations peuvent également donner lieu à des injonctions de mise en conformité ou, dans les cas graves, à des interdictions de mise sur le marché ou de mise en service.
Articulation avec les autres dispositions de l'AI Act
L'article 50 s'inscrit dans le cadre plus large des obligations de transparence prévues par l'AI Act. Il complète notamment l'article 13, qui impose aux fournisseurs de systèmes d'IA à haut risque de fournir des instructions d'utilisation détaillées et transparentes. Alors que l'article 13 vise la transparence technique pour les déployeurs professionnels, l'article 50 vise la transparence grand public pour informer les personnes physiques exposées à certains systèmes d'IA.
L'article 50 doit également être lu en cohérence avec l'article 52 (avant la renumérotation) relatif aux obligations de transparence spécifiques pour les systèmes d'IA à risque limité. Ensemble, ces dispositions créent un cadre gradué d'obligations de transparence adaptées aux différents niveaux de risque et types d'usage.
Pour les modèles d'IA à usage général, l'article 50, paragraphe 2, s'articule avec les articles 53 et 54 qui imposent des obligations spécifiques aux fournisseurs de ces modèles. Les obligations de marquage du contenu généré constituent un complément essentiel aux obligations de documentation technique et de transparence prévues pour les modèles à usage général.
L'article 50 s'inscrit également en complémentarité avec le RGPD. Les obligations d'information qu'il impose viennent s'ajouter aux obligations d'information prévues par les articles 13 et 14 du RGPD lorsque des données à caractère personnel sont traitées. Les deux règlements doivent être appliqués de manière cumulée, bien que des synergies soient possibles en intégrant les informations requises par l'AI Act dans les documents d'information RGPD.
Enfin, l'article 50, paragraphe 4, doit être lu en articulation avec la réglementation sur les services numériques (Digital Services Act - DSA), qui impose également des obligations de transparence et de modération aux plateformes en ligne. Les deux règlements se renforcent mutuellement dans l'objectif de lutter contre la désinformation et de protéger l'intégrité du débat public.
Implications pratiques pour les organisations
Pour les fournisseurs de systèmes d'IA conversationnels (chatbots, assistants virtuels), l'article 50, paragraphe 1, impose d'intégrer dès la conception des mécanismes d'information des utilisateurs. Ces mécanismes peuvent prendre différentes formes selon le contexte : messages d'accueil, indicateurs visuels permanents, rappels périodiques, ou mentions dans l'interface utilisateur. L'important est que l'information soit claire, visible et compréhensible pour un utilisateur moyen.
Pour les fournisseurs de systèmes d'IA générative, l'article 50, paragraphe 2, impose de développer et d'implémenter des solutions techniques de marquage du contenu généré. Cette exigence nécessite des investissements en recherche et développement pour développer des techniques de filigrane ou de marquage robustes et interopérables. La participation à des initiatives de standardisation technique (par exemple, au sein de l'ISO, de l'ETSI ou d'autres organismes de normalisation) sera probablement nécessaire pour garantir l'interopérabilité des solutions.
Les fournisseurs devront également mettre en place des processus de validation et de test pour s'assurer que les solutions de marquage sont effectivement robustes (résistantes aux tentatives de suppression ou d'altération), fiables (marquage systématique de tous les contenus générés) et efficaces (détectables par les outils d'analyse). La documentation technique devra inclure des informations détaillées sur les techniques de marquage utilisées et leurs limites.
Pour les déployeurs de systèmes de reconnaissance des émotions ou de catégorisation biométrique, l'article 50, paragraphe 3, impose de mettre en place des dispositifs d'information visibles et compréhensibles. Cela peut nécessiter l'installation de panneaux d'information, la distribution de documents explicatifs, la mise à disposition d'informations en ligne, ou la formation du personnel pour répondre aux questions des personnes concernées. L'information doit être proactive et ne pas reposer uniquement sur une démarche volontaire de la personne pour obtenir l'information.
Pour les déployeurs qui publient du contenu généré par IA sur des sujets d'intérêt public, l'article 50, paragraphe 4, impose d'adopter des politiques éditoriales claires sur la divulgation du caractère artificiel des contenus. Ces politiques doivent définir quels contenus sont concernés, sous quelle forme la divulgation doit être effectuée, et comment garantir que cette divulgation est systématiquement appliquée. Pour les médias et les plateformes de publication, cela peut nécessiter l'adaptation des outils de publication et des processus éditoriaux.
Les contrats entre fournisseurs et déployeurs devront être adaptés pour clarifier les responsabilités respectives en matière de transparence. Par exemple, si un fournisseur propose un système d'IA générative en tant que service (IA-as-a-Service), le contrat devra préciser si les mécanismes de marquage sont intégrés au service ou si leur mise en œuvre incombe au déployeur.
Enfin, les organisations devront former leur personnel aux obligations de l'article 50 et mettre en place des processus de contrôle pour vérifier la conformité. Les équipes de conformité, juridiques, techniques et éditoriales devront collaborer étroitement pour garantir que les obligations de transparence sont effectivement respectées dans les pratiques quotidiennes.
L'article 50 de l'AI Act établit un cadre complet d'obligations de transparence pour certaines catégories de systèmes d'intelligence artificielle qui, au-delà des systèmes à haut risque, soulèvent des enjeux spécifiques en termes d'information du public et de préservation de la confiance. En imposant que les personnes soient informées lorsqu'elles interagissent avec un système d'IA, que les contenus générés artificiellement soient marqués de manière détectable, que l'utilisation de systèmes de reconnaissance des émotions soit divulguée, et que les contenus artificiels sur des sujets d'intérêt public soient identifiés comme tels, le règlement vise à garantir que l'intelligence artificielle se développe dans un climat de transparence et de confiance.
Ces obligations de transparence constituent un équilibre entre la nécessité de protéger le public contre les risques de manipulation et de désinformation, et le besoin de ne pas entraver l'innovation et le développement de l'IA. Le cadre établi par l'article 50 est proportionné, avec des exceptions pour les situations où l'information serait superflue ou pourrait compromettre des objectifs légitimes (comme les enquêtes pénales), et des exigences techniques tenant compte de la faisabilité et de l'état de l'art.
Pour les organisations développant ou déployant des systèmes d'IA, l'article 50 impose d'intégrer la transparence dès la conception et de mettre en place des processus garantissant que les obligations d'information sont systématiquement respectées. Ces investissements en transparence ne sont pas seulement une exigence réglementaire : ils constituent également un facteur de confiance et d'acceptabilité sociale, essentiel au succès à long terme des technologies d'intelligence artificielle.