L'article 4 du Règlement (UE) 2024/1689 établit un principe fondamental pour l'application effective de l'AI Act : la nécessité de promouvoir la culture de l'IA et l'alphabétisation en matière d'intelligence artificielle auprès de tous les acteurs concernés. Cette disposition reconnaît que la régulation de l'IA ne peut être efficace que si les fournisseurs, déployeurs et personnes affectées comprennent les technologies d'IA, leurs capacités, leurs limites et leurs risques potentiels.
Dans un contexte où l'intelligence artificielle devient omniprésente dans de nombreux secteurs d'activité, de la santé à l'éducation en passant par l'emploi et la justice, il est essentiel que les personnes qui développent, déploient ou sont affectées par ces systèmes disposent d'un niveau minimal de connaissance et de compréhension de ces technologies. L'article 4 vise à créer un environnement où les décisions relatives à l'IA sont prises en connaissance de cause, où les risques sont correctement évalués et où les droits des personnes sont effectivement protégés.
Cette disposition s'inscrit dans une approche de responsabilisation et de transparence qui traverse l'ensemble du règlement. Elle reconnaît que la conformité technique aux exigences de l'AI Act ne suffit pas : elle doit s'accompagner d'une compréhension réelle des enjeux par l'ensemble des parties prenantes.
Texte officiel de l'article 4 de l'AI Act
L'article 4 de l'AI Act dispose :
« Les fournisseurs et les déployeurs de systèmes d'IA prennent des mesures pour garantir, dans la mesure du possible, un niveau suffisant de culture de l'IA auprès de leur personnel et d'autres personnes traitant de l'exploitation et de l'utilisation de systèmes d'IA en leur nom, en tenant compte de leur niveau technique d'expertise et de compétences, ainsi que du contexte et des finalités d'utilisation et de déploiement de l'IA.
Les États membres promeuvent la culture de l'IA, la prise de conscience du public et la compréhension des avantages, des risques, des garanties, des droits et des obligations liés à l'utilisation de systèmes d'IA. Les États membres favorisent, en partenariat avec les parties prenantes concernées et dans le cadre de leurs compétences, l'élaboration de codes de conduite volontaires visant à promouvoir la culture de l'IA auprès des personnes intervenant dans le développement, le déploiement et l'utilisation de l'IA. »
Cet article établit une double obligation : d'une part, les opérateurs économiques doivent former leur personnel ; d'autre part, les États membres doivent promouvoir la culture de l'IA auprès du grand public et favoriser l'adoption de bonnes pratiques sectorielles.
Analyse juridique de l'article 4
Obligations des fournisseurs et déployeurs
L'article 4 impose aux fournisseurs et déployeurs de systèmes d'IA de prendre des mesures pour garantir un niveau suffisant de culture de l'IA auprès de leur personnel et des personnes intervenant dans l'exploitation des systèmes. Cette obligation s'applique à l'ensemble des systèmes d'IA, qu'ils soient à haut risque ou non, bien que le niveau de formation requis puisse varier en fonction du contexte et des risques associés.
La notion de « culture de l'IA » englobe plusieurs dimensions : la compréhension des principes techniques de fonctionnement des systèmes d'IA, la connaissance de leurs capacités et limites, la conscience des biais potentiels et des risques pour les droits fondamentaux, et la maîtrise des bonnes pratiques d'utilisation. Il ne s'agit pas d'exiger que tous les utilisateurs deviennent des experts techniques, mais de s'assurer qu'ils disposent des connaissances nécessaires à l'exercice de leurs fonctions.
Le règlement précise que ces mesures doivent être prises « dans la mesure du possible » et tenir compte du niveau technique d'expertise et de compétences des personnes concernées, ainsi que du contexte d'utilisation. Cette formulation offre une certaine flexibilité dans la mise en œuvre, tout en établissant une obligation de moyens renforcée pour les opérateurs.
Rôle des États membres
L'article 4 confie également aux États membres une mission de promotion de la culture de l'IA auprès du grand public. Cette mission vise à sensibiliser les citoyens aux avantages et aux risques de l'intelligence artificielle, à améliorer leur compréhension des garanties existantes et à les informer de leurs droits face aux systèmes d'IA.
Les États membres sont invités à favoriser, en partenariat avec les parties prenantes concernées, l'élaboration de codes de conduite volontaires visant à promouvoir la culture de l'IA. Ces codes peuvent couvrir des secteurs spécifiques ou s'adresser à des catégories particulières d'acteurs, en complément des obligations réglementaires du règlement.
Cette approche combine régulation contraignante et autorégulation volontaire, permettant aux acteurs de développer des bonnes pratiques adaptées à leurs contextes spécifiques tout en respectant un cadre commun défini par le règlement.
Lien avec les obligations de surveillance humaine
L'article 4 est étroitement lié à l'obligation de surveillance humaine prévue à l'article 14 pour les systèmes d'IA à haut risque. En effet, la surveillance humaine ne peut être effective que si les personnes chargées de cette surveillance comprennent le fonctionnement des systèmes, leurs limites et les risques associés. La culture de l'IA constitue donc un prérequis indispensable à l'application des mesures de gouvernance et de contrôle prévues par le règlement.
Exemples concrets d'application
📋 Exemple concret d'application de l'article 4 de l'AI Act
Une entreprise de ressources humaines déploie un système d'IA pour présélectionner automatiquement les candidatures reçues pour des postes à pourvoir. Ce système analyse les CV, les lettres de motivation et les profils en ligne des candidats pour recommander aux recruteurs les profils les plus pertinents.
Conformément à l'article 4 de l'AI Act, l'entreprise met en place un programme de formation obligatoire pour tous les recruteurs amenés à utiliser ce système. Cette formation couvre plusieurs aspects : les principes de fonctionnement de l'algorithme d'apprentissage automatique utilisé (sans nécessiter une expertise technique approfondie), les critères sur lesquels le système se base pour émettre ses recommandations, les limites connues du système et les biais potentiels identifiés lors des tests.
Les recruteurs sont également formés sur leurs obligations légales en matière de surveillance humaine : ils apprennent qu'ils ne doivent pas suivre aveuglément les recommandations du système, qu'ils conservent la responsabilité finale des décisions de recrutement, et qu'ils doivent être en mesure d'expliquer aux candidats les critères ayant conduit à leur sélection ou leur non-sélection.
Par ailleurs, l'entreprise met en place des sessions de sensibilisation régulières pour actualiser les connaissances du personnel sur les évolutions du système et partager les retours d'expérience. Des ressources documentaires sont mises à disposition pour permettre aux recruteurs d'approfondir leur compréhension selon leurs besoins.
De son côté, l'État français, en application de l'article 4, lance une campagne de sensibilisation grand public sur les systèmes d'IA utilisés dans le recrutement. Cette campagne informe les demandeurs d'emploi de l'existence de ces systèmes, de leurs droits (notamment le droit à l'information et le droit à une intervention humaine), et des recours possibles en cas de décision qu'ils estiment discriminatoire.
Cet exemple illustre comment l'article 4 vise à créer un écosystème où tous les acteurs, professionnels comme citoyens, disposent des connaissances nécessaires pour que l'IA soit utilisée de manière responsable et transparente.
Articulation avec les autres dispositions de l'AI Act
L'article 4 s'articule avec l'ensemble des obligations prévues par le règlement. Il constitue un socle permettant l'application effective des exigences techniques et organisationnelles imposées aux fournisseurs et déployeurs.
Il est particulièrement lié à l'article 14 sur la surveillance humaine, dont l'effectivité dépend directement du niveau de compréhension des systèmes d'IA par les personnes chargées du contrôle. Il complète également les obligations de transparence prévues aux articles 13 et 50, en s'assurant que les informations fournies aux utilisateurs et aux personnes affectées sont comprises et utilisables.
L'article 4 trouve également écho dans les obligations de documentation technique (article 11) et de tenue de registres (article 12), qui doivent être conçues de manière à être compréhensibles par les personnes qui les utilisent. La culture de l'IA garantit que ces documentations ne restent pas des obligations formelles mais deviennent de véritables outils de gouvernance.
Implications pratiques pour les organisations
Pour les organisations développant ou utilisant des systèmes d'IA, l'article 4 implique la mise en place de programmes de formation et de sensibilisation adaptés aux différentes catégories de personnel. Ces programmes doivent être proportionnés aux responsabilités de chacun et régulièrement actualisés pour tenir compte des évolutions technologiques et réglementaires.
Les fournisseurs de systèmes d'IA à haut risque doivent prévoir des formations spécifiques pour les déployeurs de leurs systèmes, en leur fournissant les informations nécessaires à une utilisation conforme et responsable. Cette obligation de formation fait partie intégrante des instructions d'utilisation qui doivent accompagner le système.
Les déployeurs, de leur côté, doivent s'assurer que leur personnel dispose effectivement des compétences requises avant de lui confier l'exploitation d'un système d'IA. Ils doivent également mettre en place des mécanismes de suivi et d'évaluation pour vérifier que le niveau de culture de l'IA reste suffisant dans le temps.
Pour les États membres, l'article 4 justifie le développement de politiques publiques de promotion de la culture de l'IA, incluant des programmes éducatifs, des campagnes de sensibilisation, et le soutien à des initiatives sectorielles de formation. Ces politiques peuvent mobiliser différents acteurs : établissements d'enseignement, organismes de formation professionnelle, associations professionnelles, et organisations de la société civile.
L'article 4 de l'AI Act établit un principe transversal essentiel à l'application effective du règlement : la promotion de la culture de l'IA auprès de tous les acteurs concernés. En imposant aux opérateurs de former leur personnel et en confiant aux États membres une mission de sensibilisation du public, cet article reconnaît que la régulation de l'intelligence artificielle ne peut reposer uniquement sur des obligations techniques, mais nécessite une compréhension partagée des enjeux par l'ensemble de la société.
Cette disposition reflète une approche de responsabilisation qui traverse l'ensemble du règlement. Elle vise à créer un environnement où les décisions relatives à l'IA sont prises en connaissance de cause, où les risques sont correctement évalués et où les droits des personnes sont effectivement protégés. La culture de l'IA devient ainsi une condition nécessaire à une utilisation éthique et conforme des systèmes d'intelligence artificielle dans l'Union européenne.