L'article 72 du Règlement (UE) 2024/1689 établit l'obligation pour les fournisseurs de systèmes d'IA à haut risque de mettre en place et de maintenir un système de surveillance après la mise sur le marché (post-market monitoring system). Cette obligation reconnaît que la conformité d'un système d'IA ne peut être garantie uniquement au moment de sa commercialisation initiale : les systèmes d'IA évoluent dans le temps (par apprentissage continu, mises à jour, modifications), sont déployés dans des contextes d'usage variés et potentiellement différents de ceux anticipés, interagissent avec des données réelles pouvant révéler des limitations ou des biais non détectés lors des phases de développement et de test, et peuvent connaître des dégradations de performance ou des dysfonctionnements imprévus.

L'article 72 impose donc une vigilance continue du fournisseur sur les performances et les risques de son système tout au long de son cycle de vie. Le système de surveillance après commercialisation constitue un mécanisme proactif de collecte et d'analyse de données sur le comportement réel du système, permettant au fournisseur de détecter précocement les problèmes, de prendre des mesures correctrices, et d'assurer la conformité continue aux exigences de l'AI Act. Cette obligation reflète le principe de responsabilité (accountability) : le fournisseur ne peut se décharger de sa responsabilité après la vente, mais doit suivre activement l'évolution de son système dans le temps.

L'article 72 s'inscrit dans une logique de gestion dynamique des risques : les systèmes d'IA à haut risque, en raison de leur complexité et de leur nature adaptative, nécessitent une supervision continue garantissant qu'ils demeurent sûrs, performants, et conformes tout au long de leur utilisation. Cette surveillance constitue également une source précieuse d'informations pour l'amélioration continue des systèmes, contribuant au progrès technologique responsable.

Texte officiel de l'article 72 de l'AI Act

L'article 72 de l'AI Act dispose (extraits principaux) :

« 1. Les fournisseurs de systèmes d'IA à haut risque établissent et documentent un système de surveillance après la mise sur le marché d'une manière proportionnée à la nature des technologies d'intelligence artificielle et aux risques du système d'IA à haut risque.

2. Le système de surveillance après la mise sur le marché recueille, documente et analyse activement des données pertinentes fournies par les déployeurs ou recueillies par d'autres sources sur la performance du système d'IA à haut risque tout au long de son cycle de vie, et permet au fournisseur d'évaluer la conformité continue du système d'IA à haut risque aux exigences énoncées au titre III, chapitre 2.

3. Le système de surveillance après la mise sur le marché recueille, documente et analyse des informations pertinentes concernant :

a) le volume et les types d'utilisation du système d'IA ;

b) la fréquence et les types de dysfonctionnements et de défaillances du système d'IA ;

c) tout risque grave ou incident grave survenant en lien avec le système d'IA. »

« 4. Le système de surveillance après la mise sur le marché est proportionné à la nature des technologies d'intelligence artificielle et aux risques du système d'IA à haut risque. Il peut être intégré aux systèmes de gestion de la qualité existants du fournisseur. »

« 5. Les informations recueillies dans le cadre de la surveillance après la mise sur le marché sont prises en compte par le fournisseur pour la mise à jour du système de gestion des risques visé à l'article 9. »

Cet article impose donc aux fournisseurs de systèmes d'IA à haut risque d'établir un système de surveillance après commercialisation collectant et analysant des données sur la performance réelle, les dysfonctionnements, et les incidents, permettant d'assurer la conformité continue et d'alimenter la gestion des risques.

Analyse juridique de l'article 72

Obligation d'établir et documenter le système

L'article 72, paragraphe 1, impose que « les fournisseurs de systèmes d'IA à haut risque établissent et documentent un système de surveillance après la mise sur le marché ». Cette obligation comporte deux dimensions : « établir » le système, c'est-à-dire le concevoir, le mettre en place, et le rendre opérationnel, et « documenter » le système, c'est-à-dire rédiger les procédures, les méthodologies, les responsabilités, et les modalités de fonctionnement dans des documents formels accessibles aux autorités compétentes lors de contrôles.

L'obligation s'applique à tous les « fournisseurs de systèmes d'IA à haut risque », sans exception. Quelle que soit la taille du fournisseur (grande entreprise, PME, startup), la nature du système, ou le secteur d'application, un système de surveillance après commercialisation doit être mis en place. Toutefois, le paragraphe 1 précise que ce système doit être établi « d'une manière proportionnée à la nature des technologies d'intelligence artificielle et aux risques du système d'IA à haut risque ».

Le principe de « proportionnalité » reconnaît la diversité des systèmes d'IA à haut risque : un système d'IA de diagnostic médical critique (risque élevé pour la santé) nécessite une surveillance plus intensive qu'un système d'IA de tri de CV (risque de discrimination mais conséquences moins graves). Un système déployé à très grande échelle (millions d'utilisateurs) nécessite une surveillance plus robuste qu'un système déployé à petite échelle. Un système utilisant des technologies d'IA complexes et évolutives (apprentissage continu) nécessite une surveillance plus fréquente qu'un système statique.

Cette proportionnalité permet aux fournisseurs d'adapter l'ampleur et l'intensité de leur surveillance à leurs situations spécifiques, évitant des charges disproportionnées tout en garantissant un niveau de surveillance approprié aux risques. Les autorités compétentes évalueront cette proportionnalité lors de contrôles.

Objectifs et fonctionnement du système

L'article 72, paragraphe 2, précise que « le système de surveillance après la mise sur le marché recueille, documente et analyse activement des données pertinentes fournies par les déployeurs ou recueillies par d'autres sources sur la performance du système d'IA à haut risque tout au long de son cycle de vie ». Cette formulation définit trois activités essentielles du système : « recueillir » des données (via des canaux variés), « documenter » ces données (enregistrement structuré et traçable), et « analyser activement » ces données (traitement permettant d'identifier tendances, anomalies, risques).

Les données proviennent de « déployeurs » (utilisateurs professionnels qui fournissent des retours d'expérience, des statistiques d'utilisation, des signalements de problèmes) et d'« autres sources » (retours directs d'utilisateurs finaux, données de logs automatiques générées par le système, analyses de médias ou de réseaux sociaux signalant des problèmes, études académiques ou rapports d'organismes indépendants, signalements d'autorités compétentes ou d'associations).

Les données portent sur « la performance du système d'IA à haut risque », notion large couvrant l'exactitude et la fiabilité des résultats (le système produit-il les résultats attendus ?), la robustesse face à des situations variées ou inattendues, la présence de biais discriminatoires non détectés lors des tests, les temps de réponse et la disponibilité, et les dysfonctionnements ou erreurs.

La surveillance se fait « tout au long de son cycle de vie », c'est-à-dire depuis la mise sur le marché jusqu'au retrait définitif du système. Cette continuité temporelle garantit que le fournisseur reste vigilant y compris sur des systèmes commercialisés depuis longtemps.

Le système « permet au fournisseur d'évaluer la conformité continue du système d'IA à haut risque aux exigences énoncées au titre III, chapitre 2 ». Le Titre III, Chapitre 2 de l'AI Act (articles 9-15) énonce les exigences essentielles : gestion des risques, qualité des données, documentation technique, transparence, surveillance humaine, exactitude, robustesse, cybersécurité. Le système de surveillance doit permettre de vérifier que le système continue de satisfaire à ces exigences dans les conditions réelles d'utilisation.

Informations à recueillir

L'article 72, paragraphe 3, détaille « des informations pertinentes concernant » trois catégories essentielles :

Point a) Volume et types d'utilisation : « Le volume et les types d'utilisation du système d'IA. » Ces statistiques permettent de comprendre comment le système est réellement utilisé : nombre d'utilisations (transactions, requêtes, analyses effectuées), nombre d'utilisateurs ou de déployeurs, répartition géographique des utilisations, secteurs d'activité des utilisateurs, cas d'usage effectifs (correspondent-ils à la finalité prévue ?), et évolution des utilisations dans le temps. Cette information contextualise les autres données de surveillance : un dysfonctionnement rare sur un système peu utilisé n'a pas la même gravité qu'un dysfonctionnement fréquent sur un système massivement déployé.

Point b) Dysfonctionnements et défaillances : « La fréquence et les types de dysfonctionnements et de défaillances du système d'IA. » Les « dysfonctionnements » sont des comportements anormaux du système ne produisant pas les résultats attendus (erreurs de classification, biais discriminatoires, résultats incohérents, temps de réponse excessifs). Les « défaillances » sont des arrêts ou pannes du système (crashes, indisponibilités, corruptions de données). La collecte de ces informations permet d'identifier les problèmes récurrents nécessitant des corrections, d'évaluer la fiabilité globale du système, de comparer les performances réelles aux performances anticipées, et de détecter des dégradations progressives de performance.

Point c) Risques graves et incidents graves : « Tout risque grave ou incident grave survenant en lien avec le système d'IA. » Les « risques graves » sont des situations où le système présente un danger potentiel pour la santé, la sécurité, ou les droits fondamentaux, même si aucun dommage n'est encore survenu. Les « incidents graves » sont des événements où un dommage effectif s'est produit (atteinte à la santé, violation de droits fondamentaux, discriminations avérées, atteintes à la sécurité). Cette collecte est essentielle car ces situations déclenchent des obligations de signalement aux autorités (article 73) et nécessitent des mesures correctrices immédiates.

Proportionnalité et intégration aux systèmes existants

L'article 72, paragraphe 4, réitère que « le système de surveillance après la mise sur le marché est proportionné à la nature des technologies d'intelligence artificielle et aux risques du système d'IA à haut risque », reprenant le principe énoncé au paragraphe 1. Cette répétition souligne l'importance de la proportionnalité, évitant que l'obligation ne devienne une charge excessive pour certains fournisseurs.

Le paragraphe 4 ajoute que le système de surveillance « peut être intégré aux systèmes de gestion de la qualité existants du fournisseur ». Cette disposition pragmatique reconnaît que de nombreux fournisseurs, notamment dans des secteurs régulés (santé, automobile, aéronautique), disposent déjà de systèmes de gestion de la qualité et de surveillance après commercialisation pour leurs produits. Plutôt que de créer un système parallèle dédié à l'IA, les fournisseurs peuvent intégrer les exigences spécifiques de l'AI Act dans leurs processus existants, à condition que ceux-ci couvrent les éléments requis par l'article 72.

Cette intégration facilite la mise en conformité pour les acteurs matures disposant déjà d'une culture de surveillance continue, et encourage les synergies entre différentes obligations réglementaires (AI Act, règlements sectoriels, normes ISO de qualité).

Lien avec le système de gestion des risques

L'article 72, paragraphe 5, impose que « les informations recueillies dans le cadre de la surveillance après la mise sur le marché sont prises en compte par le fournisseur pour la mise à jour du système de gestion des risques visé à l'article 9 ». Cette disposition crée un lien essentiel entre surveillance et gestion des risques, garantissant que le système de gestion des risques ne reste pas figé mais évolue en fonction des retours d'expérience.

L'article 9 de l'AI Act impose aux fournisseurs de systèmes d'IA à haut risque d'établir et de maintenir un système de gestion des risques identifiant les risques potentiels, évaluant leur probabilité et leur gravité, et définissant des mesures d'atténuation. Les informations de surveillance après commercialisation permettent de valider ou d'infirmer les hypothèses de risques initiales (certains risques anticipés ne se matérialisent pas, d'autres non anticipés apparaissent), d'actualiser les évaluations de probabilité et de gravité en fonction des données réelles, de renforcer les mesures d'atténuation si elles s'avèrent insuffisantes, et d'identifier de nouveaux risques émergents nécessitant une attention.

Cette boucle de rétroaction (surveillance → analyse → mise à jour des risques → amélioration du système) constitue le cœur d'une approche dynamique de gestion des risques, essentielle pour les systèmes d'IA dont les comportements peuvent évoluer dans le temps et dont les risques ne sont pas tous prévisibles ex ante.

Exemples concrets d'application

Exemple concret d'application de l'article 72 de l'AI Act

Mise en place d'un système de surveillance après commercialisation pour un système d'IA de recrutement

Contexte :

« TalentAI », une PME française de 50 employés, développe et commercialise « SmartHire », un système d'IA à haut risque (Annexe III, point 4) permettant aux entreprises de trier et de présélectionner automatiquement des candidatures sur la base de CV et de lettres de motivation. Le système est utilisé par 200 entreprises clientes en France, Allemagne, et Espagne, traitant environ 50000 candidatures par mois.

1. Établissement du système de surveillance (paragraphes 1, 4) :

En juillet 2026, avant la mise sur le marché conforme à l'AI Act, TalentAI établit et documente son système de surveillance après commercialisation conformément à l'article 72.

Document « Plan de surveillance après commercialisation de SmartHire » (30 pages) :

1.1. Objectifs :
- Assurer la conformité continue de SmartHire aux exigences de l'AI Act (articles 9-15)
- Détecter précocement dysfonctionnements, biais, ou risques
- Alimenter l'amélioration continue du système
- Satisfaire aux obligations de l'article 72

1.2. Organisation et responsabilités :
- Responsable surveillance : Directrice Produit (Marie D.)
- Équipe dédiée : 1 data analyst, 1 juriste conformité, 1 ingénieur IA
- Comité de revue trimestriel : Direction générale + Responsables Produit, R&D, Juridique
- Budget annuel : 80 000 € (salaires, outils, audits externes si nécessaire)

1.3. Sources de données (paragraphe 2) :

a) Données fournies par les déployeurs :
- Questionnaire de satisfaction trimestriel envoyé aux 200 clients
- Formulaire de signalement de problèmes accessible dans l'interface SmartHire
- Entretiens annuels avec 20 clients pilotes pour retours qualitatifs approfondis

b) Données automatiques collectées par le système :
- Logs d'utilisation : volume de CV traités, nombre d'utilisateurs actifs, temps de traitement
- Logs d'erreurs : crashs, timeouts, erreurs de traitement
- Statistiques de performance : taux de recommandation, taux d'acceptation des recommandations par les recruteurs

c) Autres sources :
- Veille médiatique et réseaux sociaux (recherche mensuelle « SmartHire » + « biais » / « discrimination »)
- Signalements reçus via l'adresse conformite@talentai.fr
- Rapports d'autorités compétentes ou d'associations si reçus

1.4. Informations recueillies (paragraphe 3) :

a) Volume et types d'utilisation :
- Nombre de CV traités par mois (total et par client)
- Nombre de clients actifs
- Répartition par secteur d'activité des clients
- Répartition géographique (France, Allemagne, Espagne)
- Types de postes recrutés (technique, commercial, administratif, etc.)

b) Dysfonctionnements et défaillances :
- Nombre et types d'erreurs techniques (crashs, indisponibilités)
- Cas de recommandations manifestement inadéquates signalées par clients
- Écarts significatifs entre performances attendues et performances réelles
- Biais détectés (surreprésentation ou sous-représentation de certaines catégories de candidats)

c) Risques graves et incidents graves :
- Signalements de discrimination (par candidats, clients, associations)
- Violations de données personnelles
- Utilisations détournées du système
- Tout incident pouvant entraîner une atteinte aux droits fondamentaux

1.5. Modalités d'analyse (paragraphe 2) :
- Analyse automatisée mensuelle des logs (détection d'anomalies statistiques)
- Revue manuelle trimestrielle des feedbacks clients et signalements
- Tests de biais trimestriels : analyse des recommandations sur échantillon de 1000 CV fictifs représentant diversité (genre, origine, âge)
- Audit externe annuel par cabinet spécialisé en IA éthique

1.6. Proportionnalité (paragraphes 1, 4) :

TalentAI justifie la proportionnalité de son système :
- Risque modéré à élevé : Le système peut entraîner des discriminations, mais ne présente pas de risque pour la santé/sécurité physique
- Échelle moyenne : 200 clients, 50000 CV/mois (ni micro-déploiement ni déploiement massif)
- Système relativement statique : pas d'apprentissage continu en production (modèle réentraîné tous les 6 mois hors production)
→ Surveillance proportionnée : revues trimestrielles, tests de biais réguliers, équipe dédiée de 3 personnes, mais pas de surveillance temps réel ni d'équipe de 20 personnes

2. Fonctionnement en pratique (année 1 : août 2026 - août 2027) :

Août-octobre 2026 (Trimestre 1) :

Collecte :
- 45000 CV traités sur la période
- 180 clients actifs
- 3 signalements de bugs mineurs (résolvables rapidement)
- Questionnaire satisfaction : 85% des clients satisfaits
- Aucun signalement de discrimination

Analyse :
- Test de biais : RAS, performances en ligne avec les tests de pré-commercialisation
- Revue trimestrielle : Comité conclut que système fonctionne conformément aux attentes
- Pas de mise à jour du système de gestion des risques nécessaire

Novembre 2026 - janvier 2027 (Trimestre 2) :

Collecte :
- 52000 CV traités
- 195 clients actifs
- 1 signalement problématique : Un client allemand signale que SmartHire semble systématiquement pénaliser les candidatures de femmes pour des postes d'ingénieur logiciel

Enquête immédiate :
- L'équipe de TalentAI effectue une analyse approfondie des recommandations du client
- Constat : Sur 200 candidatures (100 hommes, 100 femmes de qualifications comparables), SmartHire a recommandé 75 hommes et 25 femmes
- Investigation technique : Le biais provient des données d'entraînement du modèle (historique de recrutements où les ingénieurs étaient majoritairement des hommes, créant un biais implicite)

Actions correctrices :
- Suspension immédiate de l'utilisation de SmartHire pour ce type de poste chez ce client
- Analyse étendue : Tests sur tous les clients pour le même type de poste → Confirmation du biais généralisé
- Décision : Réentraînement du modèle avec données équilibrées et techniques de débiaisage renforcées
- Information de tous les clients concernés (50 entreprises) et recommandation de suspendre temporairement l'utilisation pour ce type de poste

3. Mise à jour du système de gestion des risques (paragraphe 5) :

En janvier 2027, TalentAI met à jour son système de gestion des risques (article 9) sur la base des informations de surveillance :

Révision du risque « Biais de genre » :
- Évaluation initiale (pré-commercialisation) : Probabilité Faible / Gravité Élevée (si survient) → Risque Modéré
- Évaluation révisée (post-surveillance) : Probabilité Moyenne (confirmé par données réelles) / Gravité Élevée → Risque Élevé
- Mesures d'atténuation renforcées :
* Réentraînement du modèle avec techniques de débiaisage avancées
* Tests de biais mensuels (au lieu de trimestriels)
* Alerte automatique si déséquilibre significatif détecté
* Formation renforcée des clients sur l'utilisation responsable et la surveillance humaine

Identification d'un nouveau risque « Biais sectoriel » :
- Non identifié initialement, révélé par la surveillance
- Description : Le modèle peut présenter des biais différents selon les secteurs d'activité (tech, finance, santé, etc.)
- Probabilité Moyenne / Gravité Moyenne → Risque Modéré
- Mesures : Tests de biais sectoriels ajoutés, monitoring spécifique par secteur

4. Déploiement de la version corrigée et surveillance continue :

En mars 2027, TalentAI déploie « SmartHire v2.1 » avec modèle réentraîné et débiaisé. La surveillance après commercialisation se poursuit :

Trimestre 3 (février-avril 2027) :
- Tests de biais post-correction : Amélioration significative, écarts réduits de 80%
- Retours clients : Satisfaction maintenue, confiance restaurée
- Aucun nouveau signalement de discrimination

Trimestre 4 (mai-juillet 2027) :
- Audit externe annuel : Cabinet indépendant valide l'efficacité du système de surveillance et les corrections apportées
- Rapport annuel de surveillance rédigé et conservé dans la documentation technique
- Bilan présenté au conseil d'administration : Le système de surveillance a permis de détecter et corriger un biais significatif avant qu'il ne cause des dommages importants ou des sanctions réglementaires

5. Valeur ajoutée du système de surveillance :

Pour TalentAI :
- Détection précoce d'un problème évitant potentiellement des plaintes, des sanctions (jusqu'à 15M€ ou 3% CA), et des dommages réputationnels majeurs
- Amélioration continue du produit fondée sur données réelles
- Confiance renforcée des clients (transparence sur la gestion des problèmes)
- Conformité démontrée à l'article 72 lors de contrôles éventuels

Pour les clients et candidats :
- Protection renforcée contre les discriminations
- Système d'IA plus fiable et équitable
- Recours effectif en cas de problème (signalements pris au sérieux)

Cet exemple illustre comment un système de surveillance après commercialisation, établi conformément à l'article 72, fonctionne concrètement pour détecter des problèmes réels, déclencher des mesures correctrices, alimenter la gestion des risques, et assurer la conformité continue d'un système d'IA à haut risque tout au long de son cycle de vie.

Articulation avec les autres dispositions de l'AI Act

L'article 72 s'articule étroitement avec l'article 9 sur le système de gestion des risques : les informations de surveillance alimentent la mise à jour des analyses de risques (paragraphe 5), créant une boucle de rétroaction essentielle pour une gestion dynamique des risques. Les deux articles forment ensemble le cœur de l'approche proactive de sécurité de l'AI Act.

L'article 72 s'articule également avec l'article 73 sur le signalement des incidents graves : le système de surveillance après commercialisation constitue le mécanisme permettant de détecter les incidents graves qui doivent être signalés aux autorités. Sans surveillance effective, les fournisseurs ne pourraient pas remplir leur obligation de signalement.

L'article 72 complète les exigences de documentation technique (article 11) : le plan de surveillance après commercialisation fait partie de la documentation technique à fournir, et les données collectées par la surveillance alimentent la mise à jour de cette documentation.

Pour les systèmes d'IA constituant des composants de sûreté de produits régulés (dispositifs médicaux, véhicules, etc.), l'article 72 s'articule avec les obligations de vigilance post-commercialisation prévues par les législations sectorielles. Les fournisseurs peuvent intégrer les deux ensembles d'exigences dans un système de surveillance unifié (paragraphe 4).

Implications pratiques pour les organisations

Pour les fournisseurs de systèmes d'IA à haut risque, l'article 72 impose une obligation structurante : la mise en place d'un système de surveillance après commercialisation représente un investissement en ressources humaines (personnel dédié à la collecte, à l'analyse des données, à la coordination avec les déployeurs), en outils techniques (systèmes de logs, plateformes d'analyse de données, outils de détection d'anomalies), et en processus organisationnels (procédures de collecte, comités de revue, processus de décision sur les mesures correctrices).

Cette obligation ne doit pas être perçue uniquement comme une charge réglementaire, mais comme une opportunité d'amélioration continue : les données de surveillance sont précieuses pour identifier les forces et faiblesses des systèmes, guider les priorités de R&D, renforcer la confiance des clients, et anticiper les problèmes avant qu'ils ne causent des dommages. Les fournisseurs matures intègrent la surveillance après commercialisation dans leur culture produit, en faisant un avantage compétitif.

Pour les PME et les startups disposant de ressources limitées, l'article 72 impose de concevoir des systèmes de surveillance proportionnés mais effectifs. Des solutions pragmatiques existent : automatisation maximale de la collecte de données (logs automatiques), utilisation d'outils open source ou de SaaS pour l'analyse, externalisation de certaines analyses (audits externes périodiques plutôt qu'équipe interne permanente), et mutualisation via des associations professionnelles ou des plateformes sectorielles.

Pour les déployeurs, l'article 72 implique indirectement une obligation de coopération avec les fournisseurs : en fournissant des retours d'expérience, des statistiques d'utilisation, et des signalements de problèmes, les déployeurs contribuent à l'amélioration des systèmes et à la protection collective. Cette coopération devrait être formalisée dans les contrats entre fournisseurs et déployeurs.

L'article 72 de l'AI Act établit l'obligation de surveillance après commercialisation comme pilier essentiel de la conformité continue des systèmes d'IA à haut risque. En imposant aux fournisseurs de collecter, documenter, et analyser activement des données sur la performance réelle de leurs systèmes tout au long de leur cycle de vie, cet article reconnaît que la sécurité et la conformité de l'IA ne peuvent être garanties uniquement lors de la commercialisation initiale, mais nécessitent une vigilance permanente.

Le système de surveillance après commercialisation constitue un mécanisme proactif de détection précoce des problèmes, permettant aux fournisseurs d'intervenir avant que des dommages significatifs ne surviennent. Il alimente la gestion dynamique des risques, garantissant que les analyses de risques évoluent en fonction des retours d'expérience plutôt que de rester figées. Il contribue également à l'amélioration continue des systèmes, favorisant le progrès technologique responsable.

Pour les organisations, l'article 72 souligne l'importance d'une culture de responsabilité (accountability) et de vigilance continue. Les fournisseurs ne peuvent se décharger de leur responsabilité après la vente, mais doivent accompagner leurs systèmes tout au long de leur vie, garantissant qu'ils demeurent sûrs, performants, et respectueux des droits fondamentaux. Cette exigence, bien qu'impliquant des investissements, constitue une condition nécessaire pour mériter la confiance du public et des autorités dans le déploiement de systèmes d'IA à haut risque dans nos sociétés.