L'article 81 du Règlement (UE) 2024/1689 traite du cas particulier des systèmes d'IA qui, bien que conformes aux exigences du règlement, présentent néanmoins un risque pour la santé, la sécurité ou les droits fondamentaux. Cette disposition reconnaît les limites inhérentes à toute réglementation face à l'évolution rapide de la technologie.

Texte officiel de l'article 81 de l'AI Act (extraits)

1. Lorsqu'une autorité de surveillance du marché constate, après avoir effectué une évaluation, qu'un système d'IA, bien que conforme au présent règlement, présente un risque pour la santé ou la sécurité des personnes, pour la protection des droits fondamentaux, ou pour d'autres aspects de la protection de l'intérêt public, elle demande à l'opérateur concerné de prendre toutes les mesures appropriées.

2. Le fournisseur ou d'autres opérateurs concernés veillent à ce que des mesures correctives soient prises à l'égard de tous les systèmes d'IA concernés qu'ils ont mis à disposition sur le marché de l'Union.

3. L'État membre informe immédiatement la Commission et les autres États membres de ses conclusions et des mesures prises.

Analyse juridique

Clause de sauvegarde

L'article 81 constitue une clause de sauvegarde permettant d'agir contre des systèmes techniquement conformes mais présentant des risques imprévus. Cette disposition reconnaît que :

  • La réglementation ne peut anticiper tous les risques
  • Les technologies évoluent rapidement
  • Des usages imprévus peuvent créer des dangers
  • La protection des personnes prime sur la conformité formelle

Mesures appropriées

Les mesures peuvent inclure des modifications du système, des restrictions d'usage, des avertissements renforcés, ou le retrait du marché si nécessaire. La proportionnalité reste le principe directeur.

Portée européenne

Les mesures correctives doivent s'appliquer à tous les systèmes identiques sur le marché de l'Union, garantissant une protection uniforme des citoyens européens.

Évolution de la réglementation

Ces situations peuvent conduire à une mise à jour des exigences réglementaires ou des normes harmonisées pour prévenir la récurrence du risque identifié.

Exemple d'application

📋 Risque émergent

Un système d'IA de recommandation de contenu, conforme à toutes les exigences lors de sa mise sur le marché, s'avère contribuer à des phénomènes de radicalisation chez les jeunes utilisateurs. Bien que techniquement conforme, le système présente un risque pour les droits fondamentaux. L'autorité exige des modifications des algorithmes de recommandation et un renforcement des garde-fous pour les utilisateurs mineurs.

L'article 81 illustre l'approche pragmatique de l'AI Act : la conformité technique ne suffit pas si un risque réel existe. La protection des personnes reste l'objectif ultime, même face à des systèmes formellement conformes.