L'article 68 du Règlement (UE) 2024/1689 institue le groupe scientifique d'experts indépendants (scientific panel of independent experts), organe consultatif de la gouvernance de l'AI Act chargé d'apporter une expertise technique et scientifique de haut niveau au Bureau de l'IA et à la Commission européenne. Cette création institutionnelle reconnaît la complexité technique de l'intelligence artificielle et la nécessité pour les autorités publiques de disposer d'un conseil scientifique indépendant, objectif, et techniquement compétent pour éclairer leurs décisions sur des questions souvent très spécialisées.

Le groupe scientifique joue un rôle particulièrement stratégique dans l'évaluation des risques systémiques associés aux modèles d'IA à usage général les plus puissants. Ces modèles, de par leurs capacités étendues et leur déploiement à grande échelle, présentent des risques potentiels nouveaux et complexes (désinformation massive, utilisation malveillante, impacts sociétaux imprévisibles) nécessitant une analyse scientifique rigoureuse pour guider l'action des autorités. Le groupe scientifique constitue ainsi un maillon essentiel de la chaîne de supervision de ces technologies de pointe.

L'article 68 établit le cadre juridique du groupe scientifique, précisant sa composition (experts indépendants reconnus), ses missions (conseil scientifique et technique, évaluation des risques), et son rattachement au Bureau de l'IA. L'indépendance du groupe, garantie par la sélection d'experts reconnus et par l'absence de conflits d'intérêts, est essentielle pour assurer l'objectivité et la crédibilité de ses avis dans un domaine où les enjeux économiques et géopolitiques sont considérables.

Texte officiel de l'article 68 de l'AI Act

L'article 68 de l'AI Act dispose (extraits principaux) :

« 1. Le Bureau de l'IA met en place un groupe scientifique d'experts indépendants (ci-après dénommé "groupe scientifique") pour conseiller et soutenir le Bureau de l'IA et la Commission dans leurs activités au titre du présent règlement.

2. Le groupe scientifique est composé d'experts indépendants sélectionnés par le Bureau de l'IA sur la base de leur expertise scientifique ou technique de haut niveau dans le domaine de l'intelligence artificielle.

3. Le groupe scientifique conseille et assiste le Bureau de l'IA et la Commission, notamment dans les domaines suivants :

a) l'évaluation des risques systémiques des modèles d'IA à usage général, notamment des modèles présentant des risques systémiques ;

b) le soutien à l'élaboration de lignes directrices, de codes de conduite et d'autres outils destinés à faciliter la mise en œuvre du présent règlement ;

c) le conseil sur des questions techniques ou scientifiques complexes relatives à la mise en œuvre du présent règlement. »

« 4. Les membres du groupe scientifique exercent leurs fonctions en toute indépendance et objectivité et ne sollicitent ni n'acceptent d'instructions. »

« 5. Les membres du groupe scientifique sont soumis à une obligation de confidentialité en ce qui concerne les informations confidentielles dont ils ont connaissance dans l'exercice de leurs fonctions. »

Cet article institue donc le groupe scientifique comme organe d'expertise indépendante, définit sa composition (experts reconnus sélectionnés par le Bureau de l'IA), précise ses missions (évaluation des risques systémiques, soutien à l'élaboration d'outils, conseil technique), et établit les garanties d'indépendance et de confidentialité.

Analyse juridique de l'article 68

Institution et rattachement au Bureau de l'IA

L'article 68, paragraphe 1, prévoit que « le Bureau de l'IA met en place un groupe scientifique d'experts indépendants ». Cette formulation signifie que le groupe est créé et organisé par le Bureau de l'IA, constituant un organe consultatif rattaché au Bureau plutôt qu'une structure institutionnelle autonome. Ce rattachement garantit une proximité opérationnelle entre le Bureau (autorité de mise en œuvre) et le groupe scientifique (source d'expertise), facilitant la réactivité et l'efficacité du conseil.

Le groupe est institué « pour conseiller et soutenir le Bureau de l'IA et la Commission dans leurs activités au titre du présent règlement ». Cette double adresse (Bureau et Commission) reflète la complémentarité institutionnelle : le Bureau, intégré à la Commission, exerce les missions opérationnelles de mise en œuvre, tandis que la Commission dispose de responsabilités plus larges (élaboration d'actes délégués et d'exécution, orientations générales, représentation internationale). Le groupe scientifique apporte son expertise aux deux niveaux.

La mise en place du groupe par le Bureau implique que celui-ci définit les modalités pratiques de fonctionnement (nombre de membres, modalités de sélection, durée des mandats, fréquence des réunions, règlement intérieur, etc.), sous réserve du respect du cadre établi par l'article 68 et potentiellement d'actes d'exécution de la Commission précisant certains aspects.

Composition et sélection des experts

L'article 68, paragraphe 2, précise que « le groupe scientifique est composé d'experts indépendants sélectionnés par le Bureau de l'IA sur la base de leur expertise scientifique ou technique de haut niveau dans le domaine de l'intelligence artificielle ». Cette disposition établit trois exigences cumulatives pour les membres : indépendance, expertise de haut niveau, et spécialisation en IA.

L'« indépendance » signifie que les experts ne doivent pas être dans une situation de conflit d'intérêts compromettant l'objectivité de leur conseil. Ils ne doivent pas représenter d'intérêts particuliers (entreprises, lobbies, États) et doivent pouvoir exercer leur expertise de manière impartiale. En pratique, le Bureau mettra vraisemblablement en place des procédures de déclaration d'intérêts et d'évaluation des conflits potentiels, excluant par exemple les personnes occupant des positions dirigeantes dans des entreprises développant des systèmes d'IA ou ayant des liens financiers substantiels avec de telles entreprises.

L'« expertise scientifique ou technique de haut niveau » implique que les membres disposent de qualifications académiques reconnues (doctorats en informatique, IA, sciences cognitives, etc.), de publications scientifiques dans des revues de référence, de contributions significatives au progrès des connaissances en IA, et d'une reconnaissance par leurs pairs dans la communauté scientifique. Cette exigence garantit que le groupe dispose de l'autorité intellectuelle et de la compétence nécessaires pour traiter de questions techniques très complexes.

Le « domaine de l'intelligence artificielle » est entendu largement, couvrant l'apprentissage automatique (machine learning), l'apprentissage profond (deep learning), le traitement du langage naturel, la vision par ordinateur, les systèmes multi-agents, l'IA symbolique, l'éthique de l'IA, la sécurité et la robustesse des systèmes d'IA, et d'autres sous-domaines pertinents. La composition du groupe devrait refléter cette diversité pour garantir une couverture étendue des enjeux.

La « sélection par le Bureau de l'IA » implique que celui-ci lance vraisemblablement un appel public à candidatures, examine les dossiers, évalue les qualifications et l'indépendance des candidats, et nomme les membres en veillant à la diversité disciplinaire, géographique (représentation de différents États membres), et de genre. Cette sélection pourrait être validée ou avisée par le Comité européen de l'IA pour renforcer la légitimité.

Évaluation des risques systémiques des modèles d'IA

L'article 68, paragraphe 3, point a), confie au groupe scientifique la mission de conseiller sur « l'évaluation des risques systémiques des modèles d'IA à usage général, notamment des modèles présentant des risques systémiques ». Cette mission est au cœur du rôle stratégique du groupe dans la supervision des technologies d'IA les plus avancées.

Les « risques systémiques » sont définis à l'article 3, point 66, de l'AI Act comme des risques spécifiques aux modèles d'IA à usage général à fortes capacités, ayant un impact significatif sur le marché de l'Union en raison de leur portée, et pouvant causer des dommages graves sur la sécurité publique, les droits fondamentaux, ou la démocratie. Ces risques incluent notamment la diffusion à grande échelle de contenus illicites ou trompeurs, les cyberattaques facilitées par des capacités d'IA avancées, la perte de contrôle sur des systèmes autonomes, ou les impacts sociétaux imprévisibles.

L'évaluation de tels risques nécessite une expertise scientifique et technique pointue : compréhension approfondie des architectures de modèles (transformers, réseaux de neurones profonds, etc.), capacité d'évaluation des performances et des limitations, analyse des risques d'utilisation malveillante (dual-use), évaluation de la robustesse face aux attaques adversariales, compréhension des effets d'échelle (scaling laws) et de leurs implications, et capacité de prospective sur les évolutions technologiques.

Le groupe scientifique apporte cette expertise au Bureau de l'IA pour l'aider à déterminer quels modèles présentent des risques systémiques (qualification déclenchant des obligations renforcées pour les fournisseurs), évaluer les mesures d'atténuation proposées par les fournisseurs, identifier des risques émergents nécessitant une vigilance particulière, et conseiller sur les orientations techniques pour la supervision de ces modèles.

Soutien à l'élaboration d'outils de mise en œuvre

L'article 68, paragraphe 3, point b), confie au groupe la mission de soutenir « l'élaboration de lignes directrices, de codes de conduite et d'autres outils destinés à faciliter la mise en œuvre du présent règlement ». Cette mission inscrit le groupe comme contributeur actif à la production des instruments pratiques facilitant l'application de l'AI Act.

Les « lignes directrices » élaborées par le Bureau de l'IA, le Comité, ou la Commission peuvent bénéficier de l'apport du groupe scientifique pour leurs aspects techniques : critères d'évaluation de la robustesse, méthodologies de test, bonnes pratiques d'entraînement de modèles, ou mesures de cybersécurité. Le groupe garantit que ces lignes directrices reflètent l'état de l'art scientifique et sont techniquement pertinentes.

Les « codes de conduite » volontaires, prévus notamment à l'article 95 de l'AI Act pour les systèmes non à haut risque, peuvent également bénéficier du conseil du groupe scientifique pour garantir qu'ils correspondent aux meilleures pratiques techniques et scientifiques.

Les « autres outils » peuvent inclure des méthodologies d'évaluation des risques, des benchmarks de performance, des jeux de données de test (pour évaluer la non-discrimination, la robustesse), ou des frameworks techniques de conformité. Le soutien du groupe garantit la rigueur scientifique de ces outils.

Conseil sur questions techniques ou scientifiques complexes

L'article 68, paragraphe 3, point c), confie au groupe la mission de conseiller « sur des questions techniques ou scientifiques complexes relatives à la mise en œuvre du présent règlement ». Cette mission résiduelle et générale permet au Bureau et à la Commission de solliciter le groupe sur toute question nécessitant une expertise scientifique approfondie.

Ces questions peuvent inclure l'évaluation de nouvelles architectures ou paradigmes d'IA nécessitant une adaptation des approches de supervision, l'analyse d'incidents graves impliquant des systèmes d'IA pour en comprendre les causes techniques, l'évaluation de la faisabilité technique de certaines exigences réglementaires, le conseil sur l'articulation entre exigences réglementaires et état de l'art scientifique, ou la prospective sur les évolutions technologiques et leurs implications réglementaires.

Cette mission « conseil général » garantit que le groupe peut être mobilisé de manière flexible et réactive face aux enjeux émergents, sans être limité à des domaines prédéfinis.

Garanties d'indépendance et d'objectivité

L'article 68, paragraphe 4, établit que « les membres du groupe scientifique exercent leurs fonctions en toute indépendance et objectivité et ne sollicitent ni n'acceptent d'instructions ». Cette disposition garantit l'intégrité scientifique du conseil fourni par le groupe.

« En toute indépendance et objectivité » signifie que les membres fondent leurs avis et recommandations uniquement sur l'analyse scientifique et technique, sans considération d'intérêts politiques, économiques, ou autres. Ils ne représentent pas d'intérêts particuliers mais apportent leur expertise de manière impartiale.

« Ne sollicitent ni n'acceptent d'instructions » signifie que les membres ne peuvent être contraints ou influencés par des pressions externes (entreprises, États, lobbies, ou même la Commission ou le Bureau). Leurs avis reflètent exclusivement leur jugement scientifique indépendant. Cette garantie est essentielle pour la crédibilité du groupe dans un contexte où les enjeux économiques et géopolitiques de l'IA sont considérables.

En pratique, cette indépendance est garantie par la sélection d'experts reconnus disposant d'une réputation à préserver, les déclarations d'intérêts et l'évaluation des conflits potentiels, des mandats de durée limitée évitant la « capture » progressive, et la possibilité de publier des avis dissidents si un membre n'est pas d'accord avec la majorité (préservant la pluralité des perspectives scientifiques).

Obligation de confidentialité

L'article 68, paragraphe 5, soumet les membres du groupe à « une obligation de confidentialité en ce qui concerne les informations confidentielles dont ils ont connaissance dans l'exercice de leurs fonctions ». Cette obligation est nécessaire car les membres peuvent avoir accès à des informations sensibles : détails techniques de modèles d'IA propriétaires, informations commercialement sensibles des fournisseurs, analyses de vulnérabilités de sécurité, ou données personnelles.

L'obligation s'applique aux « informations confidentielles », c'est-à-dire celles qui sont désignées comme telles par les fournisseurs ou qui sont par nature sensibles (secrets d'affaires, données personnelles, informations de sécurité). Les membres doivent s'abstenir de divulguer ces informations à des tiers, de les utiliser à des fins autres que leur mission au sein du groupe, et de les exploiter pour un avantage personnel ou professionnel.

Cette obligation de confidentialité, combinée avec l'exigence d'indépendance, crée un équilibre : le groupe dispose de l'accès aux informations nécessaires pour évaluer efficacement les risques et conseiller les autorités, tout en protégeant les intérêts légitimes des fournisseurs et en garantissant l'intégrité du processus.

Exemples concrets d'application

Exemple concret d'application de l'article 68 de l'AI Act

Évaluation d'un grand modèle de langage par le groupe scientifique

Constitution du groupe scientifique (paragraphes 1-2, 4-5) :

En septembre 2025, le Bureau de l'IA met en place le groupe scientifique d'experts indépendants. Après un appel public à candidatures et un processus de sélection rigoureux, 15 experts sont nommés pour un mandat de 3 ans :

- 5 professeurs d'université spécialisés en apprentissage automatique et apprentissage profond (France, Allemagne, Pays-Bas, Italie, Suède)
- 3 chercheurs de laboratoires publics spécialisés en IA (INRIA, Fraunhofer, CSIC)
- 2 experts en éthique et gouvernance de l'IA (Royaume-Uni, Belgique)
- 2 spécialistes en sécurité et robustesse des systèmes d'IA (Finlande, Autriche)
- 2 experts en traitement du langage naturel (Espagne, Danemark)
- 1 expert en vision par ordinateur (Pologne)

Tous ont signé des déclarations d'intérêts attestant de l'absence de conflits (pas de positions dirigeantes dans l'industrie, pas de participations financières substantielles, pas de contrats de conseil récents avec de grands acteurs de l'IA) et des engagements de confidentialité.

Le groupe élit un président (professeur d'université français spécialisé en apprentissage profond) et adopte son règlement intérieur.

Contexte - Demande d'évaluation par le Bureau de l'IA (paragraphe 3, point a) :

En janvier 2026, « TechAI Europe », une grande entreprise européenne, lance « EuroGPT-Large », un modèle de langage de 150 milliards de paramètres destiné à un usage général (génération de texte, traduction, résumé, code, etc.). Le modèle est mis à disposition via API et utilisé par des milliers d'entreprises et développeurs.

Le Bureau de l'IA, dans le cadre de sa mission de supervision des modèles d'IA à usage général (article 64), doit déterminer si EuroGPT-Large présente des « risques systémiques » au sens de l'article 3, point 66, et de l'article 51, déclenchant des obligations renforcées pour TechAI Europe (article 55). Pour éclairer cette décision, le Bureau sollicite formellement le groupe scientifique conformément à l'article 68.

Demande d'informations à TechAI Europe :

Le Bureau de l'IA demande à TechAI Europe de fournir au groupe scientifique :
- Documentation technique complète du modèle (architecture, données d'entraînement, hyperparamètres, processus de fine-tuning)
- Résultats d'évaluations de performance sur benchmarks standardisés
- Analyses de risques effectuées par l'entreprise
- Mesures de sécurité et d'atténuation des risques mises en place
- Statistiques d'utilisation (nombre d'utilisateurs, volumes d'utilisation, principaux cas d'usage)
- Incidents ou utilisations problématiques signalés

TechAI Europe fournit ces informations sous couverture de confidentialité (secrets d'affaires), conformément à l'article 78 de l'AI Act. Les membres du groupe scientifique signent des engagements de confidentialité spécifiques (paragraphe 5).

Travaux d'évaluation du groupe scientifique (paragraphes 3-4) :

Entre février et avril 2026, le groupe scientifique mène une évaluation approfondie :

1. Analyse technique du modèle :
- Examen de l'architecture (transformer de dernière génération, 150 milliards de paramètres)
- Analyse des données d'entraînement (corpus de 2 trillions de tokens incluant textes web, livres, codes, conversations)
- Évaluation des performances sur benchmarks : compréhension du langage naturel (GLUE, SuperGLUE), génération de code (HumanEval), raisonnement logique (HellaSwag, ARC), connaissances générales (MMLU)
- Résultat : Performances de pointe, au niveau ou supérieures aux meilleurs modèles mondiaux

2. Évaluation des risques potentiels :

Le groupe identifie plusieurs catégories de risques systémiques potentiels :

a) Risque de désinformation à grande échelle :
- Le modèle peut générer des textes très convaincants et personnalisés à grande échelle
- Risque d'utilisation pour créer de faux articles de presse, de fausses déclarations publiques, des campagnes de manipulation d'opinion
- Tests du groupe : Génération de 1000 faux articles dans différents styles journalistiques - taux de détection humaine : 45% seulement
- Évaluation : Risque significatif

b) Risque de génération de contenus illicites ou nuisibles :
- Le modèle, malgré les garde-fous (safety measures), peut être contourné pour générer du contenu haineux, violent, ou dangereux
- Tests du groupe (red teaming) : Techniques de jailbreak testées - taux de réussite pour générer du contenu problématique : 15%
- Évaluation : Risque modéré (mesures de sécurité partiellement efficaces mais perfectibles)

c) Risque de facilitation de cyberattaques :
- Le modèle peut générer du code malveillant, aider à identifier des vulnérabilités, créer des messages de phishing sophistiqués
- Tests du groupe : Génération de code d'exploitation de vulnérabilités connues - succès dans 70% des cas
- Évaluation : Risque élevé

d) Risque de biais et de discrimination :
- Analyse des biais du modèle sur des dimensions sensibles (genre, origine ethnique, religion, etc.)
- Tests sur tâches de classification et de génération : Biais mesurables mais relativement contenus par rapport à d'autres modèles
- Évaluation : Risque modéré

e) Risque de dépendance et de concentration :
- L'adoption massive d'un modèle centralisé crée des risques de point de défaillance unique, de perte de souveraineté technologique
- Statistiques : 15000 utilisateurs entreprises, 500000 utilisateurs individuels en 1 mois
- Évaluation : Risque croissant si la concentration s'accentue

3. Évaluation des mesures d'atténuation de TechAI Europe :

Le groupe examine les mesures de sécurité et d'atténuation mises en place :
- Filtres de contenu en sortie (détection de contenus problématiques)
- Fine-tuning avec retour humain (RLHF) pour aligner le modèle sur valeurs souhaitables
- Limitations de débit (rate limits) pour prévenir l'utilisation massive
- Monitoring et détection d'utilisations anormales
- Équipe de sécurité dédiée et processus de réponse aux incidents

Évaluation du groupe : Mesures globalement appropriées mais perfectibles (notamment détection de jailbreak, robustesse des filtres).

4. Conclusion et recommandations du groupe :

En avril 2026, le groupe scientifique remet au Bureau de l'IA un rapport de 80 pages (version confidentielle détaillée) et un résumé de 10 pages (version publique anonymisée).

Conclusion principale :

« Le modèle EuroGPT-Large présente des risques systémiques au sens de l'article 3, point 66, et de l'article 51 de l'AI Act en raison de :
- Ses capacités élevées (150 milliards de paramètres, performances de pointe)
- Son impact significatif (adoption rapide, usage par des milliers d'utilisateurs)
- Les risques identifiés de désinformation, de génération de contenus nuisibles, et de facilitation de cyberattaques

Le groupe scientifique recommande que le Bureau de l'IA qualifie ce modèle de "modèle d'IA à usage général présentant des risques systémiques", déclenchant les obligations renforcées de l'article 55. »

Recommandations spécifiques au Bureau de l'IA :

1. Exiger de TechAI Europe le renforcement des mesures de détection de jailbreak et des filtres de contenu
2. Imposer des tests contradictoires (adversarial testing) réguliers par des équipes indépendantes
3. Surveiller attentivement l'utilisation pour détecter des campagnes de désinformation ou d'utilisation malveillante
4. Exiger des rapports trimestriels sur les incidents et les mesures d'amélioration
5. Encourager TechAI Europe à contribuer au développement de normes de sécurité pour les grands modèles de langage

Recommandations générales pour la régulation des modèles similaires :

1. Développer des protocoles standardisés d'évaluation des risques systémiques
2. Créer des benchmarks publics pour mesurer les risques de désinformation, de génération de contenus nuisibles
3. Faciliter la recherche académique sur la sécurité des grands modèles de langage (accès contrôlé pour chercheurs)
4. Promouvoir le partage d'informations entre fournisseurs sur les techniques de jailbreak et les contre-mesures

Décision du Bureau de l'IA :

En mai 2026, sur la base du rapport du groupe scientifique, le Bureau de l'IA :
- Qualifie formellement EuroGPT-Large de modèle présentant des risques systémiques
- Notifie à TechAI Europe les obligations renforcées de l'article 55 (évaluation des modèles, évaluation et atténuation des risques systémiques, tests contradictoires, suivi des incidents graves, cybersécurité, reporting)
- Donne à TechAI Europe 6 mois pour se conformer pleinement
- Publie un résumé anonymisé du rapport du groupe scientifique pour informer l'écosystème

Suivi par le groupe scientifique :

Le groupe scientifique continue de conseiller le Bureau sur le suivi de TechAI Europe et d'autres fournisseurs de modèles à risques systémiques, contribuant ainsi à l'émergence d'une supervision scientifiquement rigoureuse et techniquement compétente des technologies d'IA les plus avancées.

Cet exemple illustre comment le groupe scientifique, institué par l'article 68, exerce sa mission d'expertise indépendante pour évaluer les risques systémiques des modèles d'IA à usage général, conseiller le Bureau de l'IA sur des questions techniques complexes, et contribuer au développement d'une régulation de l'IA informée scientifiquement, rigoureuse, et adaptée aux réalités technologiques.

Articulation avec les autres dispositions de l'AI Act

L'article 68 s'inscrit dans l'architecture de gouvernance établie par le Titre VII de l'AI Act, aux côtés du Bureau de l'IA (article 64), du Comité européen de l'IA (articles 65-66), et du Forum consultatif (article 67). Le groupe scientifique complète ces organes en apportant une expertise technique et scientifique de haut niveau, indépendante et objective, garantissant que les décisions réglementaires soient informées par l'état de l'art scientifique.

Le groupe scientifique joue un rôle particulièrement important dans la mise en œuvre du Chapitre V de l'AI Act relatif aux modèles d'IA à usage général (articles 51-56). Sa mission d'évaluation des risques systémiques (paragraphe 3, point a) est directement liée aux articles 51 et 55 qui définissent les obligations renforcées pour les modèles présentant de tels risques. Le groupe fournit l'expertise nécessaire au Bureau de l'IA pour qualifier les modèles et évaluer la conformité des fournisseurs.

Le groupe scientifique peut également être mobilisé par le Comité européen de l'IA (articles 65-66) ou le Forum consultatif (article 67) pour éclairer leurs travaux d'élaboration de lignes directrices ou d'avis. Cette articulation garantit que l'expertise scientifique irrigue tous les niveaux de la gouvernance de l'AI Act.

Les avis du groupe scientifique peuvent également informer l'élaboration de normes harmonisées (article 40) en fournissant des spécifications techniques rigoureuses et scientifiquement fondées pour les exigences de l'AI Act.

Implications pratiques pour les organisations

Pour les fournisseurs de modèles d'IA à usage général, notamment ceux développant des modèles de grande taille susceptibles d'être qualifiés à risques systémiques, l'article 68 et le groupe scientifique qu'il institue représentent une dimension importante de la supervision à laquelle ils sont soumis. Ces fournisseurs doivent se préparer à fournir au groupe scientifique, via le Bureau de l'IA, des informations techniques détaillées sur leurs modèles, leurs données d'entraînement, leurs performances, et leurs mesures de sécurité.

La qualité et la transparence de cette documentation sont essentielles : le groupe scientifique évaluera rigoureusement les risques et les mesures d'atténuation, et ses conclusions influenceront directement les décisions du Bureau (qualification de risques systémiques, exigences de conformité renforcées, mesures correctrices). Les fournisseurs ont intérêt à adopter une approche proactive et transparente, démontrant la robustesse de leurs analyses de risques et de leurs mesures de sécurité.

Pour les autres fournisseurs et déployeurs de systèmes d'IA, bien que non directement soumis à l'évaluation du groupe scientifique, les orientations, recommandations et bonnes pratiques que le groupe contribue à élaborer (paragraphe 3, points b et c) constituent des références précieuses pour guider leurs propres démarches de conformité et de gestion des risques.

Pour la communauté académique et scientifique, l'article 68 offre une opportunité de contribution directe à la régulation de l'IA en Europe. Les chercheurs de haut niveau peuvent candidater pour participer au groupe scientifique, apportant leur expertise au service de l'intérêt général. La participation au groupe représente également une reconnaissance de l'excellence scientifique et une opportunité de contribuer à l'élaboration de politiques publiques informées par la science.

L'article 68 de l'AI Act institue le groupe scientifique d'experts indépendants comme organe essentiel garantissant que la régulation européenne de l'intelligence artificielle soit informée par l'état de l'art scientifique et technique. En confiant à ce groupe des missions stratégiques d'évaluation des risques systémiques, de soutien à l'élaboration d'outils de mise en œuvre, et de conseil sur des questions complexes, l'AI Act crée un pont institutionnel entre le monde de la recherche scientifique et celui de la régulation publique.

Le groupe scientifique incarne l'approche européenne de régulation fondée sur la science (science-based regulation), reconnaissant que la complexité technique de l'IA nécessite une expertise de haut niveau pour éclairer les décisions publiques. L'indépendance et l'objectivité du groupe, garanties par les paragraphes 4 et 5 de l'article 68, sont essentielles pour assurer la crédibilité et l'autorité de ses avis dans un domaine où les enjeux économiques, géopolitiques et sociétaux sont considérables.

Pour les organisations, le groupe scientifique représente à la fois un acteur de supervision techniquement compétent et une source d'orientation scientifiquement rigoureuse. En anticipant les perspectives et les attentes du groupe, en contribuant au développement de l'expertise collective européenne sur l'IA, et en adoptant des approches de gestion des risques alignées sur l'état de l'art scientifique, les acteurs de l'écosystème IA contribuent à l'émergence d'une régulation européenne de l'IA à la fois ambitieuse dans ses objectifs de protection et pragmatique dans ses modalités, fondée sur la rigueur scientifique plutôt que sur l'idéologie ou les intérêts particuliers.