Simplification du Règlement Omnibus sur l’IA : Dates clés et principales mesures

Posted by

Décryptage de la Proposition de règlement Omnibus numérique sur l’IA

COM(2025) 836 final

Logo de la Commission européenne avec le drapeau de l'Union européenne.

Eléonore Scaramozzino, Avocate Constellation Avocats

Texte affichant 'DIGITAL OMNIBUS PACKAGE' sur un fond bleu avec des éléments graphiques en jaune.

Le 19 novembre 2025, la Commission a proposé des mesures de simplification ciblées afin de garantir une mise en œuvre rapide et proportionnée de certaines dispositions de la législation sur l’IA.

Document officiel de la proposition de règlement du Parlement européen et du Conseil sur l'intelligence artificielle, daté du 19 novembre 2025.

Cette proposition de mesures de simplification ciblées relatives au Régle ment sur l’IA s’inscrit dans le cadre plus large d’un paquet numérique sur la simplification, composé de mesures visant à réduire les coûts administratifs de mise en conformité pour les entreprises et les administrations dans l’UE, qui s’applique à plusieurs règlements de l’acquis numérique de l’UE sans compromettre les objectifs des règles sous-jacentes. La proposition s’appuie sur le règlement (UE) 2024/1689 et est alignée sur les politiques existantes visant à faire de l’UE un acteur mondial de premier plan dans le domaine de l’IA, à faire de l’UE un continent de l’IA et à promouvoir l’adoption d’une IA axée sur l’humain et digne de confiance.

1-Objectifs

Objectifs généraux

  • Renforcer le suivi et la surveillance de certaines catégories de systèmes d’IA par le Bureau de l’IA.
  • Faciliter le développement et la mise à l’essai, au niveau de l’UE, de systèmes d’IA innovants soumis à une surveillance réglementaire stricte avant que ces systèmes ne soient mis sur le marché ou mis en service d’une autre manière

Objectifs spécifiques

  • Améliorer la gouvernance et l’application effective des dispositions du règlement sur l’IA relatives aux systèmes d’IA en renforçant les pouvoirs et les procédures applicables et en prévoyant de nouvelles ressources pour le Bureau de l’IA chargé de l’application.
  • Prévoir la mise en place d’un bac à sable au niveau de l’UE, permettant des activités et des essais transfrontières.

2- Retard dans l’entrée en application du règlement sur l’IA 

2.1- Différentes étapes

Le règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle (ci-après le «règlement sur l’IA»), entré en vigueur le 1er août 2024, établit un marché unique de l’intelligence artificielle (ci-après l’«IA») digne de confiance dans l’ensemble de l’UE.

L’entrée en application du règlement sur l’IA se fait par étapes, toutes les règles entrant  en application au plus tard le 2 août 2027.

  • Les interdictions de pratiques en matière d’IA présentant des risques inacceptables et les obligations liées aux modèles d’IA à usage général sont déjà applicables.
  • Mais, la plupart des dispositions, en particulier celles régissant les systèmes d’IA à haut risque, ne commenceront à s’appliquer qu’à partir du 2 août 2026 ou du 2 août 2027.

Ces dispositions comprennent des exigences détaillées en matière de gouvernance des données, de transparence, de documentation, de contrôle humain et de robustesse, afin de garantir que les systèmes d’IA mis sur le marché de l’UE sont sûrs, transparents et fiables.

2.2-Pourquoi retarder l’application du RIA ?

L’existence de difficultés de mise en œuvre susceptibles de compromettre l’entrée en application effective de dispositions essentielles du règlement sur l’IA, notamment

  • retards dans la désignation des autorités nationales compétentes ;
    • retards dans les organismes d’évaluation de la conformité,
    •  l’absence de normes harmonisées pour les exigences applicables aux systèmes à haut risque,
    • absence des orientations et des outils de conformité du règlement sur l’IA.

risquent d’augmenter considérablement les coûts de mise en conformité pour les entreprises et les pouvoirs publics et de ralentir l’innovation.

2.3- Proposition d’application du RIA

Ligne du temps illustrant des délais réglementaires concernant les systèmes classés à haut risque, avec des dates spécifiques mises en évidence.

3-Mesures de simplification ciblées proposées

La Commission propose des mesures de simplification ciblées de certaines dispositions du règlement sur l’IA. Parmi celles-ci:

  • lier le calendrier de mise en œuvre des règles relatives aux systèmes d’IA à haut risque à la disponibilité de normes ou d’autres outils de soutien;
  • étendre aux petites entreprises à moyenne capitalisation les simplifications réglementaires accordées aux petites et moyennes entreprises (PME), y compris pour ce qui concerne les exigences simplifiées en matière de documentation technique et l’attention particulière dans l’application des sanctions;
  • exiger de la Commission et des États membres qu’ils favorisent la maîtrise de l’IA, plutôt que d’imposer de vagues obligations aux fournisseurs et aux acteurs qui déploient des systèmes d’IA à cet égard, tout en maintenant des obligations de formation pour ceux qui déploient des systèmes d’IA à haut risque;
  • offrir une plus grande souplesse dans la surveillance après commercialisation en supprimant la prescription d’un plan harmonisé de surveillance après commercialisation;
  • réduire la charge liée à l’enregistrement pour les fournisseurs de systèmes d’IA qui sont utilisés dans des domaines à haut risque mais pour lesquels le fournisseur a conclu qu’ils ne sont pas à haut risque, étant donné qu’ils ne sont utilisés que pour des tâches restreintes ou procédurales;
  • centraliser la surveillance d’un grand nombre de systèmes d’IA fondés sur des modèles d’IA à usage général ou intégrés dans de très grandes plateformes en ligne et de très grands moteurs de recherche auprès du Bureau de l’IA;
  • faciliter le respect de la législation en matière de protection des données en permettant aux fournisseurs et aux déployeurs de tous les systèmes et modèles d’IA de traiter des catégories particulières de données à caractère personnel afin d’assurer la détection et la correction des biais, avec les garanties appropriées;
  • une utilisation plus large des bacs à sable réglementaires de l’IA et des essais en conditions réelles, qui profitera à des secteurs clés en Europe, et la facilitation d’un bac à sable réglementaire de l’IA au niveau de l’UE que le Bureau de l’IA mettra en place à partir de 2028;
  •  des modifications ciblées clarifiant l’interaction entre le règlement sur l’IA et d’autres actes législatifs de l’UE et adaptant les procédures du règlement sur l’IA

4- Autres mesures supplémentaires pour faciliter le respect du règlement sur l’IA

  • Adoption de lignes directrices :
des lignes directrices  sur l’application pratique de la classification à haut risque ;
des lignes directrices  sur l’application pratique des exigences de transparence prévues à l’article 50 du règlement sur l’IA,
des orientations sur la notification des incidents graves par les fournisseurs de systèmes d’IA à haut risque;
des lignes directrices sur l’application pratique des exigences relatives aux systèmes d’IA à haut risque;
des lignes directrices sur l’application pratique des obligations incombant aux fournisseurs et aux déployeurs de systèmes d’IA à haut risque;
des lignes directrices assorties d’un modèle pour l’analyse d’impact sur les droits fondamentaux;
des lignes directrices sur l’application pratique des règles relatives aux responsabilités tout au long de la chaîne de valeur de l’IA;
des lignes directrices sur l’application pratique des dispositions relatives aux modifications substantielles;
des lignes directrices sur la surveillance après commercialisation des systèmes d’IA à haut risque
des lignes directrices sur les éléments du système de gestion de la qualité auxquels les PME et les petites entreprises à moyenne capitalisation peuvent se conformer de manière simplifiée;
des lignes directrices sur l’interaction entre le règlement sur l’IA et d’autres actes législatifs de l’Union,
des lignes directrices sur les compétences et la procédure de désignation des organismes d’évaluation de la conformité à désigner en vertu du règlement sur l’IA.
  • Adoption d’orientations sur l’application pratique des exemptions en matière de recherche prévues à l’article 2, paragraphes 6 et 8, du règlement sur l’IA, y compris sur la manière dont elles s’appliquent dans des contextes sectoriels tels que la recherche préclinique et le développement de produits dans le domaine des médicaments ou des dispositifs médicaux, sur lesquels la Commission travaillera en priorité.

5- Focus sur certaines dispositions de la proposition modifiant le RIA

5.1- Détection de biais : base juridique pour traiter « des catégories particulières de données à caractère personnel »

L’article 1er paragraphe 5 modifie le RIA en introduisant un nouvel article 4 bis, remplaçant l’article 10, paragraphe 5, du règlement sur l’IA : L’objectif est de permettre aux fournisseurs et aux déployeurs de systèmes d’IA et de modèles d’IA de traiter des catégories particulières de données à caractère personnel, à titre exceptionnel, dans la mesure nécessaire aux fins de la détection et de la correction des biais, sous réserve de certaines conditions

La base juridique est établie conformément à l’article 9, paragraphe 2, point g), du règlement (UE) 2016/679 (RGPD) et à l’article 10, paragraphe 2, point g), du règlement (UE) 2018/1725, et l’article 10, point a), de la directive (UE) 2016/680 fournit une base juridique permettant, lorsque cela est nécessaire pour détecter et éliminer les biais, le traitement de catégories particulières de données à caractère personnel par les fournisseurs et les déployeurs de tous les systèmes et modèles d’IA, sous réserve de garanties appropriées qui complètent le règlement (UE) 2016/679 (RGPD), le règlement (UE) 2018/1725 et la directive (UE) 2016/680, selon le cas.

«Article 4 bis Traitement de catégories particulières de données à caractère personnel à des fins de détection et de correction des biais   1-. Dans la mesure nécessaire à la détection et à la correction des biais en ce qui concerne les systèmes d’IA à haut risque, conformément à l’article 10, paragraphe 2, points f) et g), du présent règlement, les fournisseurs de ces systèmes peuvent exceptionnellement traiter des catégories particulières de données à caractère personnel, sous réserve de garanties appropriées pour les droits et libertés fondamentaux des personnes physiques. Outre les garanties prévues dans les règlements (UE) 2016/679 et (UE) 2018/1725 et dans la directive (UE) 2016/680, selon le cas, toutes les conditions suivantes doivent être réunies pour que ce traitement puisse avoir lieu:   a) la détection et la correction des biais ne peuvent être satisfaites de manière efficace en traitant d’autres données, y compris des données synthétiques ou anonymisées;   b) les catégories particulières de données à caractère personnel sont soumises à des limitations techniques relatives à la réutilisation des données à caractère personnel, ainsi qu’aux mesures les plus avancées en matière de sécurité et de protection de la vie privée, y compris la pseudonymisation;   c) les catégories particulières de données à caractère personnel font l’objet de mesures visant à garantir que les données à caractère personnel traitées sont sécurisées, protégées et soumises à des garanties appropriées, y compris des contrôles stricts et une documentation de l’accès, afin d’éviter toute mauvaise utilisation et de veiller à ce que seules les personnes autorisées ayant des obligations de confidentialité appropriées aient accès à ces données à caractère personnel;   d) les catégories particulières de données à caractère personnel ne sont pas transmises, transférées ou consultées d’une autre manière par d’autres parties;   e) les catégories particulières de données à caractère personnel sont supprimées une fois que le biais a été corrigé ou que la période de conservation des données à caractère personnel a expiré, selon celle de ces deux échéances qui arrive en premier;   f) les registres des activités de traitement visés dans les règlements (UE) 2016/679 et (UE) 2018/1725 et dans la directive (UE) 2016/680 comprennent les raisons pour lesquelles le traitement des catégories particulières de données à caractère personnel était nécessaire pour détecter et corriger les biais, ainsi que la raison pour laquelle cet objectif n’a pas pu être atteint par le traitement d’autres données.   2. Le paragraphe 1 peut s’appliquer aux fournisseurs et aux déployeurs d’autres systèmes et modèles d’IA et aux déployeurs de systèmes d’IA à haut risque, lorsque cela est nécessaire et proportionné, si le traitement a lieu aux fins qui y sont énoncées et pour autant que les conditions énoncées dans les garanties prévues au présent paragraphe soient remplies.»;

5.2- Suppression d’enregistrer les SIA dans la base de données

Les paragraphes 6, 14 et 32 font référence à la suppression de l’obligation pour les fournisseurs d’enregistrer les systèmes d’IA dans la base de données de l’UE pour les systèmes à haut risque au titre de l’annexe III lorsqu’ils ne sont pas considérés comme systèmes à haut risque au titre de l’article 6, paragraphe 3, du règlement sur l’IA, parce qu’ils ne sont par exemple utilisés que pour des tâches préparatoires.

  • « obligation d’enregistrer les systèmes d’IA visés à l’article 6, paragraphe 3, du règlement (UE) 2024/1689 dans la base de données de l’UE conformément à l’article 49, paragraphe 2, dudit règlement ».

Étant donné que ces systèmes ne sont pas considérés comme à haut risque dans certaines conditions dès lors qu’ils ne présentent pas de risque important de préjudice pour la santé, la sécurité ou les droits fondamentaux des personnes, l’imposition d’exigences d’enregistrement constituerait une charge disproportionnée en matière de mise en conformité.

Néanmoins, un fournisseur qui considère qu’un système d’IA relève de l’article 6, paragraphe 3, reste tenu de documenter son évaluation avant que ce système ne soit mis sur le marché ou mis en service. Cette évaluation peut être demandée par les autorités nationales compétentes.

5.3- SMQ et documentation technique adaptés aux PME

Les paragraphes 8 et 9 étendent aux petites entreprises à moyenne capitalisation les privilèges réglementaires existants du règlement sur l’IA pour les PME en ce qui concerne la documentation technique et la mise en place d’un système de gestion de la qualité qui tient compte de leur taille.

5.4- Clarification de la procédure d’évaluation de la conformité

Le paragraphe 13 clarifie la procédure d’évaluation de la conformité prévue à l’article 43 du règlement sur l’IA lorsqu’un système d’IA à haut risque est couvert par la législation d’harmonisation de l’Union énumérée à l’annexe I, section A, du règlement sur l’IA et lorsqu’un système d’IA est classé comme étant à haut risque à la fois en vertu de l’annexe I et de l’annexe III du règlement sur l’IA.

5.5-Bac à sable réglementaire

 Modifications à l’article 57 du règlement sur l’IA

  • en fournissant au Bureau de l’IA la base juridique lui permettant d’introduire un bac à sable réglementaire au niveau de l’UE pour certains systèmes d’IA relevant de sa compétence exclusive de surveillance et d’exiger des États membres qu’ils renforcent la coopération transfrontière de leurs bacs à sable.
l’article 57 est modifié comme suit: (a)          le paragraphe 3 bis suivant est inséré: «3 bis Le Bureau de l’IA peut également mettre en place un bac à sable réglementaire de l’IA au niveau de l’Union pour les systèmes d’IA relevant de l’article 75, paragraphe 1. Ce bac à sable réglementaire de l’IA est mis en œuvre en étroite coopération avec les autorités compétentes concernées, en particulier lorsque le respect de la législation de l’Union autre que le présent règlement est supervisé dans le cadre du bac à sable réglementaire de l’IA, et fournit un accès prioritaire aux PME.»;   (b)          le paragraphe 5 est remplacé par le texte suivant: «5. Les bacs à sable réglementaires de l’IA établis en vertu du présent article offrent un environnement contrôlé qui favorise l’innovation et facilite le développement, l’entraînement, la mise à l’essai et la validation de systèmes d’IA innovants pendant une durée limitée avant leur mise sur le marché ou leur mise en service conformément à un plan spécifique de bac à sable convenu entre les fournisseurs ou fournisseurs potentiels et l’autorité compétente, en veillant à ce que des garanties appropriées soient en place. Ces bacs à sable peuvent comprendre des essais en conditions réelles qui y sont supervisés. Le cas échéant, le plan du bac à sable intègre dans un document unique le plan d’essais en conditions réelles.»;   (c)          au paragraphe 9, le point e) est remplacé par le texte suivant: «e) faciliter et accélérer l’accès au marché de l’Union pour les systèmes d’IA, en particulier lorsqu’ils sont fournis par des PEMC et des PME, y compris des jeunes pousses.»;   (d)          le paragraphe 13 est remplacé par le texte suivant: «13. Les bacs à sable réglementaires de l’IA sont conçus et mis en œuvre de manière à faciliter la coopération transfrontière entre les autorités nationales compétentes.»;   (e)          le paragraphe 14 est remplacé par le texte suivant: «14. Les autorités nationales compétentes coordonnent leurs activités et coopèrent dans le cadre du Comité IA. Elles soutiennent la mise en place et l’exploitation conjointes de bacs à sable réglementaires de l’IA, y compris dans des secteurs différents.»;

Modification de l’article 58

  • Précision sur l’habilitation de la Commission à adopter des actes d’exécution précisant les modalités détaillées de mise en place, de développement, de mise en œuvre, d’exploitation et de surveillance des bacs à sable réglementaires de l’IA.
  • Renforcement de la coopération au niveau de l’Union en ce qui concerne les bacs à sable réglementaires de l’IA, et extension du champ d’application des tests en conditions réelles en dehors des bacs à sable réglementaires de l’IA aux systèmes d’IA à haut risque couverts par la législation d’harmonisation de l’Union énumérée à l’annexe I dudit règlement.
  • En particulier, afin de permettre une simplification des procédures, le cas échéant, dans les projets supervisés dans les bacs à sable réglementaires de l’IA qui comprennent également des essais en conditions réelles, le plan d’essais en conditions réelles
    • intégration dans le plan de bac à sable approuvé par les fournisseurs ou fournisseurs potentiels et l’autorité compétente dans un document unique ;
    •  possibilité pour le Bureau de l’IA de mettre en place un bac à sable réglementaire de l’IA au niveau de l’Union pour les systèmes d’IA qui relèvent de l’article 75, paragraphe 1, du règlement (UE) 2024/1689.
l’article 58, le paragraphe 1 est remplacé par le texte suivant: «1. Afin d’éviter une fragmentation à travers l’Union, la Commission adopte des actes d’exécution précisant les modalités détaillées de mise en place, de développement, de mise en œuvre, d’exploitation, de gouvernance et de surveillance des bacs à sable réglementaires de l’IA. Les actes d’exécution contiennent des principes communs sur les questions suivantes: a) les critères d’éligibilité et de sélection pour la participation au bac à sable réglementaire de l’IA; b) les procédures de demande, de surveillance, de sortie et d’expiration du bac à sable réglementaire de l’IA, ainsi que de participation à celui-ci, y compris le plan du bac à sable et le rapport de sortie; c) les conditions applicables aux participants; d) les règles détaillées applicables à la gouvernance des bacs à sable réglementaires de l’IA visés à l’article 57, y compris en ce qui concerne l’exercice des tâches des autorités compétentes ainsi que la coordination et la coopération aux niveaux national et de l’Union.»;

5.6- Essais et tests en conditions réelles de systèmes d’IA à haut risque

Modification de l’article 60

 Modifications aux essais de systèmes d’IA à haut risque en conditions réelles en dehors des bacs à sable réglementaires de l’IA régis par l’article 60 du règlement sur l’IA, notamment en étendant cette possibilité aux systèmes d’IA à haut risque couverts par l’annexe I, section A.

l’article 60 est modifié comme suit: (a)          au paragraphe 1, le premier alinéa est remplacé par le texte suivant: «Les essais de systèmes d’IA à haut risque en conditions réelles en dehors des bacs à sable réglementaires de l’IA peuvent être effectués par les fournisseurs ou fournisseurs potentiels de systèmes d’IA à haut risque énumérés à l’annexe III ou relevant de la législation d’harmonisation de l’Union dont la liste figure à l’annexe I, section A, conformément au présent article et au plan d’essais en conditions réelles visé au présent article, sans préjudice des interdictions prévues à l’article 5.»; (b)          le paragraphe 2 est remplacé par le texte suivant: «2. Les fournisseurs ou fournisseurs potentiels peuvent effectuer, seuls ou en partenariat avec un ou plusieurs déployeurs ou déployeurs potentiels, des essais des systèmes d’IA à haut risque visés à l’annexe III ou relevant de la législation d’harmonisation de l’Union dont la liste figure à l’annexe I, section A, en conditions réelles, à tout moment avant la mise sur le marché ou la mise en service du système d’IA concerné.»;

Essais des systèmes d’IA à haut risque relevant de la législation d’harmonisation de l’Union dont la liste figure à l’annexe I, section B, en conditions réelles en dehors des bacs à sable réglementaires de l’IA

 Le paragraphe 20 crée une base juridique supplémentaire permettant aux États membres intéressés et à la Commission, sur une base volontaire, de conclure des accords écrits pour tester les systèmes d’IA à haut risque visés à l’annexe I, section B, en conditions réelles.

Afin de favoriser l’innovation, il convient également d’étendre le champ d’application des essais en conditions réelles en dehors des bacs à sable réglementaires de l’IA visés à l’article 60 du règlement (UE) 2024/1689, actuellement applicables aux systèmes d’IA à haut risque énumérés à l’annexe III dudit règlement, et de permettre aux fournisseurs et fournisseurs potentiels de systèmes d’IA à haut risque couverts par la législation d’harmonisation de l’Union énumérés à l’annexe I dudit règlement de tester également ces systèmes en conditions réelles. Ceci est sans préjudice du droit de l’Union ou du droit national relatif aux essais en conditions réelles de systèmes d’IA à haut risque liés aux produits qui relèvent de la législation d’harmonisation de l’Union.

Pour faire face à la situation spécifique des systèmes d’IA à haut risque couverts par la législation d’harmonisation de l’Union énumérée à l’annexe I, section B, dudit règlement, il est nécessaire d’autoriser la conclusion d’accords volontaires entre la Commission et les États membres afin de permettre la mise à l’essai de ces systèmes d’IA à haut risque en conditions réelles.

«Article 60 bis Essais des systèmes d’IA à haut risque relevant de la législation d’harmonisation de l’Union dont la liste figure à l’annexe I, section B, en conditions réelles en dehors des bacs à sable réglementaires de l’IA   Les essais de systèmes d’IA à haut risque en conditions réelles en dehors des bacs à sable réglementaires de l’IA peuvent être effectués par les fournisseurs ou fournisseurs potentiels de produits dotés d’IA relevant de la législation d’harmonisation de l’Union dont la liste figure à l’annexe I, section B, conformément au présent article et à un accord volontaire sur les essais en conditions réelles, sans préjudice des interdictions prévues à l’article 5.   L’accord volontaire sur les essais en conditions réelles visé au paragraphe 1 est conclu par écrit entre les États membres intéressés et la Commission. Il fixe les exigences relatives aux essais en conditions réelles des produits dotés d’IA relevant de la législation d’harmonisation de l’Union dont la liste figure à l’annexe I, section B.   Les États membres, la Commission, les autorités de surveillance du marché et les autorités publiques chargées de la gestion et de l’exploitation des infrastructures et des produits relevant de la législation d’harmonisation de l’Union dont la liste figure à l’annexe I, section B coopèrent étroitement entre eux et de bonne foi. Ils suppriment tout obstacle pratique, y compris en ce qui concerne les règles de procédure donnant accès aux infrastructures publiques physiques, lorsque cela est nécessaire, pour mettre en œuvre efficacement l’accord volontaire sur les essais en conditions réelles et tester les produits dotés d’IA relevant de la législation d’harmonisation de l’Union dont la liste figure à l’annexe I, section B.           Les signataires de l’accord volontaire sur les essais en conditions réelles précisent les conditions des essais en conditions réelles et établissent des éléments détaillés du plan d’essais en conditions réelles pour les systèmes d’IA relevant de la législation d’harmonisation de l’Union dont la liste figure à l’annexe I, section B.   5.            L’article 60, paragraphes 2, 5 et 9, s’applique.»;

5.7-Simplification de compliance au SMQ pour les PME

Le paragraphe 21 étend aux PME la dérogation accordée aux microentreprises leur permettant de se conformer de manière simplifiée à certains éléments du système de gestion de la qualité requis par l’article 17 du règlement sur l’IA.

L’article 63 du règlement (UE) 2024/1689 offre aux microentreprises qui fournissent des systèmes d’IA à haut risque la possibilité de bénéficier d’une manière simplifiée de se conformer à l’obligation d’établir un système de gestion de la qualité. Afin de faciliter le respect des règles par un plus grand nombre d’innovateurs, cette possibilité devrait être étendue à toutes les PME, y compris les jeunes pousses.

l’article 63, paragraphe 1, est remplacé par le texte suivant: «1. Les PME, y compris les jeunes pousses, peuvent se conformer de manière simplifiée à certains éléments du système de gestion de la qualité requis par l’article 17. À cette fin, la Commission élabore des lignes directrices sur les éléments du système de gestion de la qualité qui peuvent être respectés de manière simplifiée en tenant compte des besoins des PME, sans affecter le niveau de protection ni la nécessité de se conformer aux exigences relatives aux systèmes d’IA à haut risque.»;

5.8-Surveillance après commercialisation

Modification article 72

pouvoir conféré à la Commission à l’article 72 du  règlement sur l’IA d’adopter un acte d’exécution en ce qui concerne le plan de  surveillance après commercialisation.

à l’article 72, le paragraphe 3 est remplacé par le texte suivant: «3. Le système de surveillance après commercialisation repose sur un plan de surveillance après commercialisation. Le plan de surveillance après commercialisation fait partie de la documentation technique visée à l’annexe IV. La Commission adopte des orientations sur le plan de surveillance après commercialisation.»;

«Surveillance du marché et contrôle des systèmes d’IA et assistance mutuelle»

•             Le paragraphe 25 apporte des modifications à la surveillance et au contrôle de  l’application de certains systèmes d’IA à l’article 75 du règlement sur l’IA:

  • renforce la compétence du Bureau de l’IA en matière de surveillance et de contrôle de l’application de certains systèmes d’IA fondés sur un modèle d’IA à usage général lorsque le modèle et le système sont fournis par le même prestataire. Dans le même temps, la disposition précise que les systèmes d’IA liés à des produits couverts par l’annexe I ne sont pas inclus dans cette surveillance. En outre, il est précisé que la surveillance et le contrôle de la conformité des systèmes d’IA intégrés dans de très grandes plateformes en ligne ou de très grands moteurs de recherche en ligne désignés devraient relever de la compétence du Bureau de l’IA ;
  • La Commission organise et effectue des évaluations de la conformité et des essais avant la mise sur le marché des systèmes d’IA visés au paragraphe 1 qui sont classés comme étant à haut risque et font l’objet d’une évaluation de la conformité par un tiers en vertu de l’article 43, avant que ces systèmes d’IA ne soient mis sur le marché ou mis en service
  (b)          le paragraphe 1 est remplacé par le texte suivant:   «1. Lorsqu’un système d’IA est fondé sur un modèle d’IA à usage général, à l’exclusion des systèmes d’IA liés à des produits relevant de la législation d’harmonisation de l’Union dont la liste figure à l’annexe I, et que ce modèle et ce système sont développés par le même fournisseur, le Bureau de l’IA est seul compétent pour surveiller ce système et contrôler qu’il respecte les obligations prévues par le présent règlement, conformément aux tâches et responsabilités qu’il assigne aux autorités de surveillance du marché. Le Bureau de l’IA est également seul compétent pour la surveillance et le contrôle du respect des obligations prévues par le présent règlement en ce qui concerne les systèmes d’IA qui constituent une très grande plateforme en ligne ou un très grand moteur de recherche en ligne au sens du règlement (UE) 2022/2065 ou qui sont intégrés dans une telle plateforme ou un tel moteur.   Lorsqu’il effectue ses tâches de surveillance et de contrôle de l’application conformément au premier alinéa, le Bureau de l’IA dispose de tous les pouvoirs d’une autorité de surveillance du marché prévus dans la présente section et dans le règlement (UE) 2019/1020.   Le Bureau de l’IA est habilité à prendre des mesures et des décisions appropriées pour exercer correctement ses pouvoirs de surveillance et de contrôle de l’application. L’article 14 du règlement (UE) 2019/1020 s’applique mutatis mutandis.   Les autorités participant à l’application du présent règlement coopèrent activement dans l’exercice de ces pouvoirs, en particulier lorsque des mesures d’exécution doivent être prises sur le territoire d’un État membre.»;
 (c)         les paragraphes 1 bis à 1 quater suivants sont insérés:   «1 bis. La Commission adopte un acte d’exécution pour définir les pouvoirs du Bureau de l’IA en matière de contrôle de l’application et les procédures pour l’exercice de ces pouvoirs, y compris sa capacité à imposer des sanctions, telles que des amendes ou d’autres sanctions administratives, conformément aux conditions et aux plafonds définis à l’article 99, en ce qui concerne les systèmes d’IA visés aux paragraphes 1 et 1 bis du présent article qui sont jugés non conformes au présent règlement, dans le cadre de ses tâches de contrôle et de surveillance au titre du présent article.».   «1 ter. L’article 18 du règlement (UE) 2019/1020 s’applique mutatis mutandis aux fournisseurs de systèmes d’IA visés au paragraphe 1, sans préjudice des droits procéduraux plus spécifiques prévus par le présent règlement.»   «1 quater. La Commission organise et effectue des évaluations de la conformité et des essais avant la mise sur le marché des systèmes d’IA visés au paragraphe 1 qui sont classés comme étant à haut risque et font l’objet d’une évaluation de la conformité par un tiers en vertu de l’article 43, avant que ces systèmes d’IA ne soient mis sur le marché ou mis en service. Ces essais et évaluations ont pour objet de vérifier que les systèmes sont conformes aux exigences pertinentes du présent règlement et peuvent être mis sur le marché ou mis en service dans l’Union conformément au présent règlement. La Commission peut confier la réalisation de ces essais ou évaluations à des organismes notifiés désignés en vertu du présent règlement, auquel cas l’organisme notifié agit au nom de la Commission.    L’article 34, paragraphes 1 et 2, s’applique mutatis mutandis à la Commission lorsqu’elle exerce les pouvoirs qui lui sont conférés par le présent paragraphe. Les redevances pour les activités d’essai et d’évaluation sont perçues auprès du fournisseur d’un système d’IA à haut risque qui a demandé à la Commission une évaluation de la conformité par un tiers. Les coûts liés aux services confiés par la Commission aux organismes notifiés conformément au présent article sont directement payés par le fournisseur à l’organisme notifié.»;

nécessaire de clarifier le rôle du Bureau de l’IA dans le suivi et la supervision de la conformité de ces systèmes d’IA avec le règlement (UE) 2024/1689, tout en excluant les systèmes d’IA liés à des produits couverts par la législation d’harmonisation de l’Union énumérés à l’annexe I dudit règlement.

Si les autorités sectorielles restent responsables de la surveillance des systèmes d’IA liés aux produits couverts par cette législation d’harmonisation de l’Union, l’article 75, paragraphe 1, du règlement (UE) 2024/1689 devrait être modifié afin d’inclure tous les systèmes d’IA fondés sur des modèles d’IA à usage général développés par le même fournisseur dans le champ d’application de la surveillance du Bureau de l’IA.

Exclusion : Des systèmes d’IA mis sur le marché, mis en service ou utilisés par les institutions, organes ou organismes de l’Union, qui sont placés sous le contrôle du Contrôleur européen de la protection des données conformément à l’article 74, paragraphe 9, du règlement (UE) 2024/1689.

Afin d’assurer une surveillance efficace de ces systèmes d’IA conformément aux tâches et responsabilités confiées aux autorités de surveillance du marché en vertu du règlement (UE) 2024/1689, le Bureau de l’IA sera habilité à prendre les mesures et décisions appropriées pour exercer de manière adéquate les pouvoirs qui lui sont conférés par ladite section et par le règlement (UE) 2019/1020 du Parlement européen et du Conseil.

Centralisation des pouvoirs des autorités de surveillance du marché au sein du Bureau de l’IA

Rôle du bureau de l’IA :

Supervision par le bureau de l’IA de l’évaluation des modèles d’IA à usage général et de contrôle de leur conformité.

Le Bureau de l’IA sera habilité à

  • contrôler et à surveiller la conformité de tous les systèmes d’IA fondés sur des modèles d’IA à usage général (GPAI), lorsque le modèle et le système sont mis au point par le même fournisseur, ainsi que de tous les systèmes d’IA intégrés dans de très grandes plateformes en ligne ou de très grands moteurs de recherche ou constituant de telles plateformes ou de tels moteurs, même si le fournisseur du système et le fournisseur modèle d’IA à usage général sont différents.
  • demander à un accès complet aux jeux de données d’entraînement, de validation et d’essai et, si nécessaire, au code source des systèmes d’IA à haut risque, la supervision des essais en conditions réelles, l’identification et l’évaluation des risques, la gestion des incidents graves, la prise de mesures préventives et correctives tout en assurant la coopération avec les autorités nationales de surveillance du marché, le traitement des systèmes d’IA classés comme n’étant pas à haut risque par le fournisseur, le traitement des plaintes de non-conformité et l’imposition de sanctions.
  • réaliser des évaluations de conformité afin de permettre l’accès au marché pour les systèmes d’IA qui font également l’objet d’une évaluation de la conformité par un tiers avant mise sur le marché en vertu du règlement sur l’IA,

L’approche centralisée faciliterait également la création, au sein de la Commission, d’une expertise spécialisée dans les systèmes d’IA et les modèles d’IA à usage général, ce qui permettrait un suivi et un contrôle de l’application plus efficaces du règlement sur l’IA.

L’article 14 du règlement (UE) 2019/1020 devrait s’appliquer mutatis mutandis. En outre, les autorités participant à l’application du règlement (UE) 2024/1689 devraient coopérer activement dans l’exercice de ces pouvoirs, en particulier lorsque des mesures d’exécution doivent être prises sur le territoire d’un État membre.

Commission : pouvoir d’autorité de surveillance pour les très grandes plateformes

  • lorsqu’un système d’IA peut être considéré comme une très grande plateforme en ligne ou un très grand moteur de recherche en ligne au sens du règlement (UE) 2022/2065, ou lorsqu’il est intégré dans une telle plateforme ou un tel moteur de recherche, la Commission devrait avoir les pouvoirs d’une autorité de surveillance du marché compétente en vertu du règlement (UE) 2024/1689 ;
  • Afin de permettre l’accès au marché de l’Union des systèmes d’IA qui sont placés sous la supervision du Bureau de l’IA conformément à l’article 75 du règlement (UE) 2024/1689 et soumis à une évaluation de la conformité par un tiers, la Commission devrait être habilitée à procéder à des évaluations de la conformité de ces systèmes avant leur commercialisation

Evaluation des risques

  • Dans le cas des systèmes d’IA intégrés dans une très grande plateforme en ligne ou un très grand moteur de recherche ou pouvant être qualifiés de tels systèmes, le premier point d’entrée pour l’évaluation des systèmes d’IA est l’évaluation des risques, les mesures d’atténuation et les obligations d’audit prescrites par les articles 34, 35 et 37 du règlement (UE) 2022/2065, sans préjudice des pouvoirs du Bureau de l’IA d’enquêter sur les cas de non-respect ex post des règles du présent règlement et de les faire respecter.
  • Dans le cadre de l’analyse de cette évaluation des risques, des mesures d’atténuation et des audits, les services de la Commission chargés de l’application du règlement (UE) 2022/2065 peuvent demander l’avis du Bureau de l’IA sur les résultats d’une éventuelle évaluation des risques antérieure ou parallèle effectuée au titre du présent règlement et sur l’applicabilité des interdictions au titre du présent règlement.

.

Coopération entre autorités de surveillance du marché et autorités de protection des droits fondamentaux

L’article 77 et les dispositions connexes du règlement (UE) 2024/1689 constituent un mécanisme de gouvernance important, car ils visent à permettre aux autorités ou organismes chargés de faire appliquer ou de surveiller le droit de l’Union destiné à protéger les droits fondamentaux de remplir leur mandat dans des conditions spécifiques et de favoriser la coopération avec les autorités de surveillance du marché chargées de la surveillance et de l’application dudit règlement.

Il est nécessaire de préciser le champ d’application de cette coopération, ainsi que les autorités ou organismes publics qui en bénéficient.

En vue de renforcer la coopération, il convient de préciser que les demandes d’accès aux informations et à la documentation devraient être adressées à l’autorité de surveillance du marché compétente, qui devrait répondre à ces demandes, et que les autorités ou organismes concernés devraient avoir une obligation mutuelle de coopérer.

Modification de l’article 77
«Pouvoirs des autorités de protection des droits fondamentaux et coopération avec les autorités de surveillance du marché»   (b)          le paragraphe 1 est remplacé par le texte suivant:   «1. Les autorités ou organismes publics nationaux qui surveillent ou contrôlent le respect des obligations découlant du droit de l’Union protégeant les droits fondamentaux, y compris le droit à la non-discrimination, sont habilités à présenter une demande et à accéder à toute information ou documentation créée ou conservée par l’autorité de surveillance du marché concernée en vertu du présent règlement, dans une langue et un format accessibles, lorsque l’accès à ces informations ou à cette documentation est nécessaire à l’accomplissement effectif de leur mandat dans les limites de leurs compétences.»;   (c)          les paragraphes 1 bis et 1 ter suivants sont insérés:   «1 bis. Sous réserve des conditions précisées dans le présent article, l’autorité de surveillance du marché accorde à l’autorité publique ou à l’organisme public concerné visé au paragraphe 1 l’accès à ces informations ou à cette documentation, y compris en demandant ces informations ou cette documentation au fournisseur ou au déployeur, si nécessaire.».   «1 ter. Les autorités de surveillance du marché et les autorités ou organismes publics visés au paragraphe 1 coopèrent étroitement et se prêtent mutuellement l’assistance nécessaire à l’exercice de leurs mandats respectifs, en vue d’assurer une application cohérente du présent règlement et du droit de l’Union en matière de protection des droits fondamentaux et de rationalisation des procédures. Cela inclut, en particulier, l’échange d’informations lorsque cela est nécessaire à la surveillance ou au contrôle de l’application effectifs du présent règlement et des autres actes législatifs respectifs de l’Union.»;

5.9- Modification sur l’entrée en application du RIA

 Modifications à l’entrée en application de certaines dispositions du règlement sur l’IA

• En ce qui concerne les obligations relatives aux systèmes d’IA à haut risque énoncées au chapitre III, un mécanisme est introduit en vue de lier l’entrée en application à la disponibilité de mesures à l’appui du respect des règles relatives aux systèmes d’IA à haut risque du règlement sur l’IA, telles que des normes harmonisées, des spécifications communes et des lignes directrices de la Commission. Cette disponibilité sera confirmée par la Commission par voie de décision, à la suite de laquelle les règles applicables aux systèmes d’IA à haut risque commenceront à s’appliquer après une période de transition appropriée. Toutefois, cette flexibilité ne devrait s’appliquer que pendant une période limitée, et une date précise à laquelle les règles s’appliquent en tout état de cause devrait être fixée. En outre, il convient de faire la distinction entre les deux types de systèmes d’IA qui sont classés comme étant à haut risque et de prévoir une période de transition plus longue pour les systèmes d’IA classés

comme étant à haut risque conformément à l’article 6, paragraphe 1, et à l’annexe I du règlement sur l’IA.

Date d’entrée en vigueur générale : 2 aout 2026 et période transitoire

Les modifications nécessaires pour intégrer les exigences relatives aux systèmes d’IA à haut risque dans la législation sectorielle énumérées à l’annexe I, section B, s’appliquent au moment de l’entrée en vigueur du règlement omnibus numérique.

Afin de laisser suffisamment de temps aux fournisseurs de systèmes d’IA générative soumis aux obligations de marquage énoncées à l’article 50, paragraphe 2, du règlement (UE) 2024/1689 pour adapter leurs pratiques dans un délai raisonnable sans perturber le marché, il convient d’introduire une période transitoire de six mois pour les fournisseurs qui ont déjà mis leurs systèmes sur le marché avant le 2 août 2026.

Afin de laisser suffisamment de temps aux fournisseurs de systèmes d’IA à haut risque et de clarifier les règles applicables aux systèmes d’IA déjà mis sur le marché ou mis en service avant l’entrée en application des dispositions pertinentes du règlement (UE) 2024/1689, il convient de préciser l’application d’un délai de grâce prévu à l’article 111, paragraphe 2, dudit règlement.

Aux fins de l’article 111, paragraphe 2, le délai de grâce devrait s’appliquer à un type et à un modèle de systèmes d’IA déjà mis sur le marché. Cela signifie que, si au moins une unité individuelle du système d’IA à haut risque a été légalement mise sur le marché ou mise en service avant la date spécifiée à l’article 111, paragraphe 2, les autres unités individuelles du même type et modèle de système d’IA à haut risque sont soumises au délai de grâce prévu à l’article 111, paragraphe 2, et peuvent donc continuer à être mises sur le marché, mises à disposition ou mises en service sur le marché de l’Union sans obligations ni exigences supplémentaires ni nécessité d’une certification supplémentaire, tant que la conception de ce système d’IA à haut risque reste inchangée. Aux fins de l’application du délai de grâce prévu à l’article 111, paragraphe 2, le facteur déterminant est la date à laquelle la première unité de ce type et modèle de système d’IA à haut risque a été mise sur le marché ou mise en service pour la première fois sur le marché de l’Union. Toute modification importante de la conception de ce système d’IA après la date spécifiée à l’article 111, paragraphe 2, devrait entraîner l’obligation pour le fournisseur de se conformer pleinement à toutes les dispositions pertinentes du présent règlement applicables aux systèmes d’IA à haut risque, y compris les exigences en matière d’évaluation de la conformité.

Date générale d’application est le 2 août 2026.

L’article 113 du règlement (UE) 2024/1689 fixe les dates d’entrée en vigueur et d’application dudit règlement, en précisant notamment que la date générale d’application est le 2 août 2026.

Période transitoire pour obligations relatives aux systèmes d’IA à haut risque (chapitre III) : 2027-2028

En ce qui concerne les obligations relatives aux systèmes d’IA à haut risque énoncées au chapitre III, sections 1, 2 et 3, du règlement (UE) 2024/1689, les retards dans la disponibilité des normes, des spécifications communes et des orientations de substitution, ainsi que dans la mise en place des autorités nationales compétentes, entraînent des difficultés qui compromettent l’entrée en application effective de ces obligations et risquent d’augmenter considérablement les coûts de mise en œuvre d’une manière qui ne justifie pas le maintien de leur date d’application initiale, à savoir le 2 août 2026.

Les obligations en matière de règles applicables aux systèmes d’IA à haut risque devraient s’appliquer

  • après six mois en ce qui concerne les systèmes d’IA classés comme étant à haut risque en vertu de l’article 6, paragraphe 2, et de l’annexe III,
    • après 12 mois en ce qui concerne les systèmes d’IA classés comme étant à haut risque en vertu de l’article 6, paragraphe 1, et de l’annexe I du règlement (UE) 2024/1689.

Toutefois, cette flexibilité ne devrait être prolongée que

  • jusqu’au 2 décembre 2027 en ce qui concerne les systèmes d’IA classés comme étant à haut risque en vertu de l’article 6, paragraphe 2, et de l’annexe III,
    •  jusqu’au 2 août 2028 en ce qui concerne les systèmes d’IA classés comme étant à haut risque en vertu de l’article 6, paragraphe 1, et de l’annexe I dudit règlement, date à laquelle ces règles devraient en tout état de cause être pleinement d’application.
Cohérence de différenciation de régime

La distinction entre l’entrée en application des règles en ce qui concerne les systèmes d’IA classés comme étant à haut risque en vertu de l’article 6, paragraphe 2, et de l’annexe III, de l’article 6, paragraphe 1, et de l’annexe I dudit règlement est cohérente avec la différence entre les dates d’application initiales prévues dans le règlement (UE) 2024/1689 et vise à prévoir le temps nécessaire à l’adaptation et à la mise en œuvre des obligations correspondantes.

l’article 113 est modifié comme suit: au troisième alinéa, le point d) suivant est ajouté: «d) le chapitre III, sections 1, 2 et 3, s’applique après l’adoption d’une décision de la Commission confirmant que des mesures adéquates à l’appui du respect du chapitre III sont disponibles, à partir des dates suivantes:  6 mois après l’adoption de ladite décision en ce qui concerne les systèmes d’IA classés comme étant à haut risque en vertu de l’article 6, paragraphe 2, et de l’annexe III, et 12 mois après l’adoption de ladite décision en ce qui concerne les systèmes d’IA classés à haut risque en vertu de l’article 6, paragraphe 1, et de l’annexe I.   En l’absence d’adoption de la décision au sens du premier alinéa, ou lorsque les dates ci-après sont antérieures à celles qui suivent l’adoption de cette décision, le chapitre III, sections 1, 2 et 3, s’applique:  le 2 décembre 2027 en ce qui concerne les systèmes d’IA classés comme étant à haut risque en vertu de l’article 6, paragraphe 2, et de l’annexe III, et le 2 août 2028 en ce qui concerne les systèmes d’IA classés à haut risque en vertu de l’article 6, paragraphe 1, et de l’annexe I.»;   (b)          au troisième alinéa, le point e) suivant est ajouté: «e). Les articles 102 à 110 sont applicables à partir du [date d’entrée en application du présent règlement].»;

A suivre …………

Article à venir les autres mesures de la proposition du Règlement du Parlement européen et du Conseil, modifiant les règlements (UE) 2024/1689 et (UE) 2018/1139 en ce qui concerne la simplification de la mise en œuvre des règles harmonisées concernant l’intelligence artificielle (train de mesures omnibus numérique sur l’IA)

Laisser un commentaire