Analyse de l’impact et des risques issus de l’IA : Méthodologie du Conseil de l’Europe

Posted by

HUDERIA : The risk and impact assessment of artificial intelligence (AI) systems from the point of view of human rights, democracy and the rule of law

Eléonore Scaramozzino, Avocat partenaire Constellation Avocats

L’évaluation des risques et de l’impact des systèmes d’intelligence artificielle (IA) du point de vue des droits de l’homme, de la démocratie et de l’État de droit (« HUDERIA ») est un document d’orientation qui fournit une approche structurée de l’évaluation des risques et de l’impact des systèmes d’IA spécifiquement adaptée à la protection et à la promotion des droits de l’homme, de la démocratie et de l’État de droit. Il est destiné à jouer un rôle unique et essentiel à l’intersection des normes internationales en matière de droits de l’homme et des cadres techniques existants sur la gestion des risques dans le contexte de l’IA.

L’HUDERIA peut être utilisée par des acteurs publics et privés pour aider à identifier et à traiter les risques et les impacts sur les droits de l’homme, la démocratie et l’État de droit tout au long du cycle de vie des systèmes d’IA. L’HUDERIA trouve son origine dans les travaux du Comité ad hoc sur l’intelligence artificielle (CAHAI) (2019-2021) et plus particulièrement de son groupe d’élaboration des politiques, qui a mandaté l’Institut Alan Turing, l’institut national britannique pour la science des données et l’IA, pour préparer une proposition originale opérationnalisant les grandes lignes d’un modèle d’évaluation de l’impact sur les droits de l’homme, la démocratie et l’État de droit.

La méthodologie HUDERIA a été adoptée par le Comité sur l’intelligence artificielle (CAI) du Conseil de l’Europe le 28 novembre 2024.

Principaux objectifs de HUDERIA

Les objectifs de l’HUDERIA sont les suivants :

  • aider à déterminer dans quelle mesure des activités de gestion des risques liées aux droits de l’homme, à la démocratie et à l’État de droit peuvent être nécessaires, et proposer une méthodologie d’identification, d’évaluation, de prévention et d’atténuation des risques et des impacts qui soit applicable à une variété de technologies et de contextes d’application de l’IA et qui réponde aux développements futurs des technologies et des applications de l’IA ;
  •  promouvoir la compatibilité et l’interopérabilité avec les orientations, normes et cadres existants et futurs élaborés par des organisations ou organismes techniques, professionnels et autres pertinents (tels que ISO, IEC, ITU, CEN, CENELEC, IEEE, OCDE, NIST) y compris le cadre de gestion des risques d’IA du NIST et l’évaluation de l’impact sur la gestion des risques et les droits fondamentaux en vertu de la législation de l’UE sur l’IA

La méthodologie HUDERIA contient quatre éléments :

  1. L’analyse des risques basée sur le contexte (COBRA) fournit une approche structurée de la collecte et de la cartographie des informations nécessaires pour identifier et comprendre les risques que le système d’IA pourrait poser aux droits de l’homme, à la démocratie et à l’État de droit compte tenu de son contexte sociotechnique. Il permet également de déterminer si le système d’IA est une solution appropriée au problème envisagé ;
  • le processus d’engagement des parties prenantes propose une approche visant à permettre et à opérationnaliser l’engagement, le cas échéant, avec les parties prenantes concernées afin d’obtenir des informations sur les personnes potentiellement affectées et de contextualiser et corroborer les préjudices potentiels et les mesures d’atténuation ;
  • l’analyse des risques et des impacts (RIA) fournit des étapes possibles concernant l’évaluation des risques et des impacts liés aux droits de l’homme, à la démocratie et à l’État de droit ;
  • Le plan d’atténuation (PM) prévoit des étapes possibles pour définir les mesures d’atténuation et les mesures correctives, y compris l’accès aux recours et l’examen itératif.

Bien qu’il soit logique d’effectuer d’abord l’élément COBRA, en fonction des besoins et des approches, on peut choisir de modifier la séquence des éléments et/ou d’appliquer ou d’utiliser uniquement certaines parties de la méthodologie en fonction des approches de gouvernance de l’IA existantes et des contextes, besoins et capacités spécifiques.

Résultat de cet élément du processus HUDERIA

Cet élément devrait produire une description claire des mesures et des actions visant à gérer les risques et les impacts identifiés, ainsi qu’une clarification des rôles et des responsabilités des divers acteurs impliqués dans l’atténuation, la gestion et la surveillance. Le cas échéant, cet élément devrait également produire un aperçu accessible des mécanismes et des mesures correctives disponibles pour les personnes touchées.

De plus, un plan est établi pour surveiller les efforts d’atténuation et pour réévaluer et réévaluer itérativement ces efforts tout au long des phases ultérieures du cycle de vie du système d’IA.

Iterative Review

Introduction La mise en œuvre de l’HUDERIA au début du cycle de vie du système d’IA est la première étape, bien que cruciale, d’un processus itératif plus long de surveillance et de réévaluation responsables. Le processus d’examen itératif garantit que l’évaluation des risques et de l’impact reste efficace tout au long du cycle de vie du système d’IA. Il s’agit d’un processus continu, qui offre régulièrement des occasions d’identifier de nouveaux impacts et de mettre à jour le plan d’atténuation. Au fil du temps, les impacts du système d’IA sont susceptibles d’évoluer, soit en raison des décisions prises lors de son développement et de sa mise en œuvre, des applications contextuelles ou des changements externes dans l’environnement réel.

Ces modifications, qui peuvent inclure celles concernant le cycle de vie des données, le développement et la conception du système d’IA, les processus d’approvisionnement, les modifications des techniques d’IA, l’intégration ou l’opérationnalisation du système, les vulnérabilités en matière de sécurité, ainsi que les événements ou événements importants entraînant des conséquences préjudiciables ou involontaires, peuvent influencer les performances du système d’IA et/ou son impact sur les personnes et les groupes concernés. De tels changements nécessitent un examen pour s’assurer que les droits de l’homme, la démocratie et la primauté du droit sont respectés en permanence tout au long du cycle de vie du système d’IA.

Une attention particulière devrait être accordée à la façon dont ces changements influent sur le rendement du système et sur son impact sur les personnes et les collectivités.

Bien que la méthodologie HUDERIA offre une certaine souplesse en ce qui concerne les modalités exactes, les seuils, les déclencheurs, le suivi et les mécanismes de gouvernance du processus d’examen itératif, les principes suivants pourraient être pris en compte :

a) l’examen continu de l’HUDERIA joue un rôle central dans son efficacité et sa fiabilité continues ;

 b) un plan est établi pour la surveillance des impacts et pour la réévaluation et la réévaluation de l’HUDERIA au cours de chaque phase du cycle de vie du projet jusqu’à la mise hors service ou la mise hors service du système ;

 c) les processus utilisés pour l’examen itératif devraient rester aussi réactifs que possible à la façon dont le système d’IA interagit avec ses environnements opérationnels et avec les personnes touchées (p. ex., domaines d’application possibles du système d’IA, émergence de nouvelles formes d’utilisation abusive du système, etc.) ;

 d) Dans des contextes qui évoluent rapidement ou changent, il peut être nécessaire de recourir à des interventions de réévaluation et de réévaluation plus fréquentes

Bien que cette méthodologie soit dénuée de valeur juridique, il convient, cependant, de la respecter. Celle-ci permettra l’atténuation drastique des risques de l’IA. De plus, cette atténuation permettra une conformité juridique et ce, en raison de la prise en compte des droits de l’Homme, de la démocratie et de l’État de droit.

Pour aller plus loin

Laisser un commentaire