Le Comité du Conseil de l’Europe sur l’IA crée un nouvel outil pour évaluer l’impact des systèmes d’IA sur les droits humains
Le Comité du Conseil de l’Europe sur l’intelligence artificielle (CAI) a adopté la Méthodologie pour l’évaluation des risques et de l’impact des systèmes d’intelligence artificielle du point de vue des droits humains, de la démocratie et de l’État de droit (Méthodologie HUDERIA), un outil – le premier de cette nature – qui fournit des orientations et une approche structurée pour mener des évaluations des risques et de l’impact des systèmes d’IA et vise à soutenir la mise en œuvre de la Convention-cadre sur l’intelligence artificielle et les droits de l’homme, la démocratie et l’État de droit, premier traité international juridiquement contraignant dans ce domaine.
Fondamentalement, HUDERIA évalue les systèmes d’IA dans le contexte général de la société, compte tenu du fait que les impacts de l’IA découlent de l’interaction complexe entre les systèmes techniques et les structures sociales. La méthodologie prévoit notamment la création d’un programme d’atténuation des risques afin de réduire le plus possible ou de supprimer les risques identifiés, protégeant ainsi les citoyens d’éventuels préjudices. Par exemple, si un système d’IA utilisé pour le recrutement se révèle partial à l’égard de certains groupes démographiques, le programme d’atténuation pourrait prévoir l’ajustement de l’algorithme, la mise en place de contrôles humains et/ou l’application d’autres mesures de gouvernance appropriées et suffisantes.
La méthodologie exige que des réévaluations soient menées régulièrement pour s’assurer que le système d’IA continue de fonctionner, à mesure que la situation et la technologie évoluent, de manière sûre et conforme aux obligations pertinentes en matière de droits humains. Cette approche garantit à la population une protection contre les nouveaux risques tout au long du cycle de vie du système d’IA.
Le CAI a adopté la Méthodologie HUDERIA lors de sa 12e réunion plénière, qui s’est tenue à Strasbourg du 26 au 28 novembre. La méthodologie sera complétée en 2025 par le Modèle HUDERIA, qui fournira une bibliothèque de connaissances contenant des documents et des ressources d’appui, notamment des outils flexibles et des recommandations modulables.
***
Le Comité sur l’intelligence artificielle a été créé en 2022 par le Comité des Ministres du Conseil de l’Europe pour rédiger une convention sur la conception, le développement, l’utilisation et la mise hors service des systèmes d’intelligence artificielle, fondée sur les normes du Conseil de l’Europe et d’autres normes internationales concernant les droits humains, la démocratie et l’État de droit. Le Comité des Ministres a également chargé le CAI d’élaborer une méthodologie juridiquement non contraignante pour évaluer les risques et l’impact des systèmes d’intelligence artificielle du point de vue des droits humains, de la démocratie et de l’État de droit (HUDERIA), afin de soutenir la mise en œuvre de la Convention sur l’IA.
La Convention a finalement été adoptée par le Comité des Ministres en mai 2024 et elle a été ouverte à la signature le 5 septembre 2024 à Vilnius (Lituanie). À ce jour, elle a été signée par l’Andorre, la Géorgie, l’Islande, la Norvège, la République de Moldova, le Monténégro, Saint-Marin et le Royaume-Uni, ainsi que par Israël, les États-Unis d’Amérique et l’Union européenne.
La Convention-cadre sur l’intelligence artificielle, les droits de l’homme, la démocratie et l’État de droit vise à garantir que les activités menées dans le cadre du cycle de vie des systèmes d’intelligence artificielle sont pleinement compatibles avec les droits humains, la démocratie et l’État de droit, tout en encourageant le progrès technologique et l’innovation