Image Alt

Vudailleurs.com

Loi sur l’intelligence artificielle : le Conseil et le Parlement parviennent à un accord sur les premières règles mondiales en matière d’IA

Après trois jours de négociations marathon, la présidence du Conseil et les négociateurs du Parlement européen sont parvenus à un accord provisoire sur la proposition de règles harmonisées en matière d’intelligence artificielle (IA), dite loi sur l’ intelligence artificielle . Le projet de règlement vise à garantir que les systèmes d’IA mis sur le marché européen et utilisés dans l’UE sont sûrs et respectent les droits fondamentaux et les valeurs de l’UE. Cette proposition historique vise également à stimuler l’investissement et l’innovation dans le domaine de l’IA en Europe.

Carme Artigas, secrétaire d'État espagnole à la numérisation et à l'intelligence artificielle

Il s’agit d’une réalisation historique et d’une étape importante vers l’avenir ! L’accord d’aujourd’hui répond efficacement à un défi mondial dans un environnement technologique en évolution rapide dans un domaine clé pour l’avenir de nos sociétés et de nos économies. Et dans cette entreprise, nous avons réussi à maintenir un équilibre extrêmement délicat : stimuler l’innovation et l’adoption de l’intelligence artificielle dans toute l’Europe tout en respectant pleinement les droits fondamentaux de nos citoyens.Carme Artigas, secrétaire d’État espagnole à la numérisation et à l’intelligence artificielle

La loi sur l’IA est une initiative législative phare susceptible de favoriser le développement et l’adoption d’une IA sûre et fiable sur le marché unique de l’UE par les acteurs privés et publics. L’idée principale est de réguler l’IA en fonction de sa capacité à nuire à la société selon une approche « basée sur le risque » : plus le risque est élevé, plus les règles sont strictes . En tant que première proposition législative de ce type au monde, elle peut établir une norme mondiale pour la réglementation de l’IA dans d’autres juridictions, tout comme l’a fait le RGPD, promouvant ainsi l’approche européenne de la réglementation technologique sur la scène mondiale.

Les principaux éléments de l’accord provisoire

Par rapport à la proposition initiale de la Commission, les principaux nouveaux éléments de l’accord provisoire peuvent être résumés comme suit :

  • des règles sur les modèles d’IA à usage général à fort impact susceptibles de générer un risque systémique à l’avenir, ainsi que sur les systèmes d’IA à haut risque
  • un système de gouvernance révisé avec certains pouvoirs d’exécution au niveau de l’UE
  • extension de la liste des interdictions mais avec la possibilité d’utiliser l’identification biométrique à distance par les forces de l’ordre dans les espaces publics, sous réserve de garanties
  • une meilleure protection des droits grâce à l’obligation pour les déployeurs de systèmes d’IA à haut risque de procéder à une évaluation d’impact sur les droits fondamentaux avant de mettre en service un système d’IA.

Plus concrètement, l’accord provisoire couvre les aspects suivants :

Définitions et portée

Afin de garantir que la définition d’un système d’IA fournit des critères suffisamment clairs pour distinguer l’IA des systèmes logiciels plus simples, l’accord de compromis aligne la définition sur l’approche proposée par l’OCDE.

L’accord provisoire précise également que le règlement ne s’applique pas aux domaines en dehors du champ d’application du droit de l’UE et ne devrait en aucun cas affecter les compétences des États membres en matière de sécurité nationale ou de toute entité chargée de tâches dans ce domaine. En outre, la loi sur l’IA ne s’appliquera pas aux systèmes utilisés exclusivement à des fins militaires ou de défense . De même, l’accord prévoit que le règlement ne s’appliquerait pas aux systèmes d’IA utilisés à des fins de recherche et d’innovation , ni aux personnes utilisant l’IA à des fins non professionnelles. 

Classification des systèmes d’IA comme pratiques d’IA à haut risque et interdites

L’accord de compromis prévoit un niveau de protection horizontal, y compris une classification à haut risque, pour garantir que les systèmes d’IA qui ne sont pas susceptibles de provoquer de graves violations des droits fondamentaux ou d’autres risques importants ne soient pas capturés. Les systèmes d’IA ne présentant qu’un risque limité seraient soumis à des obligations de transparence très légères , par exemple en divulguant que le contenu a été généré par l’IA afin que les utilisateurs puissent prendre des décisions éclairées quant à leur utilisation ultérieure.

Un large éventail de systèmes d’IA à haut risque seraient autorisés, mais soumis à un ensemble d’exigences et d’obligations pour accéder au marché de l’UE. Ces exigences ont été clarifiées et ajustées par les colégislateurs de manière à ce qu’elles soient plus réalisables techniquement et moins lourdes à respecter pour les parties prenantes, par exemple en ce qui concerne la qualité des données ou en ce qui concerne la documentation technique qui devrait être élaboré par les PME pour démontrer que leurs systèmes d’IA à haut risque sont conformes aux exigences.

Étant donné que les systèmes d’IA sont développés et distribués via des chaînes de valeur complexes, l’accord de compromis comprend des changements clarifiant la répartition des responsabilités et des rôles des différents acteurs de ces chaînes, en particulier les fournisseurs et les utilisateurs de systèmes d’IA. Il clarifie également la relation entre les responsabilités au titre de la loi sur l’IA et les responsabilités qui existent déjà en vertu d’autres législations, telles que la législation européenne relative à la protection des données ou la législation sectorielle pertinente.

Pour certaines utilisations de l’IA, le risque est jugé inacceptable et ces systèmes seront donc interdits dans l’UE. L’accord provisoire interdit, par exemple, la manipulation cognitivo-comportementale , la suppression non ciblée d’images faciales provenant d’Internet ou d’images de vidéosurveillance, la reconnaissance des émotions sur le lieu de travail et dans les établissements d’enseignement, la notation sociale , la catégorisation biométrique pour déduire des données sensibles, telles que l’orientation sexuelle ou religieuse. croyances, et quelques cas de police prédictive pour les individus.

Exceptions en matière d’application de la loi

Compte tenu des spécificités des autorités répressives et de la nécessité de préserver leur capacité à utiliser l’IA dans leur travail vital, plusieurs modifications de la proposition de la Commission ont été convenues concernant l’utilisation des systèmes d’IA à des fins répressives. Sous réserve de garanties appropriées , ces changements visent à refléter la nécessité de respecter la confidentialité des données opérationnelles sensibles en relation avec leurs activités. Par exemple, une procédure d’urgence a été introduite permettant aux services répressifs de déployer en cas d’urgence un outil d’IA à haut risque qui n’a pas passé avec succès la procédure d’évaluation de la conformité . Toutefois, un mécanisme spécifique a également été introduit pour garantir que les droits fondamentaux seront suffisamment protégés contre toute utilisation abusive potentielle des systèmes d’IA.

Par ailleurs, en ce qui concerne l’utilisation de systèmes d’identification biométrique à distance en temps réel dans les espaces accessibles au public, l’accord provisoire précise les objectifs lorsque cette utilisation est strictement nécessaire à des fins répressives et pour lesquels les autorités répressives devraient donc être exceptionnellement autorisées à utiliser de tels systèmes. . L’accord de compromis prévoit des garanties supplémentaires et limite ces exceptions aux cas de victimes de certains crimes, à la prévention de menaces réelles, présentes ou prévisibles, telles que les attentats terroristes, et aux recherches de personnes soupçonnées des crimes les plus graves.

Systèmes d’IA à usage général et modèles de base

De nouvelles dispositions ont été ajoutées pour tenir compte des situations dans lesquelles les systèmes d’IA peuvent être utilisés à de nombreuses fins différentes ( IA à usage général ) et dans lesquelles la technologie d’IA à usage général est ensuite intégrée dans un autre système à haut risque. L’accord provisoire aborde également les cas spécifiques des systèmes d’IA à usage général (GPAI).

Des règles spécifiques ont également été convenues pour les modèles de base , grands systèmes capables d’effectuer avec compétence un large éventail de tâches distinctes, telles que la génération de vidéos, de textes, d’images, la conversation dans un langage latéral, l’informatique ou la génération de code informatique. L’accord provisoire prévoit que les modèles de fondations doivent respecter des obligations spécifiques de transparence avant d’être mis sur le marché. Un régime plus strict a été introduit pour les modèles de fondations « à fort impact » . Il s’agit de modèles de base formés avec une grande quantité de données et dotés d’une complexité, de capacités et de performances avancées bien supérieures à la moyenne, qui peuvent diffuser les risques systémiques tout au long de la chaîne de valeur.

Une nouvelle architecture de gouvernance

Suite aux nouvelles règles sur les modèles GPAI et à la nécessité évidente de leur application au niveau de l’UE, un bureau de l’IA au sein de la Commission est créé pour superviser ces modèles d’IA les plus avancés, contribuer à promouvoir les normes et les pratiques de test, et faire appliquer les règles communes dans tous les États membres. Un groupe scientifique d’experts indépendants conseillera l’AI Office sur les modèles GPAI, en contribuant au développement de méthodologies d’évaluation des capacités des modèles de fondations, en donnant des conseils sur la désignation et l’émergence de modèles de fondations à fort impact, et en surveillant les éventuels risques de sécurité des matériaux liés. aux modèles de fondation.

Le conseil d’administration d’AI, qui comprendrait des représentants des États membres, demeurera une plateforme de coordination et un organe consultatif auprès de la Commission et donnera un rôle important aux États membres dans la mise en œuvre du règlement, y compris la conception de codes de bonnes pratiques pour les fondations. des modèles. Enfin, un forum consultatif pour les parties prenantes, telles que les représentants de l’industrie, les PME, les start-ups, la société civile et le monde universitaire, sera mis en place pour fournir une expertise technique au Conseil de l’IA.

Pénalités

Les amendes en cas de violation de la loi sur l’IA étaient fixées en pourcentage du chiffre d’affaires annuel global de l’entreprise contrevenante au cours de l’exercice précédent ou en un montant prédéterminé, le montant le plus élevé étant retenu. Cela représenterait 35 millions d’euros ou 7 % pour les violations des applications d’IA interdites, 15 millions d’euros ou 3 % pour les violations des obligations de la loi sur l’IA et 7,5 millions d’euros ou 1,5 % pour la fourniture d’informations incorrectes. Toutefois, l’accord provisoire prévoit des plafonds plus proportionnés aux amendes administratives pour les PME et les start-ups en cas de violation des dispositions de la loi sur l’IA.

L’accord de compromis précise également qu’une personne physique ou morale peut déposer une plainte auprès de l’autorité de surveillance du marché compétente concernant le non-respect de la loi sur l’IA et peut s’attendre à ce qu’une telle plainte soit traitée conformément aux procédures dédiées de cette autorité.

Transparence et protection des droits fondamentaux

L’accord provisoire prévoit une évaluation d’impact sur les droits fondamentaux avant qu’un système d’IA à haut risque ne soit mis sur le marché par ses déployeurs. L’accord provisoire prévoit également une transparence accrue concernant l’utilisation de systèmes d’IA à haut risque. En particulier, certaines dispositions de la proposition de la Commission ont été modifiées pour indiquer que certains utilisateurs d’un système d’IA à haut risque qui sont des entités publiques seront également obligés de s’inscrire dans la base de données de l’UE pour les systèmes d’IA à haut risque. De plus, des dispositions nouvellement ajoutées mettent l’accent sur l’obligation pour les utilisateurs d’un système de reconnaissance des émotions d’informer les personnes physiques lorsqu’elles sont exposées à un tel système.

Mesures en faveur de l’innovation

En vue de créer un cadre juridique plus favorable à l’innovation et de promouvoir un apprentissage réglementaire fondé sur des données probantes, les dispositions concernant les mesures de soutien à l’innovation ont été considérablement modifiées par rapport à la proposition de la Commission.

Il a notamment été précisé que les bacs à sable réglementaires de l’IA , censés établir un environnement contrôlé pour le développement, les tests et la validation de systèmes d’IA innovants, devraient également permettre de tester des systèmes d’IA innovants dans des conditions réelles. En outre, de nouvelles dispositions ont été ajoutées permettant de tester les systèmes d’IA dans des conditions réelles , dans des conditions et des garanties spécifiques. Afin d’alléger la charge administrative des petites entreprises, l’accord provisoire comprend une liste d’actions à entreprendre pour soutenir ces opérateurs et prévoit quelques dérogations limitées et clairement spécifiées. 

Entrée en vigueur

L’accord provisoire prévoit que la loi sur l’IA devrait s’appliquer deux ans après son entrée en vigueur, avec quelques exceptions pour des dispositions spécifiques.

Prochaines étapes

Suite à l’accord provisoire d’aujourd’hui, les travaux se poursuivront au niveau technique dans les semaines à venir pour finaliser les détails du nouveau règlement. La présidence soumettra le texte de compromis aux représentants des États membres (Coreper) pour approbation une fois ces travaux terminés.

L’ensemble du texte devra être confirmé par les deux institutions et faire l’objet d’une révision juriste-linguistique avant son adoption formelle par les colégislateurs.

Informations d’arrière-plan

La proposition de la Commission, présentée en avril 2021, est un élément clé de la politique de l’UE visant à favoriser le développement et l’adoption sur le marché unique d’une IA sûre et licite qui respecte les droits fondamentaux.

La proposition suit une approche fondée sur les risques et établit un cadre juridique uniforme et horizontal pour l’IA visant à garantir la sécurité juridique. Le projet de règlement vise à promouvoir l’investissement et l’innovation dans l’IA, à améliorer la gouvernance et l’application efficace de la législation existante en matière de droits fondamentaux et de sécurité, et à faciliter le développement d’un marché unique pour les applications de l’IA. Il va de pair avec d’autres initiatives, notamment le plan coordonné sur l’intelligence artificielle qui vise à accélérer les investissements dans l’IA en Europe. Le 6 décembre 2022, le Conseil est parvenu à un accord sur une orientation générale (mandat de négociation) sur ce dossier et a entamé des discussions interinstitutionnelles avec le Parlement européen (« trilogues ») à la mi-juin 2023.

Postez un commentaire

You don't have permission to register