Image Alt

Vudailleurs.com

Intelligence artificielle: les députés adoptent une législation historique

Mercredi, le Parlement européen a franchi une étape historique en adoptant une législation novatrice sur l’intelligence artificielle (IA), qui vise à garantir la sécurité et le respect des droits fondamentaux tout en stimulant l’innovation. Par 523 voix pour, 46 contre et 49 abstentions, ce règlement, élaboré lors des négociations avec les États membres en décembre 2023, définit un cadre équilibré pour l’utilisation de l’IA en Europe.

Cette nouvelle réglementation a pour objectif de protéger les droits fondamentaux, la démocratie, l’État de droit et la durabilité environnementale face aux risques posés par certaines applications de l’IA, tout en faisant de l’Europe un leader dans le domaine. Elle introduit des obligations pour les systèmes d’IA en fonction des risques qu’ils présentent et de leur impact potentiel.

Des applications d’IA interdites pour protéger les citoyens

Certaines applications de l’IA jugées dangereuses pour les droits des citoyens sont désormais strictement interdites. Parmi ces interdictions figurent les systèmes de catégorisation biométrique basés sur des caractéristiques sensibles, ainsi que l’extraction non ciblée d’images faciales sur Internet ou via des caméras de surveillance pour créer des bases de données de reconnaissance faciale.

D’autres pratiques sont également proscrites : la reconnaissance des émotions sur les lieux de travail et dans les écoles, la notation sociale, la police prédictive basée uniquement sur le profilage, et les systèmes d’IA conçus pour manipuler les comportements humains ou exploiter des vulnérabilités individuelles.

Exemptions pour les forces de l’ordre

L’utilisation de systèmes d’identification biométrique par les forces de l’ordre est, en principe, interdite, sauf dans des circonstances clairement définies et limitées. Par exemple, l’identification biométrique « en temps réel » ne pourra être utilisée que sous des conditions strictes, avec des restrictions géographiques et temporelles, et sous réserve d’une autorisation judiciaire ou administrative préalable. Ces systèmes pourront être utilisés, par exemple, pour rechercher des personnes disparues ou prévenir des attaques terroristes.

L’utilisation de systèmes biométriques a posteriori, c’est-à-dire après un événement, est quant à elle classée parmi les usages à haut risque, nécessitant une autorisation judiciaire dans le cadre d’enquêtes pénales.

Réglementation des systèmes d’IA à haut risque

Les systèmes d’IA identifiés comme présentant un risque élevé, en raison des impacts potentiels sur la santé, la sécurité, les droits fondamentaux ou la démocratie, font l’objet d’obligations strictes. Ces systèmes incluent ceux utilisés dans des infrastructures critiques, l’éducation, l’emploi, les services essentiels (santé, banques), l’application de la loi, ainsi que la gestion des migrations et des processus démocratiques.

Ces systèmes devront subir des évaluations de risques, être transparents, tenir des registres d’utilisation, et permettre une supervision humaine. Les citoyens auront également le droit de déposer des plaintes et de demander des explications lorsque des décisions affectant leurs droits sont prises par des systèmes d’IA à haut risque.

Transparence et encadrement des systèmes d’IA à usage général

Les systèmes d’IA à usage général, tels que les grands modèles de langage, devront respecter des exigences accrues de transparence, incluant la publication de résumés détaillés des données utilisées pour leur entraînement. Les systèmes présentant un risque systémique seront soumis à des obligations supplémentaires : des évaluations de modèle, des rapports d’incidents, et des mesures d’atténuation des risques devront être mis en place.

Les contenus générés par IA, tels que les deepfakes, devront également être clairement identifiés afin d’éviter toute confusion ou désinformation.

Soutenir l’innovation et les PME

Pour encourager l’innovation, des « bacs à sable réglementaires » seront créés, permettant aux start-ups et aux PME de tester leurs solutions d’IA dans des conditions réelles, sous la supervision des autorités nationales. Ces espaces d’expérimentation permettront de développer des applications d’IA innovantes tout en respectant les exigences légales avant leur mise sur le marché.

Réactions des eurodéputés

Brando Benifei, corapporteur de la commission du marché intérieur, a souligné lors du débat en plénière : « Nous avons enfin une première législation contraignante sur l’IA, qui non seulement réduit les risques, mais crée également des opportunités tout en luttant contre la discrimination. Grâce à ce texte, les pratiques inacceptables seront interdites en Europe, et les droits des travailleurs et des citoyens seront protégés. »

Dragos Tudorache, co rapporteur de la commission des libertés civiles, a quant à lui ajouté : « L’UE a respecté ses engagements. Nous avons intégré l’IA dans le cadre des valeurs fondamentales de nos sociétés. Toutefois, ce n’est qu’un début. Cette loi nous pousse à repenser notre contrat social, nos systèmes éducatifs et nos marchés du travail. »

Prochaines étapes

Le texte doit encore faire l’objet d’une vérification juridique avant son adoption définitive, prévue avant la fin de la législature. Une fois publié au Journal officiel, il entrera en vigueur dans un délai de 20 jours, avec des périodes de transition pour certaines dispositions : six mois pour les interdictions, neuf mois pour les codes de pratique, et jusqu’à 36 mois pour les systèmes d’IA à haut risque.

Contexte de la législation

Cette loi répond directement aux recommandations des citoyens exprimées lors de la Conférence sur l’avenir de l’Europe. Elle vise à renforcer la compétitivité de l’UE dans les secteurs stratégiques, tout en garantissant un usage éthique et responsable de l’intelligence artificielle, en phase avec les valeurs européennes de transparence, de sécurité et de protection des droits humains.

Postez un commentaire

You don't have permission to register
error: Content is protected !!