Loi sur l'IA de l'UE : première réglementation de l'intelligence artificielle

L'utilisation de l'intelligence artificielle dans l'UE sera réglementée par la loi sur l'IA, la première loi globale sur l'IA au monde. Découvrez comment elle vous protégera.

Cette illustration de l'intelligence artificielle est générée par l'IA
Cette illustration de l'intelligence artificielle est générée par l'IA

Dans le cadre de sa stratégie numérique, l'UE souhaite réglementer l'intelligence artificielle (IA) pour garantir de meilleures conditions de développement et d'utilisation de cette technologie innovante. L'IA peut apporter de nombreux avantages, tels que de meilleurs soins de santé, des transports plus sûrs et plus propres, une fabrication plus efficace, ainsi qu'une énergie moins chère et plus durable

 

En avril 2021, la Commission européenne a proposé le premier cadre réglementaire de l'UE pour l'IA. Il propose que des systèmes d'IA qui peuvent être utilisés dans différentes applications soient analysés et classés en fonction du risque qu'ils présentent pour les utilisateurs. Les différents niveaux de risque impliqueront plus ou moins de réglementation.

 

En savoir plus sur ce qu'est l'intelligence artificielle et comment elle est utilisée.

 

Ce que le Parlement veut dans la législation sur l'IA

 

La priorité du Parlement est de veiller à ce que les systèmes d'IA utilisés dans l'UE soient sûrs, transparents, traçables, non discriminatoires et respectueux de l'environnement. Les systèmes d'IA devraient être supervisés par des personnes plutôt que par l'automatisation, afin d'éviter des résultats néfastes.

 

Le Parlement souhaite également établir une définition uniforme et neutre sur le plan technologique de l'IA qui pourrait être appliquée aux futurs systèmes d'IA.

 

En savoir plus sur les travaux du Parlement sur l'IA et sa vision de l'avenir de l'IA.

 

Loi sur l'IA : des règles différentes pour différents niveaux de risque

 

Les nouvelles règles établissent des obligations pour les fournisseurs et les utilisateurs en fonction du niveau de risque lié à l'IA. Bien que de nombreux systèmes d'IA présentent un risque minimal, ils doivent être évalués.

 

Risque inacceptable

 

Les systèmes d'IA à risque inacceptable sont des systèmes considérés comme une menace pour les personnes et seront interdits. Ils comprennent:

• la manipulation cognitivo-comportementale de personnes ou de groupes vulnérables spécifiques : par exemple, des jouets activés par la voix qui encouragent les comportements dangereux chez les enfants

• un score social : classer les personnes en fonction de leur comportement, de leur statut socio-économique, de leurs caractéristiques personnelles

• une catégorisation et une identification biométriques des personnes

• des systèmes d'identification biométrique en temps réel et à distance, tels que la reconnaissance faciale

 

Certaines exceptions peuvent être autorisées à des fins d'application de la loi. Les systèmes d'identification biométrique à distance « en temps réel » seront autorisés dans un nombre limité de cas graves, tandis que les systèmes d'identification biométrique à distance a posteriori, où l'identification a lieu après un délai important, seront autorisés à poursuivre des crimes graves et seulement après l'approbation du tribunal.

 

Risque élevé  

 

Les systèmes d'IA qui ont un impact négatif sur la sécurité ou les droits fondamentaux seront considérés comme à haut risque et seront divisés en deux catégories.

 

1. Les systèmes d'IA qui sont utilisés dans les produits relevant de la législation de l'UE sur la sécurité des produits. Cela comprend les jouets, l'aviation, les voitures, les dispositifs médicaux et les ascenseurs.

 

2. Les systèmes d'IA relevant de domaines spécifiques qui devront être enregistrés dans une base de données de l'UE :

• la gestion et l'exploitation des infrastructures critiques

• l'éducation et la formation professionnelle

• l'emploi, la gestion des travailleurs et l'accès au travail indépendant

• l'accès et la jouissance des services privés essentiels et des services et avantages publics

• les forces de l'ordre

• la gestion de la migration, de l'asile et du contrôle des frontières

• l'aide à l'interprétation juridique et à l'application de la loi.

 

Tous les systèmes d'IA à haut risque seront évalués avant leur mise sur le marché et tout au long de leur cycle de vie. Les citoyens auront le droit de déposer des plaintes concernant les systèmes d'IA auprès des autorités nationales désignées.

 

Exigences de transparence

 

L'IA générative, comme ChatGPT, ne sera pas classée à haut risque, mais devra se conformer aux exigences de transparence et à la législation de l’UE sur le droit d’auteur :

• indiquer que le contenu a été généré par l'IA

• concevoir le modèle pour l'empêcher de générer du contenu illégal

• publier des résumés des données protégées par le droit d'auteur utilisées pour la formation 

 

Les modèles d’IA à usage général à fort impact susceptibles de présenter un risque systémique, tels que le modèle d’IA plus avancé GPT-4, devraient faire l’objet d’évaluations approfondies et signaler tout incident grave à la Commission.

Les contenus générés ou modifiés à l'aide de l'IA - images, fichiers audio ou vidéo (par exemple, les "deepfakes") - doivent être clairement étiquetés comme étant générés par l'IA, afin que les utilisateurs sachent qu'il s’agit de ce type de contenu. 

 

Soutenir l’innovation

 

La législation vise à offrir aux PME et aux jeunes entreprises la possibilité de développer et d'entraîner des modèles d'IA avant leur diffusion au grand public.

C'est pourquoi elle exige que les autorités nationales fournissent aux entreprises un environnement d'essai qui simule des conditions proches du monde réel.

Prochaines étapes

 

Le texte convenu sera formellement adoptéen avril 2024. Il sera pleinement applicable 24 mois après son entrée en vigueur, mais certaines parties seront applicables plus tôt :

- l'interdiction des systèmes d'IA présentant des risques inacceptables s'appliquera six mois après l'entrée en vigueur

- les codes de pratique s'appliqueront neuf mois après l'entrée en vigueur

- les règles relatives aux systèmes d'IA à usage général qui doivent se conformer à des exigences de transparence s'appliqueront 12 mois après l'entrée en vigueur.

Les systèmes à haut risque disposeront de plus de temps pour se conformer aux exigences, car les obligations les concernant s'appliqueront 36 mois après l'entrée en vigueur.


 

En savoir plus sur l'action numérique de l'UE :

Dangers de la crypto-monnaie et avantages de la législation de l'UE

Lutte contre la cybercriminalité : les nouvelles lois européennes sur la cybersécurité expliquées

Stimuler le partage des données dans l'UE : quels sont les avantages ?

Législations de l'UE sur les marchés numériques et sur les services numériques

Cinq façons dont le Parlement européen veut protéger les joueurs en ligne