Quelles sont les dernières nouvelles concernant la loi sur l'intelligence artificielle ?

Les membres du Parlement européen (« députés ») et du Conseil sont récemment parvenus à un accord provisoire sur la mise à jour de la loi sur l'intelligence artificielle. Cette réglementation vise à trouver un équilibre délicat entre la sécurité de l'IA, la protection des droits fondamentaux et la promotion de l'innovation en Europe.

Les dispositions de la loi sur l'IA définissent un cadre global qui tient compte des risques potentiels associés aux systèmes d'IA à fort impact tout en permettant aux entreprises, en particulier les petites et moyennes entreprises (« PME »), de prospérer.

 

Que contient la loi sur l'IA ?

L'un des points forts de la loi sur l'IA est l'interdiction de certaines applications de l'IA jugées préjudiciables aux droits des citoyens et à la démocratie. Le règlement interdit l'utilisation de systèmes de catégorisation biométrique basés sur des caractéristiques sensibles telles que les convictions politiques, la religion, l'orientation sexuelle et l’origine raciale.

En outre, l'extraction non ciblée d'images d’un visage sur internet ou de séquences de vidéosurveillance pour les bases de données de reconnaissance faciale, la reconnaissance des émotions sur le lieu de travail et dans les établissements d'enseignement, ainsi que la notation sociale basée sur les caractéristiques personnelles sont toutes explicitement interdites. La loi interdit également les systèmes d'IA conçus pour manipuler le comportement humain afin de contourner le libre arbitre, ainsi que ceux qui exploitent les vulnérabilités fondées sur l'âge, le handicap ou le statut socio-économique.

Si des mesures strictes ont été mises en place pour réglementer l'utilisation de l'IA dans les services judiciaires, les négociateurs se sont mis d'accord sur des dérogations assorties de garanties spécifiques. Les systèmes d'identification biométrique (« RBI ») utilisés dans des espaces accessibles au public à des fins répressives doivent faire l'objet d'une autorisation judiciaire préalable. L'utilisation des systèmes d'identification biométrique "après éloignement" est limitée à la recherche ciblée de personnes condamnées ou soupçonnées d'infractions graves, tandis que les systèmes d'identification biométrique "en temps réel" sont limités à des scénarios spécifiques, tels que la recherche de victimes d'enlèvement, la prévention des menaces terroristes ou la localisation d'individus soupçonnés d'infractions spécifiques.

 

Analyse de l'approche fondée sur les risques

La loi sur l'IA aborde les différents niveaux de risque associés aux différentes applications de l'IA. Elle vise à promouvoir des pratiques responsables en matière d'IA tout en favorisant l'innovation et la croissance dans ce secteur. Elle classe l'IA en trois niveaux de risque : risque inacceptable, risque élevé et risque limité.

Risque inacceptable

Les systèmes d'IA présentant un « risque inacceptable » sont purement et simplement interdits. Il s'agit par exemple de la manipulation cognitivo-comportementale, des jouets dangereux à commande vocale, d’un score social et de l'identification biométrique des personnes, sauf dans le cas d'exceptions limitées liées à l'application de la loi.

 

Risque élevé

Les systèmes d'IA ayant un impact négatif sur la sécurité ou les droits fondamentaux sont classés dans la catégorie « risque élevé ».

Ils sont divisés en deux groupes : l'IA dans les produits relevant de la législation de l’UE sur la sécurité des produits et l'IA dans des domaines spécifiques nécessitant un enregistrement dans une base de données de l'UE.

Les systèmes d'IA à haut risque font l'objet d'évaluations approfondies avant d'entrer sur le marché et sont évalués en permanence tout au long de leur cycle de vie.

 

IA généraliste et générative

L'IA générative, comme ChatGPT, relève de l'IA à usage général et est soumise à des exigences de transparence. Il s'agit notamment de divulguer le contenu généré par l'IA, d'empêcher la génération de contenu illégal et de publier des résumés des données protégées par le droit d'auteur utilisées pour la formation. Les modèles d'IA à usage général à fort impact, comme GPT-4, font l'objet d'évaluations rigoureuses et les incidents graves doivent être signalés à la Commission européenne.

 

Risque limité

Les systèmes d'IA classés « à risque limité » doivent se conformer à des exigences de transparence minimales, en particulier ceux qui génèrent ou manipulent des images, des sons ou des vidéos, comme les « deepfakes ».

 

En quoi consistent les mises à jour de la loi sur l'IA ?

La loi sur l'IA impose des obligations claires aux systèmes d'IA classés comme présentant un risque élevé, en tenant compte de leur impact potentiel sur la santé, la sécurité, les droits fondamentaux, l'environnement, la démocratie et l'État de droit.

Elle prévoit notamment une évaluation obligatoire de l'impact sur les droits fondamentaux, applicable non seulement au développement des systèmes d'IA, mais aussi aux secteurs de l'assurance et de la banque. Les citoyens se voient accorder le droit de déposer des plaintes concernant les systèmes d'IA à haut risque et de recevoir des explications concernant les décisions qui ont une incidence sur leurs droits.

Systèmes d'intelligence artificielle à usage général

Reconnaissant la diversité des capacités des systèmes d'IA et leur expansion rapide, la loi sur l'IA introduit des exigences de transparence pour les modèles d'IA à usage général (« GPAI »). Ces exigences portent notamment sur la documentation technique, le respect de la législation européenne en matière de droits d'auteur et des résumés détaillés du contenu utilisé pour la formation. Pour les modèles GPAI à fort impact présentant un risque systémique, des obligations supplémentaires strictes ont été mises en place, telles que l'évaluation des modèles, l'évaluation des risques, les tests contradictoires, la déclaration des incidents, la garantie de la cybersécurité et la déclaration de l'efficacité énergétique.

 

Soutenir l'innovation et les PME

Reconnaissant l'importance de favoriser l'innovation et de veiller à ce que les PME puissent prospérer dans le secteur de l'IA, la loi sur l'IA encourage la mise en place de bacs à sable réglementaires et d'essais en conditions réelles par les autorités nationales. Ces initiatives visent à permettre aux entreprises, en particulier aux PME, de développer et de former des solutions d'IA innovantes avant de les introduire sur le marché.

 

Entrée en vigueur

Pour faire respecter la réglementation, la loi sur l'IA prévoit des amendes importantes en cas de non-respect, allant de 35 millions d'euros ou 7 % du chiffre d'affaires mondial à 7,5 millions d'euros ou 1,5 % du chiffre d'affaires, en fonction de l'infraction et de la taille de l'entreprise.

Ce cadre constitue un guide essentiel pour les entreprises, les chercheurs et les développeurs qui naviguent sur le terrain complexe du développement et du déploiement de l'IA. En mettant l'accent sur l'équilibre entre la réglementation et l'innovation, la loi sur l'IA fait de l'Europe un chef de file dans l'élaboration de l'avenir de l'intelligence artificielle.

 

Comment Gerrish Legal peut vous aider ?

Gerrish Legal est un cabinet juridique numérique et dynamique. Nous sommes fiers de prodiguer des conseils juridiques experts et de haute qualité à nos précieux clients. Nous sommes spécialisés dans de nombreux aspects du droit numérique tels que le RGPD, la confidentialité des données, le droit numérique et technologique, le droit commercial et la propriété intellectuelle. 

Nous offrons aux entreprises le soutien dont elles ont besoin pour gérer leurs activités avec succès et en toute confiance tout en se conformant aux réglementations légales, sans avoir à se plier aux exigences numériques en constante évolution.

Nous sommes là vous vous aider, contactez-nous dès aujourd’hui pour plus d’informations.

 

Article de Nathalie Pouderoux, Paralegal / Consultante, pour Gerrish Legal

Previous
Previous

Quand faut-il faire appel à un avocat spécialisé en droit des contrats ?

Next
Next

Que doit contenir un contrat SaaS ?