Les États-Unis élaborent un nouveau plan stratégique pour réglementer l'IA

Le 30 octobre 2023, le président Joe Biden a publié un décret présidentiel visant à établir un nouveau plan stratégique de réglementation de l'intelligence artificielle (IA).

La nouvelle stratégie exige que les entreprises d'IA partagent les résultats des tests des systèmes d'IA avec le gouvernement américain avant leur diffusion. Les nouvelles mesures visent à exploiter l'IA tout en protégeant le bien-être général des Américains dans des domaines clés, notamment la sécurité nationale, la sécurité économique, la santé et la sécurité.

Les États-Unis ont annoncé leurs mesures de sécurité contre l'IA avant la tenue d'un sommet sur la sécurité de l'IA organisé par le gouvernement britannique le 1er novembre. La coopération internationale en matière de gouvernance de l'IA a été au cœur de ce sommet.

 

Comment les États-Unis envisagent-ils de se protéger contre l'IA par le biais de leur décret ?

Le développement rapide de l'IA, en particulier de l'IA générative, a suscité des inquiétudes, des batailles juridiques et des craintes de la part du public. Les États-Unis reconnaissent que l'IA présente des risques qui ont conduit à des arrestations injustifiées, ont permis de déformer la vérité en reproduisant des images et des voix, et ont engendré des discriminations et des inégalités sociales.

L'une des plus grandes craintes concernant l'IA est qu'elle puisse contribuer à la création d'armes biologiques plus meurtrières et de cyber-attaques paralysantes. Pire encore, elle pourrait développer des capacités supérieures à celles de l'homme.

L'objectif principal du plan est d'invoquer la loi sur la production de défense (Defense Production Act), qui oblige les entreprises qui forment des modèles d'IA à informer le gouvernement fédéral lorsqu'elles perçoivent un risque pour la sécurité nationale ou la santé et la sécurité publiques.

 

Les mesures proposées sont les suivantes :

  • Établir de nouvelles normes de sécurité et de sûreté pour l'IA

  • Demander aux entreprises d'IA de partager les résultats des tests des systèmes d'IA avec le gouvernement américain

  • Protéger la vie privée des consommateurs en élaborant des normes que les organisations peuvent utiliser pour évaluer les mesures de protection de la vie privée mises en œuvre dans l'IA

  • Mettre en place un programme d'évaluation des pratiques potentiellement dangereuses en matière de soins de santé liées à l'IA

  • Élaborer des documents sur l'utilisation responsable des outils d'IA par les formateurs

  • Promouvoir les droits civils et l'équité en établissant les meilleures pratiques pour l'application correcte de l'IA dans le système juridique, y compris la prévision de la criminalité, l'évaluation des risques et la détermination de la peine

  • Collaborer avec des partenaires internationaux pour mettre en pratique les normes d'IA à l'échelle mondiale

  • Publier des lignes directrices officielles pour le filigrane des contenus créés par l'IA afin de lutter contre les risques associés à la fraude et aux « deepfakes » (ou « hypertrucage »)

  • Établir de nouvelles lignes directrices pour le contrôle de la synthèse biologique afin de se prémunir contre les dangers de l'utilisation de l'IA pour créer des matériaux biologiques nocifs.

 

Quelles seront les conséquences de ce plan pour les entreprises américaines ?

Les entreprises qui développent des modèles et des systèmes d'IA susceptibles de constituer une menace pour la santé et la sécurité économiques, nationales ou publiques doivent informer le gouvernement américain lorsqu'elles forment le modèle.

Les entreprises d'IA sont désormais soumises à des règles gouvernementales strictes en matière de tests, établies par l'Institut national, afin de garantir que les systèmes d'IA sont sûrs avant leur mise en circulation. En outre, elles doivent partager les résultats des tests de sécurité avec le gouvernement fédéral. Ces mesures garantissent que les systèmes d'IA sont sûrs et fiables avant que les entreprises ne les mettent à la disposition du public.

Il est donc important que les organisations concernées se conforment aux nouvelles réglementations et mettent à jour leurs politiques et processus internes en conséquence.

 

Comment Gerrish Legal peut vous aider ?

Gerrish Legal est un cabinet juridique numérique et dynamique. Nous sommes fiers de prodiguer des conseils juridiques experts et de haute qualité à nos précieux clients. Nous sommes spécialisés dans de nombreux aspects du droit numérique tels que le RGPD, la confidentialité des données, le droit numérique et technologique, le droit commercial et la propriété intellectuelle. 

Nous offrons aux entreprises le soutien dont elles ont besoin pour gérer leurs activités avec succès et en toute confiance tout en se conformant aux réglementations légales, sans avoir à se plier aux exigences numériques en constante évolution.

Nous sommes là vous vous aider, contactez-nous dès aujourd’hui pour plus d’informations.

 

Article de Nathalie Pouderoux, Paralegal / Consultante, pour Gerrish Legal

Previous
Previous

TikTok remporte l'argument de la protection de la vie privée contre la liberté d'expression ?

Next
Next

Quand faut-il renouveler un contrat d'entreprise lorsqu'on est prestataire de services ?