top of page
Kenza Laraki

👁🧠L’AI Act 🧠 👁



 

đŸ‡ȘđŸ‡ș Face Ă  l’évolution fulgurante de l’intelligence artificielle dans le monde, la question de sa rĂ©glementation s’est posĂ©e, aboutissant ce 13 mars 2024 à l’adoption formelle, par le parlement europĂ©en de l’AI Act.  đŸ‡ȘđŸ‡ș

 

📌Issu d’une proposition de la Commission europĂ©enne du 21 avril 2021, et aprĂšs des nĂ©gociations complexes entre les Ă©tats membres de l’Union europĂ©enne, le texte a finalement Ă©tĂ© adoptĂ©.  

 

Cette législation se veut novatrice à travers plusieurs aspects de la réglementation que nous allons expliciter.

 

đŸ€– D’abord cette rĂ©glementation pose un cadre dĂ©fini avec des dĂ©finitions nouvelles, s’émancipant de la notion de service ou encore celle de produit numĂ©rique.

Les systĂšmes d’intelligence artificielle sont caractĂ©risĂ©s comme des

« systĂšmes opĂ©rant avec une certaine autonomie susceptible de s’adapter et de se dĂ©velopper afin d’atteindre des objectifs implicites ou explicites » .

 

Cette dĂ©finition permet donc de viser spĂ©cifiquement les systĂšmes d’intelligence artificielle Ă  travers une lĂ©gislation ciblĂ©e et non plus de passer par des termes intermĂ©diaires tels que le service numĂ©rique. đŸ€–

 

đŸ€– Ensuite, la rĂ©glementation de l’intelligence artificielle est Ă©tablie au travers de la question la protection des droits fondamentaux, la qualifiant d’objectif dans son article 1.1.

Cet objectif se traduit notamment par la consĂ©cration d’un devoir de transparence, obligeant les acteurs de l’intelligence artificielle Ă  informer les personnes physiques du fait qu’elles interagissent avec des systĂšmes d’intelligence artificielle.

Cette obligation s’applique Ă©galement aux contenus gĂ©nĂ©rĂ©s par les systĂšmes d’intelligence artificielle, la fameuse IA gĂ©nĂ©rative qui doivent pouvoir ĂȘtre identifiĂ©s comme tels par les utilisateurs.

📍En rĂ©alitĂ© cette disposition vise notamment les trucages audios ou encore les deepfakes.  

 

đŸ€– Enfin, l’AI Act introduit une approche basĂ©e sur les risques d’atteinte aux droits fondamentaux.

Ainsi, plus les risques seront élevés, plus la législation appliquée sera stricte.

⛔De ce fait, les systĂšmes d’intelligence artificielle Ă  risque inacceptable seront prohibĂ©s, interdisant ainsi :

-       les pratiques manipulatoires sous le seuil de conscience,

-        la catégorisation biométrique qui tendent à déduire un ensemble d'opinions sensibles telles que les opinions politiques ou religieuse,

-       la notation sociale ou encore l’exploitation des vulnĂ©rabilitĂ©s des personnes.

 

📍Les systĂšmes d’intelligence artificielle Ă  haut risque seront quant Ă  eux autorisĂ©s mais seront soumis Ă  un nombre Ă©levĂ© d’obligations afin de pouvoir opĂ©rer sur le marchĂ© europĂ©en.

 

📃📃Ils seront notamment soumis à :

-        l’établissement d’une documentation technique afin de dĂ©montrer leur conformitĂ©,

-       la fourniture d’informations strictes en aval de l’utilisation de leur logiciel ou

-       encore la mise en place d’une surveillance humaine.

 

Les modĂšles constituant un risque systĂ©mique s’exposent aussi des obligations consistant en substance Ă  l’évaluation de modĂšles au moyen de divers tests documentĂ©s ou encore des obligations affĂ©rentes Ă  la protection de la cybersĂ©curitĂ©.  đŸ€–

 

đŸ–Č đŸ–Č Si le texte europĂ©en a formellement Ă©tĂ© adoptĂ©, une version dĂ©finitive doit encore ĂȘtre rĂ©vĂ©lĂ©e le 22 avril 2024 đŸ–Č đŸ–Č

18 vues0 commentaire

Comments


bottom of page