Â
đȘđș Face Ă lâĂ©volution fulgurante de lâintelligence artificielle dans le monde, la question de sa rĂ©glementation sâest posĂ©e, aboutissant ce 13 mars 2024 à lâadoption formelle, par le parlement europĂ©en de lâAI Act. đȘđș
Â
đIssu dâune proposition de la Commission europĂ©enne du 21 avril 2021, et aprĂšs des nĂ©gociations complexes entre les Ă©tats membres de lâUnion europĂ©enne, le texte a finalement Ă©tĂ© adoptĂ©. Â
Â
Cette législation se veut novatrice à travers plusieurs aspects de la réglementation que nous allons expliciter.
Â
đ€ Dâabord cette rĂ©glementation pose un cadre dĂ©fini avec des dĂ©finitions nouvelles, sâĂ©mancipant de la notion de service ou encore celle de produit numĂ©rique.
Les systĂšmes dâintelligence artificielle sont caractĂ©risĂ©s comme des
« systĂšmes opĂ©rant avec une certaine autonomie susceptible de sâadapter et de se dĂ©velopper afin dâatteindre des objectifs implicites ou explicites » .
Â
Cette dĂ©finition permet donc de viser spĂ©cifiquement les systĂšmes dâintelligence artificielle Ă travers une lĂ©gislation ciblĂ©e et non plus de passer par des termes intermĂ©diaires tels que le service numĂ©rique. đ€
Â
đ€ Ensuite, la rĂ©glementation de lâintelligence artificielle est Ă©tablie au travers de la question la protection des droits fondamentaux, la qualifiant dâobjectif dans son article 1.1.
Cet objectif se traduit notamment par la consĂ©cration dâun devoir de transparence, obligeant les acteurs de lâintelligence artificielle Ă informer les personnes physiques du fait quâelles interagissent avec des systĂšmes dâintelligence artificielle.
Cette obligation sâapplique Ă©galement aux contenus gĂ©nĂ©rĂ©s par les systĂšmes dâintelligence artificielle, la fameuse IA gĂ©nĂ©rative qui doivent pouvoir ĂȘtre identifiĂ©s comme tels par les utilisateurs.
đEn rĂ©alitĂ© cette disposition vise notamment les trucages audios ou encore les deepfakes. Â
Â
đ€ Enfin, lâAI Act introduit une approche basĂ©e sur les risques dâatteinte aux droits fondamentaux.
Ainsi, plus les risques seront élevés, plus la législation appliquée sera stricte.
âïžDe ce fait, les systĂšmes dâintelligence artificielle Ă risque inacceptable seront prohibĂ©s, interdisant ainsi :
-Â Â Â Â Â Â les pratiques manipulatoires sous le seuil de conscience,
-       la catégorisation biométrique qui tendent à déduire un ensemble d'opinions sensibles telles que les opinions politiques ou religieuse,
-      la notation sociale ou encore lâexploitation des vulnĂ©rabilitĂ©s des personnes.
Â
đLes systĂšmes dâintelligence artificielle Ă haut risque seront quant Ă eux autorisĂ©s mais seront soumis Ă un nombre Ă©levĂ© dâobligations afin de pouvoir opĂ©rer sur le marchĂ© europĂ©en.
Â
đđIls seront notamment soumis Ă Â :
-       lâĂ©tablissement dâune documentation technique afin de dĂ©montrer leur conformitĂ©,
-Â Â Â Â Â Â la fourniture dâinformations strictes en aval de lâutilisation de leur logiciel ou
-Â Â Â Â Â Â encore la mise en place dâune surveillance humaine.
Â
Les modĂšles constituant un risque systĂ©mique sâexposent aussi des obligations consistant en substance Ă lâĂ©valuation de modĂšles au moyen de divers tests documentĂ©s ou encore des obligations affĂ©rentes Ă la protection de la cybersĂ©curitĂ©. đ€
Â
đČïž đČïž Si le texte europĂ©en a formellement Ă©tĂ© adoptĂ©, une version dĂ©finitive doit encore ĂȘtre rĂ©vĂ©lĂ©e le 22 avril 2024 đČïž đČïž
Comments