MENU
THEMES

La CNIL est favorable au règlement européen sur l’intelligence artificielle

Publié le: 25/08/2021  |  Par: Guide Informatique  
La CNIL est favorable au règlement européen sur l’intelligence artificielle

La CNIL est favorable au règlement européen sur l’intelligence artificielle, visant à encadrer l’usage de la technologie au sein de l’Union. Elle a toutefois soulevé quatre points de vigilance conjointement avec le contrôleur européen de la protection des données et ses homologues européens.


La nécessité de réglementer l’intelligence artificielle, afin d’en assurer une approche éthique, avait été mentionnée par Ursula von der Leyen lors de son discours de candidature à la présidence de la Commission Européenne. Fin avril, la Commission Européenne avait soumis une proposition de règlement afin que les mêmes règles s’appliquent partout dans l’Union, garantissant ainsi aux opérateurs de l’IA que l’environnement juridique soit stable, et aux citoyens qu’ils disposeront des mêmes protections partout au sein de l’UE.

La CNIL a pris le temps de réfléchir à la proposition de la Commission Européenne est d’échanger avec la Commission Nationale de l’informatique sur les libertés ainsi que ses homologues européens. De ses échanges, elle a relevé quatre points qui lui semblent fondamentaux quant à la régulation de l’intelligence artificielle au sein de l’Union et qu’elle partage dans un billet de blog. Il s’agit de :

1. La nécessité de tracer des lignes rouges aux futurs usages de l’IA
2. Le défi de l’articulation avec la RGPD
3. L’importance d’une gouvernance harmonisée
4. Un accompagnement de l’innovation indispensable 

Avec ces quatre points, la CNIL et ses homologues se positionnent en tant que contributeur à la construction d’une stratégie cohérente et respectueuse des libertés et droits fondamentaux. Par exemple, la CNIL s’oppose à une exception pour l’utilisation de la biométrie dans l’espace public : “compte tenu des risques extrêmement élevés posés par l’identification biométrique à distance des personnes dans les espaces publics (reconnaissance des visages, de la démarche, des empreintes digitales, de la voix, etc.) les autorités de protection des données européennes proposent que soient retirées les exceptions à l’interdiction générale.” La CNIL souhaite également soumettre les systèmes d’intelligence artificielle visant à déduire les émotions d’une personne physique à une interdiction de principe. Elle souhaite également interdire les systèmes de notation sociale, similaire à ce qui existe en Chine.

Pour la CNIL, articuler intelligence artificielle et respect du RGPD, et donc des données personnelles des utilisateurs, représente l’un des principaux challenges de la législation. Enfin, l’ensemble des autorités de protection des données européennes tiennent à préciser que “la classification d’un système d’intelligence artificielle classé à haut risque ne signifiait pas que son utilisation était autorisée et pouvait être déployée dans tous les cas”.

Par ailleurs, la CNIL souhaite être considérée comme l’autorité de référence afin de s’assurer du contrôle national de l’intelligence artificielle, un point sur lequel ses homologues s’accordent. Ils estiment qu’une entité de référence est absolument nécessaire dans le cadre de la future réglementation européenne et la CNIL pourrait être la mieux placée pour cela : “nous estimons qu’une telle désignation faciliterait la bonne application du futur règlement sur l’intelligence artificielle et la constitution d’un écosystème européen de l’intelligence artificielle favorable à l’innovation”.

Suite à ces premiers retours, les discussions vont maintenant se poursuivre et le texte sera probablement revisité avant de pouvoir être adopté.

Actualités dans la même thématique ...

L'intelligence artificielle (IA) bouleverse notre monde, et avec elle, les outils de création de contenu. Parmi les technologies les plus prometteuses, on trouve les outils de Gen Ai, capables de générer automatiquement du texte, des images, de la musique et même du code. Cet article explore les ...

Réagir à cet article