Vers une régulation européenne de l’intelligence artificielle ?

Source [genethique.org] En janvier 2020, un projet de livre blanc est élaboré par la Commission européenne sur l’intelligence artificielle. En même temps, la Commission du marché intérieur et de la protection des consommateurs du Parlement européen adopte un « projet de résolution relatif aux procédés de prise de décision automatisée ». Ces deux projets concernant l’intelligence artificielle donner lieu à des propositions de régulation soumises aux Etats membres.  

Concernant la prise de décision automatisée (ADM), le projet renvoie à l’article 22 du RGPD relatif aux algorithmes dont le « spectre de technologies » dépasse la seule intelligence artificielle, et d’un autre côté, il passe sous silence le cas d’une intelligence artificielle permettant d’aider l’être humain dans son raisonnement tout en lui laissant prendre la décision finale.

 

Tout d’abord, en ne définissant pas suffisamment les termes, le Projet du Parlement apparait comme assez confus. Ce qui n’est pas le cas dans le projet du livre blanc qui définit les systèmes d’intelligence artificielle comme « des systèmes logiciels (et éventuellement matériels) conçus par des êtres humains et qui, ayant reçu un objectif complexe, agissent dans le monde réel ou numérique en percevant leur environnement par l’acquisition de données, en interprétant les données structurées ou non structurées collectées, en appliquant un raisonnement aux connaissances, ou en traitant les informations, dérivées de ces données et en décidant de la (des) meilleure(s) action(s) à prendre pour atteindre l’objectif donné ».

 

Les députés européens proposent que soit renforcée l’obligation d’information du consommateur sur le fonctionnement de l’intelligence artificielle. En termes de sécurité, ils souhaitent prévenir les dommages subis par les consommateurs. D’autre part, « les députés suggèrent que l’humain devrait toujours être responsable en dernier ressort », tout en accordant que cette « autonomie décisionnelle », primordiale, implique une formation professionnelle. La garantie d’une intervention humaine figure dans le projet de loi de bioéthique actuellement en cours de discussion en France.

 

Dans un souci de qualité et de transparence, les députés demandent que ni les données utilisées pour l’entraînement de l’intelligence artificielle, ni les algorithmes ne soient pas biaisés. D’autre part, les entreprises développant une intelligence artificielle devront être capables de corriger les erreurs et de permettre aux consommateurs de bénéficier d’une intervention humaine pour des décisions qui seraient définitives et permanentes.

 

Dans son livre blanc, plus complet que le projet de régulation, la Commission européenne aborde la question de la responsabilité quand une erreur se trouve à l’origine d’un dommage. A la suite de l’intervention de nombreux acteurs, la question a été clarifiée par la Commission. Ainsi, en phase de développement, le « débiteur d’obligations » serait le développeur ; le consommateur quant à lui aurait des obligations lors de la phase d’utilisation. L’institution d’un cadre réglementaire est clairement proposée par la Commission qui manifeste la volonté d’adapter le seuil de réglementation aux risques des applications.

 

Une régulation européenne de l’intelligence artificielle semble se préciser dans le but, sans freiner l’innovation, de prévenir les risques.  Cécile Crichton note cependant que « la qualification juridique de l’intelligence artificielle » demeure parmi les points à éclaircir.

 

Enfin, même si les domaines à réglementer sont précisés, il n’y a pas encore de mesures concrètes.

 

Sources: 

Union européenne et intelligence artificielle : état des propositions, Dalloz, édition du 17 février 2020

Retrouvez d'autres informations sur le sujet en cliquant ici