marketing digital

Intelligence artificielle : quelle réglementation en France et en Europe ?

Faut-il établir une réglementation de l’intelligence artificielle ? L’ intelligence artificielle divise le monde de l’actualité. Si certains pensent qu’elle va révolutionner notre société, d’autres la voient comme une menace qui nous dirigera vers notre destruction. Qu’en est-il réellement ? Pour me faire ma propre idée sur le sujet, je me suis rendue à AI Paris 2017.

Intelligence artificielle : quelle réglementation en France et en Europe ?

réglementation et intelligence artificielle

L’intelligence artificielle soulève un grand enjeu de notre société : le système de travail classique constitué d’humains et de machines, que nous connaissons actuellement est en train de changer. Comme le dit Lionel Janin, économiste, expert des questions numériques chez France Stratégie, l‘enjeu principal de l’intelligence artificielle est la transformation de l’emploi qui touchera environ 10% des métiers.

Notre monde va être face à un déplacement des métiers et des fonctions, mais en aucun cela signifie que l’emploi humain sera supprimé. Isabelle Galy, directrice déléguée aux opérations de la CNAM explique que 53% des managers seront pris en charge à 25% par l’intelligence artificielle pour leur permettre ainsi de se consacrer à d’autres tâches.

Mais ce changement doit être pensé. Les organisations doivent accompagner les entreprises dans cette nouvelle ère de l’intelligence artificielle et une réglementation doit être établie pour déterminer le régime juridique de l’intelligence artificielle.

Mais comment réglementer l’intelligence artificielle ? Quel est l’impact de la réglementation européenne sur la gestion des données sur le développement de l’intelligence artificielle ? 

Alain Bensoussan, avocat spécialisé dans le droit numérique et des technologies avancées, ainsi que président du réseau Lexing a répondu à ces questions d’actualité.

La Réglementation de l’intelligence artificielle

Pour cette explication, concentrons-nous sur le droit et la transformation du travail. On ne peut imaginer une société sans droits : il est nécessaire d’avoir des règles pour déterminer la conduite des hommes et leurs rapports sociaux. Comment donc intégrer les robots dans ce système ?

Aussi, une transformation du travail va avoir lieu. Les tâches auparavant effectuées par un humain, seront désormais réalisées par l’intelligence artificielle. En effet, comme le montre l’exemple d’Alain Bensoussan : « dans quelques années, nous pourrons retrouver des médecins humains ainsi que des médecins robots dans les hôpitaux.

L’homme fera une erreur de diagnostic une fois sur deux, contre une fois sur dix pour l’intelligence artificielle ». L’erreur sera bien moins présente mais toujours existante. Qui sera responsable de ce dommage causé par l’intelligence artificielle ? Les régimes de responsabilité existants ne peuvent pas s’appliquer à l’intelligence artificielle, car contrairement à l’homme qui dispose d’une conscience lui donnant une perception de sa propre existence et du monde qui l’entoure.

L’intelligence artificielle ne la possède pas. Mais au-delà de cette conscience, l’intelligence artificielle est libre. La personne robot possède une liberté-décisionnelle gage de son existence, c’est une « personne électronique dotée de droits et de devoir » qui « prend des décisions autonomes ou qui interagit de manière indépendante » avec les autres.

Il est donc nécessaire de réglementer l’intelligence artificielle en trouvant un nouveau droit de la responsabilité.

Comment contrôler l’intelligence artificielle ?

Selon la résolution du Parlement européen, il faut mettre en place « un régime d’assurance obligatoire » qui devra « tenir compte de la toutes les responsabilités potentielles d’un bout à l’autre de la chaîne ». Pour cela, il faudra être capable d’identifier « le robot logiciel, la responsabilité du robot, le capital du  robot, la dignité du robot, les smart contrats, la traçabilité du robot, le principe de bon samaritain et l’intelligence artificielle devra avoir un bouton rouge ».

Garder le contrôle

Car, l’homme devra toujours garder le contrôle sur les personnes robots pour le bon fonctionnement de la coopération entre l’intelligence artificielle et l’homme. Ce nouveau droit de la responsabilité doit à la fois protéger les hommes de l’erreur robot et les robots de l’erreur humaine.

Protéger les hommes des dommages causés par l’intelligence artificielle permettra une meilleure intégration des robots dans la société ainsi qu’une conception et une utilisation fondée sur le risque zéro.

A l’inverse, il ne faut pas que les robots soient utilisés de façon malveillante pour les humains. Il faudra donc contrôler qu’aucun robot soit l’objet d’acte mal intentionné. C’est un cercle vicieux, les robots qui causent des dommages sont eux-mêmes fabriqués par des hommes qui font également des erreurs.

réglementation et intelligence artificielle

La réglementation à venir

L’intelligence artificielle sera touchée par une double réglementation :

  • La loi pour une République Numérique : cette loi a été promulguée en octobre 2016. Elle prépare la France aux différents enjeux de la transition numérique en mettant en avant l’innovation et le développement d’une économie numérique. Cette loi promeut un droit à l’autodétermination informationnelle.
  • Le Règlement Européen sur la Protection des Données (RGPD) : en mai 2018, le RGPD entrera en application. Cette nouvelle réglementation doit permettre à l’Europe de s’adapter à cette nouvelle ère numérique. Ce règlement prônera une minimisation des données, un droit à l’oubli et un droit à la portabilité.

Ces deux réglementations entrainent la création de données d’apprentissage, il faudra donc mettre en avant la protection de la vie privée dès la conception (privacy by design), une conception du droit sur les données personnelles et la protection de la vie privée par défaut (privacy by default), qui assure le plus haut niveau de protection possible aux personnes délivrant les données.

Nous sommes donc dans un contexte où l’on met l’intelligence artificielle sous contrainte.

Mais cela est nécessaire, car si l’on imagine l’intelligence artificielle comme une seule entité, elle sera en réalité multiplié.

Les lois seront donc nécessaires pour cadrer les centaines, voire milliers d’intelligences créées par les acteurs publics et privés, et donner les moyens de lutter contre les intelligences artificielles construites dans des objectifs malveillants.

En conséquence de quoi se pose comme toujours pour ces sujets, la question de la compétence du régulateur.

Claire Sorel

Claire was a Junior Web Marketing Consultant at Visionary Marketing from 2016-2018 _________________ Claire a été consultante junior en marketing Web chez Visionary Marketing de 2016 à 2018 More »

Laisser un commentaire

Bouton retour en haut de la page