IA et Big Data

L’intelligence artificielle peut-elle remplacer l’homme ?

L’intelligence artificielle peut-elle remplacer l’homme ? L’IA est-elle un progrès ou un danger ? L’article du jour est une tribune libre proposée par Claire Hy Outin. Si cette discipline n’est pas nouvelle, elle connaît cependant un renouveau, qui n’est pas sans susciter quelques peurs ici et là. Un phénomène qui, somme toute, n’est pas nouveau.

L’intelligence artificielle peut-elle remplacer l’homme ?

L'intelligence artificielle peut-elle remplacer l'homme
L’intelligence artificielle peut-elle remplacer l’homme ?

L'intelligence artificielle peut-elle remplacer l'hommeDans Player Piano, Kurt Vonnegut, le célèbre auteur américain de fausse science fiction (mais de vrais romans philosophiques) qui est maintenant bien connu de nos lecteurs pour avoir été cité plusieurs fois dans ces pages, avait ouvert le bal des oiseaux de mauvais augure en décrivant un monde apocalyptique, où les humains sont dévalorisés car ils ont perdu leur travail au profit des machines, désormais capables d’effectuer les tâches qui leur étaient autrefois réservées.

En 1952 Kurt Vonnegut s’était déjà posé la question : “l’intelligence artificielle peut-elle remplacer l’homme ?”

L'intelligence artificielle peut-elle remplacer l'hommeLa dystopie de l’auteur américain date de 1952 et n’est sans doute pas la première tentative d’avertir l’homme des dangers générés par ses propres créations. En cela, Mary Shelley avait sans doute ouvert le bal dans la période romantique (1818).

Depuis, le sujet est récurrent, et je me souviens notamment d’un film d’horreur et d’anticipation hollandais de 1983 (The Lift), qui décrivait un ascenseur qui, équipé d’un circuit intelligent à base de neurones humains, prenait son autonomie et finissait par se retourner contre les humains.

Le débat est bien là, la machine est créée par l’homme et ne doit pas pouvoir dépasser son maître, c’est même le sujet des lois de la cybernétique créées par Isaac Asimov :

[Wikipedia] Les trois lois d’Asimov sont 9 :

  • Première Loi : « Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger. » ;
  • Deuxième Loi : « Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres sont en contradiction avec la Première Loi. » ;
  • Troisième Loi : « Un robot doit protéger son existence dans la mesure où cette protection n’entre pas en contradiction avec la Première ou la Deuxième Loi. »

Mais si ce débat philosophique ne date pas d’hier, il faut bien avouer que les premières tentatives de l’intelligence artificielle, jusque dans les années 90, étaient bien risibles, et les ordinateurs bien faibles, comparés aux humains.

Ce n’est plus le cas et des personnes éminentes s’en préoccupent désormais, comme Stephen Hawking et Elon Musk ; le grand savant anglais allant même jusqu’à prédire la fin de l’espèce humaine.

Voyez par exemple ces démonstrations de Geppetto Avatars, une firme spécialisée dans le diagnostic médical et dites moi ce que vous penseriez si l’avatar du docteur était remplacé par une modélisation 3D réaliste, donnant l’apparence d’un humain ?

Voici donc l’analyse de Claire

Aujourd’hui l’intelligence artificielle est partout. De l’électroménager avec Roomba, au pilotage automatique des avions de ligne, sans oublier la chirurgie assistée par ordinateur. Chaque jour, d’une manière ou d’une autre, l’humanité bénéficie des progrès apportés par l’intelligence artificielle. Mais demain, que nous apportera-t-elle ? Jusqu’où peut-on aller ? Existe-t-il des dangers ? Peut-on les éviter ? Focus sur un sujet hautement sensible.

La question du contrôle

A la base, un robot, une machine ne font qu’obéir aux ordres qu’on leur donne : peindre la carcasse d’une voiture chez les constructeurs automobile, passer l’aspirateur chez les particuliers… Le problème survient si une machine est programmée avec l’intention de nuire. Dans ce cas, tous les scénarios sont possibles. Prenons l’exemple des voitures connectées et du système de freinage. L’armée américaine a récemment apporté la preuve qu’il était possible de prendre le contrôle d’un véhicule connecté, et notamment de son système de freinage.

Autre exemple : des terroristes pourraient hacker le système de pilotage automatique d’avions de ligne et générer des catastrophes. C’est d’ailleurs une des hypothèses étudiées, pour expliquer la disparition du vol MH 370.

Pour éviter ces dérives, il apparaît capital de mettre en place des garde-fous, mais reste à savoir comment.

L’intelligence artificielle est également présente à bord des avions. Or, l’informatique sans bug n’existe pas…

Et le bug ?

L’informatique sans bug, ça n’existe pas. Mais si on reprend le thème de la voiture connectée, le bug ne pardonne pas.

Autre exemple : les personnes en perte d’autonomie. L’intelligence artificielle via les robots est très attendue dans ce domaine, mais là encore, le bug ne peut pas être toléré.

Il faut donc que l’homme arrive à envisager tous les scénarios pour qu’une machine puisse mener à bien sa mission sans bug… Mais comment faire pour créer un système sans faille ?

L’impact social et économique

De nombreuses tâches répétitives sont aujourd’hui accomplies par des robots, mais il est clairement établi que demain, des travaux plus complexes pourront être réalisés par des machines. C’est ainsi que le Cabinet Gartner prévoit qu’en 2025, un tiers des emplois seront remplacés par des robots.

Peter Sondergaard, directeur de recherche chez Gartner, estime en effet que « les machines donneront un sens aux données plus rapidement que les humains le peuvent ». Il est donc envisageable que d’ici à 10 ans, l’intelligence artificielle génère du chômage…

Intelligence artificielle, GAFA : quel danger ?

Google, Apple, Facebook et Amazon investissent massivement dans l’intelligence artificielle. Google est d’ailleurs le plus en pointe sur le sujet. Et cela inquiète, à tel point que des éminences grises tirent la sonnette d’alarme. Ainsi, le Docteur Alexandre Laurent a récemment animé une conférence en indiquant que les instruments destinés à manipuler le cerveau sont entre les mains des GAFA. Pire : pour lui, « le vrai territoire de Google , ce n’est pas un pays, c’est notre cerveau».

De son côté, Joël de Rosnay estime que «Les grands du numérique […]sont des entreprises Etats, nous sommes des Etats nations. Ils ont un tel pouvoir, une telle puissance et bien sûr ils s’intéressent à l’intelligence artificielle. Il va falloir que nous trouvions les moyens de co-régulation citoyenne, les moyens de nous opposer ou de réguler le pouvoir incroyable de ces grands du numérique ».

L’intelligence artificielle peut-elle remplacer l’homme ?

Face à toutes ces menaces qu’on ne peut ignorer, 700 chercheurs et entrepreneurs – parmi lesquels Stephen Hawking et Elon Musk (fondateur de SpaceX et Tesla Motors) – ont diffusé le 10 janvier dernier une lettre ouverte, destinée à alerter sur les dangers de l’intelligence artificielle. Dans cette lettre, ils appellent la communauté scientifique à réfléchir à la mise en place de garde-fous éthiques et légaux, en proposant quelques pistes.

Reste à espérer que cet appel sera entendu et que rapidement, des groupes de travail internationaux se mettront en place, pour contrôler et réguler l’intelligence artificielle, comme le font déjà à l’échelon national, chacun dans leur domaine, le Comité Consultatif National d’Ethique ou la CNIL.

Yann Gourvennec
Follow me

Yann Gourvennec

Yann Gourvennec created visionarymarketing.com in 1996. He is a speaker and author of 6 books. In 2014 he went from intrapreneur to entrepreneur, when he created his digital marketing agency. ———————————————————— Yann Gourvennec a créé visionarymarketing.com en 1996. Il est conférencier et auteur de 6 livres. En 2014, il est passé d'intrapreneur à entrepreneur en créant son agence de marketing numérique. More »
Bouton retour en haut de la page