A la uneIA et Big Data

Intelligence artificielle : Responsabilité numérique et guerre des talents

Avec le G9+

À l’heure où les alarmes sur les impacts de l’intelligence artificielle sur les emplois se multiplient, la question de la responsabilité numérique et de l’IA n’a jamais été aussi importante. Elle se double d’une « guerre des talents » pour reprendre les termes du titre de la rencontre annuelle du G9+. Chez Visionary Marketing, on essaie de ne jamais rater les conférences de ce think tank tant elles sont intéressantes. Nous y avons déjà vu Tara Hunt, Jeremy Rifkin, Jacques Attali, Guillaume Pépy. Une fois encore, la conférence annuelle de l’association qui s’est tenue le 18 mars 2024, consacrée à l’inévitable Intelligence artificielle et la responsabilité numérique, a été à la hauteur de ses promesses avec des intervenants de marque. Citons en particulier Laurence Devillers et Jean-Gabriel Ganascia (auteur de l’excellent « La singularité n’existe pas »), sans oublier les panellistes de très haut niveau. Difficile de résumer pareille rencontre, ce qui explique le temps mis à en publier le compte-rendu que nous avons résumé en un paragraphe (et sans ChatGPT !).

L’IA à l’heure de la responsabilité numérique

IA et responsabilité numérique
Le G9+ avait convié Visionary Marketing à une table ronde passionnante sur le sujet de l’IA et responsabilité numérique (pour comprendre cette image, il faudra lire l’article jusqu’au bout)

 


Comprendre ce compte-rendu en 30 secondes (nb: résumé 100 % humain)

  1. Il faut se méfier des manipulations derrière ces outils qui fonctionnent comme des boîtes noires et ne pas croire aux miracles ni aux menaces de cette « bombe atomique » de l’IA générative. Au contraire, il faut s’efforcer de la comprendre dans ses fonctionnements autant que dans ses biais ;
  2. Il faut refuser le technosolutionnisme et son fantasme de la solution parfaite, il faut au contraire embrasser l’IA, mais de manière responsable et inclusive ;
  3. L’IA générative n’est probablement pas capable de remplacer l’humain, ce qui n’empêchera pas son utilisation dans les entreprises. Il ne faut pas avoir peur, mais monter en compétences ;
  4. La formation à l’IA est réclamée par tous, sauf par un des participants. Elle est aussi recommandée par le rapport au gouvernement de mars 2024. Mais ne faudrait-il pas plutôt chercher le sens à donner à ces outils que de foncer sur leur utilisation ?
  5. Il faut accompagner le développement de l’IA et s’y intéresser, mais le faire de manière responsable ;
  6. Certains cas d’usage de l’IA générative, par exemple dans la traduction simultanée, paraissent très logiques. Il faudra cependant du temps pour être capable d’en mesurer les bénéfices et l’efficacité ;
  7. Et encore, à supposer que ces dernières soient avérées, ce n’est pas parce qu’une technologie est efficace qu’elle est acceptée par tous, loin de là. Non seulement il faudra que les applications de l’IA soient utiles, mais aussi qu’elles soient acceptées ;
  8. Attention aux abus de numérique, il convient d’utiliser l’IA de manière responsable (ce qui implique de faire la différence entre éthique, droit et norme). Armés de prudence, vous pourrez accueillir les nouveaux talents, mais toujours rationnellement.

L’IA, les marionnettes et les manipulateurs

La rencontre annuelle du G9+ s’est tenue le 18 mars 2024. Elle a débuté par une intervention courte, mais percutante de Laurence Devillers, professeur d’IA à la Sorbonne qui s’est donné pour mission de « démystifier l’intelligence artificielle prédictive et générative ».

Sa démonstration a commencé par une métaphore : celle du bunraku japonais, ce théâtre de marionnettes ou certains les manipulateurs sont vêtus de noir et cachés du public. « Ici, ChatGPT est la marionnette, mais je ne suis pas d’accord avec le fait que l’intelligence artificielle soit un “marteau*”», nous a-t-elle dit, « car il y a OpenAI en noir qui peut manipuler les réponses ».

Un premier élément de réflexion sur ce thème de la responsabilité numérique de ces outils dits génératifs. Car, la boîte noire n’a toujours pas été ouverte, au point que même des chercheurs pourtant à l’origine des travaux sur les réseaux de neurones comme Geoffrey Hinton, avouent ne pas comprendre comment cela fonctionne.

[*] par-là, il faut comprendre « un simple outil ».

IA et responsabilité numérique
Au delà de l’IA et de la responsabilité numérique, nous avons pu apprendre ce qu’était le bunraku. Et si le manipulateur de l’IA n’était pas celui qu’on croit ?

Le bunraku (文楽) (également connu sous le nom de Ningyō jōruri [人形浄瑠璃]) est une forme de théâtre de marionnettes traditionnel japonais qui nécessite deux ou trois marionnettistes vêtus de robes noires. Dans la plupart des traditions, tous les marionnettistes portent également une cagoule noire sur la tête, mais le National Bunraku Theater laisse le marionnettiste principal sans cagoule. Définition simplifiée. Source Japan-Guide.com et Wikipédia.

Il y a une chose à comprendre, a poursuivi Laurence Devillers, « c’est que les transformers sur lesquels sont basées les IA génératives s’appuient sur l’hypothèse distributionnelle de James Rupert Firth (1957) », un linguiste britannique, célèbre pour avoir édicté le précepte suivant : « On reconnaît un mot par ses voisins ».

You shall know a word by the company it keeps (Firth, J. R. 1957:11) [*]                                          

À cela, on ajoute « les algorithmes qui nous permettent de tokeniser, c’est-à-dire de découper toutes les phrases en petites unités minimum ». Pour bien comprendre le système de base sur lequel se fondent les IA génératives, je vous invite à écouter la démonstration brillante de notre confrère Thomas Gerbaud qui vous explique le fonctionnement des « ngrams ».

Cette vidéo de l’interview de Thomas Gerbaud a été réalisée par Visionary Marketing pour le compte d’Omnes education group dans le cadre du programme SHIFT 2023-2024 et de la certification de 1000 élèves de ce groupe.

« Ce qu’il faut comprendre avec ce principe de la tokenisation », nous dit Laurence Devillers, « c’est que l’on perd les sources ». Ce qui oblige à les rechercher par la suite. Et « si l’on ne fait pas ça, le système risque de les réinventer ». Une petite expérience menée en fin de billet vous en fera la démonstration.

Par la suite, on peut faire varier les réponses de ces modèles avec ce que l’on appelle des « températures », ajoute-t-elle.

« Il y a des réactions un peu partout, des demandes de moratoires, on nous annonce une “bombe atomique” », mais selon Laurence Devillers, « ce qui est important à comprendre, ce sont les paramètres, comment ça marche ». Tel est sans doute le premier point de responsabilité numérique, celui de la compréhension d’un phénomène dont la « vitesse de transformation a été terrible [car nous ne sommes] pas assez éduqués sur le fonctionnement de ce système, son multilinguisme, le respect de la diversité culturelle, et la géopolitique et nous transférons à ces machines des affects et des qualités morales par anthropomorphisme ».

IA et responsabilité numérique
IA et responsabilité numérique : « il y a des réactions un peu partout, des demandes de moratoires, on nous annonce une “bombe atomique” », mais selon Laurence Devillers, « ce qui est important à comprendre, ce sont les paramètres, comment ça marche ».

La soirée s’est poursuivie avec deux tables rondes, dont la première intitulée « IA et guerre des talents ».

Table ronde 1 : IA et guerre des talents

IA et guerre des talents
IA et guerre des talents, la première table ronde de cette soirée du G9+

Table ronde IA et guerre des talents : besoins, risques et opportunités. Ce débat rassemblait autour de Luc Bretones (à droite) et de droite à gauche : Axel Cypel, ingénieur, conférencier et auteur, Véronique Torner, présidente de Numeum, Henri Pidault, DSI de la SNCF, Laura Létourneau, conseillère experte auprès du Premier ministre (parlant en son nom propre), et Cristel Guillain, head of transformation & talent, groupe BPCE.

« Il est assez facile de faire peur avec l’intelligence artificielle » a déclaré Axel Cypel, et en cela il a raison, il semblerait que beaucoup de mauvais prophètes s’en chargent en ce moment. Selon lui, « cette IA, censée reproduire artificiellement l’intelligence humaine, notre grande valeur, est source de questionnements légitimes. Néanmoins, il ne faut pas faire peur pour rien », ajoute-t-il pour nous rassurer.

Il ne faut pas faire peur pour rien avec l’intelligence artificielle
Axel Cypel

Axel Cypel fait remarquer que l’outil qui prétend se substituer à son utilisateur n’est probablement pas à la hauteur de ce défi. Il ne faut cependant pas se leurrer selon lui : « L’intelligence artificielle sera utilisée et l’est déjà en entreprise et elle conduira sans doute à devoir élever le niveau des employés ». En conclusion, il ne faut pas avoir peur, mais il faut se préparer à augmenter son niveau de connaissances.

Refuser le technosolutionnisme

Laura Létourneau (qui parlait en son nom personnel) a fait quelques remarques intéressantes pour compléter le propos d’Axel Cypel. « On a plus besoin de sens que d’intelligence », a-t-elle avancé.

Cette remarque résonne particulièrement à nos oreilles, car effectivement, plus que d’apprendre exactement comment se servir l’intelligence artificielle on pourrait effectivement commencer par savoir à quoi elle peut servir….

Elle nous enjoint à juste titre à prendre du recul et de nous méfier du « technosolutionnisme, ce fantasme de la solution parfaite pour optimiser le système alors qu’il faudrait le changer ». Une remarque qui n’a pas forcément fait l’unanimité autour de la table ronde, mais qui nous semble pourtant frappée au coin du bon sens.

L’IA, ce pharmakon

Véronique Torner, présidente de Numeum, sur les traces de Bernard Stiegler, nous recommande une approche « pharmacologique » (pharmakon = poison+médicament+bouc émissaire). Mais elle précise que « malheureusement, on ne maîtrise pas le rythme de l’innovation et qu’il faut donc prendre le train en marche ». Toutefois, elle nous enjoint d’adopter une vision responsable et inclusive, à laquelle nous souscrivons également. Elle a fait également référence au rapport déposé au gouvernement en mars 2024 qui a établi quelques propositions :

  1. Sensibiliser tous les Français collectivement dès le plus jeune âge ;
  2. Mettre de l’intelligence artificielle dans toutes les formations par exemple pas prendre le droit et questionner le droit au travers de l’IA ;
  3. Former des spécialistes de l’IA dont on manque, comme dans tous les domaines techniques.

Numeum est « en phase avec ce rapport » et a pris le taureau par les cornes : « Nous avons publié un livre blanc sur les cas d’usage et nous accompagnons l’industrie, mais de manière responsable », a précisé Véronique Torner.

Former à l’IA… pas si utile

Pour Henri Pidault, DSI de la SNCF, la formation n’était pas utile. Car l’outil est selon lui accessible à tous. Le vrai sujet était plutôt de passer à l’acte et de mettre à disposition l’outil en mode privé. Il a cité de nombreux cas d’usage comme celui de résumer des documentations de 300 pages ou d’assister les agents de la SNCF qui accueillent les touristes lors des JO de 2024.

Selon monsieur Pidault, il n’y a pas besoin d’un gros modèle de données pour bien utiliser l’IA générative. « Il suffit d’injecter le corpus d’une seule expertise, une seule information, ce qui permet d’accélérer l’intégration des jeunes diplômés ». Le DSI de la SNCF, auteur d’un livre sur le sujet de l’IA générative (faites de l’IA votre allié au quotidien), indique avoir « commencé très tôt » à mettre en œuvre ces technologies sur le terrain. Notamment « avec des sujets tournant autour de la traduction en temps réel en 35 langues pendant les Jeux olympiques ».

On sent bien ici la capacité de ces technologies à répondre à des problèmes pratiques sur le terrain, et on imagine facilement ces usages, qui devront cependant être confirmés par la qualité de l’interface et la rapidité d’exécution. Sans oublier bien entendu la résistance au changement et la capacité d’adaptation du personnel. La réalité du terrain montrera si ces outils d’aide à la traduction, par exemple, seront plus efficaces que de donner une réponse instantanément en mauvais anglais (en mieux encore, en bon anglais). Tout dépendra du temps de réponse des applications choisies, de la facilité d’utilisation de l’outil et de la coopération du personnel.

Comme nous l’avons fait remarquer plusieurs fois, il faut tester ces outils et voir comment on peut les rendre utiles dans notre travail de tous les jours, mais ne pas surestimer leur utilité ni leur efficacité comme l’a démontré récemment une étude de Lecko. La société de conseil d’Arnaud Rayrole a travaillé sur l’utilisation de la technologie d’IA générative pour résumer des comptes-rendus de réunions. Une fonctionnalité a priori intéressante et pourtant quasiment universellement considérée comme inutile par les utilisateurs.

Le visuel publié par Lecko la dernière semaine de mars 2024. À quoi et à qui sert à la synthèse ? À peu de monde, sauf si on utilise Spoke (Spoke.ai). Pour Copilot, certainement le plus gros échantillon du lot, c’est 0.

Comme le dit Laurence Létourneau fort justement, il faut se méfier grandement du technosolutionnisme, cette propension à mettre de la technologie pour la technologie sur tout et n’importe quoi. En ces temps de questionnement sur le climat et l’environnement, il s’agit, hélas ! d’un travers souvent observé. Le bilan de l’intégration de ces technologies ne se verra que dans la durée, il faut garder la tête froide et éviter de paniquer.

Cristel Guillain de la BPCE a également partagé avec nous son expérience. L’objectif, pour l’institution financière, était l’utilisation de l’IA pour faire monter en compétence 500 personnes vers la data et l’IT. « Cela ne s’est pas fait sans difficulté » nous a-t-elle dit, « Le défi est que l’on veut des réponses fiables, les LLM nous servent surtout pour dialoguer, mais ce qui compte, c’est la documentation. ». Pour cette initiative, BPCE s’est associée à Simplon, la grande école du numérique, dont le fondateur est membre de notre Numerikissimo.

Table ronde no.2 : Prospective vers de nouvelles trajectoires pour les talents et intelligences augmentés

La deuxième table ronde de cette rencontre annuelle était intitulée prospective vers de nouvelles trajectoires pour les talents et intelligences augmentés. Elle regroupait Laurence Devillers, professeure d’IA à la Sorbonne, Laurent Champaney, directeur général de l’École des Arts et Métiers, Frenck Denie, DGA SI de France Travail (en remplacement de Richard Ruot), Alain Roumilhac, président, Manpower Europe du Sud.

IA et responsabilité numérique
Le panel de la deuxième table ronde

Pour Alain Roumilhac, « l’IA est l’accélérateur d’un changement qui était déjà en cours. Son analyse est particulièrement intéressante : « l’intelligence artificielle aura un impact sur la polarisation du marché du travail. » Une polarisation qui oscille entre « travail manuel et expertise », nous dit-il. Au milieu, « nous y verrons la disparition de la classe moyenne dont on sait les conséquences dans bien des domaines y compris politique et social ».

Nous verrons une disparition de la classe moyenne
Alain Roumilhac

Le dirigeant de Manpower souligne deux points :

  1. Les entreprises devront s’assurer de conduire le changement, et cela peut prendre du temps, nous explique-t-il ;
  2. Il faudra aussi se préoccuper de savoir comment accompagner ceux qui sortent de l’emploi ou du système éducatif.

Mais il y a une bonne nouvelle dans tout cela : « Le bon côté des choses, c’est que nous aurons à faire face à une baisse de la population active ».

Ce que j’ai particulièrement apprécié dans l’intervention de monsieur Roumilhac c’est son rappel du temps long. Un rappel, que nous répétons souvent sur Visionary Marketing, sans toutefois être toujours entendus :

« Il y a 10 ans, on nous disait que nous allions disparaître, car LinkedIn allait “nous exploser”. Et cela n’est pas arrivé. Ce qui compte, c’est nos clients », a-t-il ajouté. « Le changement va donc prendre plus de temps que l’on croit. De plus, le vrai problème est la pénurie de talent. Il faut donc former aux nouvelles compétences. Cela est vrai sur tous les types de compétences, car on passe d’un modèle transactionnel à un monde un mode d’accompagnement ».

Ce dernier point est très intéressant, car il fait allusion au fait que des acteurs du placement de personnel comme Manpower changent de métier. De preneurs d’ordres, ils deviennent accompagnateurs de changement, car bien souvent, les compétences venant à manquer, il faut non seulement trouver le personnel, mais le former pour faire en sorte qu’il puisse être placé dans les entreprises clientes.

L’IA générative ne fera pas plus disparaître ces métiers que LinkedIn il y a 10 ans, ce qui n’empêche pas qu’une évolution du marché, inévitable et en mouvement (voir ici notre analyse, et ici aussi).

Cette problématique de la formation ne touche pas que les entreprises du secteur de Manpower. Les écoles de formation comme l’école nationale supérieure des arts et métiers (désormais renommée Arts & Métiers Paristech), dont Laurent Champaney est directeur général, se saisit également de cette problématique : « notre problématique est le cadre augmenté. Notre rôle est de former des cadres à être plus performants. Cela reste de la formation technique, mais on voit peu d’entreprises investir sur cela » nous a expliqué monsieur Champaney. Une remarque qui interpelle.

France Travail aussi s’est aperçue que le numérique « était une compétence de base ». Mais là, on a senti un grand décalage entre le monde du futur tel qu’il transparaissait dans cette conférence et la situation décrite par l’entité publique chargée de fournir des emplois aux personnes sorties du monde du travail.

« Nous avons des personnes qui ne renseignent pas leurs profils, des entreprises ne renseignent pas leurs offres non plus. Les dispositifs ne sont pas si efficaces, nous en sommes au début de l’histoire », nous a déclaré le représentant de France Travail. Il y a certainement un gros rattrapage à faire, même si Michel Bon, il y a déjà près de 30 ans, avait fait faire de grands progrès à l’institution.

Il y a aussi certainement un grand décalage de vue, comme le décrit monsieur Roumilhac, entre les manuels d’une part et d’autre part les profils experts. France Travail est sans doute plus exposée aux premiers, mais l’inverse, les « cols blancs » ont peut-être tendance à imaginer un monde plus avancé qu’il n’est réellement, et où les métiers intellectuels ne sont pas la norme. Nous avons d’ailleurs déjà dénoncé ce décalage dans un article précédent (85 % des jobs de demain n’existent pas aujourd’hui, est-ce vrai ?).

Mais le vrai problème est-il de se former à tout prix à l’intelligence artificielle ?

Laurence Devillers a mis les plats dans le pied à ce sujet : « Le vrai problème est de faire des applications véritablement utiles », nous dit-elle. Alain Roumilhac a abondé dans son sens : « le sujet du sens est primordial, qu’est-ce qui va véritablement nous rendre plus efficaces demain ? », une interrogation que nous posons également régulièrement dans nos colonnes.

Mais l’utilité et l’efficacité ne sont pas le seul ingrédient de la réussite. Il faut aussi compter sur la résistance au changement.

Manpower est également en train de tester en Italie l’utilisation de l’intelligence artificielle dans la priorisation des listes de commandes, car la société est victime d’un problème inverse à celui vécu par la majorité des entreprises : elle n’est pas capable de servir tous les clients, car il y a trop de demandes.

« Nous avons développé un algorithme pour mieux gérer la priorisation des demandes », indique monsieur Roumilhac, « nos tests nous ont montré que grâce à lui nous sommes 20 % plus efficaces que quand nous trions les priorités intuitivement ». Mais comme toujours, il ne faut pas sous-estimer la résistance des humains : « Nous avons de la peine à faire accepter cet algorithme malgré le gain d’efficacité », ajoute-t-il. « Il y a un problème de changement, c’est très dur à mettre en œuvre ».

Une bonne leçon qui vient corroborer nos intuitions sur ce sujet. Finalement, il en est de l’intelligence artificielle comme de toutes les technologies depuis la nuit des temps. Il nous faut du temps pour les digérer, et parfois il y a des rejets par les personnes chargées de les mettre en œuvre sur le terrain. Ce n’est pas parce qu’une solution est plus efficace qu’elle est toujours utilisée, une vieille règle rappelée souvent par Vaclav Smil dans ses ouvrages.

Jean-Gabriel Ganascia, l’IA et la responsabilité numérique

Mais il est temps de revenir au sujet de l’éthique et de la responsabilité à l’ère de l’intelligence artificielle. Pour cela, le point de vue de Jean Gabriel Ganascia nous intéressait au plus haut point. Celui-ci s’est attaché à étayer son propos de diverses anecdotes toutes plus éclairantes les unes que les autres.

IA et responsabilité numérique
Jean-Gabriel Ganascia au pupitre

Sa première anecdote était liée à une expérience récente en Chine. Dans l’empire du Milieu, il s’est aperçu qu’il n’y avait plus de billets de banque. Les cartes bleues également sont rarement acceptées. « Pour payer, il faut utiliser WeChat » nous a expliqué monsieur Ganascia, mais pourra avoir accès à WeChat, il faut être parrainé ». Les outils occidentaux y sont interdits, on ne peut même pas lire son journal. Sans VPN, « tout cela est déconcertant », nous dit-il. Sans doute une métaphore intéressante pour souligner l’excès de digital qui parfois peut se transformer en cauchemar comme nous l’avons déjà souligné dans un article précédent (serait-il temps de dénumériser ?).

Son introduction s’est ensuite tournée vers les définitions des différents termes liés à l’éthique et à la responsabilité numérique :

  1. L’éthique est une branche de la philosophie, elle définit « ce que je dois faire »
  2. Le droit est quant à lui un instrument politique, car il est voté par des assemblées, avec des interdits et des sanctions
  3. Enfin, les normes sont des conventions entre parties prenantes (acteurs intéressés)

Pour aller plus loin sur ce thème de la responsabilité à l’ère du numérique, Jean Gabriel Ganasscia a choisi plusieurs allégories. D’abord celle de la justice.

IA
Légende : l’allégorie de la justice revisitée par Midjourney

Cette allégorie représente une femme tenant une balance et dont les yeux sont cachés par un bandeau. Jean Gabriel Ganascia a fait un parallèle avec l’AI ACT de l’Union européenne. Il est « abstrait et loin de la réalité », a-t-il indiqué. Or, « la réalité des technologies fait que le futur n’est jamais ce que l’on avait imaginé ». Il est clair que le législateur a bien les yeux bandés. Voilà une première barrière en effet à la responsabilité du numérique. Et elle n’est pas nouvelle. Les technologies sont mises en place en général plus vite que les barrières destinées à en réguler les usages. Souvent, ces législations sont édictées avec un niveau d’abstraction, comme le précise le philosophe, trop éloigné de la réalité pour qu’elles soient réellement efficaces. L’avenir nous le dira, mais nous avons quelques doutes.

Regardons maintenant une autre allégorie, toujours sous le regard du philosophe, celle de la prudence. Car, « il n’y a pas de spécifications en IA d’apprentissage et encore moins en IA génératives » nous prévient le philosophe et expert des technologies d’intelligence artificielle. Quelle confiance donc peut-on accorder à ces technologies ?

responsabilité numérique
L’allégorie de la prudence revisitée par Midjourney dans une transcription postromantique et quasiment préraphaélite (matinée d’« heroic fantasy »)

Cette allégorie de la déesse romaine fait intervenir un serpent (c’est l’animal de la connaissance) et le miroir. Ce dernier nous renvoie à notre passé. C’est ce miroir qui nous permet de limiter les erreurs et de « nous assurer de la stabilité du système » explique le philosophe.

Mais ce n’est pas suffisant, car selon lui, il faut également regarder le présent.

Jean-Gabriel Ganascia m’a bien surpris en arrivant à la conférence sur sa gyroroue. Voilà quelqu’un qui embrasse en effet le futur avec enthousiasme… mais aussi avec prudence.

Et de citer une discussion entre Jacques Derrida et Alain Minc. Trouver la référence à ce débat n’a pas été aisé [NDLR Note importante à lire en bas de page]. Un exemple qui est tombé à point pour démontrer la nécessité de la prudence quand on utilise les IA génératives.

Comme l’indique Jean-Gabriel Ganascia citant Derrida, il convient « d’accepter l’imprévisible et de ne pas rester bouche bée, ainsi que d’accueillir ces talents qui viennent. Il faut le faire rationnellement, mais de manière ouverte ».

On ne peut rêver de meilleure conclusion à cette conférence très éclairante sur l’intelligence artificielle et son usage. Il ne faut pas en effet confondre Internet et son image comprimée trop rapidement par des algorithmes, et des utilisateurs trop pressés.

Lire le billet du New Yorker
Lire le billet du New Yorker : ChatGPT est comme un JPEG flou du web

 


*note importante : Gemini de Google s’est montré bien supérieur à ChatGPT et à Perplexity.ai en ce domaine et nous a assisté pour en « découvrir » les sources. Vous retrouverez la transcription du dialogue avec Gemini ci-dessous, livré intégralement. En soi, cet exercice est très révélateur. Il ne m’a pas été possible de retrouver la trace de ce chaos. « Penser la catastrophe » de 1993. Ni de trouver un livre portant ce titre, ni sur Amazon ni sur Momox.com. Le moteur de recherche d’Odile Jacob étant très peu coopératif, je n’ai pas non plus trouvé de réponse à ma question, Jacques Derrida semblant ne pas avoir écrit chez cet éditeur. Enfin, une recherche de la bibliographie de l’auteur sur Amazon n’a pas permis non plus de trouver de référence à ce titre. N’ayant pas identifié de référence à ces écrits, et dans le doute je m’abstiendrai. Mais au cas où il s’agirait bien d’une hallucination, voilà une illustration parfaite de la méfiance que nous devons appliquer à ces outils. Pour gagner cinq minutes à chercher une information, j’ai perdu trois quarts d’heure à essayer de la croiser et de la vérifier. En d’autres termes, c’est une perte de temps et d’efficacité, sèche et nette.

[référence et explications trouvées par Gemini.google.com : transcription intégrale de l’échange]

Prompt : Trouve-moi la référence d’une discussion qui a eu lieu entre Alain Minc et Jacques Derrida sur le sujet du chaos. Derrida décrivait le chaos et le comparait à la bouche bée et expliquait qu’il fallait accueillir l’imprévisible.

 La référence de la discussion entre Alain Minc et Jacques Derrida sur le chaos

Titre: Chaos et politique

Lieu: Colloque « Le chaos : penser la catastrophe »

Date: 1993

Publication:

  • Minc, Alain. (1993). Le chaos et la politique. In Le chaos : penser la catastrophe (pp. 11-24). Paris: Éditions Odile Jacob.
  • Derrida, Jacques. (1993). Chaos, khôra, démocratie. In Le chaos : penser la catastrophe (pp. 25-42). Paris: Éditions Odile Jacob.

Résumé de l’intervention de Derrida:

  • Derrida décrit le chaos comme une « bouche bée » (Keio en japonais), une ouverture à l’imprévisible et à l’inconnu.
  • Il critique la vision du chaos comme d’un simple désordre, et propose de le voir comme une source de créativité et de potentialité.
  • Il affirme que la démocratie est le seul système politique capable d’accueillir le chaos et de tirer parti de son imprévisibilité.

Points clés de la comparaison avec le Keio:

  • Le Keio est une figure du chaos dans la mythologie japonaise.
  • Il représente une bouche ouverte, symbole de l’absorption et de la transformation.
  • Le Keio est associé à l’imprévisible, à l’inconnu et au féminin.

NDLR J’ai dû mal comprendre comment on écrit « Keio », qui doit être du grec et non du japonais. mais Gemini n’est jamais pris au dépourvu. 

Lien avec l’idée d’accueillir l’imprévisible:

  • Derrida affirme que le chaos est une réalité inévitable et que nous devons apprendre à l’accueillir.
  • Il propose de voir le chaos comme une source de potentialité et de créativité.
  • La démocratie est le seul système politique capable de faire face au chaos et de tirer parti de son imprévisibilité.

Autres sources:

  • Derrida, Jacques. (1994). Khôra. In Psyché: inventions de l’autre (pp. 79-109). Paris: Galilée.
  • Minc, Alain. (1993). La revanche de l’histoire. Paris: Grasset.

Note:

  • Il est important de noter que la discussion entre Minc et Derrida est complexe et nuancée.
  • Le résumé présenté ici ne donne qu’une vue d’ensemble de leurs arguments.
  • Il est recommandé de lire les textes complets pour une compréhension plus approfondie de leurs positions.

À l’inverse, on remarquera que le même prompt a provoqué une réponse bien différente de la part de la version Bing de l’IA générative d’OpenAI. À l’évidence, un gros décalage de mise en œuvre entre Gemini et les autres applications, avec des barrières de protection qui ont été mises notamment sur Bing et sur ChatGPT.

Transcription littérale de l’échange avec la version en ligne de Copilot (sur Edge/Bing) sur la base du même prompt :
  • Je regrette, mais je n’ai pas pu trouver de référence spécifique à une discussion entre Alain Minc et Jacques Derrida sur le sujet du chaos, où Derrida aurait comparé le chaos au Keio (bouche bée) et discuté de l’importance d’accueillir l’imprévisible. Cependant, je peux vous fournir des informations générales sur ces deux personnalités.
Yann Gourvennec
Follow me

Yann Gourvennec

Yann Gourvennec created visionarymarketing.com in 1996. He is a speaker and author of 6 books. In 2014 he went from intrapreneur to entrepreneur, when he created his digital marketing agency. ———————————————————— Yann Gourvennec a créé visionarymarketing.com en 1996. Il est conférencier et auteur de 6 livres. En 2014, il est passé d'intrapreneur à entrepreneur en créant son agence de marketing numérique. More »

Comments

Bouton retour en haut de la page