Personne ne comprend comment fonctionne l’IA
Personne ne sait comment l’IA fonctionne réellement, affirme une analyste du MIT. Il y a peu, au début de l’année 2024, nous avons publié un article affirmant que la révolution de l’IA n’aurait pas lieu. Nous comprenons qu’il s’agissait d’une saillie très audacieuse. Quelques lecteurs ont ricané, la plupart ont rejeté l’idée et ont continué de ChatGPTer (ou ChatGPTéer, je ne suis pas sûr de l’orthographe, l’IA générative ne l’a pas encore hallucinée). Pourtant, un court article du MIT laisse entendre que, peut-être, notre intuition n’était pas si erronée après tout.
Personne ne comprend comment fonctionne l’IA
Les entreprises de la technologie s’empressent de lancer des produits propulsés par l’IA, bien qu’il soit largement prouvé qu’ils sont difficiles à contrôler et qu’ils se comportent souvent de manière imprévisible. Ce comportement étrange est dû au fait que personne ne sait exactement comment – ni pourquoi – fonctionne l’apprentissage en deep learning, la technologie fondamentale qui sous-tend l’essor actuel de l’IA. C’est l’une des plus grandes énigmes de l’IA. Mon collègue Will Douglas Heaven vient de publier un article dans lequel il se penche sur le sujet.
La semaine dernière, je discutais avec une amie qui travaille pour un éditeur de logiciels à deux pas de mon bureau. Alors que je m’apprêtais à remplir la bouilloire, j’ai décidé de passer lui dire bonjour. Pendant que nous échangions, elle m’a expliqué qu’ils étaient en train d’injecter de l’IA partout, révolutionnant ainsi la façon dont les avocats, les conseillers juridiques et les juristes travaillent, en fournissant des informations qui n’ont jamais été disponibles auparavant. L’avenir est prometteur.
Comme le dit Melissa Heikkilä, les entreprises technologiques se lancent à corps perdu dans un domaine qu’elles ne maîtrisent pas tout à fait. La bonne nouvelle, c’est que comme personne ne la maîtrise vraiment, vous ne serez jamais seuls. Même Geoffrey Hinton semble perdu.
Le plus grand mystère est de savoir comment de grands modèles de langage tels que Gemini et le GPT-4 d’OpenAI peuvent apprendre à faire quelque chose qui ne leur a pas été enseigné. Vous pouvez entraîner un modèle linguistique à résoudre des problèmes mathématiques en anglais, puis lui montrer de la littérature française, et à partir de là, il peut apprendre à résoudre des problèmes mathématiques en français. Ces capacités vont à l’encontre des statistiques classiques, qui fournissent notre meilleur ensemble d’explications sur la manière dont les modèles prédictifs devraient se comporter, écrit Will. Lire la suite ici.
Malheureusement, si l’on ne comprend pas comment fonctionne l’IA, on saisit très bien comment fonctionnent les humains. Ils aiment rêver et sont toujours attirés par l’improbable. L’homme aime ses chimères, d’une certaine manière c’est rassurant, c’est ce qui nous rend si particuliers. Nous sommes carrément erratiques, bien que pas si imprévisibles que cela. Nous nous autorisons des comportements plus irrationnels que ceux que nous accepterions de nos machines.
Cette brève doit tout à la dernière lettre d’infos de Tech Trash.
- Accessibilité des sites Web - 11/10/2024
- 9 conseils pour mettre en œuvre le changement - 10/10/2024
- Le mécénat d’entreprise réinventé par une start-up innovante - 09/10/2024