Les limites de l’IA

Ce que dit Yann LeCun est à la fois lucide, courageux et… un peu rafraîchissant dans le bruit ambiant de l’IA.

Dans la vidéo du post et dans tout ce qu’il répète depuis des années, Yann ne dit pas que les LLM (ChatGPT, Claude, Grok, etc.) sont inutiles. Au contraire, il reconnaît explicitement que ce sont des outils géniaux, comme l’ont été les ordinateurs ces 50 dernières années. Il dit simplement : arrêtez de croire qu’ils vont nous mener à une intelligence de niveau humain.

On se fait avoir parce qu’ils manipulent le langage avec brio, et on associe instinctivement « maîtrise du langage = intelligence profonde ». C’est un piège classique. Il suffit de voir ce que donne la maitrise du langage chez ceux qui sortent de l’ENA !

Il compare cela aux générations précédentes d’IA (les perceptrons de Rosenblatt, les promesses de Minsky, Newell & Simon…) qui, à chaque fois, criaient « on y est presque ! »… et se sont plantées.

Pour lui, les LLM sont la nouvelle version de ce même biais : on construit un truc qui prédit le mot suivant, on obtient des résultats impressionnants, mais ça reste superficiel. Pas de vrai modèle du monde physique, pas de causalité robuste, pas de planification fiable à long terme, et donc des hallucinations inévitables quand on sort du texte.

L’intelligence humaine repose sur une compréhension du monde sensoriel et physique, pas seulement sur la prédiction linguistique.

Yann n’est pas un vieux grincheux qui crie « tout est faux ». C’est un des pères du deep learning qui dit : « On a construit les fondations, super… maintenant arrêtons de faire comme si c’était le toit final. »

Laisser un commentaire