Pour ceux qui peuvent encore réfléchir, la bulle de l’IA

L’IA n’est « qu’un perroquet extrêmement doué qui répète ce sur quoi il a été entraîné ». Ce n’était pas du tout de l’intelligence.

La question a été tranchée par Apple, et plus précisément par son département de recherche en apprentissage automatique, dans un article de recherche fondateur intitulé :

« L’illusion de la pensée : comprendre les forces et les limites des modèles de raisonnement à travers le prisme de la complexité des problèmes »,

( https://ml-site.cdn-apple.com/papers/the-illusion-of-thinking.pdf… ).

Que dit l’article ? il dit que les modèles d’IA, même les modèles de raisonnement à grande échelle (MRL) les plus avancés, ne sont rien de plus que des perroquets surdoués, dépourvus de toute capacité de raisonnement. Ils ne sont pas du tout « intelligents », du moins pas si vous comprenez l’intelligence comme impliquant une véritable résolution de problèmes au lieu de simplement répéter ce qu’on vous a dit auparavant sans le comprendre.

C’est précisément ce que l’étude d’Apple cherchait à comprendre : les modèles de « raisonnement » peuvent-ils réellement raisonner ?

Peuvent-ils résoudre des problèmes pour lesquels ils n’ont pas été formés, mais qui seraient normalement faciles à résoudre grâce à leurs « connaissances » ? La réponse est, en fin de compte, un « non » catégorique.

Un exemple particulièrement accablant, tiré de l’article, était cette énigme de traversée de rivière : imaginez que trois personnes et leurs trois agents doivent traverser une rivière à bord d’une petite embarcation ne pouvant transporter que deux personnes à la fois. Le piège ? On ne peut jamais rester seul avec l’agent d’une autre personne, et l’embarcation ne peut pas traverser vide ; il faut toujours que quelqu’un la ramène à la rame. Voici le genre d’énigme logique que l’on retrouve dans un livre de réflexion pour enfants : il faut trouver la bonne séquence de trajets pour faire traverser la rivière à tout le monde. La solution ne nécessite que 11 étapes. Il s’est avéré que ce simple casse-tête était impossible à résoudre pour Claude 3.7 Sonnet, l’une des IA « raisonnables » les plus avancées.

Il n’a même pas pu dépasser le 4e coup avant de commettre des coups illégaux et d’enfreindre les règles. Pourtant, la même IA pourrait résoudre parfaitement le puzzle de la Tour de Hanoï avec 5 disques – un défi beaucoup plus complexe nécessitant 31 mouvements parfaits en séquence. Pourquoi cette différence énorme ?

Les chercheurs d’Apple l’ont compris : la Tour de Hanoï est un casse-tête informatique classique que l’on retrouve partout sur Internet. L’IA avait donc mémorisé des milliers d’exemples lors de son entraînement. Mais un casse-tête de traversée de rivière à trois ? Apparemment trop rare en ligne pour que l’IA ait mémorisé les motifs.

Tout cela prouve que ces modèles ne raisonnent pas du tout.

Un système véritablement raisonné reconnaîtrait que les deux énigmes impliquent le même type de raisonnement logique (respect de règles et de contraintes), mais avec des scénarios différents.

Mais comme l’IA n’a jamais mémorisé le schéma de traversée de la rivière, il a été complètement perdu. Ce n’était pas non plus une question de calcul : les chercheurs ont donné aux modèles d’IA des budgets de jetons illimités. Mais le plus étrange, c’est que pour les énigmes ou les questions qu’ils ne parvenaient pas à résoudre – comme l’énigme de la traversée de rivière – les modèles ont commencé à réfléchir moins, et non plus ; ils ont utilisé moins de jetons et ont abandonné plus vite. Un humain confronté à un casse-tête plus difficile passerait généralement plus de temps à y réfléchir, mais ces modèles de « raisonnement » ont fait le contraire : ils ont essentiellement « compris » qu’ils n’avaient rien à répéter, alors ils ont simplement abandonné – le contraire de ce que l’on attendrait d’un véritable raisonnement.

Conclusion : ce ne sont en fait que des perroquets doués, ou des machines à copier-coller incroyablement sophistiquées, si vous voulez. Cela a de profondes implications pour l’avenir de l’IA que nous avons tous imaginé. Certaines sont positives, d’autres plus inquiétantes.

La première est : non, l’IA générale n’est pas pour demain. Tout cela n’est que du battage médiatique. En réalité, nous en sommes encore à des années-lumière. La bonne nouvelle, c’est que nous n’avons pas à craindre de sitôt l’arrivée de « maîtres de l’IA ».

La mauvaise nouvelle, c’est que nous pourrions potentiellement avoir des milliers de milliards de dollars de capitaux mal alloués. ———–

Ht Arnaud Bertrand

Une réflexion sur “Pour ceux qui peuvent encore réfléchir, la bulle de l’IA

  1. Bonjour M. Bertez

    De PomPom news: « On a découvert l’ancêtre de HAL 9000! « 

    Des chercheurs ont trouvé , sur les terres des Wokes aujourd’hui état de Californie USA. et identifié un paléoalgorythme daté de 2025 présentant des traits communs avec nos algorythmes modernes

    Ce lointain ancêtre de HAL 9000 a été nommé CocoGPT !

    Cordialement

    J’aime

Répondre à Steve Annuler la réponse.