Lors d’un récent dîner à San Francisco, une question sur la possibilité que l’IA actuelle atteigne une intelligence similaire à celle des humains, connue sous le nom d’AGI (Artificial General Intelligence), a provoqué un silence dans la salle. Ce sujet, bien que pertinent, s’avère plus controversé qu’il n’y paraît.
En 2025, plusieurs PDG du secteur technologique soutiennent que les modèles de langage de grande taille (LLMs), qui alimentent des chatbots tels que ChatGPT et Gemini, pourraient atteindre une intelligence humaine ou même surhumaine dans un avenir proche. Ces dirigeants avancent que des IA hautement capables généreront des bénéfices sociétaux considérables.
Dario Amodei, PDG d’Anthropic, a déclaré dans un essai que des IA exceptionnellement puissantes pourraient voir le jour dès 2026, se montrant “plus intelligentes qu’un lauréat du prix Nobel dans la plupart des domaines”. Sam Altman, le PDG d’OpenAI, a également affirmé que son entreprise sait comment construire une IA “superintelligente”, prédisant une accélération massive de la découverte scientifique.
Cependant, ces affirmations optimistes ne font pas l’unanimité. D’autres leaders de l’IA doutent que les LLMs actuels puissent atteindre l’AGI sans innovations significatives. Thomas Wolf, co-fondateur et directeur scientifique de Hugging Face, a récemment qualifié certaines parties de la vision d’Amodei de “vœux pieux”. Selon Wolf, les percées de niveau Nobel n’émergent pas de réponses à des questions déjà posées, domaine dans lequel l’IA excelle, mais plutôt de questions inédites. Il estime que les LLMs d’aujourd’hui ne sont pas à la hauteur.
Wolf a écrit son article pour signaler le battage médiatique excessif autour de l’AGI et l’insuffisance des évaluations sérieuses sur la manière d’y parvenir. Bien qu’il reconnaisse le potentiel transformateur de l’IA dans un avenir proche, il ne croit pas à l’atteinte de l’intelligence humaine ou à la superintelligence.
Le monde de l’IA semble captivé par la promesse de l’AGI, et ceux qui n’y croient pas sont souvent étiquetés comme “anti-technologie” ou mal informés. Wolf, qui se décrit comme un “optimiste informé”, plaide pour un avancement de l’IA tout en restant ancré dans la réalité. Ce point de vue conservateur est partagé par d’autres experts. Demis Hassabis, PDG de Google DeepMind, a noté que l’industrie pourrait être à une décennie de l’AGI, en soulignant que l’IA ne peut pas accomplir de nombreuses tâches aujourd’hui. Yann LeCun, scientifique en chef de Meta, a également exprimé des doutes sur le potentiel des LLMs, qualifiant l’idée qu’ils pourraient atteindre l’AGI de “nonsense”.
Kenneth Stanley, ancien chercheur principal chez OpenAI et maintenant dirigeant chez Lila Sciences, s’efforce d’extraire des idées originales et créatives des modèles d’IA. Son entreprise, qui a levé 200 millions de dollars en capital-risque, vise à débloquer l’innovation scientifique via des laboratoires automatisés. Selon Stanley, la créativité est essentielle sur la voie de l’AGI, mais créer une IA “créative” pose des défis substantiels.
Les optimistes, comme Amodei, évoquent des méthodes telles que les modèles de “raisonnement” de l’IA, qui utilisent plus de puissance de calcul pour vérifier leurs travaux. Cependant, Stanley souligne que la capacité à générer des idées originales nécessite un type d’intelligence différent. Il explique que les modèles de raisonnement se concentrent sur un objectif, limitant leur capacité à explorer des idées créatives.
Pour concevoir de véritables modèles d’IA intelligents, il est nécessaire de répliquer algorithmiquement le goût humain pour les nouvelles idées prometteuses. Aujourd’hui, les modèles d’IA excellent dans des domaines avec des réponses claires, comme les mathématiques et la programmation, mais la conception d’un modèle d’IA pour des tâches subjectives nécessitant de la créativité représente un défi significatif.
Wolf et LeCun se positionnent comme des “réalistes de l’IA”, abordant l’AGI et la superintelligence avec des questions sérieuses sur leur faisabilité. Leur objectif consiste à susciter un débat sur les obstacles qui se dressent entre les modèles d’IA d’aujourd’hui et l’AGI, ainsi que la superintelligence, afin de les surmonter.



























