OpenAI Deep Research: Confrontation aux limites OpenAI : Lancement de l’outil de recherche approfondie et ses limites – NEURA KING

OpenAI : Lancement de l’outil de recherche approfondie et ses limites

OpenAI a récemment lancé son nouvel outil d’intelligence artificielle, baptisé « recherche approfondie », visant à révolutionner le travail des experts en promettant d’accomplir en quelques minutes des tâches qui prendraient des heures à un humain. Intégré dans ChatGPT Pro et présenté comme un assistant de recherche équivalent à un analyste formé, cet outil est capable de naviguer sur le web de manière autonome, de compiler des sources et de livrer des rapports structurés. Il a même réussi à obtenir un score de 26,6 % à l’Humanity’s Last Exam (HLE), un benchmark exigeant pour l’IA, surpassant de nombreux autres modèles.

Cependant, cet l’engouement généré par Deep Research est excessif…comme toujours.

Bien que l’outil produise des rapports soignés, il présente des défauts significatifs.

Des journalistes ayant testé la fonctionnalité rapportent que la recherche approfondie peut omettre des détails cruciaux, avoir du mal avec les informations récentes et parfois même inventer des faits. OpenAI reconnaît ces limitations, notant que l’outil « peut parfois halluciner des faits dans ses réponses ou faire des inférences incorrectes, bien qu’à un taux notablement inférieur à celui des modèles ChatGPT existants, selon des évaluations internes ».

Les questions soulevées par cette technologie sont nombreuses. Un outil, aussi sophistiqué soit-il, peut-il vraiment remplacer un expert formé ? Quelles seraient les conséquences pour le travail intellectuel ? L’IA nous aide-t-elle à mieux penser ou nous incite-t-elle simplement à cesser de réfléchir ?

Qu’est-ce que la « recherche approfondie » ?

Destinée aux professionnels des secteurs financier, scientifique, juridique et des affaires, ainsi qu’aux universitaires et journalistes, la recherche approfondie représente la dernière avancée d’OpenAI dans les expériences « agentiques » intégrées à ChatGPT. Cet outil promet de réaliser le travail de recherche en quelques minutes. Actuellement, il est exclusivement disponible pour les utilisateurs de ChatGPT Pro aux États-Unis, moyennant un abonnement de 200 dollars par mois. OpenAI prévoit de l’étendre prochainement aux utilisateurs Plus, Team et Enterprise, avec une version plus économique en préparation.

Contrairement aux chatbots classiques, la recherche approfondie suit un processus en plusieurs étapes pour produire un rapport structuré :

  1. L’utilisateur soumet une demande, qu’il s’agisse d’une analyse de marché ou d’un résumé juridique.
  2. L’IA clarifie la tâche, posant des questions complémentaires pour affiner le sujet de recherche.
  3. L’agent effectue une recherche sur le web, parcourant des centaines de sources, y compris des articles d’actualité et des études.
  4. L’IA synthétise ses découvertes en extrayant les points clés, en les organisant dans un rapport structuré et en citant ses sources.
  5. Le rapport final est livré dans un délai de cinq à trente minutes, pouvant atteindre la profondeur d’une thèse de doctorat.

À première vue, cet outil semble idéal pour les travailleurs du savoir. Cependant, un examen plus attentif révèle des limites notables : l’IA manque de contexte, ignore les nouvelles informations et peut produire des données erronées. Elle ne distingue pas les sources fiables des moins fiables, ce qui soulève des inquiétudes sur la qualité de la recherche.

La recherche IA ne remplace pas l’humain

Bien que ChatGPT ne soit pas le seul outil capable de générer des rapports à partir de requêtes en ligne, d’autres solutions, comme celle de Hugging Face, ont vu le jour rapidement pour offrir des performances similaires. Le risque majeur de ces outils est de créer l’illusion que l’IA peut remplacer la pensée humaine. Bien que l’IA puisse résumer des informations, elle ne peut pas interroger ses propres hypothèses, identifier les lacunes de connaissances, penser de manière créative ou comprendre différentes perspectives.

Pour les travailleurs du savoir, il est crucial de développer des compétences que l’IA ne peut pas reproduire, telles que la pensée critique, la vérification des faits, l’expertise approfondie et la créativité. Utiliser ces outils de manière responsable implique de les intégrer sans sacrifier la profondeur ou l’exactitude de la recherche. Il est essentiel de vérifier les sources, car les citations générées par l’IA peuvent être trompeuses. Pour les sujets sensibles, comme la santé ou la justice, il est impératif de compléter les résultats de l’IA par les avis d’experts.

Malgré les promesses d’OpenAI, l’IA générative présente encore de nombreuses limites. Les humains capables de synthétiser l’information de manière créative, de remettre en question les hypothèses et de penser de manière critique resteront indispensables – l’IA ne peut pas encore les remplacer.

Retour en haut