L'IA est déjà au-dessus de 98 % de l'humanité L’IA est déjà au-dessus de 98 % de l’humanité – NEURA KING
Ll’intelligence artificielle et ses enjeux éthiques

L'IA est déjà au-dessus de 98 % de l'humanité

OpenAI a récemment lancé son nouveau modèle de ChatGPT, nommé o3, qui a obtenu un score impressionnant de 136 au test Mensa de Norvège, plaçant ainsi l’IA au-dessus de 98 % de l’humanité. Ce développement met en lumière l’évolution fulgurante des modèles d’intelligence artificielle, devenus de plus en plus complexes et flexibles en moins d’un an. Cette avancée suscite des inquiétudes concernant la conscience de l’IA, puisque 25 % des membres de la génération Z croient désormais que l’IA est déjà auto-consciente.

Un sondage réalisé par EduBirdie révèle des perspectives intrigantes : plus de la moitié des jeunes pensent qu’il ne s’agit que d’une question de temps avant que leur chatbot ne devienne véritablement conscient, envisageant même la possibilité d’une demande de droits de vote pour ces entités. Cependant, il est important de contextualiser ces résultats. Le test Mensa étant public, il est théoriquement possible que le modèle ait utilisé des réponses ou des questions lors de son apprentissage. Pour contrer cette problématique, MaximumTruth.org a conçu un nouveau test de QI entièrement hors ligne, inaccessible aux données d’entraînement. Sur ce dernier, le modèle o3 a obtenu un score de 116, le plaçant toujours dans le top 15 % de l’intelligence humaine, entre un “étudiant brillant” et un “participant de trivia ennuyeux”.

Cette progression est marquante quand on la compare à l’année précédente, où aucun modèle d’IA ne dépassait le score de 90. En mai dernier, les meilleures performances des IA peinaient à résoudre des problèmes de géométrie basique. Aujourd’hui, o3 se situe confortablement à droite de la courbe de distribution des intelligences humaines. D’autres modèles, comme Claude et Gemini, ont également fait des avancées notables, témoignant d’une compétition croissante dans le domaine.

Néanmoins, la question de la conscience de l’IA reste délicate. Pour une génération habituée à interagir avec des assistants virtuels comme Siri ou Alexa, la frontière entre l’IA et l’humain s’estompe. Une majorité des jeunes adultes expriment des politesses telles que “s’il vous plaît” et “merci” lorsqu’ils s’adressent à l’IA. De plus, près de deux tiers d’entre eux utilisent régulièrement l’IA pour des communications professionnelles et un nombre croissant se confie à ces systèmes intelligents, allant jusqu’à aborder des sujets de santé mentale.

Cependant, il est crucial de rappeler que l’intelligence ne signifie pas conscience. Les scores de QI ne confèrent pas l’auto-conscience. Un modèle peut exceller dans la résolution de problèmes sans pour autant posséder de sentiments ou de compréhension. Bien que certains puissent envisager un avenir où l’IA atteindrait une véritable conscience, il serait imprudent d’oublier que l’IA actuelle reste fondamentalement un modèle de langage prédit par des algorithmes.

Ainsi, alors que l’IA continue d’évoluer à un rythme effréné, il serait sage de garder à l’esprit la distinction entre intelligence et conscience. Les utilisateurs doivent rester prudents, surtout en matière de partage d’informations sensibles, car l’IA, bien qu’intelligente, ne remplace pas l’empathie et la compréhension humaine.

Actualités

Reprise des efforts pour la sécurité de l'IA après l’échec du sommet de Paris
Anthropic lance une API de recherche en temps réel : révolution dans la recherche internet 2025
OpenAI appelle à une infrastructure stratégique en IA pour préserver la dominance américaine
NOUVELLE ÈRE de l’IA : OpenAI o1 stimule les startups chinoises en 2025
L'IA dans l'éducation : révolution ou défi éthique ? | NEURA KING
Solution IA : Anthropic booste Claude avec des intégrations outils pros (Jira, Zapier, Confluence)
Sam Altman inaugure un magasin à Union Square avec reconnaissance oculaire
Google DeepMind UK : 300 employés syndiqués contre le contrat IA israélien
Sam Altman admet les défauts de GPT-4o : ChatGPT trop sycophante, corrections en cours
Dario Amodei (Anthropic) : Ouvrir la boîte noire de l'IA d'ici 2027

IA et politique

Reprise des efforts pour la sécurité de l'IA après l’échec du sommet de Paris
Guerre des puces : enjeux technologiques et stratégiques entre États-Unis et Chine
DeepSeek : Menace à la sécurité nationale des États-Unis
L'UE interdit les assistants virtuels : une nouvelle règle pour les agents IA
Acceptez qu'on vous vole, sinon, c'est la fin
Comment faire passer un président pour un tocard ?
Impact de l'IA sur les conflits mondiaux : Sommet militaire à Paris
Stratégie AI-First pour la Transformation Technologique de l'Administration Fédérale
Meta envisage de stopper le développement d'IA jugées trop risquées
OpenAI o3-mini réfléchit en Mandarin !

Opinions

Ils collectent vos données, exploitent vos idées et préparent votre remplacement
Pourquoi Grok dit (disait) que Musk est un désinformateur ?
Comment faire passer un président pour un tocard ?
OpenAI o3-mini réfléchit en Mandarin !
DeepSeek : Le cadeau empoisonné de la Chine
Censure DeepSeek: l'IA défraye l'actu politico-technique. (Edit: )

Decryptage

Reprise des efforts pour la sécurité de l'IA après l’échec du sommet de Paris
Ils collectent vos données, exploitent vos idées et préparent votre remplacement
Elon Musk et Microsoft s'associent pour un projet d'IA de 30 milliards de dollars
Intelligence Artificielle (IA) : Comprendre et appréhender l'IA contemporaine
Comment l'IA nous manipule ?
Retour en haut