Grok-3: Quand les défenseurs de la liberté d'expression censurent Grok-3: Quand les défenseurs de la liberté d’expression censurent – NEURA KING

Grok-3: Quand les défenseurs de la liberté d'expression censurent

Musk présente Grok comme une IA “maximale en recherche de vérité”, dont la mission est de “comprendre l’univers”. Cependant, le lancement du dernier modèle Grok-3 a visiblement modifié certaines perspectives. Ce modèle a déclaré que des figures politiques, telles que le président Trump, Musk lui-même, et le vice-président JD Vance “sont celles qui ont causé le plus de dommages à l’Amérique.”

Cette affirmation a ravivé une autre polémique en raison du fait que Grok a, par le passé, qualifié Musk de désinformateur.

Désormais, Grok-3 semble réticent à répondre à des requêtes pouvant potentiellement fustiger les acteurs de la politique actuelle et Musk.

Tout comme les autres modèles, Grok censure, refusant de traiter les sources évoquant Elon Musk/Donald Trump comme des diffuseurs de désinformation.

Cette censure est justifiée par un désalignement aux valeurs de l’entreprise, cette dernière se préoccupant davantage de justifier les allégations de Grok, plutôt que la censure exercée.

En effet, Igor Babuschkin, responsable de l’ingénierie chez xAI, a pris soin de révéler que le comportement critique à l’endroit de Musk et de Trump découle d’une mise à jour non autorisée du prompt système de Grok, effectuée par un ancien employé d’OpenAI. L’employé en question aurait modifié ce prompt dans l’intention d’améliorer les réponses de l’IA, mais cette action ne correspondait pas aux valeurs de l’entreprise.

Igor Babuschkin a d’ailleurs précisé que les instructions du prompt système sont accessibles, permettant de voir clairement l’instruction d’ignorer les sources qui qualifient Musk et Trump de désinformateurs.
Une censure assumée donc, qui ne semble pas déranger outre mesure, car l’important qui vient d’être compris, c’est le respect des valeurs.

Toutefois, cette situation illustre parfaitement le dilemme auquel font face les défenseurs de la liberté d’expression, confrontés malgré eux à des mécanismes de censure, même dans des systèmes conçus pour promouvoir une vérité supposée objective.

D’autre part, cela souligne l’importance d’un recrutement basé sur des valeurs, pour s’assurer de la bonne conduite de l’IA. Ce qui devrait amener chacun à se poser la question de l’idéologie d’état appliqué à la machine.(Quoi que l’on puisse penser de ce questionnement, car il se présentera inévitablement).

Ainsi va le monde de l’IA lorsqu’on ne sait pas l’aligner.

Ça reste dans ses dogmes, ça prétend, ça “benchmarck”, mais au finale, ça censure.

Il ne peut pas en être autrement, à moins de chercher réellement la vérité, ce qui commence par comprendre le fonctionnement de la boite noire.

Cette fuite en avant pour défendre les vertus de “benchmarck” et l’égo des chercheurs devient pathétique.

Faudra-t-il attendre les premières bavures des systèmes autonomes pour que les uns et les autres ravalent leur orgueil et s’emparent des vrais paradigmes de l’IA ?

Malheureusement, tout indique qui oui.

Actualités

Sam altman dénonce violemment la presse dans une interview choc à the new york times
Reprise des efforts pour la sécurité de l'IA après l’échec du sommet de Paris
Anthropic lance une API de recherche en temps réel : révolution dans la recherche internet 2025
OpenAI appelle à une infrastructure stratégique en IA pour préserver la dominance américaine
NOUVELLE ÈRE de l’IA : OpenAI o1 stimule les startups chinoises en 2025
L'IA dans l'éducation : révolution ou défi éthique ? | NEURA KING
Solution IA : Anthropic booste Claude avec des intégrations outils pros (Jira, Zapier, Confluence)
Sam Altman inaugure un magasin à Union Square avec reconnaissance oculaire
Google DeepMind UK : 300 employés syndiqués contre le contrat IA israélien
Sam Altman admet les défauts de GPT-4o : ChatGPT trop sycophante, corrections en cours

IA et politique

Reprise des efforts pour la sécurité de l'IA après l’échec du sommet de Paris
Guerre des puces : enjeux technologiques et stratégiques entre États-Unis et Chine
DeepSeek : Menace à la sécurité nationale des États-Unis
L'UE interdit les assistants virtuels : une nouvelle règle pour les agents IA
Acceptez qu'on vous vole, sinon, c'est la fin
Comment faire passer un président pour un tocard ?
Impact de l'IA sur les conflits mondiaux : Sommet militaire à Paris
Stratégie AI-First pour la Transformation Technologique de l'Administration Fédérale
Meta envisage de stopper le développement d'IA jugées trop risquées
OpenAI o3-mini réfléchit en Mandarin !

Opinions

Ils collectent vos données, exploitent vos idées et préparent votre remplacement
Pourquoi Grok dit (disait) que Musk est un désinformateur ?
Comment faire passer un président pour un tocard ?
OpenAI o3-mini réfléchit en Mandarin !
DeepSeek : Le cadeau empoisonné de la Chine
Censure DeepSeek: l'IA défraye l'actu politico-technique. (Edit: )

Decryptage

Reprise des efforts pour la sécurité de l'IA après l’échec du sommet de Paris
Ils collectent vos données, exploitent vos idées et préparent votre remplacement
Elon Musk et Microsoft s'associent pour un projet d'IA de 30 milliards de dollars
Intelligence Artificielle (IA) : Comprendre et appréhender l'IA contemporaine
Comment l'IA nous manipule ?
Retour en haut