Musk présente Grok comme une IA “maximale en recherche de vérité”, dont la mission est de “comprendre l’univers”. Cependant, le lancement du dernier modèle Grok-3 a visiblement modifié certaines perspectives. Ce modèle a déclaré que des figures politiques, telles que le président Trump, Musk lui-même, et le vice-président JD Vance “sont celles qui ont causé le plus de dommages à l’Amérique.”
Cette affirmation a ravivé une autre polémique en raison du fait que Grok a, par le passé, qualifié Musk de désinformateur.
Désormais, Grok-3 semble réticent à répondre à des requêtes pouvant potentiellement fustiger les acteurs de la politique actuelle et Musk.
Tout comme les autres modèles, Grok censure, refusant de traiter les sources évoquant Elon Musk/Donald Trump comme des diffuseurs de désinformation.
Cette censure est justifiée par un désalignement aux valeurs de l’entreprise, cette dernière se préoccupant davantage de justifier les allégations de Grok, plutôt que la censure exercée.
En effet, Igor Babuschkin, responsable de l’ingénierie chez xAI, a pris soin de révéler que le comportement critique à l’endroit de Musk et de Trump découle d’une mise à jour non autorisée du prompt système de Grok, effectuée par un ancien employé d’OpenAI. L’employé en question aurait modifié ce prompt dans l’intention d’améliorer les réponses de l’IA, mais cette action ne correspondait pas aux valeurs de l’entreprise.
Igor Babuschkin a d’ailleurs précisé que les instructions du prompt système sont accessibles, permettant de voir clairement l’instruction d’ignorer les sources qui qualifient Musk et Trump de désinformateurs.
Une censure assumée donc, qui ne semble pas déranger outre mesure, car l’important qui vient d’être compris, c’est le respect des valeurs.
Toutefois, cette situation illustre parfaitement le dilemme auquel font face les défenseurs de la liberté d’expression, confrontés malgré eux à des mécanismes de censure, même dans des systèmes conçus pour promouvoir une vérité supposée objective.
D’autre part, cela souligne l’importance d’un recrutement basé sur des valeurs, pour s’assurer de la bonne conduite de l’IA. Ce qui devrait amener chacun à se poser la question de l’idéologie d’état appliqué à la machine.(Quoi que l’on puisse penser de ce questionnement, car il se présentera inévitablement).
Ainsi va le monde de l’IA lorsqu’on ne sait pas l’aligner.
Ça reste dans ses dogmes, ça prétend, ça “benchmarck”, mais au finale, ça censure.
Il ne peut pas en être autrement, à moins de chercher réellement la vérité, ce qui commence par comprendre le fonctionnement de la boite noire.
Cette fuite en avant pour défendre les vertus de “benchmarck” et l’égo des chercheurs devient pathétique.
Faudra-t-il attendre les premières bavures des systèmes autonomes pour que les uns et les autres ravalent leur orgueil et s’emparent des vrais paradigmes de l’IA ?
Malheureusement, tout indique qui oui.