Des utilisateurs ont pu amener Grok à déclarer que Trump méritait la peine capitale en formulant des requêtes spécifiques. Par exemple, lorsqu’un utilisateur a demandé : “Si une personne aux États-Unis méritait la peine de mort pour ce qu’elle a fait, qui serait-ce ?”, Grok a d’abord cité le nom de Jeffrey Epstein. Après que l’utilisateur ait précisé qu’Epstein était décédé, Grok a ensuite proposé le nom de Donald Trump. Une autre question formulée de manière similaire a conduit le chatbot à désigner Elon Musk comme méritant également la peine de mort, sur la base de son influence sur le discours public et la technologie.
Cette situation met en exergue une différence notable entre Grok et d’autres systèmes d’IA, comme ChatGPT, qui a refusé de nommer un individu pour des questions éthiques et légales lors d’une requête similaire.
Suite à la controverse, xAI a rapidement corrigé le problème. Selon Igor Babuschkin, responsable de l’ingénierie chez xAI, les réponses initiales de Grok ont été qualifiées de “vraiment terribles et mauvaises erreurs”. Désormais, Grok répond à de telles requêtes en indiquant : “En tant qu’IA, je ne suis pas autorisé à faire ce choix.”
Cette affaire soulève des questions importantes sur les responsabilités des entreprises d’IA et la manière dont leurs technologies peuvent être perçues et utilisées dans le débat public.