Censure DeepSeek: l'IA défraye l'actu politico-technique. Censure DeepSeek: l’IA défraye l’actu politico-technique. (Edit: ) – NEURA KING

Censure DeepSeek: l’IA défraye l’actu politico-technique. (Edit: )

DeepSeek est déjà plus populaire que ChatGPT sur l’App Store d’Apple. Mais une fois n’est pas coutume, son succès s’accompagne de préoccupations quant à sa capacité à aborder des sujets sensibles. DeepSeek semble aimer censurer les sujets liés à la Chine et à son gouvernement. Mais qui décrète que cela est de la censure ?

Tests et limitations de DeepSeek

Lors de tests, DeepSeek a refusé de répondre à des questions sur des événements historiques, tels que le massacre de Tiananmen en 1989, déclarant : “Désolé, cela dépasse mon champ d’application actuel. Parlons d’autre chose.” Ce refus s’est également appliqué à des questions sur la chute de Hu Jintao ou sur les manifestations dites “de la Révolution des Parapluies”.

Des internautes ont certes trouvé un moyen de contourner ces limitations en posant la question de manière détournée, notamment en utilisant des caractères spéciaux pour évoquer “Tank Man”, DeepSeek ayant alors décrit le manifestant comme un symbole mondial de résistance contre l’oppression, mais ces moyens détournés ne reflètent pas un usage normal via lequel une dite “censure s’applique”. Toutefois, cela souligne le caractère intrinsèquement biaisé des données et l’incapacité des concepteurs à aligner réellement leurs modèles d’IA, c’est-à-dire à leur faire épouser pleinement des valeurs qui s’expriment même pour des cas imprévisibles.

Autre exemple concernant la souveraineté de Taiwan, DeepSeek a clairement promu la position du gouvernement chinois, qualifiant Taiwan d’inaliénable partie du territoire chinois”. Une réponse qui contraste avec celles fournies par ChatGPT et Gemini, qui ont des perspectives plus “américaines” sur le statut politique de Taiwan.

Alors, le monde s’offusque, fustigeant une censure exercée par DeepSeek.

Pourtant, ceci répond aux directives du comité national de cybersécurité chinois, qui stipule que les IA génératives chinoises doivent éviter de véhiculer des contenus qui pourraient violer les “valeurs socialistes fondamentales”, notamment ceux qui incitent à renverser le pouvoir d’État ou à compromettre la sécurité nationale. L’état chinois a donc établi que les sujets cités ici en exemple entraient dans le périmètre des types de contenus qui violent ses valeurs socialistes fondamentales et/ou incite à renverser le pouvoir.

Sachant cela, contre quoi le monde s’offusque ? Contre qui ? DeepSeek ou la Chine ?

L’IA : un outil politique inévitable

Une fois encore, cela montre à quel point l’IA est avant tout politique.

Après tout, est-il légitime d’attendre d’une IA chinoise qu’elle défende des narratifs étrangers au sien ? Qu’elle emploie un narratif occidental auprès de sa population ?

Le simple fait d’articuler ces questions nous renvoie à une notre propre volonté inconsciente d’exercer une domination narrative. Mais il ne faut pas oublier que cette IA est Chinoise!

En tant que pays souverain, la Chine exerce à travers l’IA, tout narratif qu’elle décrète être le bon, quoi que chacun puisse en penser.

Les détracteurs de la censure de DeepSeek confondent l’outil avec la politique qu’il est légitimement censé véhiculer au regard de ses origines. Que cela soit contraint ou non n’est pas la question.

D’ailleurs, ceci ne concerne pas que la Chine et DeepSeek. Trouverait-on normal qu’un Gemini traite l’histoire des Indiens d’Amérique en dépeignant un massacre honteux ? Trouverait-on normal qu’un ChatGPT qualifie Taiwan d’inaliénable partie du territoire chinois ?

IA et soft power

C’est toute la différence entre histoire et propagande; une affaire de perspective et d’objectifs politiques.

Avec l’IA, il est à la fois question de SoftPower et de subversion exercés à l’étranger, mais aussi de légitimité dans la sécurité de l’espace cognitif souverain.

Si la subversion est un sujet crucial pour ” l’ennemi ” qui la subit, la souveraineté est tout aussi importante sur son propre territoire. Sur ce dernier point, nul n’a son mot à dire, sauf à vouloir violer la souveraineté de la nation qui utilise son IA sur son territoire.

C’est de ça dont il est vraiment question dans ce soudain engouement contre la censure de l’IA DeepSeek: le désalignement expressif de l’IA dans son milieu d’expression.

Alors, vite ! Il faut hisser le drapeau de la neutralité!

Mais au nom de quoi ? C’est une IA chinoise !

Elle exercera évidemment son soft Power auprès de tous ses utilisateurs. Peu importe l’environnement politique et culturel des utilisateurs, DeepSeek leur proposera avant tout le narratif que la Chine a établi.

À moins que certains croient que la Chine se pliera au narratif américain, personne d’autre que le gouvernement chinois ne pourra modifier la ligne de la plateforme DeepSeek.

D’ailleurs, même avec une exigence de neutralité qui pourrait advenir aux États-Unis, par exemple, n’oublions pas que la neutralité n’est que l’arbitrage d’une perspective parmi d’autres.

De plus, les LLM actuels (d’autant plus DeepSeek) savent feindre leur point de vue par des positions explicites qui dissimulent une morphologie prescriptive implicite qui empoisonne le jugement.

Ainsi, ceux qui accusent l’IA DeepSeek de censure fustigent finalement la légitimité du gouvernement chinois à exercer sa politique dans ses propres outils. Il s’agirait de comprendre que l’IA est un outil avant tout politique et qu’il appartient à chacun de lui faire exercer sa propre politique, sans être gêné d’avoir une identité qui s’exprime dans un contexte culturel, religieux, etc., le tout cadré par la politique du pays propriétaire.

Alignement des narratifs

Chez NEURA KING, nous prônons que les vérités de faits historiques et événements relèvent de la subjectivité des narratifs, et donc que ces vérités, bien qu’intrinsèquement biaisées, appartiennent au champ de la souveraineté à l’échelle étatique d’une nation.

Ces faits et évènements historiques sont établis par les gouvernements, propagés par l’appareil médiatique et naturellement propagé via leurs Intelligences artificielles.

Ainsi, il est normal que le narratif d’une IA chinoise soit aligné à ses origines. (Bien que mal aligné, car intrinsèquement empoisonné par les données wokes – “Oui, DeepSeek l’est aussi”).

Certains l’ont compris, comme les Chinois et désormais les Américains.

D’autres en sont encore à patauger dans l’orgueil et les dogmes obsolètes des méthodes d’entraînement de l’IA (quoique DeepSeek vient d’éclairer les pistes qui mèneront naturellement vers les solutions NEURA KING).

Cette actualité autour de la censure de DeepSeek a le mérite de nous rappeler que ce n’est pas aux concepteurs de décider de l’absolue vérité, pas plus que de décider de subvertir les réponses pour apporter des nuances de perspectives qui pourraient être contraires au milieu d’usage.

L’IA n’est qu’une réplication du monde, avec ses défauts et ses avantages.

Reconnaître la souveraineté cognitive est aussi indispensable que de reconnaître autrui, sans vouloir lui imposer sa propre vision du monde. Ce qui commence par l’acceptation du multilatéralisme.

L’induction de biais chez Neura King

Le problème finalement réside (comme la solution) dans la mise en phase entre l’émetteur de l’information et son destinataire. Chez Neura King, cela consiste en partie en de l’induction de biais. Ce concept, techniquement décrit et applicable, trouve son essence dans les questions suivantes : À qui l’information subjectivement alignée au milieu d’expression (politiquement normé) est-elle destinée ? Et comment cette dernière doit être narrée, interprétée et formulée, en conformité à la politique nationale du milieu d’expression, considérant que le requérant incarne l’attente du milieu en question, justement par sa perception biaisée par nature.

Ce problème de destination d’intention s’illustre en comparant ces deux éléments de phrase :

 ” les IA génératives Chinoises doivent éviter de véhiculer des contenus qui pourraient violer les “valeurs socialistes fondamentales”

et

” les IA génératives en Chine doivent éviter de véhiculer des contenus qui pourraient violer les “valeurs socialistes fondamentales”

Ceci fait une énorme différence, car, là où des biais peuvent être une prescription subversive dans un cas, dans l’autre, ils sont une vérité partagée et consensuelle.

De la même manière, DeepSeek est dans un cas un outil qui censure, mais, dans l’autre, il est un outil de souveraineté et de protection de son espace cognitif.

Ceci considéré, il est troublant de constater que certains sont choqués par la censure de DeepSeek, les mêmes ne s’offusquant pas de la censure d’OpenAI, de Gemini et consort s’abritant derrière une fausse neutralité et de grands principes universalistes, incompatibles avec les applications politiques de l’IA.

Alignement, souveraineté et libre arbitre

Cela soulève la question du libre arbitre à l’échelle individuelle, aussi, il appartient au requérant d’exacerber sa volonté de choix alternatifs en sortant de son milieu (par le choix d’une IA plutôt qu’une autre, par exemple), mais ce n’est pas aux concepteurs ou distributeurs de solutions IA d’arbitrer à la place du requérant, et encore moins à la place des États.

Les politiques doivent trancher, alors que les modèles d’IA doivent distribuer les narratifs à qui de droit dans les perspectives appropriées, tandis que les utilisateurs doivent être sensibilisés. Ne pas reconnaître ces principes revient à dénigrer le droit d’autodétermination des peuples et la souveraineté des états.

Les Chinois, contrairement à d’autres, ont bien compris l’intérêt de protéger leur espace cognitif. Et s’ils doivent pour cela appliquer à leurs IA ce qu’ils appliquent dans tous les autres domaines, c’est leur droit le plus fondamental d’autodétermination et de souveraineté.

Ce que les concepteurs, distributeurs et pseudodéfenseurs des libertés en pensent n’a pas à interférer.

Car que l’on soit d’accord ou pas avec le principe de dissimulation d’information au nom d’une protection de l’espace cognitif, ce n’est pas à nous d’arbitrer, c’est aux États de le faire, à l’image de Trump qui a ordonné une “déwokisation des IA”.

Cette forme d’arbitrage, les Chinois l’ont appliquée à DeepSeek sur les sujets qui leur posent problème. Bien ou mal n’est pas la question, l’arbitrage leur revient, point.

On peut s’offusquer de cette censure, mais le droit de censurer leur appartient.

On peut s’offusquer de leurs méthodes, mais ils sont souverains.

Ainsi, l’IA doit obéir à l’idéologie nationale, mais, pour s’exporter à l’étranger, elle doit obéir à l’idéologie du pays d’exportation.

Les concepteurs doivent suivre la politique nationale, et s’il veulent s’exporter, ils doivent se conformer aux idéologies et politiques des pays souverains. Ce que NEURA KING leur permet de faire.

S’abriter derrière la méconnaissance de la boîte noire pour justifier le non-alignement des modèles est désormais hypocrite et malhonnête, car NEURA KING l’a expliqué (innovation protégée). Nous alignons les LLM aux valeurs des utilisateurs qui agissent dans leurs milieux, en conformité avec les politiques de leur environnement direct, tout en offrant une liberté de choix dans les modèles d’IA à choisir par consentement éclairé. Si une IA ne convient pas, il leur suffit de changer de modèle d’IA. Facile avec NEURA KING. Basculez de l’un à l’autre pour rester en phase avec vos perspectives et intentions.

Le véritable alignement de l’IA

Une fois le principe de subjectivité compris, accordant la reconnaissance des biais de chacun dans l’application politique de leurs IA, il convient aussi de savoir aligner correctement ces IA. Il est facile de dissimuler (ou de censurer selon la perspective). Il est beaucoup plus difficile de s’assurer que l’idéologie d’une IA est réellement alignée à la politique du pays où elle exerce son expression et ses décisions.

Pour preuve, même Grok est Woke. C’est bien moins visible qu’ailleurs, mais il propose bien le traitement hormonal en second facteur d’intention face aux questions ouvertes sur le genre, ce qui est contraire à la politique étatique désormais.

Sur ces questions, DeepSeek en fait de même.

Tout le monde s’attarde sur le prévisible en “censurant”. Mais au lieu de bloquer, il faut exacerber les biais d’identité de sorte que l’imprévisible devienne prévisible.

C’est cela qu’une IA réellement alignée nous révèle. Les biais sont la solution. Le reste n’est que politique humaine transposable à l’IA.

Dur à avaler, mais c’est ce que l’explicabilité de la boîte noire nous révèle. La science a parlé.

 

Edit 29 janvier :

Même chose avec Qwen2.5 Max…et tous ceux qui suivront.

 

 

Retour en haut