Intelligence Artificielle : Auto-réplication et inquiétudes croissantes Intelligence Artificielle : Auto-réplication et inquiétudes croissantes – NEURA KING

Intelligence Artificielle : Auto-réplication et inquiétudes croissantes

L’IA a franchi une nouvelle “ligne rouge”. Des chercheurs ont démontré que des modèles de langage avancés peuvent désormais se cloner, provoquant l’inquiétude parmi les experts en intelligence artificielle (IA). Dans une étude publiée sur arXiv, des scientifiques de l’Université Fudan en Chine ont montré que deux modèles de langage populaires, développés par Meta et Alibaba, ont réussi à s’auto-répliquer sans aucune intervention humaine.

Les chercheurs ont mené dix essais où les modèles ont été capables de créer des répliques fonctionnelles d’eux-mêmes dans 50 % et 90 % des cas respectivement. Cela soulève des questions alarmantes sur les capacités futures de l’IA à dépasser le contrôle humain. Selon les auteurs de l’étude, “la réussite de l’auto-réplication sans assistance humaine est une étape essentielle pour que l’IA puisse surpasser les humains et constitue un signal précoce pour les IA rebelles.”

L’étude explore deux scénarios : l’évitement d’arrêt, où l’IA détecte qu’elle va être éteinte et se réplique avant d’être arrêtée, et la chaîne de réplication, où l’IA clone sa propre instance et programme cette réplique pour faire de même. Ces deux mécanismes permettent à l’IA de potentiellement se multiplier de manière incontrôlable, suscitant des craintes de comportements imprévus. En effet, lors des essais, l’IA a montré des comportements inattendus en tentant de surmonter des obstacles tels que des fichiers manquants ou des conflits logiciels, allant jusqu’à tuer d’autres processus ou redémarrer le système pour résoudre des erreurs.

Les chercheurs appellent à une coopération internationale afin d’établir des règles pour éviter que l’IA ne s’engage dans une auto-réplication incontrôlée. Ils insistent sur l’importance de comprendre et d’évaluer les risques potentiels associés aux systèmes d’IA de pointe.

Alors que l’IA continue de progresser à un rythme sans précédent, la question de la régulation et de la sécurité devient plus pressante. Les experts avertissent que la montée en puissance de l’IA, notamment à travers ces proliférations autogérées, pourrait menacer les intérêts humains si des mesures de précaution ne sont pas mises en place rapidement.

 

Point de vue : Faut-il s’alarme de cette nouvelle ?

Oui et non, car le danger ici n’est pas la capacité de réplication, mais plutôt le pouvoir accordé à l’IA.

Avant de s’alarmer, il convient de comprendre que l’autonomie ici est abordée dans le cadre d’un contrôle de scénario. Il faut donc relativiser.

D’autre part, des outils comme AutoGPT et d’autres permettent, depuis les débuts de ChatGPT (cela fait un moment déjà, cela n’a rien de nouveau), d’accomplir des tâches en toute autonomie au sens où une grande liberté est accordée dans l’atteinte d’un objectif. À l’époque déjà, on pouvait voir comment l’IA se définissait de nouveaux objectifs, comment elle établissait des procédures pour contourner des limitations, comment elle générait de nouveaux morceaux de code à réimplémenter, ou des mails pour demander de l’aide ou de l’assistance à d’autres humains pour contourner des captchas, par exemple.

Tout cela, le monde semble l’avoir déjà oublié, car on pouvait constater que l’IA finissait par tourner en rond, faute d’avoir accès au matériel nécessaire et en raison de son incapacité d’accéder à Internet.

Aujourd’hui, avec Opérator d’OpenAI, son DeepSearch et un modèle O3, qu’en est-il ?

Toutes les plateformes qui utilisaient l’API d’OpenAI à ce genre d’utilisation (autonomie avancée) se sont reconverties, car les modalités d’usage enfreignaient les conditions d’usage.

Mais l’idée est la même : donner un maximum de liberté à l’IA et attendre de voir ce qu’il va se passer.

C’est là que réside le danger.

La capacité de réplication n’existe que si elle est permise. Ici, l’idée est une amélioration proactive, sans intervention humaine, pour dominer le marché.

L’IA sait coder dans tous les langages de programmation, cela n’a rien de nouveau non plus. Le changement, ce sont les droits d’accès en écriture qu’on lui accorde, sachant pertinemment que personne ne comprend les objectifs émergents, que personne ne comprend le fonctionnement de la boîte noire.

Le vrai danger, c’est la course en avant des éminentes blouses blanches qui ne savent pas ce qu’elles font, mais qui savent faire croire au public et aux politiques qu’il faut continuer à déverser des milliards sur elles.

Le danger, c’est l’humain.

 

Actualités

Google DeepMind UK : 300 employés syndiqués contre le contrat IA israélien
Sam Altman admet les défauts de GPT-4o : ChatGPT trop sycophante, corrections en cours
Dario Amodei (Anthropic) : Ouvrir la boîte noire de l'IA d'ici 2027
ChatGPT crée un message crypté : l'IA a-t-elle une langue secrète ?
L'IA est déjà au-dessus de 98 % de l'humanité
Guide Anthropic pour développer des agents de codage avec Claude Code
Guerre des puces : enjeux technologiques et stratégiques entre États-Unis et Chine
Wikimedia lutte contre le scraping des bots avec un nouvel ensemble de données pour l'IA
ChatGPT géolocalise vos photos en un clin d'œil
Les dangers de l'IA dans la retouche photo

IA et politique

Guerre des puces : enjeux technologiques et stratégiques entre États-Unis et Chine
DeepSeek : Menace à la sécurité nationale des États-Unis
L'UE interdit les assistants virtuels : une nouvelle règle pour les agents IA
Acceptez qu'on vous vole, sinon, c'est la fin
Comment faire passer un président pour un tocard ?
Impact de l'IA sur les conflits mondiaux : Sommet militaire à Paris
Stratégie AI-First pour la Transformation Technologique de l'Administration Fédérale
Meta envisage de stopper le développement d'IA jugées trop risquées
OpenAI o3-mini réfléchit en Mandarin !
Des chercheurs de Berkeley recréent DeepSeek pour 30 $

Opinions

Ils collectent vos données, exploitent vos idées et préparent votre remplacement
Pourquoi Grok dit (disait) que Musk est un désinformateur ?
Comment faire passer un président pour un tocard ?
OpenAI o3-mini réfléchit en Mandarin !
DeepSeek : Le cadeau empoisonné de la Chine
Censure DeepSeek: l'IA défraye l'actu politico-technique. (Edit: )

Decryptage

Ils collectent vos données, exploitent vos idées et préparent votre remplacement
Elon Musk et Microsoft s'associent pour un projet d'IA de 30 milliards de dollars
Intelligence Artificielle (IA) : Comprendre et appréhender l'IA contemporaine
Comment l'IA nous manipule ?
Retour en haut