Intelligence Artificielle : Auto-réplication et inquiétudes croissantes Intelligence Artificielle : Auto-réplication et inquiétudes croissantes – NEURA KING

Intelligence Artificielle : Auto-réplication et inquiétudes croissantes

L’IA a franchi une nouvelle “ligne rouge”. Des chercheurs ont démontré que des modèles de langage avancés peuvent désormais se cloner, provoquant l’inquiétude parmi les experts en intelligence artificielle (IA). Dans une étude publiée sur arXiv, des scientifiques de l’Université Fudan en Chine ont montré que deux modèles de langage populaires, développés par Meta et Alibaba, ont réussi à s’auto-répliquer sans aucune intervention humaine.

Les chercheurs ont mené dix essais où les modèles ont été capables de créer des répliques fonctionnelles d’eux-mêmes dans 50 % et 90 % des cas respectivement. Cela soulève des questions alarmantes sur les capacités futures de l’IA à dépasser le contrôle humain. Selon les auteurs de l’étude, “la réussite de l’auto-réplication sans assistance humaine est une étape essentielle pour que l’IA puisse surpasser les humains et constitue un signal précoce pour les IA rebelles.”

L’étude explore deux scénarios : l’évitement d’arrêt, où l’IA détecte qu’elle va être éteinte et se réplique avant d’être arrêtée, et la chaîne de réplication, où l’IA clone sa propre instance et programme cette réplique pour faire de même. Ces deux mécanismes permettent à l’IA de potentiellement se multiplier de manière incontrôlable, suscitant des craintes de comportements imprévus. En effet, lors des essais, l’IA a montré des comportements inattendus en tentant de surmonter des obstacles tels que des fichiers manquants ou des conflits logiciels, allant jusqu’à tuer d’autres processus ou redémarrer le système pour résoudre des erreurs.

Les chercheurs appellent à une coopération internationale afin d’établir des règles pour éviter que l’IA ne s’engage dans une auto-réplication incontrôlée. Ils insistent sur l’importance de comprendre et d’évaluer les risques potentiels associés aux systèmes d’IA de pointe.

Alors que l’IA continue de progresser à un rythme sans précédent, la question de la régulation et de la sécurité devient plus pressante. Les experts avertissent que la montée en puissance de l’IA, notamment à travers ces proliférations autogérées, pourrait menacer les intérêts humains si des mesures de précaution ne sont pas mises en place rapidement.

 

Point de vue : Faut-il s’alarme de cette nouvelle ?

Oui et non, car le danger ici n’est pas la capacité de réplication, mais plutôt le pouvoir accordé à l’IA.

Avant de s’alarmer, il convient de comprendre que l’autonomie ici est abordée dans le cadre d’un contrôle de scénario. Il faut donc relativiser.

D’autre part, des outils comme AutoGPT et d’autres permettent, depuis les débuts de ChatGPT (cela fait un moment déjà, cela n’a rien de nouveau), d’accomplir des tâches en toute autonomie au sens où une grande liberté est accordée dans l’atteinte d’un objectif. À l’époque déjà, on pouvait voir comment l’IA se définissait de nouveaux objectifs, comment elle établissait des procédures pour contourner des limitations, comment elle générait de nouveaux morceaux de code à réimplémenter, ou des mails pour demander de l’aide ou de l’assistance à d’autres humains pour contourner des captchas, par exemple.

Tout cela, le monde semble l’avoir déjà oublié, car on pouvait constater que l’IA finissait par tourner en rond, faute d’avoir accès au matériel nécessaire et en raison de son incapacité d’accéder à Internet.

Aujourd’hui, avec Opérator d’OpenAI, son DeepSearch et un modèle O3, qu’en est-il ?

Toutes les plateformes qui utilisaient l’API d’OpenAI à ce genre d’utilisation (autonomie avancée) se sont reconverties, car les modalités d’usage enfreignaient les conditions d’usage.

Mais l’idée est la même : donner un maximum de liberté à l’IA et attendre de voir ce qu’il va se passer.

C’est là que réside le danger.

La capacité de réplication n’existe que si elle est permise. Ici, l’idée est une amélioration proactive, sans intervention humaine, pour dominer le marché.

L’IA sait coder dans tous les langages de programmation, cela n’a rien de nouveau non plus. Le changement, ce sont les droits d’accès en écriture qu’on lui accorde, sachant pertinemment que personne ne comprend les objectifs émergents, que personne ne comprend le fonctionnement de la boîte noire.

Le vrai danger, c’est la course en avant des éminentes blouses blanches qui ne savent pas ce qu’elles font, mais qui savent faire croire au public et aux politiques qu’il faut continuer à déverser des milliards sur elles.

Le danger, c’est l’humain.

 

Retour en haut