Un nouveau départ parmi les chercheurs d’OpenAI soulève des inquiétudes quant à l’avenir de l’intelligence artificielle (IA). Steven Adler, chercheur en sécurité chez OpenAI, a annoncé sa démission après quatre années passées au sein de l’organisation, partageant ses craintes sur la progression rapide de l’IA qui, selon lui, devient de plus en plus risquée.
Dans un message publié sur X, Adler a déclaré : “Honnêtement, je suis plutôt terrifié par le rythme de développement de l’IA ces jours-ci.” Il a évoqué ses préoccupations concernant l’avenir de l’humanité, en se demandant si nous parviendrons à bâtir une vie stable pour les générations futures.
Adler a qualifié l’intelligence générale artificielle (AGI) de “pari très risqué, avec de lourdes conséquences.” Il a précisé qu’aucun laboratoire ne dispose actuellement d’une solution pour l’alignement de l’IA et a averti que la vitesse à laquelle se développe l’IA rendra de moins en moins probable la découverte d’une solution efficace à temps.
Il a également mis en lumière une dynamique inquiétante : “Aujourd’hui, nous semblons coincés dans un équilibre vraiment mauvais. Même si un laboratoire souhaite vraiment développer l’AGI de manière responsable, d’autres peuvent encore prendre des raccourcis pour rattraper leur retard, ce qui peut avoir des conséquences désastreuses.”
Les préoccupations d’Adler rejoignent celles d’autres experts du secteur. Stuart Russell, professeur d’informatique à l’Université de Californie à Berkeley, a souligné que même les PDG engagés dans cette course reconnaissent qu’il y a un risque significatif d’extinction humaine dans le processus, car nous n’avons aucune idée de la manière de contrôler des systèmes plus intelligents que nous.
Ce climat d’incertitude soulève des questions fondamentales sur la responsabilité et la sécurité dans le développement de l’IA, alors que les chercheurs et les décideurs s’interrogent sur la meilleure voie à suivre pour éviter des conséquences catastrophiques.