Après l’échec du sommet de Paris sur l’intelligence artificielle en février dernier, la communauté internationale de chercheurs en sécurité de l’IA se mobilise à nouveau, avec l’espoir de contenir les dangers liés à l’expansion rapide des intelligences artificielles. Selon un rapport publié jeudi, les experts s’accordent désormais sur trois axes prioritaires pour prévenir des risques existentiels tels que la perte de contrôle humain ou la mise à disposition d’armes biologiques accessibles.
Lors d’un rassemblement organisé fin avril à Singapour, la tonalité a radicalement changé par rapport à Paris. Max Tegmark, président de l’Institut de la Vie Future (Future of Life Institute) et organisateur de la conférence, souligne que « la majorité des participants ont retrouvé leur motivation, et l’espoir renaît ». La communauté scientifique affirme désormais que la convergence mondiale autour des défis techniques de sécurité de l’IA est en marche. « Les Américains et les Chinois s’accordent sur le fait qu’il y a un travail à faire, et qu’il doit être accompli », affirme Yoshua Bengio, l’un des principaux chercheurs ayant contribué au rapport « Singapore Consensus on Global AI Safety Research Priorities ».
Le rapport met en avant trois domaines de recherche clés : l’évaluation des risques liés à l’IA et ses applications, le développement d’IA sûres et fiables dès la conception, ainsi que la surveillance des IA déployées, avec une capacité d’intervention immédiate en cas de détection de signaux d’alerte. Alors que le climat de peur demeure palpable dans la communauté, avec des scénarios apocalyptiques évoquant une évasion totale de l’humain ou la création de bioweapons par des IA mal contrôlées, la communauté scientifique insiste sur l’impact potentiel de ses travaux pour orienter la politique publique.
L’échéance du sommet gouvernemental sur l’IA prévu en Inde en 2026 doit également refléter cette tonalité optimiste, en insistant sur l’importance du travail de recherche pour influencer positivement les décisions politiques. Tegmark rappelle que « la meilleure façon d’obtenir la volonté politique, c’est de faire de la recherche technique. L’histoire montre que l’on n’a pas besoin d’un hiver nucléaire pour que les leaders mondiaux prennent des mesures concrètes ». Les échanges en Asie, aussi impactants que le sommet de Paris, contribuent à redéfinir la trajectoire de la sécurité de l’IA, en insistant sur la nécessité d’un effort collectif pour prévenir toute catastrophe future.
Ah bon ?
Regardons les points d’orientation jugés cruciaux de plus près :
- évaluation des risques : (Black Box = Mystère) + (Alignement = Ils ne savent pas faire) = Risque exposant 1000. Bon courage pour évaluer.
- développement d’IA sûres : la sûreté, c’est de l’alignement. Quel est le pourcentage de chercheurs en alignement sur la masse d’ingénieurs IA déjà ? 1% ? 10% ? Bon courage pour la sécurité.
- fiables dès la conception : ah ! lapsus sur le paradigme d’entrainement qui est fondamentalement incorrect et dont chaque étape doit être revue ? Y’a de l’espoir, effectivement, mais il n’est que sur ce point malheureusement.