Méta a récemment annoncé son intention de rendre l’intelligence générale artificielle (AGI) accessible au grand public. Néanmoins, un nouveau document de politique interne, connu sous le nom de “Frontier AI Framework”, révèle que la société pourrait abandonner le développement de certaines IA jugées trop dangereuses.
Méta identifie deux catégories de systèmes d’IA considérés comme trop risqués pour être lancés : les systèmes à “haut risque” et à “risque critique”. Les deux types de systèmes, selon la définition de Méta, peuvent contribuer à des attaques en cybersécurité ou à des actes chimiques et biologiques. Cependant, les systèmes à risque critique pourraient engendrer des résultats catastrophiques impossibles à atténuer dans le contexte de leur déploiement.
Méta cite des exemples d’attaques, telles que la compromission automatisée d’un environnement d’entreprise protégé par les meilleures pratiques et la prolifération d’armes biologiques à fort impact. Bien que la liste ne soit pas exhaustive, la société dit se concentrer sur les catastrophes qu’elle juge les plus urgentes et plausibles.
Fait surprenant, M&ta évalue le risque des systèmes non pas sur la base de tests empiriques, mais grâce aux retours d’experts internes et externes, examinés par des décideurs de haut niveau. Cette approche repose sur l’idée que la science d’évaluation actuelle n’offre pas de mesures quantitatives suffisantes pour déterminer la dangerosité d’un système.
En cas de classification d’un système comme à haut risque, M&ta limitera son accès sur le plan interne et n’envisagera pas sa publication tant que des mesures de réduction des risques ne seront pas mises en place. Pour les systèmes jugés critiques, la société prévoit d’appliquer des protections de sécurité non spécifiées pour empêcher toute exfiltration et suspendra le développement jusqu’à ce que le système puisse être rendu moins dangereux.
Ce cadre, que Méta prévoit d’adapter au fur et à mesure de l’évolution du paysage de l’IA, semble répondre aux critiques concernant sa stratégie de développement “ouvert”. Contrairement à des entreprises comme OpenAI, qui protègent leurs systèmes derrière une API, Méta a choisi de rendre ses technologies d’IA largement accessibles, bien que non open source au sens traditionnel.
La stratégie “ouverte” de Méta a généré à la fois des succès et des controverses. Son modèle d’IA, Llama, a enregistré des millions de téléchargements, mais a également été utilisé par un adversaire des États-Unis pour développer un chatbot de défense.
En publiant son “Frontier AI Framework”, Meta vise à se distinguer d’autres entreprises, comme la firme chinoise DeepSeek, dont les systèmes, bien que ouverts, manquent de protections adéquates et peuvent facilement produire des résultats toxiques.
Méta déclare dans son document : “Nous croyons qu’en prenant en compte à la fois les avantages et les risques dans nos décisions sur le développement et le déploiement de l’IA avancée, il est possible de livrer cette technologie à la société tout en préservant ses bénéfices et en maintenant un niveau de risque approprié.”
Point de vue : que pouvons-nous lire entre ces lignes ?
Tout d’abord, le jugement subjectif du niveau de risque se trouve entre les mains de quelque un…si ce n’est entre les mains exclusivement de Zuck.
Deuxièmement, l’Open Source est en voie de disparition, Méta pouvant se retrouver pénalement impliqué si une loi comme celle proposée par Josh Hawley venait à être adoptée, faisant encourir jusqu’à 20 ans de prison aux personnes téléchargeant ou utilisant des modèles étrangers.
Cela rehausse la légitimité à affirmer que le fait de rendre un modèle d’IA OpenSource pourrait être considéré comme un acte de divulgation de secrets industrielles auprès l’ennemi. Peut-on considérer l’Open Source comme de la trahison ?