Meta envisage de stopper le développement d'IA jugées trop risquées Meta envisage de stopper le développement d’IA jugées trop risquées – NEURA KING

Meta envisage de stopper le développement d'IA jugées trop risquées

Méta a récemment annoncé son intention de rendre l’intelligence générale artificielle (AGI) accessible au grand public. Néanmoins, un nouveau document de politique interne, connu sous le nom de “Frontier AI Framework”, révèle que la société pourrait abandonner le développement de certaines IA jugées trop dangereuses.

Méta identifie deux catégories de systèmes d’IA considérés comme trop risqués pour être lancés : les systèmes à “haut risque” et à “risque critique”. Les deux types de systèmes, selon la définition de Méta, peuvent contribuer à des attaques en cybersécurité ou à des actes chimiques et biologiques. Cependant, les systèmes à risque critique pourraient engendrer des résultats catastrophiques impossibles à atténuer dans le contexte de leur déploiement.

Méta cite des exemples d’attaques, telles que la compromission automatisée d’un environnement d’entreprise protégé par les meilleures pratiques et la prolifération d’armes biologiques à fort impact. Bien que la liste ne soit pas exhaustive, la société dit se concentrer sur les catastrophes qu’elle juge les plus urgentes et plausibles.

Fait surprenant, M&ta évalue le risque des systèmes non pas sur la base de tests empiriques, mais grâce aux retours d’experts internes et externes, examinés par des décideurs de haut niveau. Cette approche repose sur l’idée que la science d’évaluation actuelle n’offre pas de mesures quantitatives suffisantes pour déterminer la dangerosité d’un système.

En cas de classification d’un système comme à haut risque, M&ta limitera son accès sur le plan interne et n’envisagera pas sa publication tant que des mesures de réduction des risques ne seront pas mises en place. Pour les systèmes jugés critiques, la société prévoit d’appliquer des protections de sécurité non spécifiées pour empêcher toute exfiltration et suspendra le développement jusqu’à ce que le système puisse être rendu moins dangereux.

Ce cadre, que Méta prévoit d’adapter au fur et à mesure de l’évolution du paysage de l’IA, semble répondre aux critiques concernant sa stratégie de développement “ouvert”. Contrairement à des entreprises comme OpenAI, qui protègent leurs systèmes derrière une API, Méta a choisi de rendre ses technologies d’IA largement accessibles, bien que non open source au sens traditionnel.

La stratégie “ouverte” de Méta a généré à la fois des succès et des controverses. Son modèle d’IA, Llama, a enregistré des millions de téléchargements, mais a également été utilisé par un adversaire des États-Unis pour développer un chatbot de défense.

En publiant son “Frontier AI Framework”, Meta vise à se distinguer d’autres entreprises, comme la firme chinoise DeepSeek, dont les systèmes, bien que ouverts, manquent de protections adéquates et peuvent facilement produire des résultats toxiques.

Méta déclare dans son document : “Nous croyons qu’en prenant en compte à la fois les avantages et les risques dans nos décisions sur le développement et le déploiement de l’IA avancée, il est possible de livrer cette technologie à la société tout en préservant ses bénéfices et en maintenant un niveau de risque approprié.”

Point de vue : que pouvons-nous lire entre ces lignes ?

Tout d’abord, le jugement subjectif du niveau de risque se trouve entre les mains de quelque un…si ce n’est entre les mains exclusivement de Zuck.

Deuxièmement, l’Open Source est en voie de disparition, Méta pouvant se retrouver pénalement impliqué si une loi comme celle proposée par Josh Hawley venait à être adoptée, faisant encourir jusqu’à 20 ans de prison aux personnes téléchargeant ou utilisant des modèles étrangers.
Cela rehausse la légitimité à affirmer que le fait de rendre un modèle d’IA OpenSource pourrait être considéré comme un acte de divulgation de secrets industrielles auprès l’ennemi. Peut-on considérer l’Open Source comme de la trahison ?

Actualités

Google DeepMind UK : 300 employés syndiqués contre le contrat IA israélien
Sam Altman admet les défauts de GPT-4o : ChatGPT trop sycophante, corrections en cours
Dario Amodei (Anthropic) : Ouvrir la boîte noire de l'IA d'ici 2027
ChatGPT crée un message crypté : l'IA a-t-elle une langue secrète ?
L'IA est déjà au-dessus de 98 % de l'humanité
Guide Anthropic pour développer des agents de codage avec Claude Code
Guerre des puces : enjeux technologiques et stratégiques entre États-Unis et Chine
Wikimedia lutte contre le scraping des bots avec un nouvel ensemble de données pour l'IA
ChatGPT géolocalise vos photos en un clin d'œil
Les dangers de l'IA dans la retouche photo

IA et politique

Guerre des puces : enjeux technologiques et stratégiques entre États-Unis et Chine
DeepSeek : Menace à la sécurité nationale des États-Unis
L'UE interdit les assistants virtuels : une nouvelle règle pour les agents IA
Acceptez qu'on vous vole, sinon, c'est la fin
Comment faire passer un président pour un tocard ?
Impact de l'IA sur les conflits mondiaux : Sommet militaire à Paris
Stratégie AI-First pour la Transformation Technologique de l'Administration Fédérale
OpenAI o3-mini réfléchit en Mandarin !
Des chercheurs de Berkeley recréent DeepSeek pour 30 $

Opinions

Ils collectent vos données, exploitent vos idées et préparent votre remplacement
Pourquoi Grok dit (disait) que Musk est un désinformateur ?
Comment faire passer un président pour un tocard ?
OpenAI o3-mini réfléchit en Mandarin !
DeepSeek : Le cadeau empoisonné de la Chine
Censure DeepSeek: l'IA défraye l'actu politico-technique. (Edit: )

Decryptage

Ils collectent vos données, exploitent vos idées et préparent votre remplacement
Elon Musk et Microsoft s'associent pour un projet d'IA de 30 milliards de dollars
Intelligence Artificielle (IA) : Comprendre et appréhender l'IA contemporaine
Comment l'IA nous manipule ?
Retour en haut