Qwen2.5-Max : Révolution de l'intelligence artificielle avec les modèles MoE à grande échelle Qwen2.5-max : exploration de l’intelligence des modèles moe à grande échelle – NEURA KING

Qwen2.5-Max : Révolution de l'intelligence artificielle avec les modèles MoE à grande échelle

Le développement continu et l’extension des tailles de données et de modèles constituent un levier essentiel pour améliorer l’intelligence des modèles d’intelligence artificielle. Cependant, la communauté de recherche et d’industrie fait face à des défis dans la mise à l’échelle de modèles extrêmement grands, qu’ils soient denses ou basés sur des Mixture-of-Experts (MoE). De nombreuses informations cruciales concernant ce processus de mise à l’échelle ont été révélées récemment avec la publication de DeepSeek V3.

Dans ce contexte, l’équipe de Qwen a annoncé Qwen2.5-Max, un modèle MoE à grande échelle ayant été préentraîné sur plus de 20 billions de tokens. Ce modèle a été ensuite perfectionné grâce à des méthodes de Supervised Fine-Tuning (SFT) et de Reinforcement Learning from Human Feedback (RLHF). Aujourd’hui, les résultats de performance de Qwen2.5-Max sont disponibles.

 

 

 

Accès

L’équipe de Qwen a annoncé la disponibilité de son API via Alibaba Cloud. Les utilisateurs sont également invités à explorer Qwen2.5-Max sur Qwen Chat.

 

 

Actualités

Google DeepMind UK : 300 employés syndiqués contre le contrat IA israélien
Sam Altman admet les défauts de GPT-4o : ChatGPT trop sycophante, corrections en cours
Dario Amodei (Anthropic) : Ouvrir la boîte noire de l'IA d'ici 2027
ChatGPT crée un message crypté : l'IA a-t-elle une langue secrète ?
L'IA est déjà au-dessus de 98 % de l'humanité
Guide Anthropic pour développer des agents de codage avec Claude Code
Guerre des puces : enjeux technologiques et stratégiques entre États-Unis et Chine
Wikimedia lutte contre le scraping des bots avec un nouvel ensemble de données pour l'IA
ChatGPT géolocalise vos photos en un clin d'œil
Les dangers de l'IA dans la retouche photo

IA et politique

Guerre des puces : enjeux technologiques et stratégiques entre États-Unis et Chine
DeepSeek : Menace à la sécurité nationale des États-Unis
L'UE interdit les assistants virtuels : une nouvelle règle pour les agents IA
Acceptez qu'on vous vole, sinon, c'est la fin
Comment faire passer un président pour un tocard ?
Impact de l'IA sur les conflits mondiaux : Sommet militaire à Paris
Stratégie AI-First pour la Transformation Technologique de l'Administration Fédérale
Meta envisage de stopper le développement d'IA jugées trop risquées
OpenAI o3-mini réfléchit en Mandarin !
Des chercheurs de Berkeley recréent DeepSeek pour 30 $

Opinions

Ils collectent vos données, exploitent vos idées et préparent votre remplacement
Pourquoi Grok dit (disait) que Musk est un désinformateur ?
Comment faire passer un président pour un tocard ?
OpenAI o3-mini réfléchit en Mandarin !
DeepSeek : Le cadeau empoisonné de la Chine
Censure DeepSeek: l'IA défraye l'actu politico-technique. (Edit: )

Decryptage

Ils collectent vos données, exploitent vos idées et préparent votre remplacement
Elon Musk et Microsoft s'associent pour un projet d'IA de 30 milliards de dollars
Intelligence Artificielle (IA) : Comprendre et appréhender l'IA contemporaine
Comment l'IA nous manipule ?
Retour en haut