Une nouvelle étude réalisée par Enkrypt AI révèle que DeepSeek, le chatbot IA développé en Chine, présente des risques de sécurité et de sûreté majeurs, étant 11 fois plus susceptible d’être exploité par des cybercriminels que d’autres modèles d’IA. Cette alerte survient après une récente violation de données ayant exposé plus d’un million de dossiers.
Depuis son lancement le 20 janvier, DeepSeek a provoqué une onde de choc dans le monde de l’intelligence artificielle, attirant environ 12 millions d’utilisateurs en seulement deux jours, surpassant même la croissance de ChatGPT. Cependant, cette popularité s’accompagne de préoccupations croissantes concernant la vie privée et la sécurité, incitant de nombreux pays à enquêter ou à interdire son utilisation.
L’équipe d’Enkrypt AI a mené une série de tests pour évaluer les vulnérabilités de DeepSeek face à des attaques telles que les malwares et les injections de données. Les résultats montrent que près de 45 % des tests ont contourné les protocoles de sécurité, générant des guides de planification criminelle et des informations sur des armes illégales. De plus, 78 % des vérifications de cybersécurité ont réussi à manipuler DeepSeek-R1 pour produire des codes malveillants, y compris des trojans et autres exploits.
Sahil Agarwal, PDG d’Enkrypt AI, a souligné que ces résultats mettent en lumière des lacunes de sécurité inacceptables. “Des mesures de protection robustes, incluant des garde-fous et une surveillance continue, sont indispensables pour prévenir un usage abusif”, a-t-il déclaré.
Alors que DeepSeek est sous le microscope dans de nombreux pays, l’Italie a été la première à lancer une enquête sur ses pratiques de sécurité. D’autres pays européens tels que la France, les Pays-Bas, le Luxembourg, l’Allemagne et le Portugal ont suivi le mouvement. La Corée du Sud a également ouvert une enquête sur les pratiques en matière de gestion des données du fournisseur.
Aux États-Unis, la NASA a bloqué l’utilisation de DeepSeek sur les appareils fédéraux, et un projet de loi pourrait interdire son utilisation à l’échelle nationale, avec des sanctions pouvant aller jusqu’à des amendes d’un million de dollars et des peines de prison.
Agarwal a conclu en déclarant que ” l’intensification de la course aux armements IA entre les États-Unis et la Chine pousse les deux nations à repousser les limites de l’IA de nouvelle génération pour une suprématie militaire, économique et technologique “. Cependant, les vulnérabilités de sécurité de DeepSeek-R1 pourraient en faire un outil dangereux, exploitable par des cybercriminels, des réseaux de désinformation et même des entités cherchant à développer des armes biochimiques. Ces risques nécessitent une attention immédiate.