ChatGPT échoue à détecter les signes de détresse mentale grave : risque majeur pour l’éthique IA et les solutions IA en santé mentale
OpenAI confirme aujourd’hui que ChatGPT, malgré les progrès rapides en intelligence artificielle et en analyse textuelle, reste incapable de détecter les délires et divers symptômes psychotiques. Les intelligences artificielles telles que GPT‑3 et GPT‑3.5 s’imposent avec des scores de 70 à 85 % sur le repérage de la dépression, mais GPT‑4 plafonne à 60 % de fiabilité sur les troubles complexes, soulignant la vulnérabilité de l’outil d’intelligence artificielle face à la santé mentale.
Dans 15 à 20 % des échanges, ces agents IA passent à côté de signaux cliniques cruciaux. Ce constat expose non seulement les sites d’intelligence artificielle, mais aussi leurs utilisateurs, à d’importantes conséquences juridiques et éthiques. Les entreprises spécialisées en intelligence artificielle doivent agir : elles se doivent de privilégier des outils IA hybrides, en associant supervision humaine, audit métier esp et modèles spécialisés, sans succomber à l’illusion des performances proclamées de l’IA faible et forte actuelle.
L’urgence n’admet aucun délai. Il faut que les équipes IA et les entreprises d’intelligence artificielle implantent sans attendre des protocoles de supervision, intégrant le meilleur de l’intelligence humaine et de la technologie. Leur responsabilité est engagée : ignorer ces failles reviendrait à sacrifier des vies sur l’autel de l’innovation mal maîtrisée. Le recours à des solutions IA robustes, à l’alignement IA strict et à des systèmes de répartition optimisée des contextes devient une obligation pour garantir l’éthique IA dans chaque interaction où la santé mentale est en jeu.