L’intelligence artificielle transforme la médecine en révolutionnant le diagnostic, mais la confiance reste l’obstacle majeur à son adoption. Nous assistons à l’émergence de solutions IA comme MAI-DxO atteignant 85,5 % de précision sur des cas complexes, contre seulement 20 % pour les médecins, et DeepRare qui détecte 70,6 % des maladies génétiques rares, dépassant largement les outils classiques. L’IA optimise également l’utilisation des examens médicaux, ce qui permet une réduction des coûts pour le système de santé et favorise une meilleure allocation des ressources grâce à l’automatisation des processus et à l’analyse avancée de données.
Pourtant, cette performance ne conduit pas encore à une confiance généralisée : vous êtes encore 52 % à préférer un avis médical humain, et la simple mention d’une intelligence artificielle dans vos soins diminue votre confiance. La transparence et l’éthique IA sont alors indispensables : nous devons vous expliquer clairement comment et à quel moment l’IA intervient dans votre parcours de soins, et veiller à un alignement IA entre les bénéfices des algorithmes et vos attentes patient.
Du côté des professionnels, la défiance subsiste également. Nombreux sont les médecins réticents à ajuster leur jugement face à l’intervention d’agents IA, par crainte d’une erreur ou du risque juridique. Beaucoup sous-estiment encore les alertes générées par l’IA, alors même que l’automatisation et l’utilisation de logiciels d’intelligence artificielle progressent dans les établissements de santé. Sur le plan réglementaire, la situation est contrastée : plus de 1 000 dispositifs médicaux à base d’intelligence artificielle sont déjà autorisés par la FDA. Pourtant, 43 % de ces outils n’ont jamais été évalués de manière prospective et seuls 20 % ont fait l’objet d’essais cliniques randomisés, ce qui soulève des questions sur la fiabilité et l’alignement avec la réalité clinique.
Nous devons également faire face à une fragmentation des données médicales, à un manque de lisibilité des algorithmes et à une prédominance des évaluations sur dossiers anciens, souvent peu représentatifs de la réalité. S’ajoutent à cela des intérêts industriels, parfois divergents des besoins cliniques, et des conflits d’usage lors de la validation de nouveaux outils d’intelligence artificielle.
Des solutions émergent progressivement : des équipes IA collaboratives comme MAI-DxO, des systèmes intelligents de type g-AMIE, ou des référentiels d’évaluation indépendants à l’image de HealthBench. Pour progresser, nous avons besoin de procédures de validation clinique plus rigoureuses, de normes éthiques adaptées et d’intégrer la formation à l’IA dans le parcours des médecins. Seul un effort collectif, accompagné par une clarté nouvelle sur les outils d’intelligence artificielle, permettra d’instaurer la confiance et d’assurer que le développement de l’IA médicale bénéficie pleinement à tous.