Les jurys IA rendent des verdicts trois fois plus vite, mais avec 35% d’écart par rapport aux décisions humaines
Les expériences menées par Stanford et le MIT révèlent que les intelligences artificielles parviennent à des verdicts différents des jurys humains dans 35% des cas. Malgré une rapidité de décision trois fois supérieure, ces systèmes reproduisent des biais dans 30% des situations et ne concordent avec les jugements humains qu’à 65%.
La transparence des raisonnements algorithmiques et l’acceptabilité sociale constituent les principaux obstacles au déploiement de ces technologies dans le système judiciaire. Seulement 22% de la population accepterait un verdict rendu par une IA selon un sondage YouGov, ce qui soulève des questions fondamentales sur l’éthique et la confiance dans l’intelligence artificielle appliquée à la justice.
Les recherches actuelles explorent plutôt l’utilisation de l’IA comme outil d’aide à la décision judiciaire, plusieurs pays testant déjà ces technologies dans des phases préliminaires de procédure. Cette approche vise à combiner l’efficacité des algorithmes avec l’expertise humaine, créant ainsi un système judiciaire hybride qui préserve les valeurs fondamentales tout en améliorant l’efficience.



























