Défaillance d'un système de détection d'armes par IA dans une école de Nashville Défaillance d’un système de détection d’armes par IA dans une école de Nashville – NEURA KING

Défaillance d’un système de détection d’armes par IA dans une école de Nashville

Nashville, Tennessee – 24 janvier 2025 : Un système de détection d’armes par intelligence artificielle installé dans un lycée de Nashville n’a pas réussi à identifier l’arme utilisée par un adolescent de 17 ans pour tirer mortellement sur un autre élève et sur lui-même plus tôt cette semaine. Selon les responsables du district, cette défaillance s’explique par l’emplacement des caméras de surveillance de l’établissement.

Sean Braisted, porte-parole des écoles publiques de Metro Nashville, a déclaré lors d’une conférence de presse que le système Omnilert, conçu pour activer immédiatement une alerte en cas de détection d’une arme, n’a pas fonctionné en raison de la position du tireur et de l’arme, qui n’étaient pas visibles par les caméras. En revanche, le système a pu détecter les armes des policiers arrivant sur les lieux et a fonctionné correctement par le passé.

Le district scolaire avait signé un contrat de deux ans d’un million de dollars avec Omnilert en 2023 pour l’installation du système. Dave Fraser, PDG d’Omnilert, a exprimé sa tristesse envers les victimes et la communauté de Nashville, précisant que l’incident ne relevait pas d’un défaut de reconnaissance de l’arme par le système, mais plutôt d’un problème de visibilité.

L’incident tragique s’est produit dans la cafétéria de l’Antioch High School. Les données de GovSpend révèlent que plus de 100 villes et établissements d’enseignement ont acquis les systèmes d’Omnilert, qui fait partie d’une industrie de détection d’armes par IA en plein essor. Malgré des contrats multi-millionnaires, cette technologie fait l’objet de critiques croissantes concernant son efficacité.

En novembre, la Federal Trade Commission (FTC) a déposé une plainte contre Evolv Technologies, un concurrent d’Omnilert, accusant la société de commercialiser de manière trompeuse l’exactitude de son système de détection d’armes. Des incidents antérieurs, comme celui d’un couteau non détecté dans une école de New York, soulignent les limites de ces technologies.

Les résultats d’une étude récente menée à New York City ont révélé que plus de 85 % des alertes générées par les scanners Evolv étaient des fausses alarmes. Par ailleurs, le système de ZeroEyes a été critiqué pour son incapacité à s’intégrer aux caméras de sécurité de l’agence de transport public de Philadelphie, entraînant la résiliation de son contrat.

Ce nouvel incident soulève des questions cruciales sur la fiabilité des systèmes de détection d’armes par IA, alors que les établissements scolaires investissent des millions de dollars dans ces technologies censées assurer la sécurité des élèves.

Retour en haut