lun. Jan 30th, 2023

Randal Reid, 28 ans, de Géorgie (États-Unis), a passé une semaine en prison parce qu’un logiciel de reconnaissance faciale l’a identifié par erreur comme un réfugié et Voleur identifié et la police s’est fiée au système. C’est ce que rapporte la plateforme People of Color in Tech.

En Louisiane (USA) un autre homme Louis Vuitton et Chanel-Sacs à main d’une valeur 10 000 $ volé et filmé par une caméra de surveillance. Les images ont été parcourues par un programme de reconnaissance faciale et ont craché Reid. Un mandat d’arrêt a alors été émis.

Il n’est jamais allé en Louisiane de sa vie

Reid a été arrêté le jour de Thanksgiving alors qu’il se rendait chez sa mère. Même lorsqu’il a été arrêté, l’homme a souligné qu’il n’était jamais allé en Louisiane de sa vie. Il n’a pas reçu d’autres détails sur son arrestation, selon son avocat, et il a été emprisonné pendant une semaine avant d’être libéré.

Cependant, il aurait été facile pour les fonctionnaires de détecter l’erreur plus tôt. Parce que Reid ne ressemblait en rien à l’homme de la vidéo de surveillance. Il y avait une différence de poids de 40 livres et Reid en a aussi un tache de naissance clairement identifiable sur le visage, un argument de vente unique qui était complètement absent des images de la Louisiane. Cela a finalement conduit à sa libération. Reid avait peur de perdre son emploi en prison et mangeait ou dormait à peine par chagrin.

Voir aussi  Les chauffeurs de bus devraient porter des bracelets qui suivent leurs émotions

Technologie inappropriée

Il est actuellement encore totalement incertain quel programme de reconnaissance faciale pour le grave erreur était responsable. Les autorités de la Louisiane avaient utilisé le programme controversé Clearview AI dans le passé. En général, ce n’est pas le premier cas où un programme de reconnaissance faciale était complètement faux. Il a été prouvé que les programmes font souvent des erreurs, surtout avec des personnes de couleur, comme Reid. En effet, les programmes ont souvent été entraînés avec des images de personnes blanches pendant le développement. C’est pourquoi l’utilisation de tels logiciels par les autorités policières aux États-Unis est très controversée depuis un certain temps.