jeu. Avr 18th, 2024
L’IA crée des images fantômes, les experts sont horrifiés
Rate this post

2 développeurs ont développé un programme dans le cadre d’un hackathon qui images fantômes réalistes généré. Comme le montre leur démo, le programme ne devrait nécessiter que de simples déclarations de témoins.

Le « Programme d’esquisse médico-légale“ (Programme d’image fantôme) basé sur DALL-E 2. Le générateur d’images basé sur l’IA a été développé par la société OpenAI développé, qui est également responsable de ChatGPT. Avec le nouveau logiciel, les images fantômes devraient pouvoir être créées rapidement. En comparaison, un dessin manuel se situerait entre 2 et 3 heures revendication, selon les deux développeurs.

Essai de fonctionnement prévu par les autorités

Le programme demande des informations sur le sexe, la couleur de la peau, les sourcils, le nez, la barbe, l’âge, les cheveux, les yeux et le menton. En cliquant sur « Générer le profil », l’IA crée une image super réaliste.

Les développeurs ont expliqué à Motherboard que le programme est actuellement toujours destiné à une utilisation réelle dans postes de police à envisager. Ils auraient déjà contacté les autorités pour le premier test données réelles pouvoir réaliser.

Stéréotypes racistes

Cependant, il y a quelques objections d’experts à ce projet. L’utilisation d’une IA en criminalistique pourrait garantir que les Les préjugés serait renforcé. Cela concerne par exemple préjugé racial ou stéréotypes de genrequi figureraient déjà dans les déclarations des témoins.

Le problème n’est pas que le portrait-robot prend autant de temps, mais qu’il est basé sur des souvenirs influencés par de tels biais. L’expert explique que l’IA ne peut pas résoudre ces problèmes très humains Jennifer Lynch contre carte mère.

Voir aussi  L'UE veut-elle vraiment interdire les téléviseurs 8K ?

Mémoire suggestible

De plus, il est difficile de trouver un bon portrait-robot à partir de caractéristiques individuelles telles que la couleur de la peau, la couleur des yeux et l’âge, explique-t-elle. Les humains percevraient les visages comme un tout. Cependant, il peut arriver que l’image générée par l’IA avec les bonnes caractéristiques montre une personne complètement différente.

Cette photo pourrait mémoire réelle de personnes remplacées, principalement parce qu’il ne s’agit pas d’un dessin, mais d’une image très réaliste. Si de telles images étaient publiées, elles pourraient alimenter les stéréotypes racistes et ralentir considérablement les enquêtes, estime l’expert.

Critique de DALL-E

La plateforme, DALL-E 2, est déjà pleine de préjugés. Cela est devenu évident peu de temps après la publication. Ainsi, le programme a interprété « CEO » exclusivement comme des hommes blancs, « personnel infirmier‘ d’autre part, c’est une femme (plus à ce sujet ici). « Gangster », quant à lui, met en scène des hommes à la peau foncée et des Latinos. Même si OpenAI s’efforce d’éliminer ces préjugés de ses propres programmes, il n’y a aucune garantie pour cela.

Une peinture à l'huile d'un escargot mangeant une côtelette générée par DALL-E Mini


Science

Ce site transforme les mots en images : un dilemme éthique

Les deux développeurs ont dit à Motherboard qu’ils devaient faire confiance aux descriptions fournies par la police elle-même. Le Responsabilitéqu’avec un portrait-robot consciencieux manipulé est à la discrétion des policiers. Les incohérences dans les images générées devraient être éliminées manuellement ou automatiquement.

Il prévient depuis des années Comité des Nations Unies CERD des dangers de l’utilisation de l’IA par la police. Tenez-vous ici au-dessus de tout prédictions de crimes et reconnaissance de visage au premier plan. Elle a également objecté que cela pourrait renforcer les préjugés existants (plus à ce sujet ici).

Voir aussi  Pentiment à l'épreuve : un thriller policier médiéval captivant avec un superbe design