sam. Avr 20th, 2024
Apple ne veut plus scanner les photos des utilisateurs pour trouver de la pédopornographie
Rate this post

Pomme a le développement de son soi-disant Technologie CSAM (« Child Sexual Abuse Material ») a finalement pris fin. Cela visait à identifier le contenu potentiel de pédopornographie sur les appareils des utilisateurs à l’aide de hashtags spéciaux.

Un fichier avec ce qu’on appelle « Hachages » peut être chargé à partir d’un contenu pédopornographique déjà connu – une sorte d’empreinte numérique de l’image. Cela permet d’identifier une copie de la photo lorsqu’une comparaison est effectuée à l’aide de méthodes spéciales, mais l’original ne peut pas être restauré à partir du hachage.

Avec plus de 30 hits, Apple se serait retourné contre les forces de l’ordre.

Apple ne veut plus scanner les photos des utilisateurs pour trouver de la pédopornographie


Des produits

Filtre porno sur iPhone : Apple pense que les pâtes au poulet sont de la pornographie

Internet comme lieu sûr pour les enfants

Apple avait ce plan à l’automne 2021 avec le déploiement prévu de iOS 15 présenté. Après l’annonce, cependant, les critiques pleuvent. Les experts en confidentialité ont mis en garde contre le danger de créer des systèmes de surveillance directement à partir d’appareils mobiles.

Pas plus tard qu’en décembre de l’année dernière, Apple a toujours déclaré qu’il s’en tiendrait à son plan. Maintenant, le groupe a finalement dit au revoir à la fonctionnalité. « Les enfants peuvent être protégés sans que les entreprises ne passent au crible les données personnelles et nous continuerons à travailler avec les gouvernements, les défenseurs des enfants et d’autres entreprises pour protéger les jeunes, faire respecter leur droit à la vie privée et faire d’Internet un endroit plus sûr pour les enfants et pour nous tous. faire », a confirmé Apple à Wired.

Voir aussi  Participez et gagnez une horloge flip de radbag.at

Avertir les enfants des photos

Maintenant, le groupe se concentre sur lui-même Sécurité des communications– Fonctionnalités initialement annoncées en août 2021. Depuis décembre, les comptes familiaux ont ajouté la possibilité d’avertir les enfants et de fournir des ressources utiles lorsqu’ils reçoivent ou envoient des photos nues, y compris dans l’application Messages.