sam. Jan 28th, 2023

Apple est en train de prendre du recul par rapport à son projet d’apporter le scanner controversé de pédopornographie aux iPhones, iPads et leur iCloud.

L’annonce d’Apple concernant le scanner d’images controversé d’abus d’enfants (ci-après dénommé CSAM ; par Caider Sexuel UNbus Mmatériel) est venu en même temps que l’annonce de l’installation d’outils de sécurité supplémentaires.

Un cryptage de bout en bout étendu pour iCloud doit être introduit, qui comprend des photos, des historiques de chat, des notes et des sauvegardes. De cette façon, selon Apple, certaines données devraient être mieux protégées contre les gouvernements, les pirates, etc.

L’annulation de l’affaire du scanner pédopornographique a fait suite à de vives critiques de la part des défenseurs de la vie privée qui se sont plaints de l’impact possible sur la vie privée des utilisateurs.

Employés d’Apple : « Nous sommes la plateforme la plus populaire pour la distribution de pédopornographie »

Apple a initialement annoncé la fonctionnalité controversée en 2021 pour freiner la propagation du CSAM sur les services d’Apple. Une conversation iMessage divulguée entre deux employés seniors à l’époque suggérait que l’entreprise avait un très gros problème avec des masses de CSAM.

Un des employés a déclaré : « Nous sommes la plateforme la plus populaire pour la distribution de pédopornographie » Au moins, cela pourrait expliquer le projet d’Apple d’introduire un scanner de pédopornographie.

Apple a déclaré mercredi dans un communiqué public qu’il avait décidé « ne pas poursuivre notre outil de détection CSAM précédemment proposé pour les photos iCloud. »

Une autre déclaration obtenue par WIRED se lit comme suit :

Nous continuerons à travailler avec les gouvernements, les défenseurs des enfants et d’autres entreprises pour protéger les jeunes, faire respecter leur droit à la vie privée et faire d’Internet un endroit plus sûr pour les enfants et pour nous tous.

Sécurité des communications au lieu du scanner NeuralHash

Au lieu du scanner pédopornographique appelé NeuralHash, Apple préfère concentrer ses efforts sur l’expansion de la fonction « Communication Safety ». Celui-ci a été publié pour la première fois en décembre 2021.

Voir aussi  ChatGPT peut être utilisé pour lancer des cyberattaques

L’outil est né des commentaires d’experts et est une fonction de contrôle parental opt-in. Il avertit les mineurs et leurs parents lorsqu’il détecte du contenu sexuellement explicite dans iMessage et les brouille. Cela s’applique aux pièces jointes d’image entrantes et sortantes.

Assez amusant : Apple et le sujet de la vie privée. Trouvé sur FindThatMeme.com, merci !

La société basée à Cupertino a reçu de nombreuses critiques pour le scanner de pornographie juvénile initialement prévu. Entre autres choses, les opposants à la mesure hautement invasive craignaient que les gouvernements ne forcent le fabricant d’iPhone à ajouter plus de contenu au scanner basé sur le hachage afin de censurer le contenu autre que CSAM.

Cependant, Apple a catégoriquement refusé :

Nous avons déjà été confrontés à des demandes de développement et de mise en œuvre de modifications mandatées par le gouvernement qui compromettent la confidentialité des utilisateurs, et nous avons fermement refusé ces demandes. Nous continuerons à les rejeter à l’avenir.