in

La confidentialité de l’iPhone remise en question par une nouvelle analyse de la maltraitance des enfants

Robert Triggs / Autorité Android

TL;DR

Un nouveau rapport allègue qu’Apple envisage de subvertir la confidentialité de l’iPhone au nom de l’arrêt de la maltraitance des enfants. Selon certaines sources, la société envisage de scanner les photos des utilisateurs à la recherche de preuves de maltraitance d’enfants. S’il est trouvé, l’algorithme transmettra cette photo à un examinateur humain. L’idée que des employés d’Apple surveillent accidentellement les photos légales des enfants d’un utilisateur est certainement préoccupante.

Mise à jour, 5 août 2021 (16 h 10 HE) : Peu de temps après la publication de l’article ci-dessous, Apple a confirmé l’existence de son logiciel de chasse aux enfants maltraités. Dans un article de blog intitulé « Protections élargies pour les enfants », la société a présenté des plans pour aider à lutter contre les abus sexuels sur enfants (CSAM).

Dans le cadre de ces plans, Apple déploiera une nouvelle technologie dans iOS et iPadOS qui “permettra à Apple de détecter les images CSAM connues stockées dans iCloud Photos”. Essentiellement, l’analyse sur l’appareil se produira pour tous les médias stockés dans iCloud Photos. Si le logiciel constate qu’une image est suspecte, il l’enverra à Apple qui déchiffrera l’image et la visualisera. S’il constate que le contenu est, en fait, illégal, il en informera les autorités.

Apple affirme qu’il y a “une chance sur un billion par an de signaler de manière incorrecte un compte donné”.

Article original, 5 août 2021 (15 h 55 HE) : Au cours des dernières années, Apple s’est efforcé de consolider sa réputation d’entreprise axée sur la confidentialité. Il cite fréquemment son approche du «jardin clos» comme une aubaine pour la confidentialité et la sécurité.

Cependant, un nouveau rapport du Financial Times remet cette réputation en question. Selon le rapport, Apple envisage de déployer un nouveau système qui passerait en revue les photos et vidéos créées par les utilisateurs sur les produits Apple, y compris l’iPhone. La raison pour laquelle Apple sacrifierait la confidentialité de l’iPhone de cette manière est de traquer les agresseurs d’enfants.

Voir également: Ce que vous devez savoir sur les protecteurs d’écran de confidentialité

Le système serait connu sous le nom de « neuralMatch ». Essentiellement, le système utiliserait un logiciel pour numériser des images créées par l’utilisateur sur des produits Apple. Si le logiciel trouve des médias qui pourraient présenter de la maltraitance d’enfants, y compris de la pornographie enfantine, un employé humain serait alors averti. L’humain évaluerait ensuite la photo pour décider de l’action à entreprendre.

Apple a refusé de commenter les allégations.

La confidentialité de l’iPhone touche-t-elle à sa fin ?

De toute évidence, l’exploitation des enfants est un problème énorme et que tout être humain avec un cœur sait qu’il doit être traité rapidement et vigoureusement. Cependant, l’idée que quelqu’un chez Apple visualise des photos inoffensives de vos enfants que neuralMatch a accidentellement signalées comme illégales semble être un problème bien trop réel qui attend de se produire.

Il y a aussi l’idée que les logiciels conçus pour détecter la maltraitance des enfants maintenant pourraient être formés pour détecter autre chose plus tard. Et si au lieu de la maltraitance des enfants c’était la consommation de drogue, par exemple ? Jusqu’où Apple est-il prêt à aller pour aider les gouvernements et les forces de l’ordre à attraper les criminels ?

Il est possible qu’Apple rende ce système public en quelques jours. Nous devrons attendre et voir comment le public réagira, si et quand cela se produira.

Pourquoi les fans de Virgin River attendront un certain temps que ces Big Mel et Jack Cliffhangers soient résolus

Podcast BB d’urgence : Barcelone annonce le départ de Lionel Messi, est-ce vraiment fini ?