Le Parlement allemand écrit une lettre à Tim Cook avec des inquiétudes concernant le système de détection CSAM

Depuis qu’Apple a présenté la nouvelle fonction d’analyse CSAM pour protéger les enfants, l’annonce a suscité de nombreuses inquiétudes et controverses concernant la confidentialité des utilisateurs. Maintenant, le chef de la commission de l’agenda numérique du parlement allemand souhaite qu’Apple reconsidère ses plans CSAM dans une lettre à Tim Cook.

Tel que rapporté par Heise Online, Manuel Hoferlin, président du comité de la stratégie numérique, pense qu’Apple s’engage sur une « voie dangereuse » tout en sapant « une communication sûre et confidentielle ».

Bien que l’analyse CSAM ne soit disponible qu’aux États-Unis lors de son lancement, Hoferlin affirme que ce sera « le plus grand instrument de surveillance de l’histoire » et pourrait faire perdre à Apple l’accès à de grands marchés si la société maintient cette stratégie.

Apple, de son côté, a tenté d’expliquer que le scan CSAM ne va pas analyser les photos de chaque personne sur leur iPhone. Non seulement cela, la société a annoncé la semaine dernière que le système pourra être audité par des tiers.

Apple a expliqué qu’il publiera un article de la base de connaissances avec le hachage racine de la base de données de hachage CSAM cryptée. Apple permettra également aux utilisateurs d’inspecter la base de données de hachage racine sur leur appareil et de la comparer à la base de données dans l’article de la base de connaissances.

En dehors de cela, la société continue d’offrir de la clarté autour de la fonction de détection CSAM. En plus d’un document détaillé sur les questions fréquemment posées publié la semaine dernière, Apple a également confirmé que la détection CSAM ne s’applique qu’aux photos stockées dans iCloud Photos, pas aux vidéos.

Apple a également souligné que si un utilisateur n’utilise pas iCloud Photos, aucune partie du processus de détection CSAM ne s’exécute. Cela signifie que si un utilisateur souhaite désactiver le processus de détection CSAM, il peut désactiver les photos iCloud.

Apple pense que l’implémentation de la détection CSAM sur l’appareil est bien meilleure que les implémentations côté serveur utilisées par d’autres sociétés. Ces implémentations, explique Apple, nécessitent qu’une entreprise numérise chaque photo stockée par un utilisateur sur son serveur, dont la majorité ne sont pas CSAM.

Lire la suite

FTC : Nous utilisons des liens d’affiliation automatique qui génèrent des revenus. Suite.

Découvrez . sur YouTube pour plus d’actualités Apple :

Share