Apple retarde ses « fonctionnalités » d’analyse CSAM

Il semble que le tollé contre les fonctions de sécurité pour enfants annoncées par Apple ne soit pas passé inaperçu à Cupertino. Tranquillement, Apple a confirmé que les commentaires liés à ses plans de numérisation des bibliothèques de photos iCloud pour le matériel d’abus sexuels sur enfants (CSAM) ont conduit le géant de la technologie à retarder ses plans.

La numérisation CSAM n’a jamais semblé être une bonne idée

Une fois que Cupertino a fait l’annonce pour la première fois, les caractéristiques de son plan de sécurité pour les enfants ont été critiquées. Un large éventail de personnes et d’organisations ont critiqué la proposition. L’Electronic Frontier Foundation, l’ancien chef de la sécurité de Facebook, des chercheurs universitaires ont fait part de leurs préoccupations majeures. Même un grand nombre d’employés d’Apple se sont opposés au plan. La société de blocage des publicités AdGuard est allée jusqu’à dire qu’elle avait déjà commencé à étudier comment bloquer les fonctionnalités CSAM à l’aide de sa technologie DNS.

De son côté, Cupertino a proposé plusieurs réponses. L’entreprise a publié des FAQ, des documents et des entretiens avec des dirigeants d’entreprise. La plupart du temps, cependant, un élément de communication semblait en contredire un autre. Apple prévoyait de déployer les fonctionnalités aux États-Unis dans iOS 15, iPadOS 15, watchOS 8 et macOS Monterey.

La dernière déclaration d’Apple ne donne pas de date pour le déploiement final des fonctionnalités. Tranquillement, Cupertino a ajouté une mise à jour en haut de sa page Sécurité des enfants reconnaissant le retard. La déclaration indique seulement qu’il faudra « plus de temps au cours des prochains mois pour recueillir des commentaires et apporter des améliorations avant de publier ces fonctionnalités de sécurité pour enfants assez importantes ».

Compte tenu des dangers déjà identifiés avec cette technologie, on ne peut qu’espérer que Cupertino prenne cela au sérieux. Oui, l’abus sexuel d’enfants est l’un des plus grands maux que l’humanité ait jamais inventés. Cependant, nous devons répondre à cette préoccupation critique de manière réfléchie, en tenant compte de la façon dont les mauvaises personnes pourraient abuser de telles mesures.

Si Cupertino veut revenir sur sa position en matière de confidentialité et numériser des photos pour CSAM, le fabricant d’iPhone doit absolument être sûr à 100% que sa technologie ne peut pas être modifiée et utilisée à d’autres fins.

Share