Le système CSAM d’Apple est trompé, mais l’entreprise a deux garanties

Une première version du système CSAM d’Apple a effectivement été amenée à signaler une image innocente, après qu’un développeur en ait procédé à une ingénierie inverse. Apple, cependant, dit qu’il dispose de protections supplémentaires pour éviter que cela ne se produise dans la vie réelle.

Le dernier développement s’est produit après la publication de l’algorithme NeuralHash sur le site de développement open source GitHub, permettant à quiconque de l’expérimenter…

Contexte

Tous les systèmes CSAM fonctionnent en important une base de données de matériel connu d’abus sexuel d’enfants provenant d’organisations telles que le Centre national pour les enfants disparus et exploités (NCMEC). Cette base de données est fournie sous forme de hachages, ou empreintes digitales, dérivées des images.

Alors que la plupart des géants de la technologie numérisent les photos téléchargées dans le cloud, Apple utilise un algorithme NeuralHash sur l’iPhone d’un client pour générer des hachages des photos stockées, puis les comparer à une copie téléchargée des hachages CSAM.

Hier, un développeur a affirmé avoir rétro-conçu l’algorithme d’Apple, en publiant le code sur GitHub – une affirmation qu’Apple a effectivement confirmée.

Le système CSAM d’Apple trompé

Quelques heures après la publication de GitHib, les chercheurs ont réussi à utiliser l’algorithme pour créer un faux positif délibéré – deux images complètement différentes qui ont généré la même valeur de hachage. C’est ce qu’on appelle une collision.

Les collisions sont toujours un risque avec de tels systèmes car le hachage est bien sûr une représentation grandement simplifiée de l’image, mais la surprise a été exprimée que quelqu’un ait pu en générer un si rapidement.

La collision délibérément créée ici est simplement une preuve de concept. Les développeurs n’ont pas accès à la base de données de hachage CSAM, ce qui serait nécessaire pour créer un faux positif dans le système en direct, mais cela prouve que les attaques par collision sont relativement faciles en principe.

Apple dit qu’il a deux protections contre cela

Apple a effectivement confirmé que l’algorithme était la base de son propre système, mais a déclaré à Motherboard qu’il ne s’agissait pas de la version finale. La société a également déclaré que cela n’avait jamais été destiné à être secret.

Apple a déclaré à Motherboard dans un e-mail que cette version analysée par les utilisateurs sur GitHub est une version générique, et non la seule version finale qui sera utilisée pour la détection iCloud Photos CSAM. Apple a déclaré qu’il avait également rendu l’algorithme public.

« L’algorithme NeuralHash [… is] inclus dans le code du système d’exploitation signé [and] les chercheurs en sécurité peuvent vérifier qu’il se comporte comme décrit », lit-on dans l’un des documents d’Apple.

La société a poursuivi en disant qu’il y avait deux étapes supplémentaires : un système de correspondance secondaire (secret) exécuté sur ses propres serveurs et un examen manuel.

Apple a également déclaré qu’une fois qu’un utilisateur a dépassé le seuil de 30 correspondances, un deuxième algorithme non public qui s’exécute sur les serveurs d’Apple vérifiera les résultats.

« Ce hachage indépendant est choisi pour rejeter la possibilité improbable que le seuil de correspondance ait été dépassé en raison d’images non CSAM qui ont été perturbées de manière contradictoire pour provoquer de fausses correspondances NeuralHash par rapport à la base de données CSAM cryptée sur l’appareil. »

Enfin, comme discuté précédemment, il y a un examen humain des images pour confirmer qu’elles sont CSAM.

Le seul vrai risque, dit un chercheur en sécurité, est que quiconque voudrait se moquer d’Apple puisse inonder les examinateurs humains de faux positifs.

« Apple a en fait conçu ce système pour que la fonction de hachage n’ait pas besoin de rester secrète, car la seule chose que vous puissiez faire avec » non-CSAM qui hache en tant que CSAM « est d’ennuyer l’équipe d’intervention d’Apple avec des images parasites jusqu’à ce qu’elles implémentent un filtre pour éliminer ces faux positifs indésirables dans leur pipeline d’analyse », a déclaré Nicholas Weaver, chercheur principal à l’Institut international d’informatique de l’UC Berkeley, à Motherboard lors d’un chat en ligne.

Vous pouvez en savoir plus sur le système Apple CSAM et les préoccupations soulevées dans notre guide.

Photo : Alex Chumak/Unsplash

FTC : Nous utilisons des liens d’affiliation automatique qui génèrent des revenus. Suite.

Découvrez . sur YouTube pour plus d’actualités Apple :

Share