TechCrunch a confirmé qu'Apple déploierait bientôt une nouvelle technologie pour numériser les photos téléchargées sur iCloud à la recherche de matériel d'abus sexuel d'enfants (CSAM). Le déploiement aura lieu plus tard cette année dans le cadre d'une collection de technologies destinées à rendre ses produits et services plus sûrs pour les enfants. L'objectif d'Apple : la sécurité des enfants.
Comment ça marche ?
La plupart des services cloud scannent déjà des images à la recherche de matériel qui enfreint ses conditions d'utilisation ou la loi, y compris CSAM. Ils peuvent le faire car, alors que les images peuvent être stockées cryptées, les entreprises disposent de la clé de cryptage. La politique de confidentialité de longue date d'Apple donne aux utilisateurs la possibilité de chiffrer les photos sur leur appareil et de les stocker avec Apple. Le tout, sans qu'Apple ait la possibilité de les déchiffrer.
La société s'appuie donc sur une nouvelle technologie appelée NeuralHash. Cette technologie vérifiera si une image téléchargée sur iCloud correspond à des images de maltraitance d'enfants connues, sans décrypter la photo. Il fonctionne entièrement sur votre iPhone, iPad ou Mac en convertissant des photos en une chaîne unique de lettres et de chiffres (un “hachage”). Normalement, le plus petit changement apporté à une photo entraînerait un hachage différent. Toutefois, la technologie d'Apple serait telle que de petites modifications (comme une culture) entraîneraient toujours le même hachage.
Ces hachages seraient appariés sur l'appareil à une base de données de hachages pour les images d'abus sexuels sur enfants. Les hachages peuvent être appariés de manière invisible, sans savoir quelle est l'image sous-jacente ni alerter l'utilisateur de quelque manière que ce soit. Les résultats des correspondances sont téléchargés sur Apple si un certain seuil est atteint. Ce n'est qu'alors qu'Apple peut déchiffrer les images correspondantes, vérifier manuellement le contenu et désactiver le compte d'un utilisateur. Apple rapportera ensuite les images au Centre national pour les enfants disparus et exploités, qui les transmettra ensuite aux forces de l'ordre.
Et la vie privée ?
En d'autres termes, il est extrêmement peu probable qu'Apple ait la possibilité de décrypter les photos d'un utilisateur. Selon TechCrunch, Apple dit qu'il y a une chance sur un billion d'un faux positif, et il y aura un processus d'appel en place pour toute personne qui pense que son compte a été signalé par erreur. La technologie est seulement facultative. Enfin, presque. Vous n'avez pas besoin d'utiliser iCloud Photos, mais si vous le faites, vous ne pourrez pas désactiver la fonctionnalité.
Apple a publié un article technique détaillant cette technologie NeuralHash. Cette nouvelle technologie sera déployée dans le cadre d'iOS 15, iPadOS 15 et macOS Monterey cet automne.