Apple

CSAM : le responsable de la confidentialité chez Apple interviewé

L’occasion de rassurer, une fois de plus.

Il y a

le

© Unsplash / profile Jason Dent

Le CSAM est ce nouveau système en développement chez Apple et qui fait grand bruit en ce moment, puisqu’il a pour but de détecter les contenus pédopornographiques parmi les photos des utilisateurs d’iCloud Photos. Une FAQ a d’ailleurs été publiée par la firme californienne pour tenter de calmer les ardeurs des défenseurs de la vie privée, foire aux questions détaillées ici.

Pour tenter de mieux faire comprendre aux utilisateurs comment Apple compte à la fois respecter le caractère privé des photos et identifier une activité illégale de consultation de contenus pédopornographiques, Erik Neuenschwander, responsable de la confidentialité chez Apple, ou Head of Apple Privacy a répondu à plusieurs questions auprès de TechCrunch. Voici les points importants de l’interview, selon nous.

Une analyse côté appareil, au contraire d’autres services Cloud

Erik Neuenschwander l’assure : le système d’Apple est différent d’autres systèmes Cloud pour la recherche de contenus pédopornographiques, puisque l’analyse de base se fait sur la machine de l’utilisateur et non dans le cloud. C’est une innovation technologique qui permet, toujours selon le responsable Apple, de recherche les images illégales tout en gardant le caractère confidentiel des données de l’utilisateur.

Comment ça marche ?

Le système créé en fait un identifiant pour une photo sensible, identifiant comparé avec ceux des photos des bases d’images pédopornographiques reconnues, comme celle du Center for Missing and Exploited Children.

Erik Neuenschwander l’assure, le système ne peut jamais accéder aux données de l’iPhone ou encore à l’entière photothèque iCloud de l’utilisateur.

© AppleEn outre, à partir du moment ou un certain nombre d’images sensibles ont été identifiées comme identiques à des images des bases de données servant à la comparaison, l’alerte est donnée. Il y a donc un certain seul à dépasser. Cela permet, entre autres, de servir de première limitation à l’apparition de faux positifs. Mais ce seuil rend aussi impossible la recherche d’une unique image à l’intérieur d’un compte iCloud Photos. Enfin, il empêche la recherche d’autres images que celles initialement ciblées pour lutter contre la pédopornographie.

Le CSAM exclusif à iCloud et aux USA

Au départ, le système sera exclusif aux utilisateurs américains et touchera uniquement les photos téléchargées sur iCloud. Comme indiqué par MacRumors, il ne serait pas impossible qu’un déploiement à l’étranger soit de mise dans un second temps. Mais cela va dépendre de chaque pays visé et de la dureté de sa légalisation en matière de confidentialité et de pédopornographie.

La détection d’image sera en tout cas mise en route après la sortie des nouveaux OS iOS 15, macOS Monterey et iPadOS 15. Rappelons qu’Apple n’est pas le premier acteur tech à mettre en place un tel système pour lutter contre la photographie pédopornographique. Google, via l’outil CyberTipline, peut être alerté en cas de partage de photos pédopornographiques par un utilisateur de Gmail.

Que pensez-vous de ce nouveau système CSAM d’Apple pour repérer les contenus pédopornographiques sur iCloud ?

i-nfo.fr - App officielle iPhon.fr
Par : Keleops AG
4.4 / 5
573 avis
6 Commentaires

Sur le même sujet

Quitter la version mobile