Suivez-nous

Actualités

Un médecin arrêté avec 2000 images pédopornographiques sur son iCloud

Les outils CSAM n’ont rien à voir avec cette affaire qui pourtant aurait pu être une démonstration de leur utilité.

Publié le

 
justice Apple
© Unsplash / Bill Oxford

Cette affaire n’aurait sûrement pas fait autant de bruit si elle n’était pas arrivée maintenant, en plein milieu de la grande controverse autour des outils CSAM qu’Apple voudrait mettre en place sur ses appareils afin de scanner les photos iCloud de ses utilisateurs, dans le seul but de lutter contre la pédopornographie et le trafic d’enfants.

Alors que cette mesure doit affronter une horde de défenseurs des libertés individuelles, ne voulant pas qu’Apple espionne leur compte iCloud, même si c’est pour protéger des enfants, un médecin de la région de la baie de San Fransciscio vient pourtant apporter un exemple de taille à Apple du bien-fondé de ses outils. Sans même avoir utilisé les outils CSAM, les autorités fédérales américaines ont arrêté ce médecin qui était en possession d’images pédopornographiques.

Ces images ont été trouvées sur son compte iCloud. Au total les enquêteurs ont rassemblé plus de 2000 images et vidéos d’exploitations sexuelles d’enfants sur le compte de ce médecin de 58 ans. Spécialiste en oncologie, il était affilié à plusieurs établissements médicaux de la région de la baie, ainsi qu’un professeur agrégé à l’UCSF School of Medicine.

Une preuve du fonctionnement du CSAM ?

Cette enquête, les autorités fédérales l’ont menée sans les outils CSAM qu’Apple s’apprête à lancer. Ils ont réussi par d’autres moyens à avoir accès à son compte iCloud, et ainsi mettre la main sur cette montagne de preuves.

De son côté Apple prévoit de lancer un outil qui vient comparer les images stockées dans nos comptes iCloud avec celles d’une base de données des enfants exploitées ou disparues. Plus exactement, Apple vient comparer les hachages des deux images afin de trouver des correspondances. En aucun cas elle ne numérise les photos présentent sur nos comptes, et elle ne sait d’ailleurs pas de quoi il s’agit, seulement qu’elle est différente des photos présente dans la base de données. Afin de mieux comprendre les outils CSAM, Apple a publié une FAQ il y a quelques jours, vous pouvez la retrouver ici.

i-nfo.fr - App officielle iPhon.fr
i-nfo.fr - App officielle iPhon.fr
Par : Keleops AG
4.4 / 5
562 avis
8 Commentaires

8 Commentaires

  1. Teratani

    23 août 2021 à 13 h 23 min

    Votre traitement de l’information est plein de parti pris. Inversement j’y vois la démonstration de l’inutilité du monstre qu’Apple s’apprête à lancer puisqu’il n’y en a absolument pas eu besoin pour mettre ce criminel hors d’état de nuire.

    • Pierre Otin

      24 août 2021 à 7 h 04 min

      @ Teratani : en réalité, les nouveaux outils d’Apple pourraient être efficaces même si les données iCloud sont chiffrées, ce qui pourrait bien arriver à l’avenir. Dans le cas de cette affaire, si les données iCloud avaient été chiffrées et donc illisibles pour toute autre entité que l’utilisateur lui-même, il aurait possiblement été plus difficile de mettre ce dernier en cause. Par contre, si Apple prévoit bien de chiffrer toutes les données iCloud, alors les nouveaux outils CSAM seraient pertinents, puisqu’encore capables de prévenir en cas de contenus pédopornographiques.

  2. Didieralk

    23 août 2021 à 14 h 03 min

    On es tous flické à plus ou moins grande échelle entre les adresses ip qu on peut suivre les compte face book insta tWitter et j en passe , les micros de tous nos appareils connectés les assistants et le cloud que beaucoup ont ce contrôle n es qu une goutte d eau et si des fournisseur d accès aurait un contrôle plus poussés de leurs clients il y aurait plus de surprise .Maintenant on peut très bien se passer de tous cela mais dans ce cas……

  3. Darth Yann (posté avec l'app i-nfo.fr V2)

    23 août 2021 à 21 h 41 min

    C’est du foutage de gueule, tu vas sur un moteur de recherche et tape pron juvénile et tu tombes sur les plus horribles vidéos que le titre de cet article mentionne. Les FAI ne bloquent pas ces sites pourquoi ?, par contre ils bloquent tous les lanceurs d’alertes en les faisant passer pour des complotistes !
    Où est l’erreur ???

    • AdminOfPlaygroup

      24 août 2021 à 15 h 01 min

      En même temps, il n’y a que les complotistes qui se pensent être des lanceurs d’alertes bloqués à tord !
      Pas d’erreur !

      D’ailleurs, c’est quoi un prénom “juvénile” ?

  4. User1473362460237 (posté avec l'app i-nfo.fr V2)

    24 août 2021 à 12 h 59 min

    @Darth_Yann pourquoi tu as essayé ? 🐷

  5. Lecteur-1629791205 (posté avec l'app i-nfo.fr V2)

    24 août 2021 à 20 h 15 min

    @Darth_Yann je te rejoins.

    Toute vérité franchit trois étapes. 
D’abord elle est ridiculisée. 
Ensuite, elle subit une forte opposition. 
Puis, elle est considérée comme ayant toujours été une évidence.

  6. Lecteur-1604530471 (posté avec l'app i-nfo.fr V2)

    28 août 2021 à 9 h 56 min

    Une affaire qui tombe « pile poil » car bien ce n’est qu’une coïncidence, sinon celui qu’ils ont choisit il avait pas voulu voter bidone ou il est anti-vax ?!

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Nos sites : 01net | Journal du Geek | Presse-citron
Copyright © 2024 iPhon.fr

Apple, le logo Apple, iPod, iTunes et Mac sont des marques d’Apple Inc., déposées aux États-Unis et dans d’autres pays. iPhone et MacBook Air sont des marques déposées d’Apple Inc. MobileMe est une marque de service d’Apple Inc iPhon.fr et son forum ne sont pas liés à Apple et les marques citées sont la propriété de leurs détenteurs respectifs.