Suivez-nous

Apple

Siri aussi…

Apple aurait été épinglé à permettre l’écoute par des humains de certains enregistrements audio effectués auprès de Siri. Et à l’instar de l’affaire concernant Google et les écoutes de Google Assistant, les faux positifs ne seraient pas si rares.

Publié le

 
HomePod Siri
© Apple

Après Google et Amazon, c’est au tour d’Apple de faire la une au sujet de son assistant vocal et du respect de la vie privée. Une source du journal The Guardian a révélé de nombreuses informations sur son travail de traitement de certaines requêtes Siri.

Siri, pas si différent de Google Assistant ?

L’informateur précise travailler pour une société sous-traitante d’Apple. Celle-ci a pour tâche d’écouter certains enregistrements audio captés par Siri auprès d’utilisateurs, de les analyser et de les noter à des fins d’amélioration de la technologie sous-tendant l’I.A. d’Apple. Il existerait plusieurs entreprises de ce type à travers le monde, travaillant dans le même but.

Et pour évaluer l’assistant vocal, selon la source, les employés de ces sociétés doivent également signaler toute erreur d’activation, ou faux positifs. Il y aurait beaucoup de requêtes de ce type à traiter, la majorité provenant de l’Apple Watch et de l’HomePod. L’Apple Watch serait particulièrement sujette aux faux positifs, car pour activer Siri sur cette dernière, il est possible de simplement la porter près de la bouche et d’effectuer la requête.

Ainsi, des activations accidentelles seraient régulièrement entendues par la personne source des révélations et ses collègues. Ils leur arriveraient ainsi d’avoir à écouter des enregistrements audio de transactions illégales de stupéfiants, d’actes sexuels, ou de discussion entre médecin et patient, entre autres.

En outre, toujours selon The Guardian et son informateur, les enregistrements sont accompagnés de diverses informations, comme le positionnement géographique ainsi que des détails sur les contacts et apps mentionnées.

© Apple

Les réponses d’Apple

À l’inverse d’Amazon et de Google, ce type de révélation prend une autre envergure en concernant Apple et Siri. Car la firme de Cupertino s’inscrit depuis plusieurs années comme défendeur de la vie privée justement. En témoigne l’un de ses fameux slogans “ce qui se passe sur votre iPhone, reste sur votre iPhone”. La société californienne, afin de soigner son image, n’a donc pas tardé à répondre à l’article de The Guardian. Elle a alors émis plusieurs précisions.

D’une part, selon elle, les enregistrements de Siri audibles par des humains ne constituent qu’une infime portion de toutes les requêtes effectuées sur des millions d’appareils Apple, soit moins de 1 %. Elle ajoute qu’à aucun moment il n’est possible de lier l’enregistrement audio et l’Apple ID de l’utilisateur. Et puis elle finit par préciser que les utilisateurs sont libres de désactiver la géolocalisation pour Siri dans les réglages, pour éviter que ses requêtes Siri ne puissent être localisées géographiquement.

Finalement, jamais Apple ne semble réfuter les différents points de l’article du Guardian, ce qui parait assez inquiétant. Car c’est ainsi que Siri présente un fonctionnement finalement assez semblable à celui des assistants vocaux concurrents, notamment en matière de vie privée.

i-nfo.fr - App officielle iPhon.fr
i-nfo.fr - App officielle iPhon.fr
Par : Keleops AG
4.4 / 5
565 avis

Rédacteur pour iPhon.fr, opérant parfois sous le pseudonyme de Snooz. Pierre est tel Indiana Jones, à la recherche de l'astuce iOS perdue. Également utilisateur Mac de longue date, les appareils Apple n'ont en somme pour lui aucun secret. Pour me contacter : pierre[a]iphon.fr

17 Commentaires

17 Commentaires

  1. Lecteur-1553892760 (posté avec l'app i-nfo.fr V2)

    27 juillet 2019 à 15 h 01 min

    Ça fou les boules

  2. User1505251477322 (posté avec l'app i-nfo.fr V2)

    27 juillet 2019 à 15 h 02 min

    Les promesses marketing rejoignent rarement la réalité du business….

  3. Jey (posté avec l'app i-nfo.fr V2)

    27 juillet 2019 à 15 h 11 min

    Il y a quand même une petite différence avec Google et Amazon. Siri à besoin d’être déclenché (hormis le souci avec l’Apple Watch), alors qu’il semblerait que le Google Home écoute sans même avoir été déclenché par l’utilisateur… c’est autrement plus inquiétant, non ?

    • Hisaux

      27 juillet 2019 à 16 h 06 min

      @Jey : oui et non. Google Home et Alexa sont en écoute passive et s’activent pour “répondre” à une requête dès lors que l’on prononce la phrase clé (Ok Google ou Alexa…)
      Chez Apple, l’écoute passive est aussi par défaut sur les derniers iPhone ou Mac… Une recherche sur les mots clés “iphone écoute passive” pourra donner plus d’information.

  4. User1479024265632 (posté avec l'app i-nfo.fr V2)

    27 juillet 2019 à 15 h 32 min

    Entièrement d’accord avec ‘’jey ‘’

  5. Jésus (posté avec l'app i-nfo.fr V2)

    27 juillet 2019 à 16 h 07 min

    @Jey je suis également d’accord.
    Mais j’aimerais savoir qui a le même problème que moi ?
    J’ai parfois mon HomePod qui fait du bruit du style “humhum” comme si je posais une question alors que je n’ai rien demandé

  6. User1473448692561 (posté avec l'app i-nfo.fr V2)

    27 juillet 2019 à 16 h 40 min

    Lol mais qu’est-ce que vous croyez…

  7. Wouego (posté avec l'app i-nfo.fr V2)

    27 juillet 2019 à 18 h 33 min

    @Jésus idem

  8. alex.luiggi (posté avec l'app i-nfo.fr V2)

    27 juillet 2019 à 18 h 55 min

    @Jésus oui c’est pareil pour moi, je suppose qu’il interprète un son ou une parole de mon home cinema qui ressemble à « dis Siri » et du coup il fait hum hum ?

  9. Ferrari66 (posté avec l'app i-nfo.fr V2)

    27 juillet 2019 à 21 h 14 min

    Après le bendgate et le batterygate, le sirigate.

  10. DeeKaY (posté avec l'app i-nfo.fr V2)

    27 juillet 2019 à 22 h 01 min

    Perso au boulot il ne se passe pas une semaine sans que Siri ne se déclenche de façon impromptue…

  11. Lecteur-1537909275 (posté avec l'app i-nfo.fr V2)

    28 juillet 2019 à 1 h 09 min

    D’être écouté dans mes conversation, genre 10 seconde prise au hasard, ça m’est complètement égale, surtout si ils ne peuvent lié ça à aucun ID. D’autant qu’on a tous accepté que nos requêtes soit traité par Apple quand on a activé Siri.

  12. Lecteur-1564274827 (posté avec l'app i-nfo.fr V2)

    28 juillet 2019 à 2 h 48 min

    Ce commentaire a été supprimé pour non-respect des conditions d’utilisation. S’il vous plaît, merci d’éviter tous propos haineux, propos racistes et insultes. iStaff

  13. Vieux-Bebar (posté avec l'app i-nfo.fr V2)

    28 juillet 2019 à 9 h 12 min

    Ce commentaire a été supprimé pour non-respect des conditions d’utilisation. S’il vous plaît, merci d’éviter tous propos haineux, propos racistes et insultes. iStaff

  14. Bebi27

    28 juillet 2019 à 11 h 47 min

    Ohlala! Mes conversations top secrètes !!!

  15. ?‍☠️ (posté avec l'app i-nfo.fr V2)

    28 juillet 2019 à 22 h 17 min

    @Lecteur-1564274827 tu ne le dis pas avec diplomatie, mais le fond y est, je suis d’accord avec toi.

  16. Jennyrevolve (posté avec l'app i-nfo.fr V2)

    29 juillet 2019 à 23 h 42 min

    Quand je suis au boulot, c’est quasiment tous les jours que Siri se met en route sans que je lui demande. Chez moi, quasiment jamais.
    Puis honnêtement, ils peuvent bien écouter ce que je raconte, ça les fera marrer plutôt qu’autre chose.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Nos sites : 01net | Journal du Geek | Presse-citron
Copyright © 2024 iPhon.fr

Apple, le logo Apple, iPod, iTunes et Mac sont des marques d’Apple Inc., déposées aux États-Unis et dans d’autres pays. iPhone et MacBook Air sont des marques déposées d’Apple Inc. MobileMe est une marque de service d’Apple Inc iPhon.fr et son forum ne sont pas liés à Apple et les marques citées sont la propriété de leurs détenteurs respectifs.