Apple Intelligence : faut-il vraiment lui faire confiance ? Voici la réponse
Il y a toujours quelques compromis derrière le vernis de la confidentialité.
Par rapport aux gros poissons de l’IA que sont OpenAI, Google, Meta et consorts, Apple s’est tenue un peu à l’écart de cette frénésie. Elle n’a néanmoins plus le luxe d’attendre ; le vieillissant Siri s’est fait doubler à pleine vitesse par ChatGPT et l’assistant Perplexity, les applications IA tierces pullulent, et l’iPhone manquait cruellement d’une IA intégrée.
Apple a fini par céder en juin 2024, en nous présentant sa fameuse suite Apple Intelligence. Un ensemble d’outils génératifs implémentés dans l’écosystème Apple, censé mettre l’IA au centre de l’expérience utilisateur, sans jamais transiger sur la confidentialité de vos données. Un peu plus d’un an après l’annonce, la promesse est-elle réellement tenue ? La réponse doit être donnée, comme vous pouvez vous en douter, en restant dans la nuance. Chez Apple, on a toujours préféré le gris qu’au noir ou au blanc.
Une IA locale… mais pas toujours
Apple met en avant un argument fort pour se différencier de la concurrence : la majorité des fonctions Apple Intelligence tournent en local. Et c’est vrai, on ne peut pas leur retirer : la fonction Genmoji, la reformulation d’e-mails ou le résumé de notifications s’appuient sur les puces A17 Pro et M1+, capables de faire tourner des modèles de langage directement sur l’appareil. Ce choix explique aussi pourquoi seuls les iPhone 15 Pro (et suivants) sont compatibles avec Apple Intelligence : il faut a minima 8 Go de mémoire unifiée pour exécuter ces modèles.
Toutefois, lorsqu’il s’agit d’autres requêtes, plus longues ou complexes, celles-ci sont déportées vers le « Private Cloud Compute », une architecture conçue sur mesure pour garantir que vos données ne soient pas stockées, accessibles, ou consultables, même par Apple. Les images systèmes (le code exact qui tourne sur ses machines) de ces serveurs sont même rendues publiques, pour que des experts puissent vérifier qu’Apple ne nous mène pas en bateau. Dans l’industrie, c’est une première.
Même ainsi, ce choix technique reste un compromis : ces requêtes ne restent pas en locales, et sortent bel et bien de votre appareil. Même si Apple publie le code de ses serveurs et affirme que les données ne sont ni stockées ni accessibles, aucun système connecté n’est jamais totalement infaillible. La transparence du code, aussi louable soit-elle, ne garantit pas à elle seule que l’ensemble de la chaîne reste hermétique à toute faille ou à toute exploitation malveillante. Le risque zéro n’existe pas, même chez Apple.
Cela demeure nettement moins intrusif que chez Google ou Meta, dont les modèles avalent les données personnelles comme des ogres affamés. Apple, au moins, ne construit pas ses modèles en siphonnant le web ou les messages privés, elle les entraîne même sur de fausses données.
OpenAI, invitée très spéciale dans la forteresse Apple
Impossible de parler d’Apple Intelligence sans parler d’OpenAI, avec qui Apple a signé un accord. La firme de Sam Altman est désormais directement connectée à Siri, via une passerelle qui permet à l’assistant vocal de s’aider sur ChatGPT quand les requêtes dépassent ses capacités de traitement locales. OpenAI est donc partenaire, mais un partenaire d’un genre spécial.
Apple a tout de même balisé le terrain : aucune demande n’est transmise à OpenAI sans consentement explicite de l’utilisateur, et surtout, les échanges passent par une API « zéro rétention », censée garantir que les données ne sont jamais stockées, ni utilisées pour entraîner les modèles. Sur le papier, c’est une enclave contractuelle plutôt étanche, réservée aux clients venant d’entreprises, où même OpenAI n’aurait pas la main sur vos données. C’est donc, paradoxalement, l’un des moyens les plus sûrs d’utiliser ChatGPT aujourd’hui. Néanmoins, cette transparence est à double-tranchant.
Si Apple pose un cadre strict, elle ne tient pas pour autant les rênes d’OpenAI. L’entreprise de Sam Altman reste une entité privée, dirigée selon ses propres règles, avec une gouvernance souvent floue, et des choix stratégiques peu prévisibles. En 2024, elle a même été contrainte, sur ordre de la justice américaine, de conserver certaines conversations utilisateurs, dans le cadre d’une plainte déposée par le New York Times. Ce genre d’obligation ne concerne pas l’intégration via Siri ; les requêtes passant par une interface sécurisée, sans conservation des données.
Cet « incident » nous prouve bien qu’il suffirait d’un changement légal ou d’un énième revirement chez OpenAI pour que cet engagement pour la confidentialité devienne subitement caduc.
Ce serait mentir que d’affirmer qu’Apple n’a pas trouvé le juste équilibre pour Apple Intelligence. Sa conception de ce que doit être l’IA est unique sur le marché et le partenariat avec OpenAI et son rôle exact est plutôt rassurant sur la majorité de ses clauses. Rappelons tout de même que tout le système qu’elle a bâti repose sur un niveau de confiance très élevé : dans l’architecture technique d’Apple et dans la bonne foi de son partenaire. Et surtout, confiance dans le fait que ce modèle hybride reste minoritaire sur le marché (à raison, peut-être), un secteur dans lequel les usages et les besoins évoluent à toute vapeur. Apple Intelligence est probablement la solution la plus responsable pour le grand public aujourd’hui ; mais cela ne veut pas dire qu’elle sera suffisante demain. Le coffre-fort le plus hermétique au monde perd toute son utilité une fois que la combinaison se retrouve dans la nature !
- Apple veut prouver qu’on peut faire de l’IA sans trahir la vie privée, mais ce pari repose sur beaucoup de promesses techniques… et une bonne dose de confiance.
- Malgré les garde-fous, certaines requêtes quittent l’appareil et passent par des serveurs maison : transparents sur le papier, mais pas invulnérables.
- L’accord avec OpenAI est présenté comme sécurisé, mais rien ne garantit qu’un revirement stratégique ou légal ne vienne tout chambouler.
