Le projet d'Apple d'analyser les iPhones américains soulève des problèmes de confidentialité

Le projet d'Apple d'analyser les iPhones américains soulève des problèmes de confidentialité
            Apple ha anunciado planes para escanear iPhones en pos de imágenes de abuso infantil, lo que produce preocupaciones inmediatas sobre la privacidad y la vigilancia del usuario con la medida.</p><h2><strong>¿Se ha transformado el iPhone de Apple en un iSpy?</strong></h2><p>Apple afirma que su sistema está automatizado, no escanea las imágenes en sí, emplea algún género de sistema de datos hash para identificar casos conocidos de pornografía infantil (CSAM) y afirma que tiene resguardas para resguardar la confidencialidad.
Les défenseurs de la vie privée avertissent que maintenant qu'ils ont créé un tel système, Apple est sur un chemin difficile vers une expansion incessante de l'analyse de contenu et des rapports sur les appareils qui pourraient, et seront sûrement, être utilisés à mauvais escient par certains pays.

Ce que fait le système Apple

Il y a trois éléments principaux dans le système, qui se cacheront dans iOS 3, iPadOS XNUMX et macOS Monterey lors de leur lancement plus tard cette année.
  • Numérisation de vos images

  • Le système d'Apple examine chaque image enregistrée dans iCloud Photos pour voir si elle correspond à la base de données CSAM du Centre national pour les enfants disparus et exploités (NCMEC). Les images sont numérisées dans l'appareil à l'aide d'une base de données de hachages d'images CSAM connues fournies par le NCMEC et d'autres organisations de sécurité des enfants. De plus, Apple transforme cette base de données en un ensemble inintelligible de hachages stockés en toute sécurité sur les appareils des utilisateurs. Lorsqu'une image est enregistrée sur iCloud Photos, un processus de correspondance est effectué. Si un compte dépasse un seuil de plusieurs instances de contenu CSAM connu, Apple est alarmé. En cas d'alarme, les données sont examinées manuellement, le compte est désactivé et NCMEC est informé. Toutefois, le système n’est pas parfait. La société affirme qu’il y a moins d’une chance sur un milliard de déclarer un compte de manière incorrecte. Apple compte plus d’un milliard d’utilisateurs, ce qui signifie qu’il y a une chance sur 1 sur 1 qu’une personne soit mal identifiée chaque année. Les utilisateurs qui estiment avoir été informés par erreur peuvent faire appel. Les images sont numérisées dans l'appareil.
  • Analysez vos messages

  • Le système d'Apple utilise l'apprentissage automatique sur l'appareil pour examiner les images contenues dans les messages envoyés ou reçus par des mineurs contenant du contenu sexuellement explicite, alertant ainsi les parents si de telles images sont identifiées. Les parents peuvent activer ou désactiver le système, et tout contenu reçu par un enfant sera trouble. Si un enfant tente d'envoyer du contenu sexuellement explicite, il en sera informé et ses parents pourront en être informés. Apple affirme ne pas avoir accès aux images numérisées dans l'appareil.
  • Voyez ce que vous recherchez

  • La troisième partie comprend les mises à jour de Siri et Search. Apple affirme que ceux-ci fourniront désormais aux parents et aux enfants des informations plus complètes et une aide s'ils rencontrent des situations dangereuses. Siri et Search interviendront également lorsque les gens effectueront des requêtes de recherche considérées comme liées au CSAM, ce qui explique pourquoi les intérêts pour ce sujet sont contradictoires. Apple nous informe utilement que son programme est « ambitieux » et que les sacrifices « évolueront et s'élargiront avec le temps ».

    Quelques données techniques

    L'entreprise a publié un rapport technique détaillé qui explique un peu plus son système. Dans le journal, il essaie d'assurer aux utilisateurs qu'il n'apprend rien sur les images qui ne correspondent pas à la base de données. La technologie d'Apple, appelée NeuralHash, examine les images CSAM connues et les transforme en un numéro unique spécifique pour chaque image. Seule une autre image qui semble pratiquement identique peut générer exactement le même nombre ; Par exemple, les images qui diffèrent en taille ou en qualité transcodée auront toujours la même valeur NeuralHash. Au fur et à mesure que les images sont ajoutées à iCloud Photos, elles sont comparées à cette base de données pour identifier une correspondance. Si une correspondance est trouvée, un ticket de sécurité cryptographique est créé, ce qui, je crois, permettra également à un navigateur Apple de décrypter et d'accéder à l'image incriminée si le seuil pour ce contenu est atteint et qu'une action est requise. "Apple ne peut obtenir les informations pertinentes sur les images qu'une fois que le compte a dépassé un nombre seuil de correspondances CSAM, et même dans ce cas uniquement pour les images correspondantes", conclut le document.

    Apple n'est pas unique, mais l'analyse sur l'appareil peut être

    Apple n'est pas le seul à être obligé de partager des images CSAM avec les autorités. Selon la loi, toute entreprise américaine qui trouve de tels éléments sur ses serveurs doit collaborer avec les forces de l'ordre pour enquêter sur ces éléments. Facebook, Microsoft et Google disposent déjà de technologies qui examinent ces documents partagés sur les plateformes de courrier électronique ou de messagerie. La différence entre ces systèmes et celui-ci est que le scan est effectué sur l'appareil et non sur les serveurs de l'entreprise. Apple a toujours affirmé que ses plateformes de messagerie étaient cryptées de bout en bout, mais cela devient une petite affirmation sémantique si le contenu de l'appareil d'une personne est analysé avant même que le cryptage ne soit effectué. Il n’est pas surprenant que la protection de l’enfance soit une chose soutenue par la plupart des gens rationnels. Mais ce qui inquiète les défenseurs de la vie privée, c'est que certains gouvernements pourraient désormais chercher à forcer Apple à rechercher d'autres documents sur les appareils des gens. Un gouvernement qui interdit l’homosexualité pourrait par exemple exiger que ces contenus soient également surveillés. Que se passe-t-il si un adolescent originaire d'un pays qui interdit les relations sexuelles non binaires demande à Siri de l'aider à sortir du placard ? Et qu’en est-il des appareils d’écoute prudents, comme les HomePod ? Il n’est pas évident que le volet recherche de ce dispositif y soit déployé, mais il est concevable qu’il le soit. Et on ne sait pas encore comment Apple pourra se protéger contre une telle fuite de mission.

    Les défenseurs de la vie privée sont exagérément alarmés

    La plupart des défenseurs de la vie privée pensent qu'il existe un risque important de dérive de mission inhérent à ce plan, qui ne fait rien pour maintenir la confiance dans l'engagement d'Apple en faveur de la confidentialité des utilisateurs. Comment un utilisateur peut-il sentir que sa vie privée est protégée si l’appareil lui-même l’espionne et qu’il n’a aucun contrôle sur la manière dont il le fait ? L’Electronic Frontier Foundation (EFF) prévient que ce plan crée une porte dérobée de sécurité. Tout ce qui serait nécessaire pour élargir la porte dérobée étroite qu'Apple est en train de construire est une extension des paramètres d'apprentissage automatique pour trouver des types de contenu supplémentaires, ou un ajustement des paramètres de paramètres pour examiner, non seulement les comptes des petits, mais plutôt ceux de toute personne. Ce n’est pas une pente glissante ; il s’agit d’un système entièrement construit qui n’attend que la pression extérieure pour opérer un changement. "Quand Apple développe une technologie capable d'analyser du contenu crypté, vous ne pouvez pas simplement dire : 'Eh bien, je me demande ce que le gouvernement chinois ferait avec cette technologie.' Ce n’est pas théorique », a prévenu Matthew Green, professeur à John Hopkins.

    Arguments alternatifs

    Il y a d'autres raisons. Uno de los más contundentes es que los servidores de los ISP y los distribuidores de e-mail ya están escaneados en pos de dicho contenido, y que Apple ha construido un sistema que minimiza la participación humana y solo notifica un inconveniente en el caso de que le fasse. Identifie plusieurs correspondances entre la base de données CSAM et le contenu de l'appareil. Il est clair que les plus petits sont en danger. Sur les près de 6 XNUMX fugueurs signalés au NCMEC en XNUMX, un sur six a probablement été victime de trafic sexuel d’enfants. Le CyberTipline de l'organisation (auquel j'imagine qu'Apple est connecté dans un tel cas) a reçu plus de XNUMX millions de rapports liés à une certaine forme de CSAM en XNUMX. John Clark, presidente y director de NCMEC, dijo: “Con tanta gente que emplea los productos de Apple, estas nuevas medidas de seguridad tienen el potencial de salvar vidas para los pequeños que son atraídos on-line y cuyas terribles imágenes están circulando por todo la planète. Au Centre national pour les enfants disparus et exploités, nous savons que ce crime ne peut être combattu que si nous restons déterminés à protéger les enfants. Nous ne pouvons y parvenir que parce que les partenaires technologiques, comme Apple, se mobilisent et font connaître leur engagement. "D'autres prétendent qu'en créant un système pour protéger les enfants contre des crimes aussi terrifiants, Apple élimine un argument que certains pourraient utiliser pour justifier les portes dérobées des appareils dans un sens plus large. La plupart d'entre nous conviennent que les plus petits doivent être protégés, et ce faisant , Apple a érodé ce raisonnement que certains gouvernements répressifs pouvaient utiliser pour forcer les choses. Il doit désormais s'opposer à tout abus de la mission par de tels gouvernements. Le dernier défi est le plus gros inconvénient, puisque Apple, lorsqu'il est pressé, respectera toujours les lois du "Peu importe les bonnes intentions d'Apple, Apple introduit avec cela une surveillance de masse dans le monde entier", a prévenu Edward Snowden, défenseur de la vie privée. S'ils peuvent rechercher des CSAM aujourd'hui, "ils peuvent rechercher pour n'importe quoi demain." Suivez-moi sur Twitter ou rejoignez-moi au AppleHolic bar & grill et aux groupes de discussion Apple sur MeWe.
    <p>Copyright © dos mil veintiuno IDG Communications, Inc.</p>