Numérisation de photos de sécurité Apple Toddler : ce que vous devez savoir

Numérisation de photos de sécurité Apple Toddler : ce que vous devez savoir
Apple a annoncé qu'elle adopterait un nouveau protocole : analyser automatiquement les iPhones et les iPads pour comparer les photos des utilisateurs recherchant du matériel d'agression sexuelle sur des enfants (CSAM). L'entreprise fait cela pour limiter la propagation du CSAM, mais ajoute également d'autres fonctionnalités "pour protéger les enfants des prédateurs qui utilisent des outils de communication pour les recruter et les exploiter", a expliqué Apple dans un article de blog. Pour l'instant, les fonctions ne seront disponibles qu'aux USA. Apple introduira une nouvelle fonctionnalité dans iOS 2 et iPadOS XNUMX (qui devrait être publiée dans les mois à venir) qui analysera automatiquement les images sur l'appareil d'un utilisateur pour voir si elles correspondent au contenu CSAM précédemment identifié, qui est identifié via des hachages uniques (par exemple , un ensemble de nombres cohérents entre des images en double, comme une empreinte digitale). La vérification du hachage est une procédure courante pour détecter les CSAM que la société de sécurité de sites CloudFare a mise en œuvre en XNUMX et est utilisée par Thorn, une organisation à but non lucratif de lutte contre le trafic sexuel d'enfants, l'organisation cofondée par Ashton Kutcher et Demi More. De plus, Apple a ajouté deux systèmes que les parents peuvent éventuellement activer pour les enfants sur leur réseau domestique : premièrement, l'analyse sur l'appareil dans l'application Messages, qui analyse les photos entrantes et sortantes à la recherche de contenus susceptibles d'être sexuellement explicites, qui seront troubles. par défaut, et un facteur facultatif peut alerter les parents liés au compte si le contenu est consulté. Apple permet également à Siri et Search d'afficher des ressources utiles si un utilisateur pose des questions sur le rapport CSAM ; Les deux entreront également en jeu lorsque les utilisateurs poseront des questions liées au CSAM, alertant l’utilisateur du potentiel nocif du matériel et lui indiquant des ressources d’aide. Il s'agit d'un aperçu de la façon dont, selon la propre description d'Apple, il intégrera un logiciel pour suivre le CSAM et contribuera à protéger les enfants contre la prédation en intervenant lorsqu'ils reçoivent (et envoient) des photos potentiellement inappropriées. Mais la perspective qu'Apple analyse automatiquement son matériel a déjà suscité des inquiétudes parmi les spécialistes de la technologie et les défenseurs de la vie privée ; nous le verrons maintenant.

iPhone 12 Pro

(Crédit d'image: Apple)

Cela m'affectera-t-il ?

Si vous n'avez pas de photos avec CSAM sur votre iPhone ou iPad, rien ne changera pour vous. Si vous n'effectuez pas de requête Siri ou de recherche en ligne liée au CSAM, rien ne changera pour vous. Si votre compte iPhone ou iPad est configuré avec une famille dans iCloud et que votre appareil est désigné comme petit sur ce réseau, vous verrez des avertissements et des photos troubles si vous recevez des photos sexuellement explicites. Si votre appareil n'est pas lié à un réseau familial comme celui d'un enfant, rien ne changera pour vous. Enfin, votre appareil ne bénéficiera d'aucune de ces fonctionnalités si vous n'effectuez pas la mise à jour vers iOS XNUMX, iPadOS XNUMX ou macOS Monterey. (Ce dernier analysera probablement les photos iCloud pour CSAM, mais il n'est pas clair si l'analyse des messages pour les photos sexuellement explicites se produira également lorsque les utilisateurs de macOS Monterey utiliseront l'application.) Ces mises à jour sont uniquement destinées aux utilisateurs aux États-Unis, et on ne sait pas quand (ou si) elles seront déployées ailleurs, mais comme Apple les positionne comme des garanties, nous serions surpris s'ils ne les déploient pas aux utilisateurs. . . Dans d'autres pays.

Capture d'écran de la WWDC 2021

(Crédit d'image: Apple)

Pourquoi Apple fait-il cela ?

D'un point de vue éthique, Apple donne simplement aux parents les moyens de protéger leurs enfants et de fournir un service à la société en limitant le CSAM. Comme l'entreprise l'a déclaré dans son blog, "ce programme est ambitieux et protéger les enfants est une responsabilité essentielle". Apple a protégé à plusieurs reprises les fonctionnalités de confidentialité de ses appareils et les prend en charge avec des mesures telles que l'optimisation des analyses sur l'appareil (plutôt que le téléchargement de données sur les serveurs de l'entreprise dans le cloud) et des communications cryptées de bout en bout, telles que des idées comme le suivi des applications. . Une transparence qui a commencé avec iOS cent quarante-cinq. Mais Apple a également fait l’objet de nombreuses poursuites au fil des années qui auraient conduit l’entreprise à mettre l’accent sur la confidentialité ; Par exemple, un défenseur des consommateurs de l'Union européenne a poursuivi le géant de la technologie en novembre XNUMX pour la pratique d'Apple consistant à attribuer à chaque iPhone un identifiant pour les annonceurs (IDFA) pour suivre les utilisateurs dans les applications, selon The Guardian. Cela a peut-être conduit Apple à donner aux utilisateurs plus de contrôle grâce à la transparence du suivi des applications, ou au moins à s'aligner sur les actions en cours de l'entreprise. LaComparacion n'a pas été en mesure de localiser un procès spécifique qui aurait conduit Apple à mettre en œuvre ces changements, mais il est possible que l'entreprise se protège de manière proactive en offrant aux jeunes utilisateurs davantage d'outils d'autoprotection et en supprimant CSAM sur ses serveurs iCloud et ses iPhones. de manière générale, ce qui pourrait probablement limiter la responsabilité d'Apple à l'avenir. Mais si vous pouvez supprimer le matériel CSAM, pourquoi ne le feriez-vous pas ?

Pomme

(Crédit d'image: Apple)

Qu'en pensent les spécialistes de la sécurité ?

Peu de temps après qu'Apple a dévoilé ses nouvelles idées, les spécialistes de la sécurité et les défenseurs de la vie privée se sont alarmés ; Pas, bien sûr, pour protéger l'utilisation de CSAM, mais plutôt pour le bien des méthodes d'Apple pour l'avertir sur les appareils des utilisateurs. Étant donné que la fonction d'analyse CSAM ne semble pas facultative, il est presque certain qu'elle sera incluse par défaut dans iOS XNUMX et, une fois téléchargée, sans problème depuis le système d'exploitation. À partir de là, il analyse automatiquement les photos d'un utilisateur sur son appareil avant de les télécharger sur un compte iCloud. Si une certaine quantité de photos correspond à ces hachages CSAM au cours d'une analyse, Apple examinera manuellement l'image signalée et, si elle est déterminée comme étant un CSAM valide, le compte de l'utilisateur est fermé et ses informations sont transmises au Centre. Centre national pour les personnes disparues et mineures exploitées (NCMEC), qui travaille avec les forces de l'ordre. Apple prend grand soin de garantir que les données des utilisateurs restent cryptées et inintelligibles pour les employés de l'entreprise, à moins qu'elles ne dépassent un seuil de similarité CSAM connu. Et selon Apple, "le seuil est fixé pour fournir un niveau de précision déraisonnablement élevé et garantit une probabilité inférieure à un milliard par an de déclarer incorrectement un compte donné". Mais c’est l’analyse automatique qui a galvanisé les défenseurs de la vie privée. "Une porte dérobée est une porte dérobée", a écrit l'Electronic Frontier Foundation (EFF), une organisation à but non lucratif spécialisée dans la protection de la vie privée, dans son article de blog en réponse à l'initiative d'Apple, estimant que même l'ajout de cette technologie d'analyse automatique ouvrait la porte à des abus d'accès potentiellement plus larges : Tout ce qui serait nécessaire pour élargir la porte dérobée étroite qu'Apple est en train de construire est une extension de la configuration d'apprentissage automatique pour localiser les types de contenu auxiliaires, ou un ajustement des métriques de configuration pour examiner, non seulement les comptes des plus petits, mais ceux des n'importe qui. Ce n’est pas une pente glissante ; « Il s’agit d’un système absolument construit qui n’attend que des pressions extérieures pour apporter des changements », a écrit l’EFF, soulignant les lois adoptées dans d’autres pays qui obligent les plateformes à contrôler le contenu des utilisateurs, comme les récentes règles indiennes de XNUMX. D'autres acteurs de l'industrie technologique se sont également opposés à l'initiative d'auto-analyse d'Apple, notamment Will Cathcart, responsable du service de messagerie WhatsApp, propriété de Facebook. Dans un fil de discussion sur Twitter, il a souligné la pratique de WhatsApp consistant à permettre aux utilisateurs de signaler plus facilement les CSAM, ce qui, selon lui, a conduit le service à signaler plus de quatre cents cas au NCMEC l'année dernière, "le tout sans briser le cryptage". < p lang="fr" dir="ltr">Il s'agit d'un système de surveillance développé et exploité par Apple qui pourrait facilement être utilisé pour analyser le contenu privé à la recherche de tout ce qu'un gouvernement ou un gouvernement décide de surveiller. Les pays où les iPhones sont vendus auront des définitions différentes de ce qui est acceptable à partir du XNUMX août XNUMX Voir plus Pour être honnête, Facebook a cherché à éviter la transparence du suivi des applications d'Apple : après avoir été obligé de découvrir la quantité de données de l'utilisateur accédant à son application mobile (et l'application WhatsApp), Facebook a cherché à inciter les utilisateurs à autoriser cet accès tout en critiquant Apple pour la transparence du suivi des applications. Cela nuit aux petites entreprises (et probablement à Facebook) qui dépendent de ces revenus promotionnels. D'autres spécialistes de la technologie attendent qu'Apple fournisse plus d'informations avant d'endosser pleinement le point de vue de l'EFF. "Les inquiétudes de l'EFF et d'autres défenseurs de la vie privée concernant les abus commis par des régimes despotiques pourraient être désastreuses ou constituer une réaction excessive : Apple fournira plus de détails sur la mise en œuvre", a déclaré Avi Greengart, créateur de la société d'analyse et également de recherche technologique Techsponential, à LaComparacion dans un article sur Twitter. .