Apple dit qu'il n'étendra pas la technologie controversée CSAM

Apple dit qu'il n'étendra pas la technologie controversée CSAM
            Apple ha tratado de desviar las críticas de su controvertido sistema de protección CSAM, pero al hacerlo, ha ilustrado exactamente lo que está en juego.</p><h2>La gran conversacion</h2><p>Apple anunció la semana pasada que introducirá un conjunto de medidas de protección infantil en iOS 15, iPad OS 15 y macOS Monterey cuando los sistemas operativos se lancen este otoño.
Entre autres protections, le système de l'appareil analyse votre photothèque iCloud à la recherche de preuves de collections illégales de pornographie juvénile (CSAM). Protéger les enfants est bien sûr tout à fait approprié, mais les défenseurs de la vie privée restent préoccupés par la possibilité que le système Apple devienne un chien de garde à part entière. Pour tenter d'atténuer les critiques, Apple a publié de nouvelles informations dans lesquelles elle tente d'expliquer un peu plus le fonctionnement de la technologie. Comme expliqué dans ce livre blanc Apple, la technologie convertit les images de votre appareil en un hachage numérique qui peut être comparé à une base de données d'images CSAM connues lorsque vous les téléchargez sur iCloud Photos.

Faites-en un hachage

Bien que l'analyse des images soit effectuée sur l'appareil à l'aide de la technologie de hachage d'Apple, toutes les images ne sont pas signalées ou numérisées, seules celles identifiées comme CSAM. Apple affirme qu'il s'agit en fait d'une amélioration dans la mesure où la société n'analyse pas l'intégralité de la bibliothèque à un moment donné. « Les techniques existantes mises en œuvre par d'autres sociétés analysent toutes les photos des utilisateurs stockées dans le cloud. Cela crée un risque pour la vie privée de tous les utilisateurs », indique la nouvelle FAQ de l'entreprise. "La détection CSAM dans iCloud Photos offre d'importants avantages en matière de confidentialité par rapport à ces techniques en empêchant Apple d'apprendre des photos à moins qu'elles ne correspondent toutes deux à des images CSAM connues et ne soient incluses dans un compte iCloud. Des photos qui incluent une collection de CSAM connus." Malgré ces assurances, de grandes inquiétudes subsistent quant à la mesure dans laquelle le système peut être étendu à la surveillance d'autres formes de contenu. Après tout, si vous pouvez transformer une collection d’images CSAM en données identifiables, vous pouvez transformer n’importe quoi en données par rapport auxquelles les informations personnelles peuvent être analysées. L’avocat chargé de la protection de la vie privée, Edward Snowden, met en garde : « Ne vous y trompez pas : si vous pouvez rechercher de la pédopornographie aujourd’hui, vous pourrez rechercher n’importe quoi demain. "

Le prendre en toute confiance ?

Apple affirme qu'il n'a pas l'intention d'étendre son système à d'autres domaines. Dans sa FAQ, il écrit : « Nous avons déjà été confrontés à des demandes visant à créer et à mettre en œuvre des changements mandatés par le gouvernement qui dégradent la vie privée des utilisateurs, et nous les avons fermement rejetés. Nous continuerons à les rejeter à l’avenir. Soyons clairs, cette technologie se limite à détecter les CSAM stockés dans iCloud et nous n'accepterons aucune demande d'un gouvernement pour l'étendre. À première vue, cela semble rassurant. Mais il va de soi que maintenant que cette technologie existe, les pays qui veulent forcer Apple à étendre la surveillance des appareils pour des problèmes au-delà du CSAM utiliseront toutes les armes dont ils disposent pour forcer le problème. "Tout ce qui serait nécessaire pour étendre la porte dérobée étroite qu'Apple est en train de construire est une extension de la configuration d'apprentissage automatique pour trouver des types de contenu supplémentaires", a prévenu l'Electronic Frontier Foundation. Empêcher cela sera un combat. Ce qui signifie qu’Apple a un combat devant lui.

La guerre de la vie privée a commencé

C’est peut-être un combat qu’Apple veut mener. Après tout, nous savons que vous avez pris de nombreuses mesures importantes pour protéger la vie privée des utilisateurs dans vos écosystèmes, et nous savons également que vous soutenez les modifications de la loi pour protéger la vie privée en ligne. "Il est certainement temps, non seulement d'adopter une loi complète sur la protection de la vie privée ici aux États-Unis, mais également de adopter des lois mondiales et de nouveaux accords internationaux qui consacrent les principes de minimisation des données, de sensibilisation des utilisateurs et d'accès des utilisateurs. Les utilisateurs et la sécurité des données dans le monde entier, ", a déclaré cette année le PDG Tim Cook. On pourrait affirmer que l'introduction très médiatisée par Apple de mesures de protection de l'enfance a déclenché une conversation plus large sur les droits et la vie privée dans un monde en ligne et connecté. La seule façon d'empêcher le système de se propager au-delà du CSAM est d'aider Apple résiste aux pressions en ce sens. En l’absence d’un tel soutien, il est peu probable qu’Apple gagne seul contre tous les gouvernements. Dans le cas où l’entreprise ne serait pas soutenue, la question est de savoir quand, et non si, elle sera obligée de céder. Et pourtant, les gouvernements peuvent encore parvenir à un accord sur la confidentialité en ligne. Les enjeux sont élevés. Le risque est que les briques qui jalonnent le chemin ensoleillé vers la justice que Cook cherche depuis longtemps à poser deviennent des briques dans le mur qui empêchera ce voyage d'avoir lieu. lieu. L’avantage est qu’un effort déterminé peut permettre la création de cadres permettant d’aboutir à ce chemin. La controverse reflète à quel point cette route semble être devenue semée d’embûches. Suivez-moi sur Twitter ou rejoignez-moi dans les groupes de discussion AppleHolic bar & grill et Apple sur MeWe.
<p>Copyright © 2021 IDG Communications, Inc.</p>