Recevez chaque jour toute l'actualité du numérique

x

Apple revoit son système anti-pédopornographie suite aux critiques des experts

Quelques jours seulement après l'annonce d'un système de détection automatique des contenus pédopornographiques sur ses appareils, Apple explique qu'il va effectuer des modifications sur l'outil pour répondre aux craintes des experts en vie privée et en cybersécurité, qu'il n'avait pas consulté en amont. Entre autres, l'entreprise prévoit un seuil de correspondance d'images entre des bases de données gérées par différents États avant d'agir. Une façon de limiter les potentiels abus.
Twitter Facebook Linkedin Flipboard Email
×

Apple revoit son système anti-pédopornographie suite aux critiques des experts
Apple revoit son système anti-pédopornographie suite aux critiques des experts © Laurenz Heymann/Unsplash

Depuis l'annonce de son système de détection automatique de contenus pédopornographiques dans les appareils de ses utilisateurs, Apple a essuyé de nombreuses critiques. Que ce soit de la part d'experts en sécurité, de détenteurs d'iPhone ou encore d'associations de protection de la vie privée, les réserves ont été telles qu'Apple a annoncé des changements vendredi 14 août.

Présentés dans une longue note, ces changements visent à rassurer, indique Reuters. Apple est en effet revenu sur l'élément le plus controversé de son système, à savoir l'analyse des photos stockées sur l'iPhone et iCloud afin de les comparer à la base de données de médias illicites du National Center for Missing and Exploited Children (NCMEC).

Un minimum de 30 images correspondantes
La société a détaillé un peu plus son système de signalement sur lequel elle refusait jusqu'alors de fournir des détails. Apple a indiqué qu'il faudra compter 30 images correspondantes sur le téléphone ou le compte d'un utilisateur pour qu'un humain prenne le relais et analyse le tout afin de procéder à un éventuel signalement aux autorités. Ce nombre pourrait diminuer au fil du temps et à mesure des améliorations apportées au système.

Correspondance entre Plusieurs bases de données
Apple a aussi indiqué qu'il ne recherchera que les images qui ont été signalées par "deux ou plusieurs organisations de sécurité de l'enfant provenant de juridictions souveraines distinctes". Cela permettra d'éviter qu'un gouvernement n'inclut d'autres contenus dans la base de données dédiée, par exemple à des fins de surveillance. C'est en effet la principale crainte soulevée par les experts.

Apple a insisté sur "l'universalité de la base de données et du logiciel". Selon la société, "il ne doit pas être possible de cibler des actions spécifiques avec une base de données différentes ou avec un logiciel différent". En d'autres termes, la liste des identifiants d'images recherchés sur est la même pour tous les utilisateurs, peu importe le pays où ils se trouvent.

Apple a reconnu avoir mal géré la communication autour de ses nouvelles fonctionnalités. La société a refusé de confirmer si l'élan de critiques avait conduit à ces modifications, indiquant simplement que le projet était toujours en cours de développement et que des changements sont à prévoir. Selon Reuters, l'annonce de cet outil a toutefois divisé dans les rangs d'Apple. Des employés travaillant dans les équipes d’intelligence artificielle, iCloud et santé auraient récemment décidé de quitter l’entreprise.

Réagir

* Les commentaires postés sur L’Usine Digitale font l’objet d’une modération par l’équipe éditoriale.