Breaking News

Quand Apple « sacrifie » un peu d’intimité pour mieux lutter contre la pédopornographie

Apple a dévoilé, jeudi, des nouveaux outils afin d’identifier plus efficacement les contenus pédopornographiques sur ses appareils et services. Mais certains experts en sécurité informatique redoutent que ce dispositif n’ouvre la boîte de Pandore de la surveillance de masse.

La célèbre marque à la pomme, qui a bâti une partie de sa réputation sur la protection des données personnelles, a dévoilé un nouveau dispositif, jeudi 5 août, qui a fait froid dans le dos des principaux experts du respect de la vie privée en ligne.

Baptisé « NeuralMatch », cet outil poursuit un but impossible à critiquer : lutter contre la pédopornographie. Apple, dans une mise à jour déployée d’abord aux États-Unis le mois prochain, prévoit d’avoir recours à l’intelligence artificielle et à la cryptographie pour scanner les photos stockées localement sur les iPhone et iPad afin d’identifier si certaines relèvent de la pornographie infantile.

Big Brother respectueux de la vie privée ?

Le groupe américain peut déjà contrôler toutes les images qui se trouvent sur iCloud, le service de sauvegarde sur des serveurs à distance d’Apple. C’est aussi ce que font ses principaux concurrents, comme Google, Dropbox ou OneDrive de Microsoft.

Mais le créateur des iPhone va beaucoup plus loin puisqu’il s’apprête à analyser les clichés que les utilisateurs n’ont pas encore décidé de mettre sur les serveurs iCloud. « L’initiative d’Apple peut changer la donne », s’est réjouit John Clark, président du National Center for Missing and Exploited Children (NCEM), la principale organisation américaine de lutte contre l’exploitation des mineurs, interrogé par le Wall Street Journal.

Cet outil permet, en effet, à Apple de faire comprendre aux utilisateurs de ses appareils qu’ils ne peuvent avoir aucun jardin secret, même dans les plus sombres recoins de leurs smartphones. Toutefois, ce nouveau Big Brother serait le plus respectueux possible de la vie privée. L’algorithme ne regarde pas les images. Il réduit chaque fichier à un identifiant numérique – l’équivalent d’une empreinte digitale – et cherche une éventuelle correspondance dans le fichier des plus de 200 000 images d’abus sexuels sur mineurs du NCEM.

Si l’IA découvre plusieurs clichés sur le disque dur d’un iPhone qui sont aussi sur la liste du NCEM, les photos sont envoyées à un employé d’Apple, qui peut alors les regarder en « clair » afin de s’assurer qu’il s’agit bien de pedopornographie. Pour Apple, ces gardes fous font de NeuralMatch un dispositif qui n’est pas trop intrusif. « Si vous stockez une collection de photos d’abus d’enfants, vous aurez des problèmes, mais pour les autres, ça ne changera absolument rien », a affirmé Erik Neuenschwander, le responsable des questions de protection de la vie privée pour Apple, interrogé par le New York Times. Ce nouveau dispositif « est clairement fait pour rassurer les autorités et donner des gages de bonne volonté aux forces de l’ordre », a souligné Riana Pfefferkorn, spécialiste des questions de cybersurveillance à l’Observatoire de l’Internet de l’université de Stanford, lors d’une table ronde entre plusieurs experts de la cybersécurité consacré à l’annonce de d’Apple.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *