Apple :Après plus d’un an de réflexion et d’atermoiements, Apple vient de mettre un terme à un projet qui voulait lutter contre la diffusion des contenus pédopornographiques, mais qui menaçait les libertés essentielles. Le géant américain emprunte désormais une autre voie, plus en amont.
En août 2021, Apple annonçait son intention de mettre en place un système de surveillance permettant de lutter contre la diffusion de contenus pédopornographiques (CSAM, en anglais, pour Child Sexual Abuse Material). Pour cela, tout en indiquant préserver la vie privée des utilisateurs, il entendait analyser les photos que vous prenez ou recevez, en appliquant des filtres contrôlés par des algorithmes d’intelligence artificielle.
La fin d’un projet controversé
Depuis, au cours de cette phase de collecte de réactions et avis, le projet s’était fait discret. Jusqu’à hier. En plus d’annoncer la mise en place prochaine du chiffrement de bout en bout des sauvegardes dans iCloud, Apple vient en effet d’officialiser l’abandon pur et simple de ce projet.
Dans un communiqué fourni à nos confrères de Wired, le géant américain explique : « Nous avons décidé de ne pas continuer nos travaux sur notre outil de détection de CSAM pour iCloud Photos. Les enfants peuvent être protégés sans que des sociétés épluchent les données personnelles, et nous continuerons à travailler avec les gouvernements, les défenseurs des enfants, et les autres sociétés pour aider à protéger les jeunes, à préserver leur vie privée, et faire d’Internet un endroit plus sûr pour les enfants et nous tous. »
Apple ne délaisse pas pour autant son combat contre la pédopornographie et les abus sexuels. Il va ainsi se concentrer sur son outil de Sécurité des communications. Une fonction lancée en décembre 2021 aux États-Unis et embarquée dans iOS 16 en France et en Allemagne depuis septembre dernier.
Cet outil permet aux parents ou responsables légaux d’un enfant d’activer la protection du smartphone d’un mineur dont le compte iCloud est lié à la famille de l’utilisateur. Cette fonction permet de contrôler les contenus reçus, envoyés ou consultés depuis Siri, Spotlight et la recherche Safari, et, bien entendu, dans Messages. Apple envisage donc non plus d’agir a posteriori, mais d’empêcher la production de contenu quand il le peut – quand un adulte mal intentionné incite un enfant à envoyer des photos de lui – et de limiter l’exposition autant que possible.
Apple confiait également à Wired continuer à travailler au déploiement des fonctions de Sécurité de communications dans d’autres pays. Les ingénieurs du géant américain font aussi en sorte de pouvoir enrichir cet outil de nouvelles fonctions. Ainsi, une solution de détection de nudité dans des vidéos envoyées par Messages devrait être intégrée prochainement. Mais Apple voit plus loin encore et souhaiterait que ses outils puissent être intégrés par des développeurs tiers dans leurs applications. Ainsi, les enfants seraient alertés des risques pris et protégés de manière plus étendue. Une solution respectueuse de la vie privée et qui éviterait aux plus jeunes les abus de prédateurs sexuels. Une bonne intention, sans enfer…