Apple invoque la protection de la vie privée pour refuser la détection de matériel pédopornographique

Apple est au cœur d’une controverse liée à l’arrêt du développement d’un outil destiné à détecter les contenus pédopornographiques en raison de préoccupations liées à la confidentialité des données. [SHUTTERSTOCK/Sharaf Maksumov]

Le géant américain Apple, qui a décidé en décembre dernier d’interrompre le développement d’un outil capable de détecter les contenus pédopornographiques, vient d’invoquer des préoccupations liées à la confidentialité des données des utilisateurs comme principale raison de sa décision.

Bien qu’Apple ait annoncé sa décision à la fin 2022, la société n’a fourni une explication que jeudi dernier (31 août) lors d’un échange entre un responsable d’Apple et le dirigeant d’une entreprise luttant contre les abus sexuels commis sur des enfants.

Erik Neuenschwander, directeur de la confidentialité des utilisateurs et de la sécurité des enfants chez Apple, a détaillé le choix de l’entreprise dans un courriel en réponse à Sarah Gardner, PDG de Heat Initiative, une société qui encourage les entreprises technologiques à « détecter et éradiquer les images et les vidéos d’abus sexuels sur les enfants de leurs plateformes ». L’échange a été publié par le magazine en ligne Wired.

Selon M. Neuenschwander, Apple a « envisagé la technologie de balayage sous pratiquement tous les angles » et a « conclu qu’il n’était pas possible de la mettre en œuvre sans mettre en péril la sécurité et la vie privée de nos utilisateurs ».

Ces préoccupations sont au cœur de la controverse depuis l’introduction du projet de loi de l’UE visant à détecter et à supprimer les contenus pédopornographiques en ligne.

Aujourd’hui, cependant, comme le dit Mme Gardner, « l’entreprise technologique la plus prestigieuse du monde » et « un leader mondial en matière de protection de la vie privée des utilisateurs » ont publiquement exprimé que l’analyse des contenus ne peut aller de pair avec la protection de la vie privée des utilisateurs.

Selon M. Neuenschwander, « analyser le contenu d’iCloud privé de chaque utilisateur » aurait « de graves conséquences imprévues pour nos utilisateurs ».

Il a également averti que la recherche d’un type de contenu « ouvre la voie à une surveillance de masse et pourrait susciter le désir de rechercher dans d’autres systèmes de messagerie cryptée des types de contenu (tels que des images, des vidéos, du texte ou de l’audio) et des catégories de contenu ».

Dans son courriel, M. Neuenschwander s’interroge : « Comment les utilisateurs peuvent-ils être assurés qu’un outil destiné à un type de surveillance n’a pas été reconfiguré pour surveiller d’autres contenus tels que l’activité politique ou […] religieuse ? »

Enfin, il a ajouté que les systèmes de balayage ne sont pas « infaillibles » et qu’il existe « des preuves documentées provenant d’autres plateformes » montrant « que des personnes innocentes ont été entraînées dans des dragues dystopiques ». En effet, elles ont « fait d’elles des victimes alors qu’elles n’avaient rien fait d’autre que de partager des photos parfaitement normales et appropriées de leurs bébés ».

Ella Jakubowska, conseillère politique principale à l’association européenne de défense des droits numériques (EDRi), partage les inquiétudes d’Apple. « Toute la bonne volonté du monde ne change pas la réalité technique selon laquelle il n’existe pas de moyen de scanner en toute sécurité des messages ou des services cryptés », a-t-elle expliqué à EURACTIV.

« Malgré des années d’efforts, Apple a prouvé que les mesures de balayage de masse actuellement explorées dans l’UE ne sont pas adaptées. Même l’évaluation d’impact de la Commission européenne montre qu’il n’est pas possible d’avoir un accès généralisé aux communications privées d’une manière sûre et respectueuse de la vie privée », a-t-elle ajouté.

Pourtant, certaines entreprises, dont l’ONG Thorn qui cherche à défendre les enfants en ligne et dispose de son propre logiciel Safer pour détecter le matériel pédopornographique, semblent ne pas être d’accord.

« Nous devons arrêter d’opposer la vie privée des utilisateurs et la sécurité des enfants, car avec des outils comme ceux créés par Thorn et d’autres, ainsi qu’un cadre adéquat avec des garanties solides, nous pouvons avoir les deux », a confié Emily Slifer, directrice de la politique chez Thorn, à EURACTIV.

Ces outils, a-t-elle ajouté, ont été utilisés de manière fiable pendant des années et s’améliorent de jour en jour.

Selon Mme Slifer, Apple a les connaissances et l’expertise nécessaires « pour créer des solutions qui équilibrent à la fois la vie privée et la sécurité des enfants. Ce qu’il faut, c’est davantage de solutions visant à trouver le bon équilibre ».

EURACTIV a également contacté l’eurodéputé du Parti populaire européen (PPE) Javier Zarzalejos, rapporteur du Parlement pour le dossier sur le matériel relatif à des abus sexuels sur enfants (CSAM).

« L’un des principes directeurs du règlement est la neutralité technologique, ainsi le règlement n’interdit ni ne préfère aucun outil ou technologie spécifique pour que les fournisseurs remplissent leurs obligations en vertu du règlement, tant que ces technologies et outils respectent certaines garanties », a déclaré M. Zarzalejos.

Il a également ajouté que les prochains outils d’Apple installés sur les appareils seront inclus dans les mesures d’atténuation possibles.

Pédopornographie : débats autour des outils de prévention au Parlement européen

Le rapporteur du Parlement européen sur un projet de loi européen visant à lutter contre les abus sexuels sur les enfants a fait circuler de nouveaux amendements de compromis, affinant les obligations d’évaluation des risques des services de communication.

[Édité par Anne-Sophie Gayet]

Inscrivez-vous à notre newsletter

S'inscrire