PhotoADN

logiciel d'identification d'images
(Redirigé depuis PhotoDNA)

PhotoADN, ou photoDNA en anglais, est un logiciel propriétaire d'identification d'images et de filtrage de contenu[1] largement utilisée par les fournisseurs de services en ligne (en)[2],[3].

PhotoADN

Informations
Type Perceptual hashing (en)Voir et modifier les données sur Wikidata
Site web www.microsoft.com/en-us/photodnaVoir et modifier les données sur Wikidata

Histoire modifier

PhotoDNA est développé par Microsoft Research et Hany Farid (en), professeur au Dartmouth College, à partir de 2009. À partir d'une base de données d'images et de fichiers vidéo connus, il crée des hachages uniques pour représenter chaque image, qui peuvent ensuite être utilisés pour identifier d'autres instances de ces images[4].

La méthode de hachage repose initialement sur la conversion des images dans un format noir et blanc, en les divisant en carrés et en quantifiant l'ombrage des carrés[5], elle n'utilise pas la technologie de reconnaissance faciale, ni ne pouvait identifier une personne ou un objet dans l'image[réf. nécessaire]. La méthode cherche à résister aux altérations de l'image, y compris le redimensionnement et les altérations mineures de la couleur[4]. Depuis 2015, des méthodes similaires sont utilisées pour les images vidéo (en) individuelles dans les fichiers vidéo[6],[7].

Microsoft a fait un don[Pas dans la source] la technologie PhotoDNA au projet VIC, géré et soutenu par le Centre international pour les enfants disparus et exploités (ICMEC) et utilisé dans le cadre d'opérations de criminalistique numérique (en)[8],[9] en stockant des "empreintes digitales" qui peuvent être utilisées pour identifier de manière unique une photo individuelle[9],[10]. La base de données comprend des hachages pour des millions d'éléments[11].

En , Microsoft a mis gratuitement PhotoDNA à la disposition des organisations qualifiées dans un modèle de logiciel en tant que service via Microsoft Azure[12].

Dans les années 2010 et 2020, PhotoADN est mis en avant dans le cadre de propositions politiques relatives à la modération de contenus et à la censure d'Internet[13], notamment lors des auditions du Sénat américain (2019 sur la "responsabilité numérique"[2], 2022 sur l'EARN IT Act [14]) et diverses propositions de la Commission européenne baptisées « filtres de téléchargement » par la société civile[15],[16] comme les codes dits volontaires (en 2016[17] sur le discours de haine[18] après les attentats de 2015 contre Charlie Hebdo, 2018[19] et 2022 sur la désinformation[20]), la législation sur le droit d'auteur (principalement la directive sur le droit d'auteur dans le marché unique numérique de 2019, débattue entre 2014[21] et 2021), la règlementation européen contre la diffusion du terrorisme en ligne[22] et la réglementation sur les écoutes téléphoniques sur Internet (en) (2021 "chat control")[23].

En 2016, Hany Farid propose d'étendre l'utilisation de la technologie aux contenus liés au terrorisme[24]. En , Facebook, Twitter, Google et Microsoft annoncent leur intention d'utiliser PhotoADN pour supprimer les contenus extrémistes tels que les vidéos de recrutement terroriste ou les images terroristes violentes[25]. En 2018, Facebook déclare que PhotoADN est utilisé pour supprimer automatiquement les vidéos d'Al-Qaïda[13].

En 2019, des GAFAM telles que Microsoft, Facebook et Google annoncent publiquement que depuis 2017, elles exploitaient le Global Internet Forum to Counter Terrorism (en) en tant que base de données partagée de contenu à censurer automatiquement[2]. À partir de 2021, on pensait qu'Apple utilisait NeuralHash à des fins similaires[26].

En 2022, le New York Times couvre l'histoire de deux pères dont les comptes Google ont été fermés après que les photos qu'ils ont prises de leur enfant à des fins médicales ont été automatiquement téléchargées sur les serveurs de Google[27]. L'article compare PhotoADN, qui nécessite une base de données de hachages connus, avec la technologie basée sur l'IA de Google, qui peut reconnaître des images d'exploitation inédites[28],[29].

Usage modifier

Microsoft utilise à l'origine PhotoADN sur ses propres services, notamment Microsoft Bing et Micrsoft OneDrive[30]. À partir de 2022, PhotoADN est largement utilisé par les fournisseurs de services en ligne pour leurs travaux de modération de contenu[10],[31],[32] y compris Gmail de Google, Twitter[33], Facebook[34], Adobe Systems[35], Reddit[36], Discord[37].

La UK Internet Watch Foundation, qui a compilé une base de données de référence des signatures PhotoADN, aurait eu plus de 300 000 hachages de matériel connu d'exploitation sexuelle d'enfants[réf. nécessaire]. Une autre source de la base de données était le National Center for Missing & Exploited Children[38],[39].

PhotoADN est largement utilisé pour supprimer du contenu[2], désactiver des comptes et signaler des personnes[7]. En 2021, Google aurait à lui seul déposé 600 000 signalements pédopornographique et aurait désactivé les comptes de plus de 270 000 utilisateurs[3].

Références modifier

  1. (en) Matthijs Douze, Giorgos Tolias, Ed Pizzi, Zoë Papakipos, Lowik Chanussot, Filip Radenovic, Tomas Jenicek, Maxim Maximov, Laura Leal-Taixé, Ismail Elezi, Ondřej Chum et Cristian Canton Ferrer, « The 2021 Image Similarity Dataset and Challenge », (arXiv 2106.09672) : « ILes empreintes digitales d'image, telles que PhotoDNA de Microsoft, sont utilisées dans l'ensemble de l'industrie pour identifier les images qui dépeignent l'exploitation et la maltraitance des enfants. »
  2. a b c et d « The Rise of Content Cartels », knightcolumbia.org, (consulté le )
  3. a et b (en-US) Kashmir Hill, « A Dad Took Photos of His Naked Toddler for the Doctor. Google Flagged Him as a Criminal. », The New York Times,‎ (ISSN 0362-4331, lire en ligne, consulté le )
  4. a et b « New Technology Fights Child Porn by Tracking Its "PhotoDNA" », Microsoft.com, Microsoft Corporation, (consulté le )
  5. « Photo DNA: Step by step » [archive du ], Microsoft (consulté le )
  6. « How PhotoDNA for Video is being used to fight online child exploitation »,
  7. a et b « How PhotoDNA for Video is being used to fight online child exploitation », news.microsoft.com,
  8. William Jackson, « Improved image analysis tools speed exploited children cases », GCN,
  9. a et b Liat Clark, « Child abuse-tracking tech donated to the world », Wired UK,‎ (lire en ligne)
  10. a et b « Microsoft's response to the consultation on the European Commission Communication on the Rights of the Child (2011–2014) » [archive du ], European Commission
  11. Mark Ward, « Cloud-based archive tool to help catch child abusers », BBC News,
  12. « PhotoDNA Cloud Service », Microsoft.com, Microsoft Corporation (consulté le )
  13. a et b (en) Richard Allan, « Hearing at 11:14 », in « The EU's horizontal regulatory framework for illegal content removal in the DSM »
  14. Thu, Feb 10th 2022 03:30pm-Berin Szoka et Ari Cohn, « The Top Ten Mistakes Senators Made During Today's EARN IT Markup », Techdirt, (consulté le )
  15. Christoph Schmon, « The EU Commission's Refusal to Let Go of Filters », Electronic Frontier Foundation, (consulté le )
  16. « Upload filters: a danger to free internet content? », IONOS Digitalguide (consulté le )
  17. « Fighting illegal online hate speech: first assessment of the new code of conduct », ec.europa.eu, (consulté le )
  18. « The EU Code of conduct on countering illegal hate speech online | European Commission », Ec.europa.eu (consulté le )
  19. « Code of Practice on Disinformation | Shaping Europe's digital future »
  20. « The 2022 Code of Practice on Disinformation | Shaping Europe's digital future »
  21. « Procedure File: 2014/2256(INI) | Legislative Observatory | European Parliament »
  22. « Terrorist content online »
  23. Markus Reuter, Tomas Rudl, Franziska Rau et Holly Hildebr, « Why chat control is so dangerous », European Digital Rights (EDRi) (consulté le )
  24. Kaveh Waddell, « A Tool to Delete Beheading Videos Before They Even Appear Online », The Atlantic,‎ (lire en ligne, consulté le )
  25. (en) « Partnering to Help Curb Spread of Online Terrorist Content | Facebook Newsroom » (consulté le )
  26. (en) Auteur inconnu, « Bugs in our Pockets: The Risks of Client-Side Scanning », .
    erreur modèle {{Lien arXiv}} : renseignez un paramètre « |eprint »
  27. « A Dad Took Photos of His Naked Toddler for the Doctor. Google Flagged Him as a Criminal. », The New York Times,‎ (lire en ligne, consulté le )
  28. « Google Flagged Parents' Photos of Sick Children as Sexual Abuse », Gizmodo, (consulté le ) : « According to Google, those incident reports come from multiple sources, not limited to the automated PhotoDNA tool. »
  29. Emma Roth, « Google AI flagged parents' accounts for potential abuse over nude photos of their sick kids », The Verge, (consulté le ) : « Google has used hash matching with Microsoft’s PhotoDNA for scanning uploaded images to detect matches with known CSAM. [...] In 2018, Google announced the launch of its Content Safety API AI toolkit that can “proactively identify never-before-seen CSAM imagery so it can be reviewed and, if confirmed as CSAM, removed and reported as quickly as possible.” It uses the tool for its own services and, along with a video-targeting CSAI Match hash matching solution developed by YouTube engineers, offers it for use by others as well. »
  30. « Unfortunate Truths about Child Pornography and the Internet [Feature] »,
  31. Reinhard Eher, Leam A. Craig, Michael H. Miner et Friedemann Pfäfflin, International Perspectives on the Assessment and Treatment of Sexual Offenders: Theory, Practice and Research, John Wiley & Sons, (ISBN 978-1119996200, lire en ligne), p. 514
  32. Marcia Lattanzi-Licht et Kenneth Doka, Living with Grief: Coping with Public Tragedy, Routledge, (ISBN 1135941513, lire en ligne), p. 317
  33. Charles Arthur, « Twitter to introduce PhotoDNA system to block child abuse images », The Guardian,‎ (lire en ligne, consulté le )
  34. Catharine Smith, « Facebook Adopts Microsoft PhotoDNA To Remove Child Pornography », Huffington Post,‎ (lire en ligne, consulté le )
  35. (en) « Adobe & PhotoDNA », www.adobe.com (consulté le )
  36. « Reddit use PhotoDNA to prevent child pornography »,
  37. (en) « Discord Transparency Report: July — Dec 2020 », Discord Blog, (consulté le )
  38. « Microsoft tip led police to arrest man over child abuse images », The Guardian,
  39. (en) Anthony Salcito, « Microsoft donates PhotoDNA technology to make the Internet safer for kids », (consulté le )

Voir aussi modifier

Articles connexes modifier

Lien externe modifier