Vidéosurveillance algorithmique

La vidéosurveillance algorithmique (VSA) est un système de vidéosurveillance utilisant l'intelligence artificielle (IA). Parfois également appelés vidéosurveillance "intelligente", "automatisée" ou "augmentées"[1], cet outil permet d'analyser automatiquement des images par des logiciels pour reconnaitre par exemple des mouvements suspects, des formes.

Définition et utilisation modifier

La vidéosurveillance algorithmique permet d'analyser en temps réel les flux vidéos grâce à un logiciel qui se connecte au réseau existant des caméras en mettant de la “détection” et “tracking”. Avec cette technologie on transfère ce travail d’analyse à un logiciel qui produirait des notifications ou des alertes dès qu’il repère un événement qu’on lui aurait apprit à détecter. Les grands distributeurs de ce type de logiciel en Europe sont Breifcam, concepteur israélien et Two-i, concepteur français.

Encadrement juridique de son utilisation modifier

L'encadrement de ces pratiques n'est pas encore claire. Néanmoins en France, la CNIL et la Quadrature du Net sont des organismes qui défendent les droits et libertés des personnes face aux avancées numériques. Ils publient des rapports et des enquêtes pour tendre vers un encadrement des pratiques.

Exemples d'utilisation modifier

France modifier

Cadre des Jeux Olympiques modifier

En France, le débat émerge avec l'organisation des Jeux Olympiques et Paralympiques de Paris 2024 pour lesquels il est envisagé d'expérimenter l'utilisation de la vidéosurveillance algorithmique. Débattu au parlement en pleine crise sur la réformes des retraites, la loi du 19 mai 2023 sur les jeux Olympiques et Paralympiques le prévoit à son article 10[2]. Ce dispositif pourra être utilisé pour des manifestations sportives, récréatives ou culturelles qui par leur ampleur ou leurs circonstances, sont particulièrement exposées à des risques d’actes de terrorisme ou d’atteintes graves à la sécurité des personnes[3]. Il est notamment prévu de tester le dispositif dans le cadre de la Coupe du monde de rugby organisée de septembre à octobre 2023. Pour le moment, l'utilisation de données biométriques (reconnaissance faciale notamment) dans le dispositif est exclue[4]. La période d'expérimentation du dispositif est autorisée jusqu'au 31 mars 2025.

Hors du cadre légal modifier

En , Streetpress affirme que des magasins des enseignes E. Leclerc, Carrefour, G20, Système U, Biocoop, Kiabi et Fnac ont déployé illégalement la solution de vidéosurveillance de l'entreprise française Veesion, qui utilise l'intelligence artificielle pour surveiller le comportement de leur clientèle[5]. Le site de l'entreprise mentionne aussi comme clientèle les enseignes Pharmabest, Intersport, LeaderSanté, Aprium pharmacie, et Spar[6]. Le logiciel est vendu en avançant sa supposée efficacité et sa simplicité d'usage. Il peut envoyer une image du supposé vol au vigile à travers l'application Telegram, et présente une projection de l'économie effectuée grâce au logiciel dans le cas où le vol peut être interrompu[5]. Streetpress rappelle que la loi du 19 mai 2023 relative aux jeux Olympiques et Paralympiques de 2024 n'autorise la vidéosurveillance que dans les « lieux accueillant des manifestations, leurs abords et les transports en commun »[7],[5] , ce qui exclut les magasins et la collecte de données biométriques précise La quadrature du net[8],[5]. Cela ne respecte pas non plus le consentement selon la CNIL[5]. L'association La quadrature du net affirme aussi que l'État a rappelé aux professionnels du secteur l'illégalité de la vidéosurveillance algorithmique en supermarché[9].

Chine modifier

En Chine, la technologie participe à une politique de contrôle social. Depuis 2017, la vidéosurveillance algorithmique sert à faire respecter la loi. Sont ainsi soumis à l'opprobre public les piétons ne respectant pas les feux rouges aux passages piétons, leurs visages étant affichés dans l'espace public[10]. Le dispositif sert plus globalement à identifier les comportements jugés suspects avec pour objectif de l'intégrer au système de crédit social qui a pris forme dès les années 2000[11].

Japon modifier

Au Japon, la police utilise de plus en plus la vidéosurveillance algorithmique pour renforcer la sécurité publique depuis 2018. La vidéosurveillance algorithmique y est également utilisée au sein des commerces, où elle y repère des personnes au comportement analysé par l'intelligence artificielle comme celui de voleurs. Lorsque le comportement d'une personne est assimilé à celui d'un voleur par la vidéosurveillance algorithmique, un SMS est envoyé au personnel du commerce avec une photo de la personne en question. La Radio-télévision belge de la Communauté française note que cela fait « courir le risque de délits de faciès : un geste, une attitude et, pour l'intelligence artificielle, vous n'êtes plus client mais suspect ». De même, des algorithmes sont désormais utilisés pour repérer les comportements suspects lors de rassemblements de masse, ce qui soulève des préoccupations quant à des interpellations policières automatisées[12].

La chaîne japonaise de restaurants de sushi Kura Sushi (jp) utilise la vidéosurveillance algorithmique depuis 2021 dans ses restaurants, initialement pour compter le nombre de plateaux pris par ses clients et pour faciliter le calcul des additions. En 2023, elle annonce implémenter nationalement ce système de vidéosurveillance et étendre son utilisation afin de détecter les « comportements suspects » de ses clients au sein de ses restaurants et d'alerter son personnel[13],[14].

En juillet 2023, l'Agence nationale de la police annonce le lancement de tests de caméras de sécurité équipées d'une technologie de « détection de comportement » conçue pour repérer les criminels avant qu'ils ne commettent des crimes. Elles sont destinées à protéger les personnalités publiques de haut rang. Ce système utilise l'intelligence artificielle pour surveiller les mouvements suspects, détecter les armes et protéger les zones restreintes, sans utiliser la reconnaissance faciale. Ce projet intervient après l'assassinat de l'ancien Premier ministre Shinzō Abe et une tentative d'assassinat contre le Premier ministre Fumio Kishida[15],[16].

En septembre 2023, le projet Shibuya 1000 de la société Intelligence Design prévoit l'installation de 100 caméras de surveillance alimentées par l'intelligence artificielle dans l'arrondissement Shibuya de Tokyo. Ces caméras utilisent la technologie IDEA Counter de l'entreprise pour détecter les comportements suspects en analysant les flux vidéo en direct. Il fait polémique au Japon en raison d'un diagramme publié par Intelligence Design décrivant les informations collectées, telles que le nombre de fois où une personne vidéosurveillée s'est rendue à Shibuya, le type de transport qu'elle a emprunté ou les personnes avec qui elle a visité le quartier. La société supprime ensuite ce diagramme, affirmant qu'il était « potentiellement trompeur », et assurant qu'elle ne stockerait pas d'images contenant des données personnelles et qu'elle se conformerait aux lois sur la protection des données. Bien que le logiciel puisse anonymiser les informations qu'il recueille en remplaçant les descripteurs trop spécifiques d'un individu par un identifiant généré de manière unique, Unseen Japan note que cette anonymisation est faillible et qu'il est malgré tout possible de retrouver l'identité des personnes vidéosurveillées. Le projet vise également à fournir des données sur le comportement des consommateurs aux marchands et à assister dans la gestion des foules lors d'événements[17],[18].

Russie modifier

À Moscou, depuis 2018, le système de surveillance Safe City est alimenté par un réseau de plus de 217 000 caméras de surveillance, dont certaines sont équipées de systèmes de reconnaissance faciale, notamment le système Sfera. Ces systèmes de reconnaissance faciale sont construits par des entreprises locales et internationales telles que NTechLab, Tevian, et VisionLabs, qui ont bénéficié des puces des sociétés américaines Nvidia et Intel. Ces systèmes sont utilisés massivement pour suivre et réprimer les manifestations ainsi que les dissidents politiques, qui sont soumis à une surveillance constante. Ils sont particulièrement utilisés dans le métro de Moscou. Sept avocats contactés par Reuters estiment que l'utilisation de la reconnaissance faciale contre les manifestants et militants moscovites constitue vraisemblablement une violation des droits de l'homme[19],[20].

En novembre 2023, le ministre du Développement digital Maksout Chadaev (ru) propose la création d'une plateforme de traitement de données de la vidéosurveillance urbaine, qui inclurait également la vidéosurveillance privée des entrées d'immeubles. Cette initiative prévoit l'utilisation de la reconnaissance faciale et de la vision par ordinateur pour analyser les données. Le projet vise à atteindre cinq millions de caméras d'ici 2030, avec une analyse entièrement gérée par l'intelligence artificielle. Le coût estimé de la plateforme par le ministère du Développement digital est de 12 milliards de roubles[21]. En mars 2024, une fuite de documents du Kremlin révèle l'implication dans ce projet du Glavny naoutchno-issledovatelski vytchislitelny tsentr (Centre informatique de recherche scientifique), une agence semi clandestine dirigée par d'anciens membres des services de renseignement. Selon ces documents, la plateforme de traitement de données proposée par Chadaev serait financée par le ministère du Développement digital et par l'entreprise de télécommunications Rostelecom[22].

Craintes modifier

En France la Commission nationale de l'Informatique et des Libertés (CNIL) fait part de ses réserves dans un rapport du 19 juillet 2022 en soulignant "les risques pour les droits et libertés des personnes"[23]. Elle y précise ainsi le caractère "intrusif" d'un tel dispositif notamment en matière de préservation de l'anonymat dans l'espace public. Les craintes sont aussi partagées par des associations de défense des libertés ainsi que le Conseil national des barreaux. Amnesty International dénonce "une offensive généralisée contre le droit à la vie privée, le droit de manifester et les droits aux libertés de réunion et d’expression"[4].

Au niveau européen, un règlement est en cours de négociation sur l'intelligence artificielle. Le 17 mars 2023, plusieurs eurodéputés ont mis en garde la France sur une possible non conformité de l'article 7 de la loi sur les Jeux Olympiques avec le règlement qui devrait être promulgué au mois d'avril[3].

D'autres organismes de défense comme la Quadrature du Net critiquent le "solutionnisme technologique" et pointent du doigt le manque d'efficacité de ces démarches.

Références modifier

  1. « Qu’est-ce que la vidéosurveillance algorithmique ? », sur La Quadrature du Net, (consulté le ).
  2. « LOI n° 2023-380 du 19 mai 2023 relative aux jeux Olympiques et Paralympiques de 2024 et portant diverses autres dispositions »
  3. a et b « JO 2024 : les députés autorisent la vidéosurveillance algorithmique avant, pendant et après les Jeux », Le Monde.fr,‎ (lire en ligne, consulté le )
  4. a et b Par David Charpentier Le 23 mars 2023 à 17h00, « Paris 2024 : il y aura bien des caméras « intelligentes » pour les Jeux olympiques », sur leparisien.fr, (consulté le ).
  5. a b c d et e Thomas Jusquiame, « Leclerc, Fnac, Biocoop et de nombreux commerces surveillent illégalement leurs clients », sur Streetpress, (consulté le ).
  6. Veesion, « site web », sur veesion.io (consulté le ).
  7. Article 10 de la Loi no 2023-380 du 19 mai 2023 relative aux jeux Olympiques et Paralympiques de 2024 et portant diverses autres dispositions (1)
  8. L'article 4 du Règlement général sur la protection des données définit en 14. les « données biométriques » comme « les données à caractère personnel résultant d'un traitement technique spécifique, relatives aux caractéristiques physiques, physiologiques ou comportementales d'une personne physique, qui permettent ou confirment son identification unique, telles que des images faciales ou des données dactyloscopiques ».
  9. « Veesion, la start-up illégale qui surveille les supermarchés »  , sur La Quadrature du net, (consulté le ).
  10. « Comment la Chine utilise la reconnaissance faciale pour faire respecter la loi », sur Les Echos, (consulté le ).
  11. « En Chine, la vie sous l'oeil inquisiteur des caméras », sur Les Echos, (consulté le ).
  12. Bernard Delattre, « Japon: l'intelligence artificielle et les algorithmes font baisser le taux de criminalité »  , sur Radio-télévision belge de la Communauté française, (consulté le )
  13. Hiroko Michishita et Naomichi Senoo, « Monitoring of 'sushi terrorism' with AI cameras at major chain draws mixed reaction »  , sur Mainichi shinbun, (consulté le )
  14. (en) Felise Seah, « A Japanese conveyor-belt sushi chain will now be using AI-powered cameras to fight back against 'sushi terrorism': report »  , sur Business Insider, (consulté le )
  15. (en) Pesala Bandara, « Japan Tests 'Minority Report' Style Cameras to Stop Crime Before it Happens »  , sur PetaPixel, (consulté le )
  16. (en) « Japan police to test AI-equipped cameras in protecting VIPs »  , sur Nikkei Asia, (consulté le )
  17. (en) Jay Allen, « Will AI-Powered Cameras Be Watching You in Shibuya? »  , sur Unseen Japan, (consulté le )
  18. (ja) Junichi Miyagawa, « 「どんな服で、どんな人と、今年何回目…」渋谷にAIカメラ100台設置プロジェクト、サイトの記載を削除「個人情報には該当しない」 »  , sur BuzzFeed,‎ (consulté le )
  19. (en) Masha Borak, « Inside Safe City, Moscow’s AI Surveillance Dystopia »  , sur Wired, (consulté le )
  20. (en) Lena Masri, « Facial recognition is helping Putin curb dissent with the aid of U.S. tech »  , sur Reuters, (consulté le )
  21. (en) « Russian ministry proposes five-million-camera unified surveillance system »  , sur Meduza, (consulté le )
  22. (en) Denis Dimitriev et Lilia Yapparova, « ‘These wonderful cameras’ Leaked documents reveal the Kremlin’s plan for a secretive government agency to build a nationwide surveillance network »  , sur Meduza, (consulté le )
  23. « Caméras dites « augmentées » dans les espaces publics : la position de la CNIL | CNIL », sur cnil.fr (consulté le ).

Voir aussi modifier

Liens externes modifier