Clearview AI a offert des essais gratuits de reconnaissance faciale aux policiers du monde entier


Les organismes d’application de la loi et des organisations gouvernementales de 24 pays en dehors des États-Unis ont utilisé une technologie de reconnaissance faciale controversée appelée Clearview AI, selon les données internes de l’entreprise examinées par BuzzFeed News.

Ces données, qui vont jusqu’en février 2020, montrent que les services de police, les bureaux des procureurs, les universités et les ministères de l’Intérieur du monde entier ont effectué près de 14 000 recherches avec le logiciel Clearview AI. Dans de nombreux organismes chargés de l’application de la loi, du Canada à la Finlande, les agents ont utilisé le logiciel à l’insu ou sans la permission de leurs supérieurs. Après avoir reçu des questions de BuzzFeed News, certaines organisations ont admis que la technologie avait été utilisée sans supervision de la direction.

En mars, une enquête de BuzzFeed News basée sur les propres données internes de Clearview AI a montré comment la startup basée à New York a distribué son outil de reconnaissance faciale, en commercialisant des essais gratuits pour son application mobile ou son logiciel de bureau, à des milliers d’officiers et d’employés dans plus de 1 800 Entités financées par les contribuables américains. Clearview affirme que son logiciel est plus précis que les autres technologies de reconnaissance faciale, car il est formé sur une base de données de plus de 3 milliards d’images extraites de sites Web et de plateformes de médias sociaux, notamment Facebook, Instagram, LinkedIn et Twitter.

Les agents des forces de l’ordre utilisant Clearview peuvent prendre une photo d’un suspect ou d’une personne d’intérêt, l’exécuter via le logiciel et recevoir des correspondances possibles pour cette personne en quelques secondes. Clearview a affirmé que son application est exacte à 100% dans les documents fournis aux responsables de l’application des lois, mais BuzzFeed News a vu le logiciel identifier des personnes de manière erronée, soulignant une préoccupation plus importante concernant les technologies de reconnaissance faciale.

Sur la base de nouveaux rapports et données examinés par BuzzFeed News, Clearview AI a fait le tour du monde de son livre de stratégie marketing controversé aux États-Unis, offrant des essais gratuits aux employés des organismes chargés de l’application des lois dans des pays comme l’Australie, le Brésil et le Royaume-Uni.

Pour accompagner cette histoire, BuzzFeed News a créé un tableau consultable de 88 agences et organisations internationales affiliées au gouvernement et financées par les contribuables répertoriées dans les données de Clearview comme ayant des employés qui ont utilisé ou testé le service de reconnaissance faciale de l’entreprise avant février 2020, selon les données de Clearview.

Certaines de ces entités se trouvaient dans des pays où l’utilisation de Clearview a depuis été jugée « illégale ». À la suite d’une enquête, le commissaire à la protection des données du Canada a statué en février 2021 que Clearview avait «violé les lois fédérales et provinciales sur la protection des renseignements personnels » ; il a recommandé à l’entreprise de cesser d’offrir ses services aux clients canadiens, de cesser de collecter des images de Canadiens et de supprimer toutes les images et données biométriques précédemment collectées de personnes dans le pays.

Dans l’Union européenne, les autorités évaluent si l’utilisation de Clearview a enfreint le Règlement général sur la protection des données (RGPD), un ensemble de lois générales sur la confidentialité en ligne qui oblige les entreprises qui traitent des données personnelles à obtenir le consentement éclairé des personnes. L’Autorité néerlandaise de protection des données a déclaré à BuzzFeed News qu’il était « peu probable » que l’utilisation de Clearview par les services de police soit légale, tandis que la Commission nationale française de l’informatique et des libertés a déclaré avoir reçu « plusieurs plaintes » à propos de Clearview qui « fait actuellement l’objet d’une enquête ». Un régulateur à Hambourg a déjà jugé les pratiques de l’entreprise illégales en vertu du RGPD et lui a demandé de supprimer les informations sur un citoyen allemand.

Bien que Clearview soit utilisé dans au moins deux douzaines d’autres pays, le PDG Hoan Ton-That insiste sur le fait que le marché clé de l’entreprise est les États-Unis.

« Bien qu’il y ait eu une énorme demande pour notre service dans le monde entier, Clearview AI se concentre principalement sur la fourniture de notre service aux forces de l’ordre et aux agences gouvernementales aux États-Unis », a-t-il déclaré dans une déclaration à BuzzFeed News. « D’autres pays ont exprimé un besoin urgent de notre technologie car ils savent qu’elle peut aider à enquêter sur des crimes, tels que le blanchiment d’argent, la fraude financière, les escroqueries amoureuses, la traite des êtres humains et les crimes contre les enfants, qui ne connaissent pas de frontières.

Dans la même déclaration, Ton-That a allégué qu’il y avait « des inexactitudes contenues dans les affirmations de BuzzFeed ». Il a refusé d’expliquer ce que cela pourrait être et n’a pas répondu à une liste détaillée de questions basées sur les reportages de cette histoire.

Clearview AI a créé un puissant outil de reconnaissance faciale et l’a commercialisé auprès des services de police et des agences gouvernementales. La société n’a jamais divulgué les entités qui ont utilisé son logiciel de reconnaissance faciale, mais une source confidentielle a fourni à BuzzFeed News des données qui semblaient être une liste d’agences et d’entreprises dont les employés ont testé ou utilisé activement sa technologie.

En utilisant ces données, ainsi que des dossiers publics et des entretiens, nous avons créé une base de données consultable d’entités internationales financées par les contribuables, y compris les organismes chargés de l’application des lois, les bureaux du procureur, les universités et les ministères de l’Intérieur. Nous n’avons inclus que les agences pour lesquelles les données montrent qu’au moins une personne associée a effectué au moins une analyse de reconnaissance faciale en février 2020.

La base de données a des limites. Clearview n’a ni vérifié ni contesté les données sous-jacentes, qui commencent en 2018 et se terminent en février 2020, elles ne prennent donc en compte aucune activité après cette date ni aucune autre organisation qui aurait pu commencer à utiliser Clearview après février 2020.

Toutes les recherches ne correspondaient pas à une enquête, et certaines agences nous ont dit que leurs employés avaient simplement effectué des recherches de test pour voir si la technologie fonctionnait bien. BuzzFeed News a créé des plages de recherche basées sur des données indiquant le nombre de fois où les individus d’une organisation donnée ont exécuté des photos via Clearview.

Nous avons trouvé des inexactitudes dans les données, y compris des organisations avec des noms mal orthographiés ou incomplets, et nous avons décidé de corriger ces problèmes lorsqu’ils ont pu être confirmés. Si nous n’étions pas en mesure de confirmer l’existence d’une entité, nous la supprimions.

BuzzFeed News a donné à chaque agence ou organisation de cette base de données la possibilité de dire si elle avait utilisé la technologie de Clearview et si le logiciel avait conduit à des arrestations.

Sur les 88 entités de cette base de données :

  • 36 ont déclaré qu’ils avaient des employés qui ont utilisé ou essayé Clearview AI.
  • Les responsables de 9 de ces organisations ont déclaré qu’ils ne savaient pas que leurs employés s’étaient inscrits pour des essais gratuits jusqu’à ce que des questions de BuzzFeed News ou de nos partenaires de reportage les incitent à regarder.
  • Les responsables de 3 autres entités ont d’abord nié que leurs employés avaient utilisé Clearview, mais ont ensuite déterminé que certains d’entre eux l’avaient fait.
  • 10 entités ont refusé de répondre aux questions de savoir si leurs employés avaient utilisé Clearview.
  • 12 organisations ont nié toute utilisation de Clearview.
  • 30 organisations n’ont pas répondu aux demandes de commentaires.

Les réponses des agences, y compris si elles ont nié utiliser la technologie de Clearview ou n’ont pas répondu aux demandes de commentaires, sont incluses dans le tableau.

Ce n’est pas parce qu’une agence apparaît sur la liste que BuzzFeed News a pu confirmer qu’elle a effectivement utilisé l’outil ou que ses responsables ont approuvé l’utilisation de Clearview par ses employés.

En cherchant dans cette base de données, vous affirmez en comprendre les limites.

Selon un document interne de 2019 rapporté pour la première fois par BuzzFeed News, Clearview avait prévu de poursuivre une « expansion internationale rapide » dans au moins 22 pays. Mais en février 2020, la stratégie de l’entreprise semblait avoir changé. « Clearview se concentre sur les affaires aux États-Unis et au Canada », a déclaré Ton-That à BuzzFeed News à l’époque.

Deux semaines plus tard, en une interview sur PBS, il a précisé que Clearview ne vendrait jamais sa technologie à des pays « très hostiles aux États-Unis », avant de nommer la Chine, la Russie, l’Iran et la Corée du Nord.

Depuis lors, Clearview est devenu l’objet d’un examen minutieux des médias et de plusieurs enquêtes gouvernementales. En juillet, à la suite d’un reportage de BuzzFeed News qui montrait que des entreprises privées et des organisations publiques avaient effectué des recherches Clearview dans Grande Bretagne et Australie, les commissaires à la protection de la vie privée dans ces pays a ouvert une enquête conjointe dans l’entreprise pour son utilisation des données personnelles. L’enquête est en cours, selon le bureau du commissaire à l’information du Royaume-Uni, qui a déclaré à BuzzFeed News qu' »aucun autre commentaire ne sera fait tant qu’elle ne sera pas terminée ».

Les autorités canadiennes ont également décidé de réglementer Clearview après que le Toronto Star, en partenariat avec BuzzFeed News, a fait état de la utilisation généralisée des logiciels de l’entreprise dans le pays. En février 2020, les commissaires à la protection de la vie privée fédéraux et locaux du Canada a lancé une enquête Clearview et a conclu qu’il s’agissait d’une «violation manifeste des droits à la vie privée des Canadiens».

Plus tôt cette année, ces organismes ont officiellement a déclaré les pratiques de Clearview dans le pays illégales et a recommandé que l’entreprise cesse d’offrir sa technologie aux clients canadiens. Clearview n’était pas d’accord avec les conclusions de l’enquête et n’a pas démontré sa volonté de suivre les autres recommandations, selon le Commissariat à la protection de la vie privée du Canada.

Avant cette déclaration, les employés d’au moins 41 entités au sein du gouvernement canadien – le plus grand nombre de pays en dehors des États-Unis – étaient répertoriés dans les données internes comme ayant utilisé Clearview. Ces organismes allaient des services de police dans des villes de taille moyenne comme Timmins, une ville de 41 000 habitants où les agents ont effectué plus de 120 recherches, aux principaux organismes d’application de la loi métropolitains comme le service de police de Toronto, qui est répertorié dans les données comme ayant effectué plus de 3 400 recherches. à partir de février 2020.

Emplacements des entités qui ont utilisé Clearview AI.

Actualités BuzzFeed

Un porte-parole du service de police de Timmins a reconnu que le service avait utilisé Clearview, mais a déclaré qu’aucune arrestation n’avait jamais été effectuée sur la base d’une recherche avec la technologie. Le service de police de Toronto n’a pas répondu à plusieurs demandes de commentaires.

Les données de Clearview montrent que l’utilisation n’était pas limitée aux services de police. Le bureau des poursuites publiques du ministère de la Justice de la Saskatchewan a effectué plus de 70 recherches avec le logiciel. Un porte-parole a d’abord déclaré que les employés n’avaient pas utilisé Clearview mais a modifié sa réponse après une série de questions de suivi.

« La Couronne n’a pas utilisé Clearview AI pour soutenir une poursuite. »

« Après examen, nous avons identifié des cas autonomes où le personnel du ministère a utilisé une version d’essai de ce logiciel », a déclaré Margherita Vittorelli, porte-parole du ministère. «La Couronne n’a pas utilisé Clearview AI pour soutenir une poursuite. Compte tenu des préoccupations concernant l’utilisation de cette technologie, le personnel du ministère a reçu pour instruction de ne pas utiliser le logiciel de Clearview AI pour le moment. »

Certains organismes d’application de la loi canadiens ont suspendu ou interrompu leur utilisation de Clearview AI peu de temps après la période d’essai initiale ou ont cessé de l’utiliser en réponse à l’enquête gouvernementale. Un détective de l’unité des crimes technologiques du service de police régional de Niagara a effectué plus de 650 recherches sur un essai gratuit du logiciel, selon les données.

« Une fois que des inquiétudes ont fait surface avec le commissaire à la protection de la vie privée, l’utilisation du logiciel a été interrompue », a déclaré la porte-parole du département, Stephanie Sabourin, à BuzzFeed News. Elle a déclaré que le détective avait utilisé le logiciel dans le cadre d’une enquête non divulguée à l’insu des officiers supérieurs ou du chef de la police.

La Gendarmerie royale du Canada était l’une des très rares agences internationales à avoir passé un contrat avec Clearview et payé pour utiliser son logiciel. L’agence, qui a effectué plus de 450 recherches, a déclaré en février 2020 qu’elle avait utilisé le logiciel dans 15 cas d’exploitation sexuelle d’enfants en ligne, entraînant le sauvetage de deux enfants.

En juin, cependant, le Commissariat à la protection de la vie privée au Canada a constaté que l’utilisation de Clearview par la GRC violait les lois du pays sur la protection de la vie privée. Le bureau a également constaté que Clearview avait «violé la loi fédérale sur la protection de la vie privée du secteur privé du Canada en créant une banque de données de plus de trois milliards d’images extraites de sites Web sans le consentement des utilisateurs». La GRC a contesté cette conclusion.

L’Association canadienne des libertés civiles, un groupe à but non lucratif, a déclaré que Clearview avait facilité « l’expérimentation policière irresponsable » au Canada.

« Le modèle commercial de Clearview AI, qui récupère des photos de milliards de personnes ordinaires sur Internet et les place dans une file de police perpétuelle, est une forme de surveillance de masse illégale et inacceptable dans notre pays démocratique et respectueux des droits », Brenda McPhail, directeur du programme de confidentialité, de technologie et de surveillance de l’ACLC, a déclaré à BuzzFeed News.


Comme un certain nombre de Aux agences américaines chargées de l’application des lois, certaines agences internationales ont déclaré à BuzzFeed News qu’elles ne pouvaient pas discuter de leur utilisation de Clearview. Par exemple, le ministère public brésilien de Pernambuco, qui est répertorié comme ayant effectué plus de 100 recherches, a déclaré qu’il « ne fournit pas d’informations sur les questions de sécurité institutionnelle ».

Mais les données examinées par BuzzFeed News montrent que des personnes de neuf organismes d’application de la loi brésiliens, y compris la police fédérale du pays, sont répertoriées comme ayant utilisé Clearview, effectuant au total plus de 1 250 recherches en février 2020. Tous ont refusé de commenter ou n’ont pas répondu aux demandes. pour commentaire.

La National Crime Agency du Royaume-Uni, qui a effectué plus de 500 recherches, selon les données, a refusé de commenter ses techniques d’enquête ; un porte-parole a déclaré à BuzzFeed News début 2020 que l’organisation « déploie de nombreuses capacités spécialisées pour traquer les contrevenants en ligne qui causent de graves dommages au public ». Les employés du service de police métropolitain du pays ont effectué plus de 150 recherches sur Clearview, selon des données internes. Interrogée sur l’utilisation du service par le ministère, la police a refusé de commenter.

Les documents examinés par BuzzFeed News montrent également que Clearview avait une présence naissante dans les pays du Moyen-Orient connus pour leurs gouvernements répressifs et leurs préoccupations en matière de droits humains. En Arabie saoudite, des personnes du Centre d’études avancées d’intelligence artificielle (également connu sous le nom de Thakaa) ont effectué au moins 10 recherches avec Clearview. Aux Émirats arabes unis, des personnes associées à Mubadala Investment Company, un fonds souverain de la capitale d’Abou Dhabi, ont effectué plus de 100 recherches, selon des données internes.

Thakaa n’a pas répondu aux multiples demandes de commentaires. Un porte-parole de Mubadala a déclaré à BuzzFeed News que la société n’utilise le logiciel dans aucune de ses installations.

Les données ont révélé que des individus de quatre agences australiennes différentes ont essayé ou utilisé activement Clearview, y compris la police fédérale australienne (plus de 100 recherches) et la police de Victoria (plus de 10 recherches), où un porte-parole a déclaré à BuzzFeed News que la technologie était « jugée inappropriée ». après une première exploration.

« Entre le 2 décembre 2019 et le 22 janvier 2020, des membres du Centre australien de lutte contre l’exploitation des enfants (ACCCE) dirigé par l’AFP se sont inscrits pour un essai gratuit de l’outil de reconnaissance faciale Clearview AI et ont mené un essai pilote limité du système afin de déterminer son aptitude à lutter contre l’exploitation et la maltraitance des enfants », a déclaré Katie Casling, porte-parole de l’AFP, dans un communiqué.

Le service de police du Queensland et son unité d’enquête sur les homicides ont effectué plus de 1 000 recherches en février 2020, sur la base de données examinées par BuzzFeed News. Le ministère n’a pas répondu aux demandes de commentaires.


Clearview a commercialisé son système de reconnaissance faciale à travers l’Europe en proposant des essais gratuits lors de conférences policières, où il était souvent présenté comme un outil pour aider à trouver les prédateurs et les victimes d’abus sexuels sur des enfants.

En octobre 2019, des agents des forces de l’ordre de 21 nations différentes et Interpol se sont réunis au Centre européen de lutte contre la cybercriminalité d’Europol à La Haye aux Pays-Bas pour passer au peigne fin des millions de fichiers d’images et de vidéos de victimes interceptées dans leur pays d’origine dans le cadre d’un groupe de travail sur l’identification des victimes de maltraitance d’enfants. Lors de la réunion, des participants extérieurs qui n’étaient pas des membres du personnel d’Europol ont présenté Clearview AI comme un outil susceptible de les aider dans leurs enquêtes.

Après la conférence de deux semaines, qui comprenait des spécialistes de Belgique, de France et d’Espagne, certains officiers semblent avoir ramené chez eux ce qu’ils avaient appris et ont commencé à utiliser Clearview.

« L’autorité de police ne savait pas et n’avait pas approuvé l’utilisation. »

Un porte-parole d’Europol a déclaré à BuzzFeed News qu’il n’approuvait pas l’utilisation de Clearview, mais a confirmé que « des participants externes ont présenté l’outil lors d’un événement organisé par Europol ». Le porte-parole a refusé d’identifier les participants.

« Clearview AI a été utilisé pendant une courte période de test par quelques employés au sein de l’autorité de police, y compris dans le cadre d’un cours organisé par Europol. L’autorité de police ne savait pas et n’avait pas approuvé l’utilisation », a déclaré un porte-parole de l’autorité de police suédoise à BuzzFeed News dans un communiqué. En février 2021, l’Autorité suédoise de protection des données a conclu une enquête dans l’utilisation de Clearview par l’agence de police et lui a infligé une amende de 290 000 $ pour avoir enfreint la loi suédoise sur les données pénales.

La direction du National Bureau of Investigation de Finlande n’a appris l’utilisation de Clearview par les employés qu’après avoir été contactée par BuzzFeed News pour cette histoire. Après avoir initialement nié toute utilisation du logiciel de reconnaissance faciale, un porte-parole a fait marche arrière quelques semaines plus tard, confirmant que les agents avaient utilisé le logiciel pour effectuer près de 120 recherches.

« L’unité a testé un service américain appelé Clearview AI pour l’identification d’éventuelles victimes d’abus sexuels afin de contrôler la charge de travail accrue de l’unité au moyen de l’intelligence artificielle et de l’automatisation », Mikko Rauhamaa, un surintendant principal du Bureau national d’investigation de Finlande, dit dans un communiqué.

Les questions de BuzzFeed News ont incité le NBI à informer le médiateur finlandais de la protection des données d’une éventuelle violation de données, déclenchant une enquête plus approfondie. Dans une déclaration au médiateur, le NBI a déclaré que ses employés avaient entendu parler de Clearview lors d’un événement Europol en 2019, où son utilisation avait été recommandée dans les cas d’exploitation sexuelle d’enfants. Le NBI a depuis cessé d’utiliser Clearview.

Les données examinées par BuzzFeed News montrent qu’au début de 2020, Clearview avait fait son chemin à travers l’Europe. La police d’État italienne, Polizia di Stato, a effectué plus de 130 recherches, selon les données, bien que l’agence n’ait pas répondu à une demande de commentaire. Un porte-parole du ministère français de l’Intérieur a déclaré à BuzzFeed News qu’il n’avait aucune information sur Clearview, malgré des données internes répertoriant les employés associés au bureau comme ayant effectué plus de 400 recherches.

« L’unité Crimes contre les enfants d’INTERPOL utilise une gamme de technologies dans son travail pour identifier les victimes d’abus sexuels sur des enfants en ligne », a déclaré à BuzzFeed News un porte-parole de la police internationale basée à Lyon, en France, interrogé sur les plus de 300 recherches de l’agence. « Un petit nombre d’agents ont utilisé un compte d’essai gratuit de 30 jours pour tester le logiciel Clearview. Il n’y a aucune relation formelle entre INTERPOL et Clearview, et ce logiciel n’est pas utilisé par INTERPOL dans son travail quotidien. »

L’abus sexuel d’enfants justifie généralement l’utilisation d’outils puissants afin de sauver les victimes ou de traquer les auteurs. Mais Jake Wiener, juriste à l’Electronic Privacy Information Center, a déclaré que de nombreux outils existent déjà pour lutter contre ce type de crime et, contrairement à Clearview, ils n’impliquent pas une collecte massive non autorisée des photos que des milliards de personnes publier sur des plateformes comme Instagram et Facebook.

« Si la police veut simplement identifier les victimes de la traite des enfants, il existe déjà des bases de données et des méthodes solides », a-t-il déclaré. « Ils n’ont pas besoin de Clearview AI pour faire ça. »

Depuis le début de 2020, les régulateurs au Canada, en France, en Suède, en Australie, au Royaume-Uni et en Finlande ont ouvert des enquêtes sur l’utilisation de Clearview par leurs agences gouvernementales. Certains experts en confidentialité pensent que Clearview a violé les lois de l’UE sur la confidentialité des données, connues sous le nom de RGPD.

Certes, le RGPD inclut certaines exceptions pour l’application de la loi. Il note explicitement que « des enquêtes secrètes ou de la vidéosurveillance » peuvent être menées « aux fins de la prévention, de l’enquête, de la détection ou de la poursuite d’infractions pénales ou de l’exécution de sanctions pénales, y compris la protection et la prévention des menaces contre le public. Sécurité… »

Mais en juin 2020, le comité européen de la protection des données, l’organisme indépendant qui supervise l’application du RGPD, a publié conseils que « l’utilisation d’un service tel que Clearview AI par les autorités répressives de l’Union européenne ne serait probablement pas conforme au régime de protection des données de l’UE ».

En janvier, le Commissaire de Hambourg pour la protection des données et la liberté d’information en Allemagne – un pays où les agences n’avaient aucune utilisation connue de Clearview en février 2020, selon les données – est allé plus loin ; elle a estimé que Clearview elle-même enfreignait le RGPD et a ordonné à la société de supprimer les informations biométriques associées à une personne qui avait déposé une plainte antérieure.

Dans sa réponse aux questions de BuzzFeed News, Ton-That a déclaré que Clearview avait « volontairement traité » les demandes de personnes au sein de l’Union européenne visant à supprimer leurs informations personnelles des bases de données de l’entreprise. Il a également noté que Clearview n’a de contrat avec aucun client de l’UE « et n’est actuellement pas disponible dans l’UE ». Il a refusé de préciser quand Clearview a cessé d’être disponible dans l’UE.

CBS ce matin via YouTube / Via youtube.com

Hoan Ton-That, PDG de Clearview AI

Christoph Schmon, le directeur des politiques internationales de l’Electronic Frontier Foundation, a déclaré à BuzzFeed News que le RGPD ajoute un nouveau niveau de complexité pour les policiers européens qui ont utilisé Clearview. En vertu du RGPD, la police ne peut utiliser des données personnelles ou biométriques que si cela est « nécessaire pour protéger les intérêts vitaux » d’une personne. Mais si les organismes d’application de la loi ne savent pas qu’ils ont des agents qui utilisent Clearview, il est impossible de faire de telles évaluations.

« Si les autorités ne savaient fondamentalement pas que leur personnel avait essayé Clearview – cela je trouve assez étonnant et assez incroyable, pour être honnête », a-t-il déclaré. « C’est le travail des autorités chargées de l’application des lois de connaître les circonstances dans lesquelles elles peuvent produire des données sur les citoyens et une responsabilité encore plus grande d’être tenues pour responsables de toute utilisation abusive des données des citoyens. »

« Si les autorités ne savaient fondamentalement pas que leur personnel avait essayé Clearview, je trouve cela assez étonnant. »

De nombreux experts et groupes de défense des droits civiques ont fait valoir qu’il devrait y avoir une interdiction de l’utilisation gouvernementale de la reconnaissance faciale. Qu’un logiciel de reconnaissance faciale soit précis ou non, des groupes comme l’Algorithmic Justice League affirment que sans réglementation et surveillance appropriée, il peut entraîner une surveillance excessive ou de fausses arrestations.

« Notre position générale est que la technologie de reconnaissance faciale est problématique, donc les gouvernements ne devraient jamais l’utiliser », a déclaré Schmon. Non seulement il y a de fortes chances que les policiers abusent de la reconnaissance faciale, a-t-il déclaré, mais la technologie a tendance à mal identifier les personnes de couleur à des taux plus élevés que les Blancs.

Schmon a également noté que les outils de reconnaissance faciale ne fournissent pas de faits. Ils fournissent une probabilité qu’une personne corresponde à une image. « Même si les probabilités ont été conçues correctement, cela peut toujours refléter des biais », a-t-il déclaré. « Ils ne sont pas neutres.

Clearview n’a pas répondu aux questions sur ses allégations d’exactitude. Dans une déclaration de mars à BuzzFeed News, Ton-That a déclaré: « En tant que personne de race mixte, s’assurer que Clearview AI est impartiale est d’une grande importance pour moi. » Il a ajouté : « Sur la base de tests indépendants et du fait qu’aucune arrestation injustifiée n’a été signalée liée à l’utilisation de Clearview AI, nous respectons cette norme. »

Bien qu’ils fassent l’objet d’une enquête et, dans certains cas, soient interdits dans le monde, les dirigeants de Clearview semblent avoir déjà commencé à préparer le terrain pour une nouvelle expansion. L’entreprise a récemment levé 30 millions de dollars, selon le New York Times, et il a fait un certain nombre de nouveaux embauche. En août dernier, les cofondateurs Ton-That et Richard Schwartz, ainsi que d’autres dirigeants de Clearview, sont apparus sur les documents d’enregistrement de sociétés appelées Standard International Technologies en Panama et Singapour.

Dans une déposition pour un procès en cours aux États-Unis cette année, le dirigeant de Clearview, Thomas Mulcaire, a fait la lumière sur l’objectif de ces sociétés. Bien que les filiales n’aient pas encore de clients, a-t-il déclaré, l’entité panaméenne a été créée pour « potentiellement traiter avec les forces de l’ordre d’Amérique latine et des Caraïbes qui souhaiteraient utiliser le logiciel Clearview ».

Mulcaire a également déclaré que la nouvelle société singapourienne pourrait faire des affaires avec les forces de l’ordre asiatiques. Dans un communiqué, Ton-That n’a pas confirmé ces intentions mais n’a fourni aucune autre explication à cette décision.

« Clearview AI a créé deux entités internationales qui n’ont mené aucune activité », a-t-il déclaré. ●

RAPPORTS CONTRIBUÉS : Ken Bensinger, Salvador Hernandez, Brianna Sacks, Pranav Dixit, Logan McDonald, John Paczkowski, Mat Honan, Jeremy Singer-Vine, Ben King, Emily Ashton, Hannah Ryan

Vous aimerez aussi...