Comment la reconnaissance faciale par l’IA est une menace pour nous tous
Le parti travailliste se sert de la colère suscitée par les récentes émeutes pour imposer l'expansion des technologies d'espionnage dans tous les aspects de notre vie. Mais, selon Arthur Townend, sa véritable cible n'est pas la droite raciste. C'est la gauche révolutionnaire.

La police se réjouit de l’utilisation de la technologie de reconnaissance faciale qui permettra de condamner les émeutiers racistes. Mais cette technologie est une arme que l’État utilisera également contre la gauche et les militants. Elle constitue un élément supplémentaire de répression étatique, en plus des pratiques odieuses, de la répression des manifestations au scandale des policiers espions.
Sous couvert de violences d’extrême droite, Keir Starmer a appelé à un « déploiement plus large de la technologie de reconnaissance faciale ». La technologie de reconnaissance faciale (FRT) est alimentée par l’intelligence artificielle (IA). Elle capture les détails de votre visage et les compare ensuite à une base de données de visages pré-identifiés.
Les personnes figurant dans la base de données reflètent déjà l'opinion de l'État sur ses ennemis et ses suspects. La technologie de reconnaissance faciale en direct (LFR) surveille en permanence les espaces publics et capture tous les visages qu'elle voit. Il peut s'agir de la police dans les rues avec des caméras à la recherche de suspects connus, ou de caméras dans des magasins comme M&S qui cherchent à défendre le saumon contre des voleurs à l'étalage connus.
Les pratiques de détention illégale de personnes portent atteinte aux droits de l’homme et peuvent conduire à des arrestations injustifiées, tout en permettant à de grandes entreprises technologiques d’engranger des profits colossaux. Pete Fussey et Daragh Murray ont publié en 2019 un rapport évaluant le procès de la police métropolitaine de Londres contre les pratiques de détention illégale de personnes. Ils y soulignent que les problèmes de détention illégale de personnes vont bien au-delà des violations évidentes de la vie privée.
L’un des principaux problèmes est que la technologie de la détention de proximité porte atteinte aux droits à la liberté d’expression et de réunion. « Le déploiement de la technologie de détention de proximité peut avoir un effet dissuasif, les individus s’abstenant d’exercer légalement leurs droits démocratiques par crainte des conséquences qui pourraient en découler », indique le rapport.
Les gens peuvent avoir peur de rencontrer certaines personnes et de participer à certaines organisations ou manifestations par crainte de « culpabilité par association ». L'avertissement de Fussey et Murray était bien fondé. Le Dr Victor Olisa, ancien chef de la police métropolitaine, affirme que même les masques et les cagoules ne suffisent pas à rester anonyme.
« Il se peut que vous ayez une demi-douzaine de jeunes hommes dont cinq sont masqués et un ne l’est pas. Si vous parvenez à retrouver ce dernier, par exemple dans la base de données de la police, vous pourrez remonter la piste », a-t-il déclaré. Le rapport conclut que « l’utilisation par la police de technologies de surveillance ouverte peut nuire aux mouvements de protestation politique ».
Fussey, qui travaille avec l'organisation de défense des droits de l'homme Liberty, a également prévenu que l'utilisation de la LFR s'étendrait au-delà des émeutiers d'extrême droite et des fascistes auxquels elle est censée être destinée. « Les gens sont favorables à des utilisations plus draconiennes de la technologie lorsque quelque chose comme cela se produit. Mais il n'y a pas de limite significative qui empêche son utilisation dans d'autres contextes », a-t-il déclaré.
Ce « glissement fonctionnel », qui consiste à utiliser la FRT contre toute personne que l’État considère comme une menace, est une pente glissante. Les ennemis de l’État ne sont souvent pas les mêmes que les nôtres. Les chemises noires L’histoire nous montre que la police utilise son pouvoir pour écraser les organisations de gauche lorsqu’elle prétend vouloir arrêter l’extrême droite.
La loi sur l'ordre public de 1936 a été introduite pour lutter contre le fascisme d'Oswald Mosley. Mais elle n'a guère été utilisée contre les fascistes. Au lieu de cela, elle a été invoquée pour mettre fin à l'organisation de gauche. Les événements récents suscitent de nouvelles inquiétudes. La police a arrêté 27 militants de Just Stop Oil (JSO) en juin, accusés de complot en vue d'une interférence planifiée avec des infrastructures civiles.
Roger Hallam, cofondateur d'Extinction Rebellion et de JSO, a été condamné à cinq ans de prison. L'État arrête déjà des personnes qui planifient des troubles et des perturbations. Désormais, la technologie LFR et l'IA offrent à la police une méthode plus efficace pour surveiller et attaquer ces organisations.
L’utilisation par la police de la détention de biens de première nécessité pour réprimer les organisations de gauche élargit également les possibilités d’utilisation de la détention de biens de première nécessité pour intensifier les pratiques policières racistes existantes. La nature institutionnellement raciste de la police signifie que la détention de biens de première nécessité sera utilisée pour cibler davantage les groupes noirs et minoritaires.
Sans surprise, la première utilisation de la LFR a eu lieu en 2016, lors du carnaval de Notting Hill, dans l’ouest de Londres. Les préjugés raciaux sont également ancrés dans la technologie elle-même. L’IA étant formée et programmée par les personnes et les données qu’elles collectent, elle est toujours ancrée dans les préjugés sociaux de cette société.
Dans une société raciste et sexiste, l’IA que nous produisons reflète ces préjugés et les aggrave. Une étude choquante de 2018 menée par Joy Buolamwini et Timnit Gebru, publiée par le MIT Media Lab, a montré que le taux d’erreur pour les hommes à la peau claire était de 0,8 %, contre 34,7 % pour les femmes à la peau plus foncée.
Une autre étude menée par le National Institute of Standards and Technology aux États-Unis a révélé que les personnes noires et asiatiques avaient dix à cent fois plus de risques d’être mal identifiées que les personnes blanches. Mais aucune loi n’a été instaurée en Grande-Bretagne concernant l’utilisation de la technique de reconnaissance faciale, et encore moins de la technique de reconnaissance à distance, par les forces de l’ordre, contrairement au reste de l’Europe.
Le test FRT ciblera également de manière disproportionnée les musulmans. La technologie ne peut pas faire la différence entre les personnes portant un masque, ce qui signifie qu’elle pourrait renforcer une islamophobie préexistante. Les statistiques de la police montrent déjà que les tests effectués dans des « conditions idéales » conduisent à des taux d’erreur d’identification inférieurs à 0,02 %.
Mais dans les tests en conditions réelles effectués en Angleterre et au Pays de Galles, le taux atteint près de 75 %. Cela soulève des questions sur ce qui arrive aux personnes mal identifiées. En Grande-Bretagne, une adolescente a été mal identifiée par un LFR et accusée à tort d'être une voleuse à l'étalage dans un magasin Home Bargains. Elle a été fouillée, expulsée du magasin et on lui a dit qu'elle était interdite d'accès à un certain nombre de magasins à travers la Grande-Bretagne.
Un cas similaire concerne Shaun Thompson, un travailleur social noir, que la police a retenu pendant près d’une demi-heure. Les policiers ont exigé ses empreintes digitales car ils présumaient qu’il était un criminel en se basant sur la reconnaissance faciale. Des cas comme celui-ci ne font qu’élargir le fossé entre demander des comptes à la police et la laisser traiter les gens comme elle le souhaite.
Les utilisateurs finaux et les bénéficiaires de la FRT, c’est-à-dire la police, devraient être tenus responsables dans des cas comme celui-ci. Mais les policiers brutalisent, assassinent, bafouent nos droits et commettent des crimes tous les jours. Ils arrêtent et fouillent déjà de manière disproportionnée les Noirs sans en subir les conséquences.
Les arrestations de personnes sur la base de données de reconnaissance faciale, qu’elles soient exactes ou non, ne font qu’ouvrir la voie à des abus de la part de l’État et de ses forces de l’ordre. Plutôt que de s’attaquer à la menace que représentent la reconnaissance faciale et l’IA pour les groupes minoritaires et les droits démocratiques, la police conclut des contrats opaques avec des entreprises privées.
La police métropolitaine utilise FRT de NEC Corporation, une société basée au Japon qui a accumulé un chiffre d'affaires mondial de 19,1 milliards de livres sterling en 2023. Il s'agit d'une puissante multinationale qui exerce une influence privée sur l'utilisation par la police d'une technologie non réglementée.
Alors que les investissements dans l’IA continuent d’augmenter, son manque de rentabilité inquiète les investisseurs. Le New York Times a rapporté que les dépenses consacrées à l’IA ont atteint près de 47 milliards de livres sterling en avril, mai et juin de cette année. Mais les retours sur investissement sont encore loin. Cela signifie que pour engranger des bénéfices, il faut vendre davantage de produits.
La reconnaissance faciale pourrait donc devenir une voie lucrative pour les grandes entreprises technologiques, surtout si elle devient une pratique courante de la police en Grande-Bretagne et aux États-Unis. En attendant, Starmer a dévoilé son jeu. Il veut déployer la reconnaissance faciale plus largement, laissant le parti travailliste exposé à l’influence des lobbyistes des entreprises qui font la promotion de la reconnaissance faciale toujours plus poussée.
L’engagement de Starmer à étendre la portée de la reconnaissance faciale témoigne de sa volonté d’accroître les pouvoirs de la police et de réprimer quiconque ne lui plaît pas. L’utilisation de la reconnaissance faciale à des fins de protection ne permettra pas de mettre fin à la criminalité ni de protéger les personnes. Il s’agit simplement d’un autre moyen autoritaire utilisé par la police pour supprimer nos droits.

