Experts: Ottawa a mis à contribution la reconnaissance faciale sur des millions de voyageurs à l'aéroport Pearson de Toronto
Le gouvernement fédéral a discrètement testé un logiciel de reconnaissance faciale sur des millions de voyageurs sans méfiance à l'aéroport international Pearson de Toronto en 2016. L'initiative de six mois, destinée à repérer les personnes que l'Agence des services frontaliers du Canada soupçonnait d'essayer d'entrer dans le pays en utilisant de fausses pièces d'identité, est détaillée dans un document obtenu par le Globe and Mail grâce à une requête de liberté d'information. Le projet est le plus grand déploiement gouvernemental connu de cette technologie au Canada à ce jour. ()
Voici des experts de l’Université 91ÉçÇø qui peuvent s’exprimer à ce sujet :
Ignacio Cofone, professeur adjoint et chercheur facultaire Norton Rose Fulbright, Faculté de droit
« La reconnaissance faciale est inéluctable, invisible et omniprésente, ce qui en fait le mécanisme de surveillance le plus invasif jamais inventé. Bien que les aéroports soient déjà des espaces de haute surveillance où les gens devraient avoir de maigres attentes en matière de respect de la vie privée, la mise en œuvre de la reconnaissance faciale implique un écart important par rapport aux pratiques actuelles. Elle ne devrait être mise en œuvre que s'il existe une certitude qu'un gain de sécurité significatif existe pour compenser ses risques, et que la mesure ne fait pas simplement partie d'un dispositif de sécurité ».
Ignacio Cofone est professeur adjoint et chercheur facultaire Norton Rose Fulbright à la Faculté de droit, où il enseigne le droit de l'intelligence artificielle, les associations commerciales et le droit à la vie privée. Ses recherches explorent comment le droit devrait s'adapter aux changements technologiques et sociaux, et mettent l'accent sur la protection de la vie privée et la prise de décision algorithmique. Dans ses plus récents projets, il propose des méthodes pour évaluer les dommages dans les recours collectifs en matière de protection de la vie privée et comment prévenir la discrimination algorithmique.
ignacio.cofone [at] mcgill.ca (anglais, espagnol)
Benjamin Fung, professeur titulaire, École des sciences de l’information
« La question est de savoir comment atteindre un juste équilibre entre la sécurité nationale et la vie privée. Il faut se demander quelles informations supplémentaires l'ASFC peut obtenir via ce nouveau programme d'intelligence artificielle par rapport à la procédure traditionnelle d'immigration et de contrôle douanier. Il est important de noter que l'ASFC conserve un dossier d'entrée de chaque visiteur et a accès aux photos de certains visiteurs même sans recourir au système de reconnaissance faciale. De ce fait, le seul élément d'information nouveau que l'ASFC peut obtenir de ce système est la photo en direct du visage des voyageurs. Si l'ASFC n'utilise les photos que dans un but précis et qu'elle les élimine définitivement dans un court laps de temps, le risque lié au respect de la vie privée est faible. Il pourrait s'agir d'un bon équilibre entre la sécurité nationale et la vie privée ».
Benjamin Fung est professeur titulaire à l'École des sciences de l'information et titulaire de la chaire de recherche du Canada en extraction de données pour la cybersécurité. Il a publié plus de 90 articles dans des revues scientifiques qui couvrent les domaines de recherche de l'exploration de données, de la protection de la vie privée et de la cybercriminalité.
ben.fung [at] mcgill.ca (anglais)
, candidate au doctorat, Département d'histoire de l'art et d'études en communication et directrice de recherche, Centre pour les médias, la technologie et la démocratie
« La reconnaissance faciale séduit les gouvernements en les incitant à déployer une technologie dont la discrimination a été prouvée à maintes reprises et en leur faisant croire que la sécurité nationale est un compromis valable pour la vie privée des individus. On passe à côté de la plaque : le déploiement de la reconnaissance faciale en public est un préjudice collectif car il exacerbe le déséquilibre de pouvoir entre ceux qui la déploient et ceux qui sont les plus vulnérables à son utilisation. Il s'agit là de menaces fondamentales pour la démocratie ».
Sonja Solomun est candidate au doctorat au Département d'histoire de l'art et d'études en communication et directrice de recherche du Centre pour les médias, la technologie et la démocratie de l’École de politiques publiques Max Bell. Ses recherches portent sur les histoires et les politiques des plateformes, la gouvernance des plateformes et, plus récemment, la justice climatique et l'intelligence artificielle.
sonja.solomun [at] mcgill.ca (anglais)