Les services de police de tous les pays, dont beaucoup au Canada, commencent à tester une nouvelle technologie qui utilise la surveillance automatisée et le traitement de mégadonnées pour contrôler la population et prédire des activités criminelles. Appelée « surveillance algorithmique », cette approche consiste à recueillir de grandes quantités de renseignements personnels — le visage des personnes, leurs activités sur les médias sociaux, leurs réseaux — pour mieux suivre et identifier les personnes et prédire leurs comportements.
Un algorithme connaissant les dates et les lieux de crimes commis par le passé pourra prédire où d'autres crimes pourraient se produire plus tard. Un algorithme nourri de renseignements personnels — l'adresse d'une personne, ses activités dans les médias sociaux, son cercle d'amies et d'amis — peut générer une « cote de risque » concernant la probabilité que cette personne soit impliquée dans un crime. Les services de police peuvent ensuite allouer les ressources en fonction de ces prédictions.
Cet enjeu est en évolution dans de nombreux pays. Les personnes qui étudient ce phénomène au Canada, comme l'avocate de Toronto spécialisée en droit pénal Kate Robertson, analysent la situation dans d'autres pays pour comprendre les risques réels. On peut donner en exemple un cas récent qui s'est passé aux États-Unis.
En février 2019, Nijeer Parks, un homme noir de 31 ans, a été arrêté au New Jersey et accusé d'agression aggravée, de possession illégale d'armes, d'utilisation d'une fausse pièce d'identité, de possession de marijuana, de vol à l'étalage, d'abandon de la scène d'un crime et de résistance à son arrestation. Après sa sortie de prison au bout de 11 jours, il a entrepris la tâche difficile de prouver sa totale innocence.
De nombreuses personnes estiment que les technologies de surveillance offrent une efficacité et une précision accrues. Pour les critiques, elles menacent sérieusement les droits de la personne, dont les droits à la vie privée, à la liberté d'expression, à l'égalité et à la liberté.
C'est une technologie de reconnaissance faciale qui a mené à l'arrestation injustifiée de M. Parks : le système informatique avait établi une correspondance entre une photo sur un faux permis de conduire trouvé sur la scène du crime et une photo du visage de M. Parks. Cet homme n'était pourtant aucunement impliqué dans ce crime, puisqu'il se trouvait à ce moment à une distance de plus de 40 kilomètres. Malheureusement pour lui, son visage avait des traits que le logiciel de biométrie a décidé d'associer à ceux du véritable coupable. M. Parks a perdu plus d'un an de sa vie à cause de cette erreur d'identification. Il est même encore sous le choc. Interviewé par le réseau CNN, il a déclaré que cet évènement lui avait fait perdre sa tranquillité d'esprit. Aux États-Unis, cet incident est le troisième cas attesté d'arrestation injustifiée à cause de la mauvaise conception d'un système de reconnaissance faciale.
Au Canada, il faut y voir une mise en garde, au moment où les forces de l'ordre intègrent discrètement la reconnaissance faciale et d'autres formes d'apprentissage automatique dans leur travail.
De nombreuses personnes estiment que les technologies de surveillance offrent une efficacité et une précision accrues. Pour les critiques, elles menacent sérieusement les droits de la personne, dont les droits à la vie privée, à la liberté d'expression, à l'égalité et à la liberté.
L'imperfection de ces technologies constitue l'un des dangers évidents, comme l'illustre le cas de Nijeer Parks. La surveillance policière algorithmique n'est aussi bonne — ou mauvaise — que les données sur lesquelles elle s'appuie. En 2019, le National Institute of Standards and Technology, un laboratoire fédéral américain, a mené une étude qui a permis de conclure que les systèmes de reconnaissance faciale en usage actuellement sont 100 fois plus susceptibles de mal identifier des visages non blancs que des visages blancs, en raison du plus grand nombre de visages blancs qui ont servi à les entraîner.
Autre problème, les algorithmes nourris de données déjà recueillies par les services de police reflèteront, et peut-être aggraveront, la surveillance policière abusive effectuée depuis toujours à l'encontre de certaines populations, généralement les minorités raciales. Or, les algorithmes ont des conséquences plus subtiles puisque la surveillance automatisée installe un sentiment de peur chez les groupes minoritaires qui sont souvent dans la mire des services de police. La liberté d'association donne à toute personne le droit de se rassembler sans crainte et sans empêchements. Toutefois, si, par exemple, les membres d'un mouvement de lutte pour les droits des personnes noires savent que leurs activités de mobilisation en ligne sont surveillées et qu'on garde la trace de leur participation — et qu'un algorithme pourrait plus tard utiliser ces renseignements contre eux —, ces personnes pourraient avoir moins envie de faire partie de ce mouvement.
« Les autorités policières font valoir que ces technologies peuvent être utiles », explique Me Kate Robertson, une experte canadienne. « Pourtant, "être utile" ne suffit pas à justifier une pratique qui porte atteinte aux droits de la personne. » Elle compare l'utilisation de ces technologies à la mise sur écoute. Si la police pourrait apprendre beaucoup de choses en écoutant des conversations privées, elle n'est pas autorisée à le faire systématiquement. Avant de violer le droit à la vie privée d'un individu, la police doit démontrer à un juge qu'elle doit le faire par nécessité au sens de la loi.
« Pourtant, "être utile" ne suffit pas à justifier une pratique qui porte atteinte aux droits de la personne. »
Même si le Canada met plus de temps que les États-Unis à adopter les technologies de surveillance algorithmique par les services de police, il est impossible de savoir à quel point elles sont utilisées ici. Les corps policiers préfèrent ne pas parler de leurs techniques et peuvent refuser de le faire en invoquant le privilège juridique. En menant une étude sur ce sujet pour le compte du Citizen Lab de l'Université de Toronto qui a publié un rapport en 2020, Me Robertson a appris que beaucoup d'autorités policières — dont les corps policiers fédéraux et municipaux de la Saskatchewan, de Calgary, de Vancouver et de Toronto — se sont procuré des technologies de surveillance algorithmique et les testent ou les utilisent déjà.
Dans un rapport déposé au Parlement en 2021, le commissaire à la protection de la vie privée, Daniel Therrien, a révélé que la GRC avait commencé à utiliser un logiciel de reconnaissance faciale — même si elle avait déclaré le contraire —, acheté à la compagnie américaine Clearview AI, contrevenant ainsi à la Loi sur la protection des renseignements personnels adoptée par le Parlement fédéral. Selon une enquête complémentaire menée conjointement par quelques autorités fédérale et provinciales vouées à la protection de la vie privée et à l'accès à l'information, Clearview AI avait créé 48 comptes pour des autorités policières à l'échelle du Canada.
De plus, des gouvernements provinciaux songent à utiliser des analyses algorithmiques dans leur système carcéral. Dans ce contexte, ces algorithmes peuvent servir à prendre des décisions concernant les cautionnements de libération, les sentences ou les libérations conditionnelles. C'est un algorithme de ce genre qui a fait emprisonner Nijeer Parks au New Jersey pendant 11 jours avant qu'il soit libéré et inscrit à un programme de contrôle présentenciel.
Les technologies algorithmiques ont fait leur entrée dans le paysage policier canadien. Les critiques les plus virulents reconnaissent que ces technologies peuvent favoriser la productivité, mais à la condition qu'elles soient assorties de garde-fous. Comme il n'existe pas encore de tels garde-fous, les communautés ayant le plus à perdre sont celles qui subissent de la discrimination et une surveillance policière abusive depuis toujours et qui pourraient avoir peur d'en parler.
« Ces technologies nécessitent une surveillance gouvernementale. Le manque de transparence et la reconnaissance du fait que ces outils sont inexacts, imparfaits et discriminatoires soulèvent de sérieuses questions quant à savoir si elles seront un jour utilisées en toute légalité », soutient Me Kate Robertson. Jusqu'à ce que ces questions soient résolues, elle et beaucoup d'autres appellent à un moratoire.
Me Robertson a appris qu'au moins une personne racisée a été arrêtée injustement en Ontario à cause d'une erreur d'identification par reconnaissance faciale. À son avis, il ne faut pas réagir après-coup. Il faut empêcher que les droits soient violés, plutôt que de mettre en place des moyens de recours.