aller au contenu principal

Des robots à nos frontières

L'époque actuelle est celle de la mobilité. Jusqu'à maintenant, jamais l'être humain n'avait voyagé autant et aussi rapidement d'un bout à l'autre de la planète. La globalisation — le flux international de marchandises et de voyageurs — n'est pas le seul facteur. L'autre facteur est le nombre sans précédent de déplacements de force. Selon le Haut Commissariat des Nations Unies pour les réfugiés, plus de 82 millions de personnes vivent maintenant comme réfugiées à l'étranger ou déplacées dans leur pays, un nombre qui a doublé en vingt ans.

Dans ce contexte, les frontières — et l'appareil d'immigration et de sécurité qui les protège — fourmillent. Et sont semées d'embûches. Aux frontières, des personnes frappent aux portes des États, lesquels décident si elles peuvent entrer et à quelles conditions. Alors qu'elles peuvent avoir des répercussions sur la vie de ces personnes, ces décisions sont de plus en plus souvent prises à l'aide de machines.

Cela s'explique facilement. En 2019, le Canada a reçu plus de 64 000 demandes d'asile, un record absolu. La même année, le Canada a admis 341 180 nouveaux résidents permanents, un sommet dans les dernières années.

Chaque demande d'entrée au Canada représente une tâche administrative cruciale : la collecte et l'analyse d'une multitude de renseignements concernant le demandeur, comme ses antécédents personnels, ses qualifications professionnelles, son aptitude linguistique, sa cote de sécurité et ses relations familiales.

Les services d'immigration doivent aussi délivrer, prolonger, vérifier et annuler les visas et les permis de travail. Ayant la réputation d'avoir une multitude de dossiers en attente et de ne pas respecter des délais raisonnables, le système canadien de traitement des demandes d'immigration et de statut de réfugié aurait sans doute un besoin urgent du type d'optimisation que l'intelligence artificielle promet.

De plus, ces systèmes sont largement utilisés dans le secteur privé : par les banques pour décider qui obtiendra un prêt, par les employeurs pour trier les demandes d'emploi, par les universités pour sélectionner certains types d'étudiants, ou par les propriétaires pour écarter des locataires indésirables.

Les systèmes décisionnels automatisés sont des technologies conçues pour aider ou même remplacer les personnes responsables de prendre des décisions. Entraînés à partir de données existantes, ces systèmes peuvent être utilisés pour trier et combiner les renseignements saisis dans les bases de données pour ensuite prédire ou déterminer des résultats, ce qui permettrait d'alléger le fardeau qui repose sur les épaules des personnes responsables de l'administration du système.

De tels systèmes se taillent une place dans la fonction publique, comme dans le système correctionnel pour aider à déterminer les conditions de la mise en liberté sous caution et les sentences, ou dans les services sociaux pour identifier les fraudes. De plus, ces systèmes sont largement utilisés dans le secteur privé : par les banques pour décider qui obtiendra un prêt, par les employeurs pour trier les demandes d'emploi, par les universités pour sélectionner certains types d'étudiants, ou par les propriétaires pour écarter des locataires indésirables.

En ce qui concerne l'immigration, les systèmes décisionnels automatisés peuvent être entraînés pour gérer ces montagnes de demandes en les classant par catégorie, en lançant des signaux d'alerte, en attribuant des cotes de risque, en proposant des décisions ou même en les prenant.

L'objectivité de ces systèmes est leur principal argument de vente. On fait valoir que les machines n'ont pas de préjugés. Pourtant, cet argument cache une vérité fondamentale de l'apprentissage automatique, qui se résume par l'expression « à données inexactes, résultats erronés » (ou « garbage in, garbage out » en anglais). Lorsqu'un système automatisé qualifie de suspecte la demande d'immigration d'un ingénieur musulman de 23 ans originaire de l'Anatolie, on ne peut pas accuser le système d'avoir un préjugé discriminatoire. Il a seulement accompli sa tâche. Intégré dès le début dans les données historiques utilisées pour entraîner le système, le préjugé est devenu le principe directeur de la technologie.

Il est impossible de savoir à quel point les systèmes décisionnels automatisés font déjà partie du système d'immigration du Canada puisque les gouvernements ne publicisent pas leur utilisation. Cependant, selon des enquêtes réalisées par des journalistes et des chercheurs, le Canada, comme d'autres pays et territoires, aurait commencé à tester ces technologies avec l'intention de les utiliser à plus grande échelle.

Depuis 2014, Immigration, Réfugiés et Citoyenneté Canada (IRCC) développe un système d'« analytique prédictive » visant à classer les dossiers en fonction de leur complexité. IRCC évalue aussi la possibilité d'utiliser un système automatisé pour trier les dossiers à des fins juridiques. Ce système analyse la jurisprudence et les tendances dans les cas litigieux pour déterminer la probabilité qu'un demandeur conteste avec succès le rejet de sa demande.

Selon l'appel d'offre du gouvernement concernant cet outil particulier appelé « Solution d'intelligence artificielle », IRCC pourrait aussi utiliser ce système pour « aider ses décideurs administratifs primaires » (des personnes) « à évaluer le bien-fondé des demandes avant de prendre une décision ».

Petra Molnar

« Les personnes ont peu de recours. Comment peuvent-elles s'opposer à ces technologies, en particulier quand leur utilisation n'est même pas connue? »

Me Petra Molnar

Comme l'a précisé la Cour suprême du Canada dans une décision rendue en 1999, toute personne qui fait une demande d'immigration ou de statut de réfugié au Canada a droit à « un processus équitable, impartial et ouvert ».

À première vue, ce système peut avoir l'air plutôt inoffensif. Par contre, des défenseurs des droits de la personne voudraient des précisions sur les renseignements versés dans ces systèmes. Quelles données ont servi à les alimenter? Qu'est-ce qu'on les a entraînés à considérer comme des « points positifs » ou comme des « points faibles »? Ces questions sont d'une importance capitale si l'on veut garantir une équité procédurale. Comme l'a précisé la Cour suprême du Canada dans une décision rendue en 1999, toute personne qui fait une demande d'immigration ou de statut de réfugié au Canada a droit à « un processus équitable, impartial et ouvert ».

Des défenseurs des droits de la personne s'inquiètent aussi de ce qu'ils ne savent pas! Entre juillet et décembre 2016, presque trois millions de personnes sont passées par l'aire de contrôle frontalier à l'aérogare 3 de l'Aéroport international Toronto Pearson. Aucune de ces personnes n'a su qu'elle était filmée. Dans le cadre d'un projet pilote, le gouvernement fédéral a installé 31 caméras dans cette aérogare. Les caméras ont pris des photos du visage des voyageurs afin de les comparer à celles d'une base de données de l'Agence des services frontaliers du Canada (ASFC) contenant des photos de 5 000 personnes déportées au fil des ans. Lorsque le système trouvait une correspondance entre deux photos, la personne concernée était amenée à l'écart pour une inspection secondaire.

Le gouvernement fédéral n'a émis aucun avis public pour annoncer le projet pilote. En fait, il a fallu attendre à l'été 2021 pour obtenir des détails grâce au journal The Globe and Mail qui avait fait une demande d'accès à l'information. Selon l'ASFC, aucun voyageur n'a été expulsé à cause de cette technologie. Cependant, l'entreprise technologique qui a mené le projet pilote « Visages en mouvement » déclare avoir obtenu 47 « real hits » (correspondances).

« Les frontières se prêtent merveilleusement bien aux essais des technologies de surveillance », dit Petra Molnar, avocate canadienne spécialisée en droits de la personne et experte internationale dans le domaine des migrations et des droits de la personne. « L'inégalité du rapport de force y est énorme. Les personnes ont peu de recours. Comment peuvent-elles s'opposer à ces technologies, en particulier quand leur utilisation n'est même pas connue? »

Me Molnar est à étudier les conséquences de l'utilisation des technologies de surveillance sur les personnes ayant le moins de pouvoir : les personnes réfugiées en provenance d'Afrique et du Moyen-Orient qui se sont retrouvées sur les côtes des îles grecques en essayant de migrer vers l'Europe. Elle passe ses journées à visiter un camp de réfugiés pas comme les autres qui devient un prototype. Dans ce camp installé aux portes de l'Europe, ses occupants sont constamment surveillés, et les empreintes digitales et une lecture de l'iris sont exigées au moment de servir les repas. Selon Me Molnar, ce camp est dangereusement sur le point de devenir un « complexe frontalier industriel d'envergure mondiale. »

Grâce à sa géographie, le Canada n'a pas les problèmes de migrations massives vécus en Europe en ce moment. Par conséquent, l'utilisation des technologies de surveillance à nos frontières se fait davantage dans la discrétion. Cependant, Me Petra Molnar soutient que, puisque le Canada est l'un des premiers pays à adopter les technologies d'intelligence artificielle pour ses services publics, il devrait jouer un rôle prépondérant dans les discussions mondiales sur leur utilisation. Elle affirme aussi qu'on devrait amorcer ces discussions en admettant d'abord que ces technologies menacent les droits de la personne et la dignité.