Adrian Wyld/La Presse canadienne Ahmed Hussen, ministre fédéral de l'Immigration

OTTAWA — Un nouveau rapport met en garde contre l’intérêt du gouvernement fédéral à utiliser l’intelligence artificielle (IA) pour filtrer et traiter les dossiers d’immigration, prévenant que cela pourrait créer de la discrimination en plus de porter atteinte à la vie privée et aux droits de la personne.

La recherche, menée par le Citizen Lab de l’Université de Toronto, souligne les impacts de la prise de décision automatisée impliquant des demandes d’immigration et comment les erreurs et les hypothèses de la technologie pourraient entraîner des «conséquences mortelles» pour les immigrants et les réfugiés.

Les auteurs du rapport publient une liste de sept recommandations appelant à une plus grande transparence et à la publication et à la surveillance publiques de l’utilisation de l’intelligence artificielle et de l’analyse prédictive par le gouvernement pour automatiser certaines activités impliquant des applications d’immigrants et de visiteurs.

«Nous savons que le gouvernement expérimente l’utilisation de ces technologies (…), mais il est clair que sans garanties et mécanismes de surveillance appropriés, utiliser l’IA pour déterminer l’immigration et le statut de réfugié est très risqué», explique Petra Molnar, l’une des auteures du rapport.

«L’IA n’est pas neutre. C’est un peu comme une recette et si votre recette est biaisée, la décision prise par l’algorithme est également biaisée et difficile à contester», poursuit-elle.

Au début de l’année, des fonctionnaires fédéraux ont lancé deux projets pilotes pour qu’un système d’intelligence artificielle trie des demandes de visa de résident temporaire provenant de la Chine et de l’Inde. Mathieu Genest, un porte-parole du ministre de l’Immigration Ahmed Hussen, a déclaré que le programme d’analyse aide les agents à trier les demandes de visas en ligne pour «traiter plus efficacement les dossiers courants».

Il dit que la technologie est utilisée exclusivement comme un «mécanisme de tri» pour aider les agents d’immigration à traiter un nombre toujours croissant de demandes de visas de visiteur de ces pays en identifiant rapidement les applications normales et en signalant les dossiers plus complexes à examiner.

Les agents d’immigration prennent toujours les décisions finales quant au refus d’un visa, assure M. Genest.

Mais ce n’est pas la seule exploration de l’intelligence artificielle menée par le ministère de l’Immigration.

En avril, le ministère a commencé à évaluer l’intérêt du secteur privé pour l’élaboration d’autres projets pilotes impliquant l’informatique, ou l’apprentissage automatique, dans certains domaines du droit de l’immigration, notamment les demandes humanitaires et les évaluations des risques avant renvoi.

Le rapport du Citizen Lab souligne que ces deux voies sont souvent utilisées en dernier recours par les personnes vulnérables qui fuient la violence et la guerre.

«Parce que la loi sur l’immigration est discrétionnaire, ce groupe est vraiment le dernier groupe qui devrait être soumis à des expériences technologiques sans surveillance», estime Mme Molnar.

Elle note que l’intelligence artificielle a un «bilan problématique» en matière de genre et de race, en particulier dans le domaine de la prévision policière, qui a vu certains groupes être ciblés outre mesure.

«Ce qui nous inquiète, c’est que ces biais vont être importés dans ce laboratoire à haut risque de prise de décision en matière d’immigration», explique Mme Molnar.

Le gouvernement affirme que les fonctionnaires ne sont intéressés que par le développement ou l’acquisition d’un outil pour aider les fonctionnaires des ministères de l’Immigration et de la Justice à gérer les litiges et à développer des conseils juridiques en matière de droit de l’immigration.

«L’intention est de soutenir les décideurs dans leur travail et non de les remplacer, a dit M. Genest. Nous surveillons et évaluons les résultats et le succès de ces projets pilotes avant de les lancer ou d’envisager de les étendre à d’autres pays et secteurs d’activité.»

En avril, le Conseil du Trésor a publié un livre blanc sur «l’intelligence artificielle responsable au gouvernement du Canada» et consulte actuellement les intervenants pour élaborer un projet de directives sur l’utilisation de technologies de prise de décisions automatisées au sein du gouvernement.

Mme Molnar espère que les fonctionnaires examineront les recherches et les recommandations du Citizen Lab, y compris leur appel en faveur d’un organisme de surveillance indépendant chargé de surveiller et d’examiner l’utilisation de l’intelligence artificielle lors de la prise de décision.

«Nous sommes au-delà de la conversation quant à savoir si l’IA est utilisée ou non. La question est, si l’IA est là pour rester, nous voulons nous assurer que cela soit fait correctement», dit-elle.

Aussi dans National :

Nous utilisons maintenant la plateforme de commentaires Facebook Comments sur notre site web. Grâce à celle-ci, vous pourrez laisser vos commentaires par l’entremise de votre compte Facebook directement sous les articles sur notre site web. Pour ceux qui ne sont pas membres du réseau social, nous vous invitons à faire vos commentaires via l’adresse courriel opinions@journalmetro.com. Merci de nous lire!