Uncategorized
18:43 26 janvier 2021 | mise à jour le: 26 janvier 2021 à 18:44 temps de lecture: 4 minutes

Amnistie internationale inquiète des progrès de la reconnaissance faciale au Québec

Amnistie internationale inquiète des progrès de la reconnaissance faciale au Québec
Photo: 123rf

«Vide juridique», «manque de transparence», «citoyens pas conscientisés»: les progrès discrets des technologies de reconnaissance faciale et leur utilisation par des corps policiers préoccupent Amnistie internationale, qui évoque des risques pour la liberté des personnes.

L’organisation non gouvernementale (ONG), qui a lancé une campagne internationale demandant l’interdiction pure et simple de ces technologies, croit que les Québécois devraient davantage s’intéresser à leur progression. Plusieurs corps policiers dont la Gendarmerie royale du Canada, la Sûreté du Québec (SQ) et le Service de police de la Ville de Montréal (SPVM) utilisent ou comptent utiliser la reconnaissance faciale dans différentes circonstances.

Selon Amnistie internationale, le manque de transparence quant à l’utilisation de cette technologie par les forces de l’ordre peut mener à des dérives.

«Un des problèmes, c’est qu’il y a vraiment un gros vide juridique pour la reddition de compte des corps policiers, fait valoir la spécialiste de l’OBNL en matière d’intelligence artificielle et de justice sociale, Karine Gentelet. Ce que font les gouvernements est encore assez timide. Les citoyens ne sont clairement pas conscientisés. Il n’y a pas beaucoup de choses qui se disent sur ces technologies. Il faut définitivement faire de l’éducation.»

Mme Gentelet souligne également le contexte de la pandémie amène les gouvernements à prendre des mesures draconiennes pour contrôler les populations. «Ces technologies deviennent extrêmement intéressantes parce qu’elles permettent de contrôler [des gens] sur une grande échelle à des coûts relativement restreints.»

Amplificateur de profilage racial?

L’un des volets de la campagne d’Amnistie internationale porte sur les effets de discrimination raciale, qui «décuplent» avec la reconnaissance raciale, selon l’ONG qui souhaite mettre en garde le public à cet égard.

«Ces technologies ont été conçues sur des bases de données très exactes sur les hommes blancs, explique Mme Gentelet. Pour toute personne qui n’est pas un homme blanc, le logiciel peut davantage se tromper et vous identifier comme une personne hautement judiciarisée.»

Selon le professeur spécialisé en éthique de l’intelligence artificielle à l’UQAM, Dominic Martin, ces inquiétudes sont bel et bien fondées. L’expert pointe également la marge d’erreur de ces systèmes et de leurs conséquences sur la vie des personnes.

«On a vu beaucoup d’exemples comme quoi c’est moins efficace avec des individus dotés de certains traits faciaux et couleurs de peau. On peut avoir des faux positifs. Ça peut juste contribuer à augmenter l’interférence dans la vie de ces individus-là qui font déjà l’objet d’une surveillance accrue. Ça peut amener des individus à être interpellés par le système de justice alors que ça ne devrait pas être le cas.»

La reconnaissance faciale est également déjà utilisée de manière délibérée à des fins discriminatoires. En Chine, par exemple, elle est utilisée pour opprimer la minorité des Ouïgoure, avait rapporté le New York Times.

Interdiction justifiée

Les gouvernements n’ont toujours pas encadré légalement l’utilisation de cette technologie, et il est temps d’agir en ce sens, selon M. Martin. «La technologie permet une surveillance tellement extrême qu’il y a une possibilité d’abus qui est beaucoup plus grande.»

Selon lui, l’encadrement devrait être une interdiction, sauf en cas de «force majeure». «Il faudrait vraiment démontrer que ce n’est pas possible d’avoir des résultats sans avoir recours à ça. Ce serait à déterminer.»

Métro a interpellé le SPVM et la SQ afin qu’ils détaillent leur utilisation de ces technologies. Au moment d’écrire ces lignes, le SPVM n’avait pas été en mesure de répondre. Quant à la SQ, elle n’a pas donné suite à notre demande.

Articles similaires