Soutenez

Quand l’intelligence artificielle est raciste, qui est responsable?

Vous souvenez-vous du robot sur Twitter qui avait tenu des propos racistes? Si quelqu’un avait voulu porter plainte, qui aurait été tenu responsable? Frédérique Lissoir, fondatrice du cabinet d’avocats Propulsio, a été choisi pour représenter le Canada au Sommet de l’Alliance des jeunes entrepreneurs du G20 (G20 YEA) 2017 à Berlin du 15 au 17 juin 2017. Dans ce contexte, elle a cosigné un article avec sa collègue et avocate, Gabrielle Paris Gagnon, sur la responsabilité civile de l’intelligence artificielle. Entrevue.

Quel est le propos de votre article?
Gabrielle Paris Gagnon (GPG): Dans l’article à paraître, nous passons à travers les concepts juridiques existants qui ont trait à l’intelligence artificielle et à quel point ils ne sont pas applicables aux machines d’intelligence artificielle actuelles.
Frédérique Lissoir (FL): Le droit est encore incertain et c’est pour cela qu’on a essayé de s’imaginer le futur juridique. C’est un problème qui existe partout dans le monde.
GPG: C’est intéressant de lancer la discussion dans un contexte comme le G20: devrait-on établir un cadre juridique mondial? Si oui, qui devrait chapeauter tout cela?

Pourquoi les concepteurs d’intelligence artificielle ne sont pas légalement responsables?
GPG: Actuellement, si un cas est porté au tribunal, l’entreprise qui a développé l’intelligence artificielle serait tenue responsable. Le problème c’est que les développeurs ne sont pas capables de prédire comment l’algorithme va exactement fonctionner et donc quels vont être les résultats finaux. Aux États-Unis, la tendance veut que la responsabilité juridique incombe à l’algorithme, tout comme une entreprise a une responsabilité juridique. Sauf qu’en cas de préjudice, la personne responsable doit être solvable et un algorithme n’a pas de portefeuille. Une solution serait de créer des fonds de placement pour s’assurer de la solvabilité.
FL: En droit, pour prouver une négligence, il faut pouvoir prévoir une erreur.  On a des assurances pour des produits alors pourquoi n’aurait-on pas des assurances pour les algorithmes? C’est le même principe.

On nage donc dans un vrai flou?
FL: En fait, on ne sait pas d’où viennent les données qu’on fournit à la machine, on ne sait pas à qui elles appartiennent initialement et on ne sait pas non plus si elles sont justes. Il y a tout de même une vérification qui doit être faite par les humains. Si l’humain a tort, alors la machine aura tort. Ça revient à l’essence même de l’information qu’on met dans la machine.
GPG: C’est extrêmement difficile de retracer comment un algorithme est arrivé à un résultat. Par exemple, lorsqu’on utilise l’intelligence artificielle pour aider aux diagnostiques en médecine, s’il est erroné, on ne sait pas exactement comment on est arrivé à ce résultat-là. On ne connait pas son processus d’apprentissage précisément. On ne sait pas quelle virgule, quel mot, quelle information l’a amené à prendre cette décision qui se retrouve à être fausse.
FL: Il y a probablement des gens qui sont capables de retracer tout ça, mais c’est excessivement difficile à faire et c’est justement pour ne pas avoir à gérer ces tonnes d’informations nous-mêmes qu’on crée des machines. Il ne faut pas paniquer pour autant! Certes, les erreurs arrivent, mais elles arrivent très rarement. Il faut garder en tête que l’humain aurait pu faire la même erreur. Les humains se trompent beaucoup plus que les machines!
GPG: La machine aura raison 98% du temps, mais nous avons décidé de nous intéresser aux 2% du temps où elle a tort.

Quel est le thème du G20 YEA cette année?
FL:  Généralement, le G20 YEA n’a pas de thème précis, mais cette année fait exception. Les organisateurs ont voulu que la thématique porte autour du numérique – l’intelligence artificielle, le big data, l’automatisation – dans les entreprises. Ils portent un accent particulier sur les femmes. Ce sont des thèmes qui touchent beaucoup de pays du G20 à la population vieillissante et dont la nécessité de prendre le virage numérique est une question de survie économique. Mon but est de représenter nos intérêts côté affaires publiques, d’aller voir quelles sont les politiques établies au Canada en ce qui a trait à la numérisation des entreprises et comment l’intelligence artificielle y est réglementée. Je veux aussi discuter avec les autres pays pour savoir comment ils procèdent, que font-ils de bien et de mal, comment le Canada peut être un partenaire?

Comment se situe le Canada par rapport aux autres pays?
FL: Ça dépend des industries. Pour les Fintech (les technologies financières), par exemple, Montréal est le troisième centre mondial, derrière Toronto et Vancouver. Nous sommes un chef de file en intelligence artificielle. Montréal est très sexy, en ce moment, pour le développement technologique pour toutes les personnes qui ne veulent pas aller aux États-Unis, surtout pour des raisons politiques.

Le droit est-il un milieu de femmes ou d’hommes?
FL: Nous sommes trois associées femmes, sur trois femmes. En tenant compte de l’ensemble des employés, nous sommes majoritairement des femmes. C’est un domaine masculin, mais il y a de plus en plus de femmes. Ça peut être très difficile de garder le cap pour devenir associé lorsqu’on est parti six mois en congé maternité. Dans un milieu d’affaires comme le nôtre, les femmes sont désavantagées par rapport aux choix de vie qu’elles font.
GPG: Ça fait 20 ans que les femmes sont majoritaires dans les universités, mais les femmes ne restent pas dans la profession. Il me semble que le problème vient de loin dans le sens où il manque des mentors et des modèles féminins. Elles se sentent moins interpellées ou pensent que ce n’est pas un milieu pour elles, mais ça peut devenir un cercle vertueux: plus il y a de femmes et plus il y aura.

Articles récents du même sujet

Mon
Métro

Découvrez nos infolettres !

Le meilleur moyen de rester brancher sur les nouvelles de Montréal et votre quartier.