National

Intelligence artificielle: des investissements «sans garantie de retombées»

Intelligence artificielle: des investissements «sans garantie de retombées»
Photo: Élias Touil/Collaboration spéciale

Malgré des investissements de plus de 2G$ en intelligence artificielle (IA) depuis 2016 au Canada, «il n’existe toujours aucune garantie des retombées économiques et sociales» qu’engendrera le secteur, plaident trois étudiantes-chercheures de l’Université du Québec à Montréal (UQAM) dans une nouvelle étude parue mardi.

«Ottawa et Québec n’ont pas hésité à [investir] pour développer un écosystème de l’IA et attirer à Montréal les grands joueurs de l’industrie des technologies de l’information, tels que Facebook, Microsoft, Google et IBM. Mais agissent-ils de façon responsable en adoptant sans réserve ce nouveau créneau d’investissement?»

C’est l’une des principales remises en question de Lisiane Lomazzi, Myriam Lavoie-Moore et Joëlle Gélinas, toutes trois chercheuses associées à l’Institut de recherche et d’informations socio-économiques (IRIS) et candidates au doctorat en communication à l’UQAM.

«On n’a aucun cadre réglementaire pour encadrer les activités des entreprises de l’IA», martèle en entrevue à Métro Joëlle Gélinas. Elle estime qu’il faut implanter des mécanismes pour que les investissements publics ne bénéficient pas seulement aux multinationales.

«À Montréal, aussitôt que les startups ont un potentiel de croissance, les grandes entreprises font des fusions-acquisitions, alors que c’est le public qui a financé la recherche. Ces géants du web acquièrent non seulement les capitaux, mais aussi l’expertise et les brevets de nos logiciels, tout en s’évitant une partie des risques associés à la recherche.» – Joëlle Gélinas

L’étudiante-chercheuse dit comprendre que l’intelligence artificielle demeure «un développement très récent». «Tous les pays sont en train de développer leur stratégie. Ici, on entend souvent du côté gouvernemental que ça va s’intégrer dans plusieurs industries et que c’est donc difficile de mettre en place un cadre», reconnaît-elle.

Or, l’urgence d’agir pour créer une politique est réelle, d’après elle. «Investir autant en IA, ça irait si on se donnait les moyens de limiter le rachat de notre expertise, si on trouvait des façons de garder les brevets entre les mains d’entreprises québécoises. Autrement, on risque de tout perdre», observe Mme Gélinas.

Une déclaration jugée insuffisante
La Déclaration de Montréal, un cadre éthique sur l’IA présenté en décembre dernier à la suite d’une consultation publique, ne va pas assez loin d’après le trio de chercheuses.

«Montréal soigne son image de chef de file en se positionnant comme la ville de l’éthique en IA et renforce son attractivité pour les talents, les investisseurs et les entrepreneurs, écrivent-elles. Ces derniers bénéficient ainsi d’un sceau éthique qui leur donnera un avantage concurrentiel sur le marché, mais qui ne contribuera en aucun cas à garantir que les retombées […] bénéficieront aux citoyens.»

«On parle de grands principes énoncés, mais pas de contraintes spécifiques», illustre Joëlle Gélinas à l’égard de la Déclaration de Montréal. Ça ne concerne pas du tout l’activité de niveau économique, ni les lois ou normes auxquelles les entreprises devront se soumettre. C’est plus en mode observation que régulation.»

Lors de son lancement, la mairesse Valérie Plante avait jugé que la Déclaration de Montréal était une occasion «d’éduquer le public». «L’éthique, c’est très large, avait-t-elle souligné à Métro. Ça va bien au-delà de la Ville. Le provincial et le fédéral doivent être interpellés pour mettre en place des règles qui s’assurent du respect des aspects moraux entourant l’intelligence artificielle.»

«L’intelligence artificielle, des fois, ça fait peur, avait-elle aussi fait valoir. On se demande ce que c’est cette affaire-là. Je vois déjà [la Déclaration de Montréal] d’un très bon œil, pour une bonne responsabilité sociale.» Au-delà des chiffres, Montréal doit se positionner comme un leader moral de l’IA, selon elle. 

Celui qui est à l’origine de la Déclaration – le directeur de l’Institut des algorithmes d’apprentissage de Montréal et professeur de l’Université de Montréal, Yoshua Bengio – dit avoir conscience de l’importance du dialogue avec le public pour créer ce «cadre éthique». 

«On ne peut rien garantir, mais par contre, on peut agir dans la mesure de nos moyens, avait-il expliqué en entrevue à Métro. Ça veut dire d’en parler, de donner des outils aux personnes qui s’en préoccupent.» Il faut forcer les organisations, a-t-il dit, «à s’engager vers la cohérence».

Appelée à réagir lundi, la porte-parole du comité exécutif de la Ville de Montréal, Laurence Houde-Roy, a précisé que l’administration municipale «réagira davantage lorsque l’étude sera publiée». Même son de cloche pour le président du CA de l’Institut québécois d’intelligence artificielle (MILA), Pierre Boivin, et l’attaché de presse du ministre de l’Économie et de l’Innovation, Mathieu St-Amand, qui ont dit vouloir «se donner le temps de prendre connaissance de l’étude avant d’y répondre».

Commentaires 1

Répondre à maxime lévesque Annuler la réponse

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

  • maxime lévesque

    100% d’accord, je dirais même qu’il y a garantie de peu de retombées, la raison est simple: un algorithme d’IA ça voyage aussi facilement qu’un email. Qu’il soit conçu a un endroit dans le monde n’implique aucunement qu’il soit exploité à cet endroit. L’IA est le dernier endroit où devraient aller des fonds publics, pas juste pour le peu de retombées, mais parce qu’il y a 1000 autres choses prioritaires.