Soutenez

Faut-il avoir peur de l’intelligence artificielle?

Chat GPT a fait tremblé le monde de l'intelligence artificielle début 2023.
Chat GPT a fait tremblé le monde de l'intelligence artificielle début 2023. Photo: Clément Bolano, Métro Média

«La fenêtre se referme rapidement», avertissaient récemment 75 professionnels du monde de l’intelligence artificielle (IA), dans une lettre ouverte publiée dans La Presse. Une fenêtre pour tenter de poser un cadre au développement de l’IA, après l’appel à mettre en place une gouvernance lancé par quelque 20 000 experts le 29 mars dernier.

«Ça va très très vite. Ça va beaucoup trop vite même. On travaille dessus, mais on sait que c’est avec un rythme tellement soutenu que la technologie avance plus vite que la réglementation. Ça avance même plus vite que ce que nous, on arrive à concevoir sur le domaine en tant qu’éthique», affirme Cyril Marques, PDG de Montréal Analytique.

Il faut peut-être freiner quelque chose, arrêter, le temps qu’on se pose en tant qu’être humain et qu’on réfléchisse à ce qu’on est en train de créer au niveau technologique.

Cyril Marques, PDG de Montréal Analytique.

Le Canada pourrait devenir le premier pays au monde à encadrer l’IA avec le projet de loi C-27. Elle vise notamment à «interdire certaines conduites relativement aux systèmes d’intelligence artificielle qui peuvent causer un préjudice sérieux aux individus ou un préjudice à leurs intérêts», peut-on lire.

Car comme l’illustre M. Marques, «on peut vraiment l’utiliser à tous les niveaux, pour faire la guerre comme pour régler des problèmes humanitaires». Le renommé fondateur et directeur scientifique du Mila, Yoshua Bengio, s’inquiétait tout récemment de ce qui adviendrait dans le cas où ces technologies très avancées tomberaient dans les mains d’un dictateur.

ChatGPT, déclencheur des inquiétudes

ChatGPT, de l’entreprise américaine OpenAI, a fait l’effet d’une bombe dans le monde de l’intelligence artificielle. Cet outil s’inscrit dans ce que l’on appelle l’IA générative. Cette technologie se base sur l’utilisation de contenus existants pour en générer de nouveaux, comme écrire un essai philosophique, résoudre un problème mathématique ou même créer une fausse image de toutes pièces, comme avec l’outil Midjourney.

On parle de très, très grands modèles d’intelligence artificielle. Pour vous donner une idée, aujourd’hui, dans le monde, il y a quatre ou cinq compagnies qui ont les capacités d’avoir des modèles de cette amplitude-là. Puis on parle de modèles qui jouent avec le langage, avec les images.

Valérie Pisano, PDG du Mila, l’Institut québécois en intelligence artificielle

«Le danger actuel, avec ces nouveaux modèles d’intelligence artificielle, c’est que c’est presque impossible de distinguer si c’est vrai ou pas vrai, si c’est généré par un humain ou par une machine», décrypte Valérie Pisano. Selon elle, ce n’est pas tant l’intelligence artificielle qui pose problème que les applications qui la rendent super accessible à tout le monde, mais sur lesquelles on n’a pas encore évalué les risques.

Parmi les dangers associés à l’IA générative: la désinformation. «Certains modèles, comme ChatGPT, hallucinent. Ils ont été programmés pour tchatter, pas nécessairement pour donner une réponse exacte. […] Ils vont donc commencer avec un mot, puis prédire le prochain en fonction de ce qui est le plus probable selon l’interaction avec l’utilisateur», explique-t-elle.

La PDG du Mila souligne que c’est justement ChatGPT qui a secoué le monde de l’intelligence artificielle. «C’est dans les derniers mois seulement qu’il y a quelques compagnies, presque toutes américaines, qui se sont donné les capacités d’avoir ce type de grand modèle», relate-t-elle. Et comme il n’y a pas de cadre réglementaire, c’est à eux qu’on s’en remet.

Développement effréné

Les modèles d’IA sont encore très récents, mais avancent vite, dans un écosystème où différents points de vue s’affrontent. Une constante subsiste: tout le monde s’entend pour dire qu’il faut développer une IA qui produit des bénéfices pour les êtres humains. C’est justement la mission de l’équipe IA pour l’humanité du Mila.

Le développement responsable et éthique de l’IA et l’innovation, ça va main dans la main. Ces outils, ces produits, doivent nous être utiles. Ils doivent nous faire du bien, ils doivent générer de la confiance.

Valérie Pisano, PDG du Mila

La femme d’affaires observe un certain «effritement» de l’intérêt des compagnies sur ces questions cruciales. Elle évoque notamment les récentes coupes de géants de l’industrie technologique dans leurs équipes chargées du développement responsable de l’IA. C’est notamment le cas de Microsoft, Meta, Google, Amazon et Twitter.

Poser des principes de développement est une chose, les adopter en est une autre. Les intérêts économiques et le potentiel financier de cette technologie qui ne cesse d’évoluer pourraient miner les efforts à la rendre «éthique». «C’est pour ça que ça prend d’une part des lois, et d’autre part des traités internationaux», insiste Mme Pisano.

«Il va falloir que nos gouvernements s’en mêlent et qu’il y ait des cas législatifs qui disent qu’on peut faire et ce qu’on ne peut pas faire avec l’intelligence artificielle, comme on le fait par ailleurs pour toutes les autres grandes avancées technologiques de l’humanité jusqu’à ce jour.»

L’autorégulation comme seul espoir?

En Chine, le moteur de recherche Baidu travaille sur un équivalent local à ChatGPT. Mais la mise en place de lois encadrant l’IA traîne encore. Les Émirats arabes unis ont depuis 2017 un ministère de l’Intelligence artificielle, qui stimule le développement du secteur.

Aujourd’hui, l’Union européenne et le Canada pourraient être les premiers à adopter les premières lois au monde encadrant l’IA. De nombreux scientifiques de renom comme Yoshua Bengio pressent le parlement à adopter le projet de loi C-27.

«C’est un projet de loi qui est basé sur des principes. Qu’est-ce qui est bon [dans l’IA]? Qu’est-ce qui n’est pas bon pour nous, pour nos enfants ? Il y a même un chapitre qui est spécifique pour les enfants. Puis, après ça, c’est dans le cadre réglementaire qu’on va aller dans les spécificités. Cela va nous permettre, entre autres, de nous adapter aux nouvelles technologies», explique Mme Pisano.

Mais la mise en place d’un tel cadre juridique se heurte aux conceptions existantes dans l’industrie. «Vous ne pouvez pas ignorer l’innovation. […] Le seul espoir est que les entreprises s’autorégulent, comme elles l’ont fait jusqu’à présent. Mais nous savons que la réglementation ne peut pas suivre la vitesse, le rythme et l’ampleur de l’innovation en matière d’intelligence artificielle», expose Fion Lee-Madan, PDG de l’entreprise Fairly AI.

Une IA au service de l’humanité?

Comme le souligne Colin Goyette, scientifique de données pour Truera, l’élément critique à considérer est l’impact que les modèles d’intelligence artificielle auront sur les êtres humains. C’est la principale tâche de Rose Landry, responsable éthique de l’IA au Mila. «On va former les scientifiques, que ce soient les chercheurs ou les industries, à l’IA responsable», détaille la chercheuse.

Par exemple, il est indispensable d’associer l’humain à chaque étape du développement d’un modèle d’intelligence artificielle. L’équipe de Mme Landry accompagne les entreprises dans la création de leur projet. Au-delà des définitions qu’elle apporte aux scientifiques qui travaillent sur ces modèles, elle les invite à produire des études d’impact pour s’assurer que ce qu’ils créent n’aura pas de conséquence négative pour la société.

On sait également que certains algorithmes d’IA, comme les humains à leur origine, peuvent engendrer de la discrimination. Les biais qui les composent peuvent être réduits en filtrant les jeux de données utilisés pour créer ces algorithmes.

On a aussi cette chance d’être dans une société, une communauté qui a réellement à cœur de développer des produits et des services qui ont un impact positif. […] Il y a un engouement pour une IA responsable au Québec.

Rose Landry, responsable éthique de l’IA au Mila

Ceci étant dit, «il y a beaucoup d’incitatifs économiques à développer», poursuit la chercheuse, pointant la course à la compétitivité. «Dans ce contexte, effectivement, je pense que c’est difficile de laisser dans les mains des compagnies, surtout les très grandes compagnies, leur propre régulation.»

Articles récents du même sujet

/** N3 */

Mon
Métro

Découvrez nos infolettres !

Le meilleur moyen de rester brancher sur les nouvelles de Montréal et votre quartier.