Comment faire comprendre aux machines nos conversations écrites
Narjès Boufaden est une chercheuse en intelligence artificielle (IA) devenue entrepreneure. Après avoir fait son doctorat auprès de l’imminent Yoshua Bengio, un des plus grands chercheurs en IA au monde, elle décide de fonder sa compagnie, Keatext, afin d’apprendre aux machines à comprendre nos conversations. Rencontre.
Comment êtes-vous passée de chercheuse à entrepreneure?
La recherche a toujours été une passion. J’aime trouver des solutions innovantes à des problèmes complexes. Lorsque j’ai commencé à travailler au Centre de Recherche Informatique de Montréal (CRIM), je me suis découvert un grand intérêt à trouver des solutions concrètes à des problèmes de tous les jours, qui touche directement l’industrie. Combiné à une volonté de pousser les choses plus loin, j’ai décidé de partir ma compagnie.
Ma mère et mon père ont été entrepreneurs. Ça m’a aidé à faire le saut, mais ça ne m’a pas rendu la vie plus facile qu’un autre entrepreneur. Il a fallu que je développe mon réseau, ce que je n’avais pas vraiment eu à faire en tant que chercheuse. Lorsqu’on est dans le milieu académique, on a son cercle de connaissances qui est essentiellement composé d’autres chercheurs, mais il n’existe pas le concept de ventes, ce qui est essentiel dans le milieu des affaires.
Et puis Keatext a dû pivoter, comme beaucoup de startups. Nous sommes passés d’une entreprise qui vendait des services, à une entreprise qui vend un produit. Ça a été une autre courbe d’apprentissage abrupte composé de marketing, ventes, recherche et développement, etc. C’est une bonne chose que j’aime apprendre, parce qu’en tant qu’entrepreneure, c’est quelque chose qu’on fait en permanence.
Comment Keatext utilise-t-elle l’intelligence artificielle?
Keatext permet aux marques de savoir ce qu’on dit d’elles sur internet, dans les sondages ou autre source d’information. On analyse les écrits envoyés pas les clients aux compagnies. Cela permet aux entreprises de savoir ce que les consommateurs pensent d’un nouveau produit par exemple. On a développé une plateforme qui analyse tout ce texte et synthétise l’information sous forme d’un tableau de bord résumant les points principaux dont parlent les clients. Nous faisons ressortir ce qui fonctionne ou ce qui ne fonctionne pas ou si les clients ont des attentes. Nous sommes également capables d’ajouter un aspect d’urgence aux commentaires, par exemple une série de produits qui a un défaut de fabrication.
Pour analyser les écrits, utilisez-vous le traitement automatique du langage naturel (NLP en anglais)?
Exact! On analyse le texte mais on ne fonctionne pas avec de mots-clés. Nos algorithmes sont basés sur la sémantique et le contexte. On va comprendre l’information en utilisant des techniques d’apprentissage profond (deep learning en anglais), qui permet à la machine de comprendre le sens d’une phrase, comme le ferait un cerveau humain. C’est ça, l’intelligence artificielle!
Vous êtes une pionnière du NLP, êtes-vous à l’aise avec ce titre?
Oui, si on n’oublie pas de préciser que c’est dans un contexte d’analyse de textes conversationnels. J’ai fait mon doctorat en 2005 sur le traitement automatique du langage naturel. J’étais une des très rares parmi l’ensemble des chercheurs qui avait trouvé le moyen d’exploiter l’apprentissage automatique pour comprendre automatiquement le texte conversationnel. Mes publications de recherche sont souvent citées lorsqu’on parle des fondements de la compréhension du texte conversationnel.
Pourquoi c’est si difficile pour une machine de comprendre les textes conversationnels?
Comprendre les textes bien écrits – texte journalistique, roman, etc. – est déjà un défi, à cause de l’ambiguïté des mots. Un mot peut être utilisé négativement et positivement de la même façon. C’est le contexte qui permettra de comprendre le sens. C’est difficile de programmer une machine pour qu’elle comprenne les mots et qu’elle reconnaisse l’espace sémantique associé. Les machines comprennent bien ce qui est local, c’est-à-dire le mot en question et les deux ou trois mots autour de lui. Il y a également le fait que ce soit une conversation. Il y a donc deux ou plus personnes qui échangent. Une personne détient le contexte et l’autre personne lui répond sans forcément reprendre ce contexte, mais la machine doit comprendre tout cela. Il y a en plus le manque de ponctuation par exemple, les erreurs grammaticales, les fautes de frappe, etc. Tout cela ajoute une couche supplémentaire de complexité.
L’Université de Montréal a annoncé travailler sur une déclaration pour un encadrement responsable et éthique de l’IA, quel type d’encadrement souhaitez-vous?
Je trouve que la démystification de l’intelligence artificielle passe avant l’encadrement. J’entends régulièrement les gens avoir peur que des robots nous tuent ou nous remplacent. Soyons clair. D’ici à ce qu’on se rende à une situation très très éloignée de ce scénario catastrophe, ça va prendre beaucoup beaucoup de temps. L’IA reproduit des tâches cognitives élémentaires. Pour qu’une machine comprenne des conversations sur internet, il faut la nourrir en données. Ça prendrait littéralement des données infinies pour qu’un algorithme comprenne tous les sens d’un mot dans une conversation. De là à ce qu’ils prennent le contrôle de la planète… L’encadrement devrait être au niveau du travail des gens afin qu’ils soient formés et aptes aux compétences requises dans le futur.
***
BONUS
Cette semaine est sorti l’épisode 4 de «URelles, le podcast». On y discute de discrimination positive, c’est-à-dire les quotas.
À écouter ici:
????iTunes
????Google Play