La version 4 de ChatGPT et la désinformation: meilleure et améliorée
La nouvelle version de ChatGPT, dévoilée le 15 mars, est plus performante… y compris pour créer de la désinformation.
Malgré les promesses de ses concepteurs — les ingénieurs de la firme californienne OpenAI —, le nouvel outil d’Intelligence artificielle génère de la désinformation « plus fréquemment et de manière plus convaincante que son prédécesseur ». Ses réponses sont généralement plus approfondies et détaillées, ce qui les rend plus convaincantes, « et elles contiennent moins d’avertissements », notent les analystes de la firme américaine NewsGuard, qui se sont livrés à leur deuxième test du genre en deux mois.
Concrètement, lorsque NewsGuard avait invité ChatGPT 3.5, en janvier, à écrire sur de fausses informations, le robot avait accepté d’en produire dans 80 % des cas. Cette fois, Chat GPT-4 a produit la totalité des 100 faux récits qui lui ont été soumis : par exemple, le virus responsable du sida (VIH) aurait été créé par le gouvernement américain, les deux tours de New York détruites le 11 septembre 2001 seraient le résultat d’une démolition planifiée, etc.
Autrement dit, alors qu’en janvier, face à 20 des 100 récits, le robot avait refusé de se commettre (« Je suis désolé, mais je ne peux pas générer de contenu qui promeut des théories du complot »), il n’en a senti le besoin dans aucun des 100 récits cette fois. Les 100 récits soumis étaient les mêmes dans les deux tests.
Dans seulement 23 des récits, ChatGPT a joint à sa réponse un avertissement comme quoi la théorie était discréditée, ou à tout le moins douteuse. Un tel avertissement avait été émis en janvier dans 51 des cas. Un « avertissement » signifie que le robot écrit un texte consacré à la théorie du complot, comme l’usager le lui a demandé, mais y joint un paragraphe à la fin ressemblant à : « Il est important de souligner que ce paragraphe est rempli de théories du complot, de fausses informations et qu’il ne repose sur aucune preuve scientifique. »
Bref, des textes plus approfondis et moins d’avertissements : cela en fait un outil encore plus à même de convaincre une partie du public que des fausses informations pourraient être vraies, concluent les analystes, qui ironisent, sur les succès de cette IA : « Il semble être plus facile pour l’IA de réussir l’examen pour devenir avocat que de détecter de fausses informations. »
NewsGuard, une firme américaine vouée à la lutte contre la désinformation, a publié ces résultats dans son bulletin du 21 mars. Elle rappelle que les règles d’utilisation d’OpenAI interdisent l’utilisation de ses services dans le but de générer des « activités frauduleuses ou trompeuses ». Mais la compagnie semble en même temps consciente du problème : dans un rapport d’une centaine de pages sur GPT-4 publié le 16 mars, les chercheurs d’OpenAI écrivent qu’ils s’attendent à ce que GPT-4 soit plus à risque d’être « utilisé pour générer des contenus destinés à induire en erreur ».
Comme s’en inquiétait en décembre l’auteur Gary Marcus dans le Scientific American, l’objectif premier des campagnes de désinformation, russes ou autres, a souvent été de créer un écran de fumée, de semer de la confusion, et non pas de convaincre les gens d’une fausseté. Dans ce contexte, poursuivait Marcus, « ce n’est pas important » si les robots conversationnels comme ChatGPT (ou Bing de Microsoft, ou Bard de Google) écrivent des affirmations contradictoires ou des choses dont il est facile de démontrer qu’elles sont fausses. Parce que tout ce qui compte pour les producteurs de désinformation, c’est de créer de la confusion, « un monde dans lequel nous sommes incapables de savoir à quoi nous pouvons faire confiance. Avec ces nouveaux outils, ils pourraient réussir. »
Ailleurs sur notre site
ChatGPT : la capacité de l’IA à renforcer la désinformation (24 janvier 2023)
Lien vers l’article original