Soutenez

L’armée américaine utilisera l’intelligence artificielle «de façon éthique»

américaine
Mark Esper parlait mardi devant un comité d’experts chargé par le Congrès américain d’évaluer le potentiel et les risques de l’intelligence artificielle pour la sécurité nationale américaine. Photo: Alex Wong/Getty Images
Rédaction - Agence France-Presse

Le chef du Pentagone Mark Esper a assuré mardi que l’armée américaine allait utiliser l’intelligence artificielle «de façon légale et éthique», en prenant soin de laisser l’humain décider d’attaquer une cible ou non.

«Nous exploiterons le potentiel de l’intelligence artificielle pour créer une force adaptée à notre époque», a déclaré le ministre américain de la Défense.

«Nous le ferons tout en étant reconnus comme les leaders mondiaux de l’éthique militaire en élaborant les principes qui permettront d’utiliser l’intelligence artificielle de façon légale et éthique», a poursuivi M. Esper devant un comité d’experts chargé par le Congrès américain d’évaluer le potentiel et les risques de l’intelligence artificielle pour la sécurité nationale américaine.

Dans un rapport publié lundi, ce comité avait conclu à la nécessité pour les États-Unis de se lancer le plus rapidement possible dans le développement d’armes autonomes, capables de localiser une cible, d’évaluer par elles-mêmes le danger qu’elle représente et de l’éliminer sans intervention humaine.

«Le comité ne glorifie pas les perspectives de guerre facilitée par l’intelligence artificielle», notait le comité dans ce rapport.

«Mais les nouvelles technologies sont presque toujours utilisées dans la quête du pouvoir», ajoutaient les experts. «À la lumière des choix faits par nos concurrents stratégiques, les États-Unis doivent eux aussi examiner l’intelligence artificielle sous l’angle militaire, y compris des opérations autonomes équipées d’intelligence artificielle».

La question des armes autonomes reste un sujet de débat au sein du Pentagone, où le principe de base est que l’être humain doit «rester dans la boucle», une formule qui implique que la machine elle-même ne peut pas prendre la décision de tirer sur une cible.

M. Esper a paru souhaiter maintenir ce principe, en décrivant comment un tank pourrait repérer un véhicule ennemi, déterminer en quelques millisecondes si c’est un véhicule civil ou militaire et si c’est une menace imminente.

«Et c’est là que l’homme dans la boucle intervient, pour décider si on appuie sur la gâchette ou pas», a-t-il dit. «C’est comme ça qu’il faut penser à l’intelligence artificielle qui permet des décisions plus rapides, ce qui nous permettra de gagner sur le champ de bataille».

Articles récents du même sujet

Mon
Métro

Découvrez nos infolettres !

Le meilleur moyen de rester brancher sur les nouvelles de Montréal et votre quartier.