IA et guerre nucléaire: la question dérangeante
Tous les experts de la guerre nucléaire connaissent l’histoire du lieutenant-colonel Stanislav Petrov. Dans la nuit du 26 au 27 septembre 1983, il est l’officier de garde au bunker Serpukhov-15, près de Moscou, chargé de la veille nucléaire.
Au milieu de la nuit, l’alerte est donnée, les systèmes de détection signalent que les États-Unis ont lancé cinq missiles en direction du territoire soviétique. Selon la procédure, il doit immédiatement réveiller les dirigeants au Kremlin, pour leur laisser le temps de décider de la riposte, chaque minute compte. Mais Petrov a un doute :
Si les Américains avaient décidé de lancer une attaque nucléaire contre l’URSS, ce ne sont pas cinq mais des dizaines ou des centaines de missiles qui auraient dû être lancés, pour percer les défenses soviétiques. Il hésite, puis vérifie avec des radars classiques, et découvre qu’il n’en est rien : il s’agit d’un phénomène exceptionnel de reflets solaires sur des nuages en haute altitude…
Imaginons maintenant la même scène avec une Intelligence artificielle en charge de la veille nucléaire à Moscou : aurait-elle eu ce doute raisonnable qui a poussé cet officier à transgresser les ordres malgré la gravité de l’alerte ? Serions-nous encore ici pour en débattre ?...
Cette question n’est pas simplement rhétorique : j’ai repensé à l’histoire exemplaire du lieutenant-colonel Petrov et son intelligence humaine, en lisant une tribune publiée cette semaine dans le « Financial Times » . L’auteure, Anja Manuel, une consultante, relève que nous sommes en train d’assister à l’émergence d’une Intelligence artificielle puissante, et ajoute que « nous ne sommes pas encore capables d’appréhender complètement les promesses et les dangers de cette nouvelle technologie ». Elle recommande donc d’engager dès à présent des négociations internationales afin d’en fixer des règles communes à toute l’humanité sur le plan militaire. Elle souligne que parmi des propositions qui circulent, figure l’obligation d’avoir un humain en charge du déclenchement de l’arme nucléaire – l’exemple du lieutenant-colonel Petrov a assurément marqué les esprits.
Anja Manuel reconnait aisément que le climat n’est pas propice à un consensus international, guerre en Ukraine oblige. Mais elle fait observer qu’il a fallu une bonne vingtaine d’années après Hiroshima pour arriver à conclure des traités internationaux sur le nucléaire, le traité de non-prolifération (TNP), ou sur l’encadrement des essais nucléaires. Il n’est donc pas inutile de s’y prendre dès à présent, malgré les handicaps.
La question est tout sauf hypothétique. Dans son livre de référence sur les armes autonomes, « The army of None », paru en 2018, l’Américain Paul Scharre fait le tour des centres de recherche aux États-Unis. Ce que rapporte cet ancien militaire ayant servi en Afghanistan et en Irak, aujourd’hui spécialiste des technologies appliquées au domaine militaire, n’est pas rassurant. A la DARPA, cet organisme américain chargé de garder un coup d’avance sur les technologies de rupture, on lui explique qu’on ne développera pas d’armes autonomes, c’est-à-dire capables de décider d’elles-mêmes de tuer… sauf si on y est obligés. C’est-à-dire si l’adversaire commence le premier : si l’adversaire -que nous ne nommerons pas…- gagne quelques secondes en introduisant une intelligence artificielle qui prend les décisions, les États-Unis n’auront pas d’autre choix que de s’aligner. « Demain, la victoire appartiendra à ceux qui utiliseront le mieux l’IA », écrit-il.
La folie autour de ChatGPT montre au moins une chose : l’Intelligence artificielle est désormais dans le champ du grand public. Peut-être est-ce en effet le moment, comme le suggère la tribune du « FT », de poser les questions les plus existentielles comme le fait de décider de donner la mort – à un individu ou à l’ensemble de l’humanité.
Pierre Haski est journaliste expert en relations internationales sur France et Inter et à l’Obs, ancien correspondant pour Libération en Chine. Il est Président de Reporters Sans Frontières.