Cette vision a été présentée par l'Institut SIBRI dans un rapport récent, et l'institut a déclaré que l'apprentissage, les applications automatiques et autogérées ont permis d'améliorer les systèmes automatisés capables de trouver des solutions à des problèmes complexes et complexes, ou d'effectuer des tâches qui dépendaient auparavant de la perception humaine ou nécessitent une intervention humaine.
Cependant, les chercheurs montrent que tous les pays qui possèdent des armes nucléaires ont en fait fait des technologies de l'intelligence artificielle une priorité pour eux, alors que beaucoup d'entre eux insistent pour devenir des leaders dans ce domaine, et le rapport avertit qu'une telle tendance pourrait affecter négativement les relations stratégiques, même avant la maturité ou Déployer ou développer des applications liées aux armes nucléaires.
Les auteurs du rapport confirment que la bousculade des États dotés d'armes nucléaires vers l'adoption de technologies d'intelligence artificielle pour servir des objectifs militaires nucléaires en général et celles liées aux services nucléaires serait imprudente, notant que l'adoption immature d'applications de l'intelligence artificielle augmenterait les risques d'exposition des armes nucléaires et des capacités associées à l'échec ou à une utilisation abusive. Les utiliser par des moyens qui pourraient conduire à un accident ou à une escalade d'une crise ou d'un conflit pouvant se transformer en conflit nucléaire.
Laura Salem, éminente spécialiste des armes et du désarmement à l'Institut Sipri, déclare: "En tout état de cause, il est peu probable que les technologies de l'intelligence artificielle, en elles-mêmes et par elles-mêmes, soient les moteurs de l'utilisation des armes nucléaires", notant qu'il existe d'autres facteurs tels que "les tendances". Le régionalisme, les tensions géopolitiques et le mauvais décodage et l'interprétation des codes doivent être pris en compte pour comprendre les facteurs que les technologies d'intelligence artificielle peuvent contribuer à provoquer une crise pour atteindre un niveau nucléaire.
Le rapport recommandait que les normes de transparence et de renforcement de la confiance en termes de développement et d'innovations de l'intelligence artificielle et de ses utilisations nationales contribuent à réduire ces risques, appelant à la nécessité de placer les défis de l'utilisation de l'intelligence artificielle comme une priorité dans toutes les discussions portant sur la réduction des risques nucléaires à l'avenir.
"Il est important de ne pas surestimer les risques que les applications de l'IA comportent en termes de stabilité stratégique et de risques nucléaires", a déclaré Petr Tobishakanov, chercheur principal au programme Sipri sur le programme de désarmement nucléaire, de contrôle des armements et de non-prolifération. Concernant les risques d'inaction à cet égard. "
Le rapport proposait un certain nombre de recommandations et de normes que les États dotés d'armes nucléaires devraient adopter, comme la coopération pour trouver des solutions fondamentales à la sécurité et la sûreté de l'intelligence artificielle, la participation à l'exploration des utilisations de l'intelligence artificielle pour la maîtrise des armements et l'acceptation de restrictions claires sur l'utilisation des techniques d'intelligence artificielle dans l'énergie nucléaire.