
Image generated using ChatGPT
Opinion : L’IA dans la guerre – Le glissement silencieux de l’industrie technologique vers le champ de bataille
Le débat sur les armes autonomes, les politiques de sécurité technologique et l’éthique de l’IA dans le milieu militaire est en cours, mais ces derniers jours ont apporté des développements majeurs. Les dirigeants d’OpenAI, de DeepSeek et même le fondateur de Spotify ont annoncé de nouveaux accords pour travailler avec les gouvernements sur les technologies de défense et l’IA stratégique
Les tensions autour de l’utilisation de l’intelligence artificielle dans la guerre se sont intensifiées ces derniers jours. Ce mois-ci, plusieurs entreprises technologiques ont annoncé de nouveaux partenariats stratégiques avec les gouvernements pour développer des projets de défense. Et, comme pour beaucoup de choses dans le domaine de l’IA, il y a eu un changement marqué ces derniers mois dans la façon dont l’IA est abordée pour le développement militaire et d’armes.
Il y a seulement quelques jours, OpenAI et le gouvernement américain ont annoncé un contrat de 200 millions de dollars pour développer des outils de défense alimentés par l’IA. Les détails restent rares, les responsables mettant l’accent sur les « opérations administratives » comme principal champ d’application.
Pendant ce temps, l’entrepreneur suédois et fondateur de Spotify Daniel Ek a soutenu la société allemande Helsing en menant un tour de financement de 600 millions d’euros. Helsing, qui se concentrait initialement sur la technologie logicielle, se lance désormais dans le développement de drones, de sous-marins et d’avions.
Reuters a récemment révélé que DeepSeek aide les opérations militaires et de renseignement de la Chine. Un haut responsable américain a déclaré que la startup IA a aidé à résoudre les défis dans la guerre commerciale entre les États-Unis et la Chine, et que son modèle open-source aide le gouvernement chinois dans ses opérations de surveillance.
Les géants de la technologie collaborent avec les gouvernements d’une manière à laquelle nous ne sommes pas habitués à voir — du moins pas aussi publiquement — et ils s’impliquent dans des activités qui n’ont traditionnellement pas fait partie de leur rôle, comme des cadres supérieurs de la tech qui rejoignent la réserve de l’armée américaine.
Le Détachement 201 de l’Armée : le Corps d’Innovation Exécutive est un effort pour recruter des cadres supérieurs en technologie pour servir à temps partiel dans la Réserve de l’Armée en tant que conseillers seniors pour aider à guider des solutions technologiques rapides et évolutives pour des problèmes complexes. ⤵️ https://t.co/95LjcCmbYe
— U.S. Army Reserve (@USArmyReserve) 24 juin 2025
Qu’est-ce qui se passe ?
Un changement dans le discours
Les entreprises technologiques sont passées de « Nous n’utiliserions jamais l’IA à des fins militaires » à « Peut-être supprimerons-nous discrètement cette clause de nos politiques » pour arriver à « Bonne nouvelle, nous construisons maintenant des armes alimentées par l’IA pour le gouvernement ! »
Du moins, c’est ainsi que cela semble à l’observateur attentif.
Il n’y a pas si longtemps, les géants de l’IA semblaient fiers de déclarer qu’ils ne soutiendraient jamais les applications militaires, mais quelque chose a changé. Google en est un parfait exemple.
En 2017, le Département de la Défense des États-Unis a lancé le Projet Maven, l’équipe transversale de guerre algorithmique, une initiative visant à intégrer l’IA dans les opérations militaires. Google était initialement impliqué, mais des protestations internes – motivées par les préoccupations des employés en matière d’éthique – ont poussé l’entreprise à se retirer temporairement.
L’année dernière, une autre impulsion vers les activités militaires a émergé, et près de 200 employés de Google DeepMind ont exhorté l’entreprise à abandonner les contrats militaires.
«Toute implication avec la fabrication militaire et d’armes affecte notre position en tant que leaders en IA éthique et responsable, et va à l’encontre de notre déclaration de mission et des principes d’IA déclarés», ont écrit les employés concernés.
Cette fois, la réponse de Google a été d’attendre et de mettre à jour discrètement ses directives d’éthique en matière d’IA en supprimant la partie où ils déclaraient qu’ils ne développeraient jamais une technologie d’IA susceptible de causer du tort. Demis Hassabis, le responsable de l’IA chez Google, a expliqué qu’ils s’adaptaient simplement aux changements dans le monde.
Si le cas de Google illustre l’évolution de la relation entre l’IA et l’utilisation militaire, il ne s’agit que d’un exemple d’un changement plus large à l’échelle de l’industrie vers la satisfaction des objectifs de défense.
L’IA transforme le secteur militaire et de la défense
Le lancement du Projet Maven, ou comme certains pourraient l’appeler, « quand le gouvernement américain a réalisé que les grands modèles linguistiques pouvaient être extrêmement utiles en temps de guerre », a révélé l’une des raisons pour lesquelles le gouvernement américain s’intéresse à l’IA.
Les capacités des systèmes d’IA à traiter des quantités massives de données, à identifier des objets sur le champ de bataille et à analyser des images sont particulièrement attrayantes dans le secteur de la défense.
Des analyses améliorées, au-delà des capacités humaines
Depuis 2022, l’Ukraine et la Russie ont toutes deux intégré des systèmes d’IA dans leurs opérations militaires.
Le gouvernement ukrainien a noué des partenariats avec des entreprises technologiques et déployé plusieurs stratégies pour tirer le meilleur parti des grands modèles linguistiques. Il a récemment traité 2 millions d’heures de séquences de champ de bataille—l’équivalent de 228 années de vidéo—pour former des modèles d’IA pour les processus militaires. Combien d’humains auraient-ils besoin pour analyser autant de données ?
« C’est de la nourriture pour l’IA : Si vous voulez enseigner à une IA, vous lui donnez 2 millions d’heures (de vidéo), elle deviendra quelque chose de surnaturel, » a expliqué le fondateur du système numérique à but non lucratif OCHI, Oleksandr Dmitriev. Les images peuvent optimiser les performances des armes et aider à améliorer les tactiques de combat.
Un autre système d’IA, Avengers, est la plateforme d’intelligence alimentée par l’IA développée par le Centre d’Innovation du Ministère de la Défense de l’Ukraine, qui traite les vidéos en direct des drones et identifie jusqu’à 12 000 unités ennemies par semaine.
Les drones : un bien très recherché sur le champ de bataille
Les drones sur le champ de bataille – souvent appelés « machines à tuer » – sont actuellement parmi les technologies les plus précieuses dans la guerre moderne en raison de leur autonomie, leur précision et leur faible coût. Ces robots permettent aux nations en guerre de mener des frappes à fort impact sans mettre en danger des pilotes humains et pour une fraction du coût traditionnel.
En mai de cette année, la Russie avait déployé plus de 3,000 drones kamikazes Veter en Ukraine. Ces systèmes sont capables d’identifier des cibles et d’exécuter des attaques de manière autonome.
Il y a seulement quelques jours, les soldats ukrainiens ont déployé le drone Gogol-M, un drone « vaisseau mère » capable de parcourir jusqu’à 300 kilomètres, de transporter d’autres drones, d’échapper au radar en volant à basse altitude et de scanner le sol sous lui pour détecter et attaquer les troupes ennemies.
Selon The Guardian, chaque attaque utilisant ce puissant drone coûte environ 10 000 $, alors qu’un système de missiles utilisant une technologie légèrement plus ancienne aurait coûté entre 3 et 5 millions de dollars.
La toute nouvelle start-up Theseus a rapidement levé 4,3 millions de dollars après que ses jeunes fondateurs aient partagé un post sur la plateforme de médias sociaux X l’année dernière, affirmant qu’ils avaient construit un drone pour moins de 500 dollars qui pouvait voler sans signal GPS.
nous avons conçu, imprimé en 3D et construit un drone de moins de 500$ qui calcule les coordonnées GPS sans signal en utilisant une caméra + google maps
en 24h pic.twitter.com/8P2QoQMNbW
— Ian Laffey (@ilaffey2) 18 février 2024
Bien que la technologie des drones ne soit pas encore aussi précise que certains développeurs l’espèrent – surtout lorsqu’elle est affectée par des conditions météorologiques réduisant sa « visibilité » – elle a montré un grand potentiel dans le secteur.
Un consensus mondial difficile à atteindre
Ce ne sont pas seulement les pays en guerre ou les grandes puissances mondiales qui développent de nouvelles technologies basées sur l’IA pour la défense. De nombreuses nations intègrent l’IA dans leurs efforts en matière de cybersécurité et de développement d’armes autonomes depuis des années. Ce n’est pas seulement un phénomène de 2025.
Depuis 2014, les Nations Unies tentent de convenir de cadres réglementaires avec plusieurs nations, sans succès.
Plus de 90 nations se sont récemment réunies à l’Assemblée générale des Nations Unies à New York pour discuter de l’avenir des armes autonomes contrôlées par l’IA et de leur réglementation. Ils n’ont pas réussi à atteindre un consensus, et l’Assemblée générale n’a adopté qu’une résolution non contraignante de 2023, qui met en garde contre la nécessité de traiter les systèmes d’armes autonomes létales (LAWS).
Le grand débat actuel porte sur la question de savoir s’il faut ou non mettre en place un cadre mondial. De nombreux pays sont d’accord sur la nécessité de nouvelles directives mondiales qui peuvent réguler les entreprises privées d’IA et les nations. D’autres pays, comme les États-Unis, la Chine, la Russie et l’Inde, préfèrent conserver les lois internationales actuelles et créer, indépendamment, de nouvelles lois pour chaque nation en fonction de leurs besoins ou intérêts locaux. Et nous venons de voir à quel point le processus de création de nouvelles réglementations en matière d’IA a été chaotique, même au niveau de l’État en Californie.
Les entreprises tech de plus en plus impliquées
Des activistes tels que Laura Nolan de Stop Killer Robots s’inquiètent du manque de mesures de sécurité et de cadres juridiques qui contrôlent l’avancement des entreprises technologiques dans le développement d’armes autonomes et de logiciels d’IA pour l’armée.
« Nous ne faisons généralement pas confiance aux industries pour s’autoréguler… Il n’y a aucune raison pour que les entreprises de défense ou de technologie soient plus dignes de confiance, » a déclaré Nolan à Reuters.
En 2024, les chercheurs ont révélé que les institutions chinoises ont utilisé le modèle de langage à grande échelle open-source de Meta, Llama, à des fins militaires. Le Pentagone a conclu un accord avec Scale AI pour développer Thunderforge—un projet d’IA visant à moderniser la prise de décision militaire. Et OpenAI s’est associé au contractant militaire Anduril—un allié de défense de l’armée américaine, du Royaume-Uni, de l’Ukraine et de l’Australie.
Les startups de la défense ont également connu une croissance en Europe, gagnant du terrain non seulement dans le développement de nouvelles technologies et projets, mais aussi dans l’attraction des meilleurs talents.
Un développement compliqué
Un autre facteur étroitement lié à l’implication des entreprises technologiques dans les stratégies de défense nationales est le nationalisme. De plus en plus de développeurs de logiciels et d’experts en IA choisissent de travailler sur des projets qui s’alignent sur leurs idéaux et racines culturelles plutôt que de simplement courir après des salaires plus élevés. Certains ont même refusé des emplois aux États-Unis qui offraient le double du salaire—comme Google ou OpenAI—pour rejoindre des aventures européennes comme Helsing, par exemple.
Les fils de la politique, de la technologie, du nationalisme et des luttes idéologiques sont de plus en plus entrelacés, laissant souvent derrière eux des considérations d’éthique, de moralité et d’humanisme.
Les développements récents montrent clairement que les géants de la technologie jouent un rôle énorme dans les efforts militaires et de défense nationale à travers le monde. Le développement des armes autonomes et des technologies liées à la guerre progresse à un rythme ultra-rapide, tandis que les efforts des Nations Unies pour établir des accords et des réglementations internationales pour l’avenir de l’humanité semblent de plus en plus minimisés.
Sans accords internationaux – et avec des entreprises technologiques ambitieuses soutenues par des gouvernements pour développer les armes les plus puissantes du monde à l’aide de l’IA – que réserve l’avenir pour l’humanité dans les années à venir?