Par Haas Avocats
L’intégration de l’intelligence artificielle (IA) dans les conflits armés constitue une rupture majeure dans la conduite des opérations militaires. Devenue un pilier des stratégies de défense, cette évolution soulève des enjeux à la fois juridiques, éthiques et stratégiques aussi bien pour les États que pour les acteurs privés du secteur.En France, la création en 2024 de l’Agence ministérielle de l’intelligence artificielle de défense (AMIAD) traduit une réelle volonté d’organiser et d’accélérer cette transition technologique. Par ailleurs, l’inauguration en septembre 2025 d’un supercalculateur militaire confirme l’importance stratégique de l’IA, désormais perçue comme un enjeu crucial de souveraineté.
À l’échelle européenne, la proposition récente de la Commission d’ériger un « mur anti-drones »[1] à l’Est de l’Europe, illustre la militarisation croissante de ces technologies dans un contexte géopolitique tendu.
Des actualités qui viennent alors témoigner d’un tournant stratégique décisif, où l’IA semble s’imposer comme un levier incontournable des politiques de défense et de souveraineté.
De la logistique au renseignement : les multiples usages opérationnels de l’IA
Aujourd’hui, l’IA intervient à plusieurs niveaux des opérations militaires, notamment dans le traitement et l’analyse en temps réel de données massives issues des types de capteurs existants. Cette capacité à exploiter d’importants volumes d’informations améliore considérablement les fonctions de reconnaissance, de surveillance et de prise de décision stratégique.
Dans le domaine du renseignement, l’IA n’est pas une nouveauté, mais son usage s’est considérablement intensifié grâce aux progrès du machine learning et de l’automatisation. Les outils d’analyse comportementale, de reconnaissance faciale ou encore de détection de faibles signaux permettent aujourd’hui d’identifier rapidement des menaces émergentes et de cibler les opérations avec précision.
Si cette évolution renforce indéniablement la supériorité opérationnelle des armées, elle soulève également des questions fondamentales relatives au contrôle, à la responsabilité et au respect du cadre juridique, notamment s’agissant de la proportionnalité des réponses et de la distinction entre cibles militaires et cibles civiles.
Une mutation des conflits par les drones et les armes autonomes
L’IA révolutionne les pratiques militaires par la généralisation des drones armés et des systèmes d’armes autonomes. Sur des terrains d’opérations comme l’Ukraine ou le Proche-Orient, ces technologies transforment profondément les modes d’engagement, inaugurant une forme de guerre automatisée.
Ces systèmes, dotés de capacités avancées de reconnaissance, de surveillance et de ciblage, peuvent agir sans intervention humaine directe, soulevant d’importantes questions opérationnelles et juridiques. En effet, l’autonomie croissante complique la traçabilité des décisions et fragilise la chaîne de responsabilité en cas d’erreurs ou de dommages collatéraux.
La montée des cyberattaques dans les conflits modernes
Au-delà des affrontements physiques, l’IA contribue à étendre la conflictualité dans des espaces immatériels. Ainsi, les cyberattaques, de plus en plus sophistiquées grâce à l’IA, ciblent les infrastructures stratégiques adverses, et deviennent un levier afin d’affaiblir l’ennemi. Systèmes de communication, centres de commandement : autant de cibles vulnérables, souvent visées en amont du déclenchement d’opérations militaires conventionnelles.
Cette évolution souligne l’urgence d’un cadre juridique nouveau, capable d’encadrer ces formes inédites de conflits, dont les conséquences peuvent être très lourdes et à plusieurs égards.
Un cadre éthique et normatif fondé sur un contrôle humain
Face à l’essor des algorithmes dans les décisions opérationnelles militaires, la mise en place d’un encadrement éthique rigoureux s’avère indispensable.
Un avis rendu le 14 janvier 2025[2] par le Comité d’éthique de la défense[3] a notamment insisté sur la nécessité de maintenir un contrôle humain sur les systèmes autonomes et d’assurer la traçabilité des décisions algorithmiques.
La France adopte donc une posture prudente, favorisant une innovation maîtrisée, respectueuse des principes fondamentaux du droit et de la responsabilité des différents acteurs.
Sécuriser juridiquement l’intégration de l’IA dans la défense
L’intégration de l’IA dans le secteur militaire demande une vigilance accrue de la part des entreprises, des acteurs cyber et des États. Un accompagnement juridique des différents agents semble donc être indispensable afin notamment :
- D’encadrer les responsabilités, notamment par la rédaction de clauses relatives au contrôle humain, aux responsabilités des différents acteurs et à la traçabilité des décisions ;
- De garantir la conformité avec les réglementations en vigueur applicables et plus spécifiquement avec le droit international ; et
- D’anticiper les risques à travers des audits juridiques des systèmes d’IA.
Pour conclure, la maîtrise des enjeux juridiques liés à l’IA dans le secteur de la défense constitue un levier stratégique. Une expertise juridique permet alors de sécuriser les projets, en assurant leur conformité.
***
Le cabinet HAAS Avocats est spécialisé depuis plus de vingt-cinq ans en droit des nouvelles technologies et de la propriété intellectuelle. Il accompagne de nombreux acteurs du numérique dans le cadre de leurs problématiques judiciaires et extrajudiciaires relatives au droit de la protection des données. Dans un monde incertain, choisissez de vous faire accompagner par un cabinet d’avocats fiables. Pour nous contacter, cliquez ici.
[1] Mur anti-drones européen : l’innovation ukrainienne au secours de l’Europe, Le Parisien, 26 septembre 2025
[2]Avis sur l’usage des technologies et de l’intelligence artificielle par les forces armées, 14 janvier 2025, 20250114_np_comedef_avis-sur-l'usage-des-technologies-d'intelligence-artificielle-par-les-forces-armees.pdf
[3] Pour en connaitre sur le Comité d’éthique sur la défense, voir : Le Comité d’éthique de la défense | Ministère des Armées