[ Edito ] IA et crimes de guerre
La guerre à Gaza et celle en Iran montrent combien il est urgent de réguler les utilisations militaires et sécuritaires de l'intelligence artificielle. Des moyens d'action pénale existent déjà.
Où sont donc les ONG de défense des droits de l’Homme? Vous savez, la Ligue des droits de l’Homme, Amnesty International et les autres? Trop occupées à essayer de prouver par voie de justice que les français sont racistes, homophobes, islamophobes, transphobes, grossophobes etc. et à remplir leur dossier de censeur tiers de confiance dans le cadre du DSA afin d’obtenir encore plus de subventions publiques?
Le monde est pourtant confronté à une question aussi fondamentale que le furent l’utilisation des armes chimiques durant la Première Guerre mondiale et celle des armes nucléaires et bactériologiques après la Seconde: la question du ciblage automatique par intelligence artificielle (IA) et des armes autonomes.
Cet état de fait est résumé dans le litige qui oppose la société Anthropic, fournisseur de l’IA Claude, et le Pentagone.
Anthropic a signé un contrat de 200 millions de dollars avec le ministère de la guerre américain en juillet 2025. Claude était jusqu'à récemment le seul moteur d'IA autorisé dans ses sphères classifiées. Le différend porte sur des restrictions d'utilisation à des fins militaires qu'Anthropic juge nécessaires. La société s'inquiète notamment de l'utilisation de ses technologies pour des armes autonomes et la surveillance de masse.
Le 24 février 2026, le secrétaire à la Défense Pete Hegseth a posé un ultimatum à Dario Amodei, le partron d’Anthropic: obtempérer avant le 27 février et autoriser une utilisation sans restriction de Claude. Dario Amodei a refusé.
Le président Trump a alors ordonné au gouvernement fédéral de cesser d'utiliser les produits Anthropic, tout en accordant six mois au Pentagone pour effectuer la transition vers d’autres solutions. Hegseth a désigné la société comme un "risque de chaîne d'approvisionnement", ce qui signifie que les sous-traitants du Pentagone ne peuvent pas l'utiliser non plus.
Anthropic a engagé deux poursuites distinctes contre le département de la Défense, dont l'une concernant une violation du Premier Amendement (liberté d'expression). La seconde conteste la désignation en tant que "risque de chaîne d'approvisionnement", une étiquette qui n'avait jamais été utilisée auparavant contre une entreprise américaine.
Anthropic affirme que l'interdiction du Pentagone pourrait lui coûter des milliards de dollars. OpenAI, la société-ONG (on ne sait plus trop bien) de Sam Altman qui fournit ChatGPT (moins bonne que Claude) a rapidement conclu un accord avec le département de la Défense pour combler le vide laissé par l’éviction Anthropic.
Si la position d’Anthropic est louable, elle n’est pas uniquement motivée par des considérations éthiques mais par la gestion des risques juridiques que l’utilisation de l’IA à des fins sécuritaires et militaires fait courir à cette société et à ses dirigeants, tant au civil qu’au pénal.
Et vous allez comprendre que ces risques sont considérables.
L’IA est une gigantesque bulle financière, et l’IA n’a pas grand chose à voir avec l’intelligence. C’est juste une couche d’automatisation supplémentaire.
Le ciblage automatique - c’est à dire le fait de frapper une cible sans confirmation visuelle humaine directe sur le terrain - a été introduit par Barack Obama lors des campagnes de dronage qu’il a ordonnées dans la ceinture tribale pakistanaise à partir de 2009. Leur “taux de rendement” était de 6%, c’est à dire que 94% des personnes tuées par ces frappes de drones furent des civils innocents, autant de crimes de guerre.
C’est à partir de 2004 que qu’on vit le développement accéléré de ce type de solutions. 2004, date de l’annulation du projet Total Information Awareness1 de la Darpa2 et sa privatisation rampante orchestrée par celui qui l’avait initié, l’amiral Poindexter (ancien conseillé à la sécurité de Ronald Reagan, pivot de l’affaire Iran-Contra, à l’époque à la tête du Darpa Information Awareness Office). Les travaux de la Darpa furent transférés à la NSA et une partie à une start-up fondée sur le système anti-fraude de PayPal: Palantir, financée par Peter Thiel et … la CIA.
Notez qu’un autre projet de la Darpa, LifeLog3, a connu le même sort le jour même où Facebook fut lancé. S’il n’y a pas de lien direct avérés entre ces deux événements, l’ancien directeur du programme a déclaré à Vice en 2015 que Facebook était dans les faits ce qui se rapprochait le plus de LifeLog.
Avance rapide jusqu’au 7 octobre 2023, et les frappes israéliennes sur Gaza. La mise en oeuvre du système de ciblage automatisé Lavender prétendument conçu par la fameuse unité 8200 s’est, selon Tsahal (chiffres soumis à importante caution, il est vraisemblablement très supérieur), traduite par le ciblage et le “traitement” de 37 000 individus considérés comme combattants du Hamas, avec un taux d’erreur de 10% -è comprendre que 3700 civils innocents ont été individuellement ciblés et tués par erreur. Crimes de guerre.
Lavender analyse les informations collectées sur la plupart des 2,3 millions d’habitants de Gaza via un système de surveillance de masse, puis évalue et classe la probabilité que chaque personne soit active dans la branche militaire du Hamas ou du Jihad islamique palestinien (PIJ) en lui attribuant une note de 1 à 100, décrivant ainsi la valeur de la cible qu’elle constitue. Exactement comme votre banquier décide - ou pas - de vous octroyer un prêt en fonction de votre “scoring”.
Pire, Lavender accepte des dommages collatéraux allant jusqu'à 15 à 20 civils tués pour chaque combattant du Hamas de faible rang éliminé, et plus de 100 civils tués pour un commandant de haut rang. Crimes de guerre. Le nombre de civils innocents massacrés délibérément à Gaza est aujourd’hui supérieur à 70 000.
Avance rapide jusqu’à aujourd’hui. La “guerre d’agression illégale non-provoquée” d’Israël et des Etats-Unis dans le Golfe persique a donné lieu à une expérimentation à très grande échelle - celle d’un pays de taille de l’Iran - de ces technologies de ciblage automatique. C’est à elles que l’on doit notamment le bombardement “double tap” (deux frappes rapprochées, la seconde étant destinée aux sauveteurs) d’un école de filles à Minab, dans le sud du pays, ayant fait au moins 168 victimes. Crime de guerre.
Les entreprises qui fournissent ces moyens de ciblage automatique sont connues, les “usual suspects”, complices de ces crimes de guerre.
La plus célèbre de toutes, Palantir, a fourni à l’armée et aux agences de renseignement israéliennes des capacités de ciblage avancées utilisées dans le cadre de la guerre à Gaza. Palantir a également fourni des outils permettant à l’armée israélienne d’exploiter d’importantes quantités de données afin d’élaborer des plans de déploiement pour ses forces spéciales ou d’aider au transport des troupes sur le terrain, donc de commettre des crimes de guerre.
Selon la rapporteuse spéciale de l’ONU Francesca Albanese, il existe des « motifs raisonnables » de croire que Palantir a fourni des technologies de surveillance prédictive, une « infrastructure de défense centrale », et la plateforme IA qui alimente Lavender, Gospel4 et « Where’s Daddy5 ». La même chose se vérifie, à une échelle beaucoup plus large, pour la guerre contre l’Iran.
Il serait donc bon que tous les droits-de-l’hommistes sortent de leur léthargie, nous montrent qu’ils ont un peu de courage et qu’ils méritent leurs grasses subventions publiques.
La justice française dispose depuis le 12 mai 2023 d’une compétence universelle en matière de crimes de guerre, de crimes contre l’humanité et de génocide - bref, de tout ce qui découle des statuts de Nuremberg. Les justices allemande et espagnoles sont encore moins restrictives dans les voies de poursuites que la française.
La compétence universelle est le principe permettant aux juridictions françaises de poursuivre et juger des infractions commises à l'étranger, par des étrangers, contre des étrangers, dès lors que certaines conditions sont réunies. Elle déroge aux règles classiques de compétence territoriale et personnelle.
La complicité en droit français est régie par les articles 121-6 et 121-7 du code pénal. Elle permet d'engager la responsabilité pénale d'une personne qui, sans avoir commis elle-même l'infraction, y a contribué d'une manière ou d'une autre.
Cela signifie donc que des associations agréées telles que la Ligue des droits de l’Homme ou Amnesty peuvent déposer en France, en Allemagne et en Espagne des plaintes avec constitution de partie civile pour crimes de guerre contre:
1 - Benjamin Netanyahou, ls membres de son gouvernement, l’ensemble des chefs d’Etat major de l’armée israélienne;
2 - Donald Trump et son administration, en particulier JD Vance (vice-président), Marco Rubio (secrétaire d’Etat et conseiller à la sécurité nationale), Pete Hegseth (secrétaire à la défense), Tulsi Gabbard (directrice nationale du renseignement), David Sacks (tsar de l’IA et des crypto-monnaies), les directeurs de toutes les agences de renseignement et l’ensemble des Joint Chiefs (chefs d’état major).
Et pour complicité de crimes de guerre contre:
1 - Alex Karp, l’ensemble de la direction de Palantir et Peter Thiel
2 - Sam Altman et l’ensemble de la direction de OpenAI
3 - Toute autre société ayant fourni des moyens techniques à ces ciblages.
L’intérêt de lancer de telles poursuites est triple :
1 - Prendre la tête du processus visant à sérier précisément les enjeux juridiques et pénaux afférents à l’utilisation des systèmes de ciblage automatiques et des armes autonomes, afin de poser les bases d’une jurisprudence et d’une convention internationale la régissant;
2 - Augmenter de manière significative les risques pénaux encourus par les états utilisant le ciblage automatique par IA et les sociétés en fournissant les outils et arrêter le massacre le temps qu’une convention internationale soit négociée;
3 - Desserrer l’emprise américaine en matière d’IA sur l’Europe en tenant personnellement comptables les responsables politiques et économiques américains de leurs crimes, ce qui permettra de favoriser les IA éthiques et d’interdire celles participant à du ciblage automatisé et aux armes autonomes.
Nous entendons déjà le chœur des mous du bulbe qui, en France et en Europe, vont dire que cela ne servira à rien puisque les Etats-Unis refusent d’agir selon le droit international. C’est oublier que George W. Bush, visé depuis 2009 par une enquête espagnole pour crimes de guerre (torture à Guantanamo), ne prend plus le risque de quitter les USA par peur d’être interpellé.
Imaginez donc tout le beau monde cité plus haut faisant nommément l’objet d’une enquête pénale annoncée par voie de presse, puisque qu’une plainte avec constitution de partie civile entraîne automatiquement l’ouverture d’une information judiciaire.
Imaginez ces gens faisant l’objet d’une notice rouge d’Interpol parce que convoqués par la justice française pour une audition, ils n’ont pas déféré.
Imaginez l’impact de telles poursuites sur la scène internationale et diplomatique?
Alors oui, l’Etat américain jouera de tous les moyens de pression possibles sur l’Etat français pour qu’il torpille les poursuites.
Mais quand on considère la situation politique aux Etats-Unis, le jeu en vaut la chandelle et le risque d’être pris: Donald Trump risque fort de ne pas remporter les élections intermédiaires de novembre prochain et le parti républicain va perdre la Chambre des représentants. Conséquence potentielle : une ou plusieurs procédures de destitution. S’il perd également le Sénat, possibilité qu’aucun stratège républicain n’exclut aujourd’hui, il sera poussé à la démission afin d’éviter le procès et la prison, comme Richard Nixon en 1974.
Qu’attendent les ONG? Que les responsables politiques et les pouvoirs publics, laquais sans colonne vertébrale de Washington, bougent?
Projet qui cherchait à atteindre une "maîtrise totale de l’information" en créant d'immenses bases de données pour collecter et stocker les informations personnelles de l'ensemble de la population américaine — courriels, réseaux sociaux, relevés de cartes bancaires, appels téléphoniques, dossiers médicaux et bien d'autres sources — sans mandat de perquisition. Ces informations devaient ensuite être analysées afin de détecter des activités suspectes, des liens entre individus et des "menaces". Le programme finançait également des technologies de surveillance biométrique capables d'identifier et de suivre des individus via des caméras de surveillance et d'autres moyens.
Il a été transféré à la NSA sous le nom de “Basketball”.
Defense Advanced Research Agency
Projet visant au développement d’un logiciel visant à prédire le comportement d’individus et à construire une base de donnée retraçant l’ensemble de l’existence des individus.
Un système d’aide à la décision basé sur l’IA, utilisé par Tsahal pour désigner des bâtiments et infrastructures à bombarder
Un système de géolocalisation conçu spécifiquement pour pister les individus figurant sur la liste de Lavender et alerter les opérateurs militaires lorsque ces personnes rentrent chez elles — la nuit, avec leurs familles — afin de déclencher la frappe à ce moment précis.





