Illustration : Flock
Le Pentagone fait ses emplettes IA dans plusieurs échoppes. Le ministère américain de la Défense a signé des accords avec huit fournisseurs de modèles pour déployer leurs capacités IA dans des opérations classifiées. Anthropic n’en fait pas partie.
Le Department of Defense (DOD), rebaptisé Department of War par Donald Trump, a fait son choix. Exit le fournisseur d’IA dominant : l’armée américaine va s’appuyer sur les capacités d’un panel d’acteurs pour déployer leurs IA dans des opérations militaires classifiées. En l’occurrence, OpenAI, Google, Microsoft, AWS (Amazon Web Services), NVIDIA, Oracle, SpaceX (xAI) et Reflection ont été appelés à la rescousse.
Google balaie les inquiétudes de ses employés
Les modèles de ces entreprises pourront intervenir dans des missions IL6 (« secret defense ») et IL7, ce dernier niveau « Impact Level » recouvrant des données encore plus sensibles, souvent liées aux opérations militaires en cours. Les outils IA serviront donc à des missions particulièrement critiques : analyse de renseignement, planification d’opérations, soutien à la prise de décision en temps réel.
« Ces accords accélèrent la transformation de l’armée américaine vers un modèle centré sur l’IA et renforceront la capacité des forces à conserver un avantage décisionnel sur l’ensemble des théâtres d’opérations », explique le communiqué du DoD. Plusieurs de ces fournisseurs étaient déjà connus, comme SpaceX, OpenAI ou encore Google.
Au sein de cette dernière, l’accord signé lundi 27 avril a suscité une fronde interne. Une lettre ouverte signée par plus de 560 employés demande à Sundar Pichai, le CEO de Google, de refuser l’utilisation de sa technologie IA pour des opérations militaires classifiées. « Nous voulons que l’IA profite à l’humanité, pas qu’elle soit utilisée de manière inhumaine ou extrêmement nuisible », expliquent les signataires.
« La seule façon de garantir que Google ne soit pas associé à de tels dommages est de refuser tout travail sur des projets classifiés », poursuivent-ils. « Dans le cas contraire, de tels usages pourraient se produire sans que nous en ayons connaissance ni la possibilité de les empêcher. »
Des inquiétudes balayées du revers de la main par Kent Walker, président des affaires juridiques d’Alphabet. Dans un mémo, il écrit : « Nous travaillons avec fierté avec les ministères de la Défense depuis les débuts de Google et continuons de penser qu’il est important de soutenir la sécurité nationale de manière réfléchie et responsable. » Il ajoute que « rester engagés auprès des gouvernements, y compris sur les questions de sécurité nationale, permettra aux démocraties de tirer parti de technologies responsables. ». Circulez…
Mythos envers et malgré tout
Le Pentagone utilisait Claude depuis 2024, avec un certain succès. Les modèles Claude gov développés par Anthropic ont ainsi été mis à profit pour la capture du président du Venezuela, Nicolas Maduro, le 3 janvier. Et aussi pour les premières opérations de la guerre menée avec Israël contre l’Iran. L’entreprise d’IA a soulevé des objections concernant l’exploitation de sa technologie à des fins militaires : elle ne doit pas servir à la surveillance de masse des citoyens aux États-Unis ni équiper des armes totalement autonomes. Or, le très guerrier DoD actuel ne veut pas se laisser dicter ses actions par un fournisseur.
L’affaire s’est envenimée à un point tel que le DoD a désigné Anthropic « fournisseur à risque », autrement dit une menace pour la sécurité nationale, une première pour une entreprise du pays. Depuis, l’affaire s’embourbe en justice… Le lancement de Mythos début avril a rebattu les cartes en faveur d’Anthropic.
Emil Michael, le directeur technique du DoD, affirme ainsi que si Anthropic demeure un risque pour la chaîne d’approvisionnement de l’armée US, Mythos constituait « un moment à part pour la sécurité nationale ». Il a expliqué à CNBC que « nous devons nous assurer que nos réseaux sont suffisamment renforcés […] ce modèle dispose de capacités spécifiques pour identifier des vulnérabilités informatiques et les corriger ».
Le ministère américain de la Défense exploite donc déjà l’IA depuis un moment pour ses opérations. Les modèles des nouveaux fournisseurs sont censés servir à synthétiser d’importants volumes de données, améliorer la compréhension des situations complexes (champ de bataille, cybersécurité…), et accélérer la prise de décision.
Le DoD a développé GenAI.mil, sa plateforme officielle d’IA. Elle a été utilisée par plus d’1,3 million de membres du personnel, « générant des dizaines de millions de requêtes et déployant des centaines de milliers d’agents en seulement cinq mois ».
