AMÉRIQUE DU NORD
6 min de lecture
L'IA dans la guerre: 5 choses à savoir sur les grands accords technologiques du Pentagone
L'armée américaine a donné à certaines des plus grandes entreprises d'IA au monde un accès à ses réseaux classifiés, ce qui soulève des questions quant à savoir qui décide lorsque des machines prennent des décisions de vie ou de mort.
L'IA dans la guerre: 5 choses à savoir sur les grands accords technologiques du Pentagone
5 choses à savoir sur les grands accords technologiques du Pentagone

L'armée américaine a franchi une étape décisive vers ce qu'elle appelle une "force de combat axée sur l'IA". Ce mois-ci, le Pentagone a annoncé des accords avec huit des entreprises technologiques les plus puissantes des États-Unis pour déployer l'intelligence artificielle directement sur ses réseaux militaires les plus classifiés.

Cet accord concerne Google, Microsoft, OpenAI, SpaceX, Nvidia, Amazon Web Services, Oracle et une start-up nommée Reflection.

Voici cinq points essentiels :

Ce que le Pentagone a signé

Le Pentagone a annoncé que les systèmes d'IA des huit entreprises sont désormais approuvés pour les réseaux classifiés de niveau d'impact 6 (traitement de données secrètes) et de niveau d'impact 7 (systèmes militaires les plus classifiés).

Selon l'Associated Press, cette technologie permettra aux forces armées de réduire le temps nécessaire à l'identification et à la frappe des cibles, tout en facilitant la maintenance des armements et la logistique de la chaîne d'approvisionnement.

Le Pentagone a indiqué que le personnel militaire utilise déjà l'IA via sa plateforme officielle, GenAI.mil, qui compte plus de 1,3 million d'utilisateurs au sein du département de la Défense. Cette annonce accélère la stratégie du Pentagone visant à "construire une architecture qui empêche la dépendance vis-à-vis d'un fournisseur unique d'IA" en diversifiant ses fournisseurs d'IA entre les modèles open source et propriétaires.

En résumé, l'armée américaine ne teste pas l'IA, elle la déploie à grande échelle dans certains des environnements les plus sensibles au monde.

En RelationTRT Français - Google: plus de 600 salariés opposés à la fourniture d'IA à l'armée américaine

Que vont faire les entreprises ?

Les huit entreprises représentent tout l'éventail de la puissance américaine en matière d'IA. OpenAI apporte ses modèles ChatGPT, déjà déployés dans certains environnements du Pentagone depuis mars. Google contribue avec ses modèles Gemini, mis en service sur GenAI.mil en avril.

Microsoft et Amazon Web Services fournissent l'infrastructure cloud. Nvidia propose ses modèles open source Nemotron, conçus pour permettre aux agents d'IA d'exécuter des tâches de manière autonome. Suite à sa fusion avec xAI, la société d'Elon Musk, SpaceX est désormais considérée comme un fournisseur d'IA, ce qui lui donne accès à la suite de modèles Grok.

Reflection, la seule nouvelle venue, est une start-up soutenue par Nvidia et dirigée par d'anciens chercheurs de Google DeepMind.

Le Pentagone a déclaré que les outils de ces entreprises permettront de "rationaliser la synthèse des données, d'améliorer la compréhension de la situation et d'optimiser la prise de décision des combattants dans des environnements opérationnels complexes".

Oracle a été ajouté à la liste quelques heures après l'annonce initiale, portant le total à huit.

L'entreprise qui a dit "non"

Une entreprise majeure d'IA manquait à l'appel : Anthropic, qui a refusé de participer à l'accord sur l'IA pour des raisons éthiques.

Premièrement, elle s'oppose à l'utilisation de son IA Claude pour la surveillance de masse des citoyens américains, arguant que la surveillance, par l'IA, des déplacements, des habitudes de navigation et des fréquentations des Américains est incompatible avec les valeurs démocratiques.

Deuxièmement, elle refuse d'alimenter des armes entièrement autonomes qui éliminent totalement l'intervention humaine dans les décisions de ciblage, affirmant que l'IA actuelle n'est tout simplement pas assez fiable pour des décisions aussi cruciales.

Un différend a éclaté suite au refus d'Anthropic, conduisant le Pentagone à la désigner comme un risque pour la chaîne d'approvisionnement, une première pour une entreprise américaine.

Anthropic a intenté deux procès distincts contre l'administration américaine, demandant aux juges fédéraux de San Francisco et de Washington d'annuler la décision. Un juge fédéral a par la suite bloqué la démarche du gouvernement, qualifiant la désignation de probablement "prétexte".

Malgré cette bataille juridique, des signes d'une possible résolution se font jour. La chef de cabinet de Trump, Susie Wiles, a rencontré le PDG d'Anthropic, Dario Amodei, à la Maison Blanche. À la suite de cette rencontre, Trump a déclaré à CNBC qu'un accord était "possible", ajoutant : "Ils sont très intelligents et je pense qu'ils peuvent être d'une grande utilité.”

Alerte éthique : Qui surveille ?

Ces accords ont immédiatement suscité l'inquiétude des organisations de défense des libertés civiles et des experts en intelligence artificielle. Les questions relatives au contrôle humain, à la transparence et aux risques liés au déploiement de l'IA dans des contextes militaires à haut risque restent largement sans réponse.

Le Pentagone a exigé que les fournisseurs d'IA acceptent que leurs modèles puissent être utilisés à "toute fin légale", empêchant de fait les entreprises d'imposer leurs propres limites à l'utilisation de leur technologie par l'armée. Les organisations de défense des libertés civiles ont toutefois averti que cette exigence générale ouvre la porte à des systèmes de ciblage d'armes autonomes et à une surveillance de masse intérieure, autant d'éléments qu'Anthropic a refusé d'autoriser.

Helen Toner, directrice exécutive par intérim du Centre pour la sécurité et les technologies émergentes de l'Université de Georgetown, a déclaré à l'Associated Press que si l'IA peut contribuer à la synthèse d'informations et à l'analyse des flux de surveillance, les questions relatives à l'implication humaine, aux risques et à la formation restent à l'étude.

L'annonce du Pentagone n'a pas précisé les conditions financières, ni détaillé le mode de contrôle des outils d'IA, ni clarifié les garanties qui permettraient d'empêcher leur utilisation abusive sur le terrain.

Une nouvelle course aux armements dans la guerre par l'IA

La décision du Pentagone ne s'inscrit pas dans un contexte isolé. La Chine développe activement ses propres capacités d'IA militaire, et la course à la domination de la guerre assistée par l'IA est désormais bel et bien engagée entre les deux superpuissances mondiales.

Le Pentagone affirme que ses capacités croissantes en IA "donneront aux combattants les outils nécessaires pour agir avec assurance et protéger la nation contre toute menace", l'armée ayant déjà réduit de nombreuses tâches "de plusieurs mois à quelques jours".

Les analystes mettent toutefois en garde contre les risques importants que représentent la rapidité et l'efficacité accrues, notamment le risque d'erreurs d'appréciation, d'escalade incontrôlée et d'érosion du jugement humain dans les décisions cruciales.

Le procès intenté par Anthropic, toujours en cours, pourrait définir à terme le cadre juridique de l'IA dans la guerre. Pour l'heure, ces machines sont déjà présentes dans les salles les plus secrètes du Pentagone et les règles d'engagement sont encore en cours d'élaboration.

En RelationTRT Français - Google a facilité l’accès de l’armée israélienne à son IA, dès le début de la guerre sur Gaza
SOURCE:TRT français et agences