Giornale Roma - Le Pentagone conserve son droit de bannir Anthropic, avant une audience en mai

Euronext
AEX 3.22% 1003.2
BEL20 3.56% 5392.71
PX1 4.49% 8263.87
ISEQ 6.23% 12844.24
OSEBX -2.77% 2022.97 kr
PSI20 0.89% 9450.19
ENTEC -0.41% 1416.23
BIOTK 2.74% 3926.73
N150 2.76% 4048.95
Le Pentagone conserve son droit de bannir Anthropic, avant une audience en mai
Le Pentagone conserve son droit de bannir Anthropic, avant une audience en mai / Photo: Joel Saget - AFP

Le Pentagone conserve son droit de bannir Anthropic, avant une audience en mai

Une cour fédérale de Washington a refusé mercredi de suspendre le bannissement d'Anthropic par le Pentagone, un revers partiel pour la pépite californienne de l'IA qui avait obtenu fin mars une première victoire judiciaire à San Francisco contre l'administration Trump.

Taille du texte:

Mais les juges fédéraux ont reconnu que cette affaire sensible, mêlant des enjeux militaires, éthiques et économiques considérables, méritait une procédure accélérée, convoquant les deux parties à plaider dès le 19 mai.

"Nous sommes reconnaissants que la cour ait reconnu la nécessité de résoudre rapidement ces questions", a déclaré Anthropic.

De son côté, le gouvernement américain a salué la décision de mercredi comme une "victoire retentissante", par la voix du numéro 2 du ministère de la Justice, Todd Blanche.

Les décisions éthiques "appartiennent au commandant en chef" et non "pas à une entreprise technologique", a-t-il écrit sur X, ajoutant que l'"armée a besoin d'un accès total aux modèles d'Anthropic si sa technologie est intégrée dans nos systèmes sensibles".

La décision, consultée par l'AFP, maintient en vigueur une mesure qui vise à contraindre les sous-traitants du Pentagone à certifier qu'ils n'utilisent pas les technologies d'Anthropic, créateur du chatbot Claude.

Cette mesure, qui a désigné Anthropic comme un "risque pour la chaîne d'approvisionnement" du Pentagone, avait été annoncée le 27 février en réponse au refus de l'entreprise de voir ses outils d'intelligence artificielle utilisés pour la surveillance de masse des citoyens américains et pour rendre des armes totalement autonomes.

Jusqu'ici, seules des entreprises non-américaines avaient été visées par cette désignation, synonyme de ruptures de contrats publics en cascade.

- Informations classifiées -

L'effectivité de cette sanction, qui relève du code des achats publics fédéraux, fait toutefois débat, certains juristes estimant que les textes réglementaires nécessaires à sa mise en oeuvre font encore défaut.

Le 26 mars, dans un recours parallèle, Anthropic avait obtenu une première victoire contre une sanction similaire, prise cette fois sous l'autorité du code militaire. Dans ce volet, une juge de San Francisco a suspendu la directive du ministre de la Défense Pete Hegseth qui avait désigné Anthropic comme un "risque" pour les opérations classifiées du Pentagone.

La juge californienne, estimant que ces sanctions ont probablement violé la liberté d'expression d'Anthropic, a aussi suspendu une directive de Donald Trump qui ordonnait à toutes les agences fédérales de cesser d'utiliser leurs technologies.

Dans la foulée, la plateforme d'accès à l'IA des agences fédérales, USAi.gov, a rebranché le 3 avril l'accès aux modèles d'Anthropic, selon une source proche de l'entreprise.

Le Pentagone a informé Anthropic qu'il continuait d'utiliser ses modèles, les seuls autorisés à ce jour pour les informations classifiées de l'armée américaine, jusqu'au 3 septembre 2026 au plus tard, selon cette source.

Au moment où Anthropic se voyait désigné comme un risque pour la sécurité nationale, OpenAI avait annoncé avoir signé un contrat avec le Pentagone pour prendre le relais de son rival, assurant avoir obtenu les garanties éthiques suffisantes sur la surveillance de masse et les armes autonomes.

Le gouvernement a fait appel de cette décision californienne, mais l'audience n'aura pas lieu avant juin, au plus tôt.

- Bénéfice? -

Dans leur décision mercredi, les juges de Washington ont estimé que la balance des intérêts penchait en faveur du gouvernement: si Anthropic subit "vraisemblablement un préjudice irréparable", celui-ci est "principalement financier", tandis que l'enjeu pour le gouvernement touche à la sécurité des opérations du Pentagone "dans le cadre d'un conflit militaire actif".

Tout en admettant les contrats perdus par Anthropic, la cour suggère que l'entreprise a aussi pu en retirer un bénéfice.

Les juges citent des déclarations de Dario Amodei, le patron d'Anthropic, à ses employés - "le grand public et les médias nous voient comme les héros (nous sommes numéros 2 dans l'App Store !) -, et un article du média Digiday estimant que l'opposition d'Anthropic au Pentagone "pourrait s'avérer être le meilleur investissement marketing de la Silicon Valley depuis des années".

Lundi, Anthropic a annoncé une croissance "exponentielle" de ses revenus, multipliés par trois en un trimestre, revendiquant 30 milliards de dollars de revenus annualisés, pour la première fois au-dessus des performances affichées par OpenAI.

L.Bonetti--GdR