Il y a quelques jours à peine, le contrat de 200 millions de dollars entre Anthropic et le département de la défense américain s'est effondré. Les deux parties n'ont pas réussi à s'entendre sur une question fondamentale: dans quelle mesure l'armée pouvait-elle accéder sans restriction aux modèles d'intelligence artificielle développés par la société de Dario Amodei ? Ce désaccord, qui semblait sonner le glas de toute collaboration entre l'entreprise et les militaires, connaît pourtant un rebondissement inattendu.
Après avoir conclu un accord alternatif avec OpenAI, le Pentagone semblait avoir tourné la page. Mais selon des informations publiées par le Financial Times et Bloomberg, Dario Amodei aurait repris contact avec Emil Michael, un haut responsable du Pentagone, pour explorer la possibilité d'un nouveau compromis. Ces négociations viseraient à établir un cadre contractuel précisant les conditions dans lesquelles la défense américaine pourrait continuer à utiliser les technologies d'Anthropic.
Voir Anthropic parvenir à un nouvel accord après une telle escalade verbale entre les deux camps relèverait presque du miracle. Pourtant, les intérêts des deux parties pourraient bien les pousser à trouver un terrain d'entente. Le Pentagone dépend déjà, dans une certaine mesure, des outils développés par l'entreprise d'IA. Basculer brutalement vers les systèmes d'OpenAI ne se ferait pas sans d'importantes perturbations opérationnelles. Du côté d'Anthropic, les retombées économiques et l'influence stratégique que représente un contrat avec la première armée du monde ne sont pas négligeables.
Au cœur du litige se trouve une clause contractuelle que Dario Amodei a refusé de signer. Celle-ci autorisait l'armée à utiliser l'IA d'Anthropic pour tout usage légal, sans distinction. Le PDG a fermement exprimé son opposition à tout déploiement de ses technologies à des fins de surveillance de masse sur le territoire américain ou pour des systèmes d'armement autonomes. Il souhaitait que le contrat interdise explicitement ces usages. Face à ce refus de céder sur ces points, le département de la défense a préféré se tourner vers OpenAI.
Depuis lors, les déclarations publiques ont été particulièrement acrimonieuses. Emil Michael a qualifié Amodei de menteur souffrant d'un complexe de Dieu. De son côté, l’intéressé n'a pas mâché ses mots dans un message adressé aux employés d'Anthropic, dans lequel il décrit l'accord signé entre OpenAI et le gouvernement US comme du théâtre de la sécurité, et les arguments avancés pour le justifier comme de purs mensonges.
"La principale raison pour laquelle OpenAI a accepté cet accord et pas nous, c'est qu'ils cherchaient à apaiser leurs employés, tandis que nous cherchions véritablement à prévenir les abus", écrit-il dans un mémo interne.Les tensions ne s'arrêtent pas là. Le secrétaire à la défense Pete Hegseth a évoqué la possibilité de désigner officiellement Anthropic comme un risque pour la chaîne d'approvisionnement, ce qui reviendrait à blacklister l'entreprise et à lui interdire de collaborer avec toute société ayant des relations commerciales avec l'armée américaine. Ce type de désignation est habituellement réservé aux adversaires étrangers, et il est loin d'être certain qu'une telle mesure résisterait à un recours judiciaire. À ce jour, aucune action légale n'a été engagée.
Cette affaire illustre les tensions profondes qui existent entre le monde de l'IA de pointe et les institutions militaires. D'un côté, des entreprises technologiques soucieuses de définir des limites éthiques à l'utilisation de leurs outils. De l'autre, une armée qui entend conserver une pleine souveraineté sur les technologies qu'elle adopte. La question de savoir si Anthropic et le Pentagone peuvent coexister dans un cadre contractuel acceptable pour les deux parties reste entière, et sa réponse pourrait bien changer les règles du jeu pour l'ensemble du secteur.

Commentaires