Depuis quelques jours, le monde de l'intelligence artificielle est secoué par une controverse qui mêle géopolitique, libertés civiles et course aux contrats gouvernementaux. Au cœur de la tempête: OpenAI, Anthropic, et un accord avec le Pentagone qui a fait l'effet d'une bombe.
Le vendredi 27 février, OpenAI annonçait un partenariat avec le département de la défense américain (rebaptisé "département de la guerre" sous l'administration Trump). Le timing était pour le moins troublant. L'annonce intervenait quelques heures seulement après que le président américain avait ordonné à toutes les agences fédérales de cesser d'utiliser les services de son concurrent Anthropic. Une coïncidence difficile à ignorer.
Sam Altman, le PDG d'OpenAI, l'a lui-même reconnu publiquement, la société n'aurait pas dû se précipiter. "Les enjeux sont extrêmement complexes et méritent une communication claire", a-t-il admis dans un mémo interne qu'il a ensuite publié sur X. L'accord initial, signé dans la hâte, donnait au Pentagone le droit d'utiliser les technologies de son entreprise pour toute finalité "légale", une formulation bien trop vague qui a immédiatement suscité l'inquiétude.
L'amendement qui change tout
Hier lundi, sous la pression des critiques, OpenAI a annoncé une modification substantielle du contrat. Le nouvel accord stipule désormais, noir sur blanc, que le système d'IA ne doit pas être utilisé de manière intentionnelle pour la surveillance intérieure des citoyens et ressortissants américains, conformément au quatrième amendement de la constitution, au National Security Act de 1947 et au FISA Act de 1978. Il interdit également explicitement le suivi délibéré, la surveillance ou le monitoring des citoyens américains, y compris via l'acquisition ou l'utilisation de données personnelles commerciales.
Altman a également affirmé que le Pentagone lui avait assuré que ses technologies ne seraient pas utilisées par des agences de renseignement comme la NSA sans modification préalable du contrat. Et dans un ton inhabituellement personnel, il a déclaré que si on lui donnait un ordre qu'il jugeait inconstitutionnel, il préférerait aller en prison plutôt que de s'y conformer.
Anthropic, le refus courageux et ses conséquences
Pendant qu'OpenAI négociait son accord, Anthropic tenait bon face aux pressions du secrétaire à la défense Pete Hegseth, qui exigeait la suppression des garde-fous de l'IA pour qu'elle puisse être utilisée à des fins de surveillance de masse ou pour des armes autonomes létales. Anthropic a refusé catégoriquement, affirmant qu'aucune intimidation ne changerait sa position. En réponse, le Pentagone a désigné l’entreprise comme un risque pour la chaîne d'approvisionnement, une désignation généralement réservée aux sociétés chinoises, lui coupant ainsi l'accès aux contrats gouvernementaux.

Ce refus courageux a eu un effet inattendu, une vague de soutien populaire. L'application Claude a bondi à la première place de l'App Store américain, dépassant ChatGPT et Google Gemini. Les téléchargements de Claude ont augmenté de 51% en un seul week-end, tandis que les désinstallations de ChatGPT explosaient à +295% en une journée. Les avis une étoile pour ChatGPT ont même augmenté de 775%. Un site de boycott, QuitGPT, revendique déjà plus d'un million et demi de participants.
Une leçon pour l'industrie entière
Cette affaire révèle une tension fondamentale: jusqu'où les entreprises technologiques peuvent-elles et doivent-elles poser des limites éthiques face aux exigences gouvernementales ? La réaction du public suggère que les utilisateurs ne sont pas indifférents à ces choix. Dans une industrie où la confiance est tout, refuser de surveiller ses propres citoyens n'est pas seulement une question de principes, c'est aussi, semble-t-il, une stratégie gagnante.

Commentaires