La semaine dernière, une onde de choc a traversé les couloirs d'OpenAI. Caitlin Kalinowski, directrice de l'équipe robotique de l'entreprise, a annoncé publiquement sa démission en réaction à l'accord controversé conclu avec le département américain de la défense. Une décision qui en dit long sur les tensions profondes que soulève l'IA militaire, y compris au sein même des grandes firmes technologiques.
Dans un message publié sur les réseaux sociaux, elle a tenu à préciser les contours de son geste:
"Ce n'était pas une décision facile. L'IA a un rôle important à jouer dans la sécurité nationale. Mais la surveillance des Américains sans contrôle judiciaire, et l'autonomie létale sans autorisation humaine, sont des lignes qui méritaient bien plus de réflexion qu'elles n'en ont reçu."Elle a également insisté sur le fait que sa démission était une question de principe, pas de personnes, affirmant conserver un profond respect pour le PDG Sam Altman et ses équipes. Dans un message complémentaire sur X, elle a précisé sa pensée:
"Mon problème, c'est que l'annonce a été précipitée sans que les garde-fous soient définis. C'est avant tout une question de gouvernance. Ces sujets sont trop importants pour être traités à la hâte."Kalinowski avait rejoint OpenAI en novembre 2024, après avoir dirigé le développement des lunettes de réalité augmentée chez Meta. Sa démission est sans doute la retombée la plus médiatique de la décision d'OpenAI de s'associer au Pentagone.
Le contexte: un accord signé dans la précipitation
Pour comprendre ce qui a conduit à cette rupture, il faut revenir quelques semaines en arrière. Des discussions entre le Pentagone et Anthropic (l'entreprise concurrente, créatrice de Claude) ont échoué, Anthropic ayant tenté de négocier des garanties pour éviter que sa technologie ne soit utilisée à des fins de surveillance de masse ou d'armement autonome. En réponse, le Pentagone a désigné cette dernière comme un risque pour la chaîne d'approvisionnement, une décision que la société d'IA conteste en justice. Microsoft, Google et Amazon ont de leur côté confirmé qu'ils continueraient à mettre Claude à disposition de leurs clients non-militaires.
C'est dans ce contexte tendu qu'OpenAI a rapidement conclu son propre accord avec le gouvernement américain, autorisant l'utilisation de ses technologies dans des environnements classifiés. L'entreprise a décrit cette approche comme "plus large et multicouche", s'appuyant à la fois sur des clauses contractuelles et des garde-fous techniques pour protéger ses propres lignes rouges (notamment l'interdiction de la surveillance domestique et des armes autonomes).
Des conséquences visibles sur l'opinion publique
La controverse a rapidement débordé au-delà des cercles technologiques. Les désinstallations de ChatGPT auraient bondi de 295%, tandis que Claude grimpait en tête des téléchargements gratuits sur l'App Store américain. Au moment où j'écris ces lignes, Claude et ChatGPT occupent respectivement la première et la deuxième place du classement. Un renversement de tendance symbolique, même si difficile à interpréter sur le long terme. Sam Altman lui-même a déclaré être prêt à amender l'accord pour interdire explicitement toute surveillance des citoyens américains. Un signe que la pression, tant interne qu'externe, commence à produire ses effets.
Une question qui dépasse OpenAI
La démission de Kalinowski pose une question qui va bien au-delà d'une entreprise ou d'un contrat: jusqu'où les ingénieurs et dirigeants de l'IA sont-ils prêts à aller au nom de la sécurité nationale ? Et qui, dans ces négociations opaques entre géants de la tech et gouvernements, est chargé de veiller réellement aux intérêts des citoyens ? Pour l'instant, OpenAI doit se chercher un nouveau directeur de la robotique. Et répondre à des questions autrement plus complexes.

Commentaires