[DIGITAL Business Africa] – Le patron d’OpenAI, Sam Altman, a annoncé un accord autorisant le département de la Défense des États-Unis (Pentagone) à utiliser ses modèles d’intelligence artificielle, dont ChatGPT, sous réserve de « garanties » strictes. Une décision stratégique qui marque un nouveau tournant dans la militarisation encadrée de l’IA générative aux États-Unis.

Dans un message publié sur le réseau social X, Sam Altman a précisé que deux principes fondamentaux encadrent cet accord : l’interdiction de la surveillance de masse au niveau national et l’obligation d’une responsabilité humaine dans l’usage de la force, y compris pour les systèmes d’armes autonomes. Selon lui, ces principes sont alignés avec la législation et la politique du Pentagone, et ont été formellement intégrés dans l’accord conclu entre les deux parties.
Le dirigeant d’OpenAI a également indiqué que des « garanties techniques » seront déployées afin d’assurer que les modèles se comportent conformément aux standards de sécurité attendus. Les solutions d’IA mises à disposition du ministère américain de la Défense seront déployées exclusivement sur des environnements cloud sécurisés, avec la mobilisation d’ingénieurs d’OpenAI pour superviser leur intégration et leur sûreté opérationnelle.
Cette annonce intervient dans un contexte politique tendu. La start-up américaine Anthropic a récemment refusé d’ouvrir sans restriction son modèle Claude à l’armée américaine, invoquant des considérations éthiques. Cette position aurait suscité de vives réactions au sein de l’administration du président Donald Trump, relançant le débat sur le rôle des entreprises privées d’IA dans les stratégies de défense nationale.
Sam Altman a par ailleurs appelé le Pentagone à proposer des conditions équivalentes à l’ensemble des entreprises d’intelligence artificielle, plaidant pour un cadre harmonisé plutôt qu’une approche conflictuelle.
« Nous avons exprimé notre vif souhait de voir les choses s’apaiser, loin des actions juridiques et gouvernementales, pour aboutir à des accords raisonnables », a-t-il déclaré.
Au-delà de l’annonce, cet accord confirme l’intégration croissante de l’IA générative dans les architectures de défense et de cybersécurité américaines. Pour les marchés émergents, notamment en Afrique, où les stratégies nationales d’IA commencent à se structurer, cette évolution pose une question centrale : comment concilier souveraineté technologique, innovation et encadrement éthique dans les usages duals de l’intelligence artificielle ?
Par Loic SOUOP