La chronique Éducation numérique de cette semaine s’intéresse à l’usage de l’intelligence artificielle dans le domaine militaire. Selon des informations de presse américaine citées dans l’émission, Claude, le modèle développé par Anthropic, aurait été mobilisé dans le cadre d’opérations américaines en Iran, notamment pour l’analyse de données, le renseignement, la planification et la logistique. La chronique précise qu’il ne s’agirait pas d’un système agissant seul, mais d’un outil d’aide à la décision intégré à des dispositifs militaires comme Maven.
Elle souligne aussi les tensions entre Anthropic et l’administration américaine. L’entreprise rappelle que Claude est déployé dans des réseaux classifiés américains depuis juin 2024, tout en affirmant refuser deux usages : la surveillance de masse des Américains et les armes totalement autonomes. La chronique indique également qu’une sortie progressive des outils d’Anthropic a été annoncée, dans un contexte de contentieux avec le Pentagone.
Sur le plan éthique, le CICR et l’ONU insistent sur le maintien d’un contrôle humain sur les décisions de vie ou de mort et appellent à un cadre juridique international sur les armes autonomes. Pour le Niger, le sujet renvoie à la souveraineté numérique. En juillet 2025, le gouvernement a annoncé vouloir élaborer une stratégie nationale sur l’IA et la gestion des données. En octobre 2025, il a créé le Centre national de cybersécurité. À l’échelle africaine, l’Union africaine a adopté en 2024 une stratégie continentale pour une IA responsable et équitable.