Anthropic souhaitait obtenir des garanties pour que son modèle d'IA, Claude, ne soit pas utilisé pour la surveillance de masse des populations ou l'automatisation d'une attaque mortelle. Le ministère de la Défense américain a laissé à la start-up jusqu'à vendredi pour lever les restrictions sur son IA. En cas de refus, l’entreprise s’expose à de lourdes sanctions.