Anthropic、米国防総省とのAI契約で軍事利用制限を堅持

AnthropicはClaudeモデルでAI競争をリードするが、米国防総省との契約交渉で軍事利用に厳格な制限を維持する。国防総省は全目的使用を求めているが、Anthropicは自律兵器と国内大量監視を拒否した。この決定は関係悪化を招く可能性がある。
国防総省は何を求めているか?
国防総省は4つの先端AIラボに圧力をかけている。Axiosによると、高官は「すべての合法的目的」での使用を要求する。
対象領域は武器開発、情報収集、戦場作戦を含む。これらは特に敏感な分野だ。
Anthropicの拒否理由は何か?
AnthropicのDario Amodei氏率いるチームは明確な線引きを示した。企業スポークスパーソンは「米国国家安全保障支援に先進AIを活用する」と述べる。
しかし、
「自律兵器の完全自動化と国内大量監視に関する厳格な制限」を維持し、これらは「現在の作戦に関連しない」と強調した。
ベネズエラ事件が緊張を高めた?
The Wall Street Journalは、ClaudeがPalantir経由でベネズエラのNicolás Maduro捕獲作戦に使用されたと報じた。
Anthropicは特定軍事作戦への使用についてコメントを控える。すべての使用は企業ポリシーに準拠する必要がある。
契約の現状とリスクは?
- 昨年、Anthropicと国防総省は2億ドルの契約を締結した。
- Axiosによると、国防総省は関係見直しを検討中。「すべてがテーブル上」にある。
- 関係断絶時は「秩序ある代替」が必要で、時間がかかる。
AI企業と国防のジレンマ
AI企業は収益確保と評価向上を目指す。国防セクターは主要なビジネス源だ。
一方、倫理的・戦略的制限が顕在化する。Anthropicの決定は安全志向を強化するが、巨額契約を失うリスクを伴う。
主なポイントのタイムライン
| 時期 | 出来事 |
|---|---|
| 昨年 | 2億ドル契約締結 |
| 最近数ヶ月 | 困難な交渉継続 |
| 2026年2月 | AxiosとWSJ報道 |





