Anthropic、米国防総省とのAI契約で軍事利用制限を堅持

AnthropicClaudeモデルでAI競争をリードするが、米国防総省との契約交渉で軍事利用に厳格な制限を維持する。国防総省は全目的使用を求めているが、Anthropicは自律兵器と国内大量監視を拒否した。この決定は関係悪化を招く可能性がある。

国防総省は何を求めているか?

国防総省は4つの先端AIラボに圧力をかけている。Axiosによると、高官は「すべての合法的目的」での使用を要求する。

対象領域は武器開発、情報収集、戦場作戦を含む。これらは特に敏感な分野だ。

Anthropicの拒否理由は何か?

AnthropicのDario Amodei氏率いるチームは明確な線引きを示した。企業スポークスパーソンは「米国国家安全保障支援に先進AIを活用する」と述べる。

しかし、

「自律兵器の完全自動化と国内大量監視に関する厳格な制限」を維持し、これらは「現在の作戦に関連しない」と強調した。

ベネズエラ事件が緊張を高めた?

The Wall Street Journalは、ClaudeがPalantir経由でベネズエラのNicolás Maduro捕獲作戦に使用されたと報じた。

Anthropicは特定軍事作戦への使用についてコメントを控える。すべての使用は企業ポリシーに準拠する必要がある。

契約の現状とリスクは?

  • 昨年、Anthropicと国防総省は2億ドルの契約を締結した。
  • Axiosによると、国防総省は関係見直しを検討中。「すべてがテーブル上」にある。
  • 関係断絶時は「秩序ある代替」が必要で、時間がかかる。

AI企業と国防のジレンマ

AI企業は収益確保と評価向上を目指す。国防セクターは主要なビジネス源だ。

一方、倫理的・戦略的制限が顕在化する。Anthropicの決定は安全志向を強化するが、巨額契約を失うリスクを伴う。

主なポイントのタイムライン

時期出来事
昨年2億ドル契約締結
最近数ヶ月困難な交渉継続
2026年2月AxiosとWSJ報道
Anzai Hotaka

10 年の経験を持つコンピュータ エンジニア。Linux コンピュータ システム管理者、Web プログラマー、システム エンジニア。