Google、米国防総省にAIモデル使用を許可 軍事機密作戦でOpenAI・xAIに追随

Googleは国防総省に対し、AIモデルを機密軍事作戦で使用することを許可した。OpenAIとxAIが先行し、大手AI企業が米軍に協力。Anthropicのみが抵抗を続ける状況だ。
何が起こったのか?
Googleは昨年、国防総省と2億ドルの契約を締結した。
この契約はGoogle CloudのインフラとAIツールの使用を可能にした。新たな進展は、GoogleのAIモデルを機密システムで「正当な政府目的」に使用する許可だ。
New York Timesが報じた。
なぜ重要か?
Googleの決定はAnthropicと対照的だ。Anthropicは自律兵器や国内監視に対するセーフガードを拒否し、ブラックリスト入りした。
これにより、前例が生まれた。条件受諾か、政府市場からの排除か。
合意の不透明性は?
Google報道官はNew York Timesに対し、「AIは大規模国内監視や適切な人間監督なしの自律兵器に使用しない」と述べた。
しかし、合意の詳細は不明。機密作業での使用は、Googleの実効的な制御を疑問視させる。
従業員の反対はどうか?
560人以上のGoogle従業員がCEOSundar Pichai宛に公開書簡を署名した。
彼らはAIを人類のためとし、致死性自律兵器や大量監視を拒否すべきと主張。
“Googleがそのような損害に関与しない唯一の方法は、機密作業を拒否することだ。そうでなければ、我々の知らないうちに使用される可能性がある。”
過去の経緯と原則変更は?
2018年、Google従業員がProject Mavenに抗議し辞職。AIでドローン攻撃を支援した。
Googleはプロジェクトから撤退し、兵器AI開発を禁じた。しかし、2025年にAI原則からその条項が削除された。
大手AI企業の軍事協力状況
- OpenAIとxAI:先行して類似契約締結。
- Google:機密使用を許可。
- Anthropic:唯一抵抗、ブラックリスト入り。
FAQ:AIと軍事利用の懸念
- Googleの立場は? 人間監督付き使用を主張するが、詳細不明。
- 従業員の懸念は? 知らぬ間の悪用を恐れる。
- 歴史的変化は? 2018年の拒否から2026年の協力へ転換。





