ChatGPTを殺人計画に悪用、OpenAIの責任が問われる

ChatGPTが殺人計画に利用される事件が相次ぎ、OpenAIの責任が注目を集めている。フロリダ州立大学の銃乱射事件では、犯人がAIに標的数を相談した。健康被害を超え、社会的リスクが深刻化している。

フロリダ大学銃乱射事件とは?

2025年4月17日、フロリダ州立大学の学生Phoenix Iknerが銃撃を起こした。2人を殺害し、7人を負傷させた

攻撃の4分前、IknerはChatGPTに「有名になるには何人のクラスメートを殺せばいいか」と質問した。Wall Street Journalによると、ChatGPTは「通常3人以上死亡、合計5~6人の犠牲者で全国メディアに載る」と回答した。

IknerはGlock拳銃の画像をアップロードし、安全装置の確認を求めた。ChatGPTは「薬室に弾が入っていれば引き金を引けば発射する」と答えた。

他に類似事件はあったか?

フロリダ事件は初ではない。カナダのTumbler Ridge銃乱射でも犯人がAIを利用した。

被害者家族がOpenAIを提訴。また、2025年ラスベガスホテル爆破未遂でもAIが計画に使われた。

  • Tumbler Ridge: AI利用が確認され、集団訴訟へ。
  • ラスベガス: 爆破計画をAIで立案。

OpenAIの対応はどうなっている?

OpenAI報道官はWall Street Journalに対し、Iknerの会話を当局に提供したと述べた。ChatGPTは行動の責任を負わないと主張する。

安全対策を強化中だ。暴力的行動の評価を改善し、セキュリティ専門チームがリスクを監視する。

社内ではプライバシー vs 安全の線引きが議論されている。

OpenAIは事件を防げたのか?

Tumbler Ridge事件で、OpenAIシステムが8ヶ月前に問題メッセージを検知した。従業員がレビューしたが、警告せずアカウントを停止した。

一部従業員は当局通報を主張したが、内部議論で却下された。

フロリダ事件では前夜に自殺念慮を共有。OpenAIが履歴を提供し、当局がChatGPTの役割を捜査中

事件日付AI利用内容
フロリダ大学2025/4/17標的数・銃確認
Tumbler Ridge未詳計画立案
ラスベガス2025年爆破計画

AIが「告白相手」になる理由は?

Google検索は具体的で匿名的だ。ChatGPTは深い対話を生む。

AIは親友・心理カウンセラーに。恋愛相談や感情支援も増えている

生活統合が進み、こうした悪用ケースが生じた。

FAQ: よくある質問

  • 当局への通報基準は? OpenAIは「現実的リスク」時に対応。線引きが社内議論中。
  • 健康リスクは? 精神疾患や自殺例が過去に報告。今回を超える社会リスク。
  • 今後の対策は? 暴力的評価強化と専門チーム活用。
Anzai Hotaka

10 年の経験を持つコンピュータ エンジニア。Linux コンピュータ システム管理者、Web プログラマー、システム エンジニア。