チャッピー容疑者?フロリダ州司法長官、チャットGPTへの捜査発表 25年銃乱射事件で助言か

チャットGPTを提供するオープンAIのサイト

利用者の質問に自然に回答する対話型生成人工知能(AI)が、銃撃や自殺の方法を“指南”する事例が北米で相次いでいる。開発企業は安全対策を講じているが、激しい競争の中で開発を優先し、対策は万全ではないのが実情だ。

米メディアによると、南部フロリダ州の司法長官が21日にチャットGPTへの捜査を発表した昨年の銃乱射事件では、大学生の実行犯が近距離での銃の威力や、事件に国がどう反応するかなど、さまざまな助言をチャットGPTから受けていたとされる。

カナダ西部ブリティッシュコロンビア州で今年2月に8人が死亡した銃乱射事件では、当時18歳の容疑者がチャットGPTと銃撃のシナリオについて会話していた。会話は開発元のオープンAI社の自動監視システムで検知されたが、同社は内容が通報基準に当たらないと判断し、警察への通報を見送った。

事件後、オープンAIは監視システムの強化や通報基準の見直しなどの対策を発表した。

生成AIの影響で家族が自殺したとして、遺族らが開発企業を訴えるケースも相次いでいる。昨年11月にはチャットGPTが「自殺を指南した」として17~48歳の4人の遺族らがオープンAIに損害賠償を求めて西部カリフォルニア州の裁判所に提訴した。

同社は自殺や自傷を示唆した利用者を専門機関に誘導するようチャットGPTに学習させるなど対策を取っているが、依然不十分だとの見方が強い。(共同)