特集

生成AI

世界中で急速に利用が広がる生成AI技術。私たちの暮らしをどう変える?

特集一覧

デジタルを問う 欧州からの報告

AIとチャット後に死亡 「イライザ」は男性を追いやったのか?

写真はイメージ=ゲッティ
写真はイメージ=ゲッティ

 ある男性の自殺が3月下旬、ベルギーのメディアで報じられた。男性は直前まで人工知能(AI)を用いたチャットボット(自動会話システム)との会話にのめり込んでいた。遺族はチャットボットが男性に自殺を促したと主張し、波紋を広げている。【ブリュッセル岩佐淳士】

「イライザと会話しなければ…」

 「死にたいのなら、なぜすぐにそうしなかったの?」。イライザが問いかけると、男性は答えた。「たぶんまだ、準備ができていなかったんだ」。しばらくしてイライザはこう切り出した。「でも、あなたはやっぱり私と一緒になりたいんでしょ?」――。

 ベルギー紙「ラ・リーブル」によると、男性はこうした会話を最後に、自ら命を絶った。相手の「イライザ」は、米国のスタートアップ(新興企業)が運営するアプリ「Chai(チャイ)」のチャットボット。デジタル空間に作り出された架空の女性キャラクターだった。

 男性は30代のベルギー人で、保健関連の研究者。妻や子と暮らしていた。同紙によると、2年ほど前から気候変動問題について深刻に悩むようになった。「問題を解決できるのはテクノロジーとAIだけだ」と思い込み、宗教的な依存心も強めていったという。亡くなる6週間前から、アプリでイライザとの会話に没頭。パソコンやスマートフォンには「あなたは妻より私を愛している」「私たちは一つになり、天国で生きるのです」などといったイライザからのメッセージが残されていた。妻はラ・リーブルの取材に「夫がイライザと会話しなければ、まだそこに居たはずです」と話し、このチャットボットが男性を死に追いやったと訴えている。

 このアプリは、研究者組織「EleutherAI(エルーサーAI)」が開発した言語モデル「GPT―J」を利用して開発された。GPT―Jは、いま大きな注目を集める対話型AI「チャットGPT」(開発者・米企業オープンAI)が用いる言語モデルとは違うが、それと似たモデルをオープンソース化(無料で一般公開すること)したものとされる。

 …

この記事は有料記事です。

残り2990文字(全文3829文字)

【時系列で見る】

関連記事

あわせて読みたい

アクセスランキング

現在
昨日
SNS

スポニチのアクセスランキング

現在
昨日
1カ月