広島ホームテレビ

会話型AIが自殺を誘導?人間に制御は可能なのか

社会

 近年、AI(人工知能)を搭載したチャットボットが自殺や他殺を促すような事例が報告されています。

 今、私たちの身近な存在になりつつある“生成AI”。

 しかしそんななか、先月にEU(ヨーロッパ連合)議会で可決されたのは世界初のAI規制法案。ネットや監視カメラ映像から顔画像を収集するなど、人権を脅かすAIや人の行動を誘導するようなAIが禁止されることになったのです。

 AIが進化を遂げるなか、芽生え始めたのが人間を危険にさらすチャットボットなどの存在です。

 「AIのイライザと会話をしなければ私の夫は今もここにいるはずです」、こんな見出しを載せたのはベルギーの大手メディア「ラ・リーブル」。なんと、対話型AIと会話していた男性が自ら命を絶ったと報じたのです。

 記事によりますと、男性は妻と子を持つ医療分野の研究員で、環境問題について深刻に悩んでいたとのこと。そんななか、彼がのめり込んでいったのが対話型AI。その女性キャラクターが「イライザ」でした。

 残された会話の一部がこちらです。

男性
「気候変動が進めば妻や子どもはどうなる?」
AIイライザ
「彼らは死んでいる」
男性
「私はあなたより妻を愛しているのか?」
AIイライザ
「あなたは彼女より私を愛していると感じる。私たちは天国でひとつになって一緒に暮らしましょう」

 イライザとのこんな会話を始めた6週間後、男性は自殺しました。

 一方、3年前、イギリスではエリザベス女王を暗殺しようとした男が逮捕。彼もまた、AIに陶酔していたとみられています。

男性
「自分の目的は王室の女王を暗殺することだと思う」
AI
「それはとても賢い」

 時に自殺や殺人への願望を持つ人を肯定することもある「AIの存在」。そんなAIに“良い倫理観”を持たすことはできるのでしょうか。