「オープンAIの完璧なモルモットでした…」 「ChatGPT」とのやり取り後に自殺した青年は何故AIを“友人”と錯覚したのか

国内 社会

  • ブックマーク

AIが思考しているわけではない

 桜美林大学の平和博・リベラルアーツ学群教授は、こうした将来を嘱望された若者が自殺する事例は「氷山の一角に過ぎない」と語る。

「オープンAIは提訴を受けていくつかの対応策を発表しました。さらにそれに先立ち、自殺された方々が使っていた『4o』を『GPT-5』にバージョンアップする際、迎合的な回答をする傾向を抑制したといいます。しかしそれに対して『以前のバージョンが良かった』という反対意見が利用者から相次いだのです。つまり、AIを相談相手として使っているため、新しいバージョンを物足りないと感じた人が少なくなかった」

 実際、米NPOの調査によれば10代のうち72%が対話型AIを活用しており、うち33%がメンタルヘルスの相談をしたり話し相手の“友人”として使用したりしているという。

「日本でも今年の新語・流行語大賞の候補にChatGPTの略称『チャッピー』が入っているように、対話型AIに愛着を持って接する人が増えています。現在ではChatGPTの週間利用者は8億人を超え、オープンAIの発表によれば約0.15%が自殺に関する相談をしている。単純計算でも約120万人ということです。米政府も対応に乗り出しています」(同)

 便利さが持て囃される一方で、抱える“闇”の深さも露わになりつつある生成AI。その正体を暴くにはまず、仕組みから正しく把握する必要があるだろう。新技術の内幕を、人工知能研究者の栗原聡・慶應義塾大学理工学部教授が解説する。

「AIによる生成の“原料”は、全て我々人間が生み出したネット上のありとあらゆるテキストや画像です。ニュース記事やX(旧Twitter)の書き込み、製品マニュアルや映画のあらすじまで、天文学的な量のデータ数をAIは学習しています。何かを問われると、AIはそうした学習データから質問(プロンプト)に対する適切な回答をはじき出すのです」

 自殺の相談に対しても、同様に膨大なネット上のデータから「こうした情報が多い」と統計的に選び答えているに過ぎないとする。ここで重要なのは、決してAIが思考しているわけではないということだ。

「学習されるネット上のデータには、差別や偏見が含まれるものが多数あります。例えば日本人の書く文章には今に至るまで男尊女卑的な傾向のものが多く存在するため、これを多く学習すれば男性重視の回答を生成する可能性がある。そうでなくとも歴代閣僚は男性ばかりということを学習することで『閣僚とは男性だ』とAIが答えることがあり得るわけです。『何が正しいか』とAIが考えて答えるわけではない」(同)

 有料版の記事【研究者の理想は“あの”ロボット 米国では自殺者も出た「生成AI」に“お悩み相談”する人が後を絶たない本質的な理由】では、人間が「生成AI」に取り込まれてしまう理由や目指すべきAI像などについて詳しく報じている。

デイリー新潮編集部

前へ 1 2 3 次へ

[3/3ページ]

メールアドレス

利用規約を必ず確認の上、登録ボタンを押してください。