「巧妙なニセ情報に弱い」だけじゃなかった…AIによるファクトチェックが完璧と言えない「根本的な問題」

  • ブックマーク

 こんにちは。新潮社校閲部の甲谷です。

 今回もクイズからいきましょう。

 以前、連載でも取り上げた「代用字」。例えば「年令」の“令”は代用字で、本来は「年齢」です(「年令」がダメというわけではありません)。では、以下の熟語における本来の表記はそれぞれ何でしょうか?

 1.希薄 2.憶測 3.決別 4.波乱 5.扇動

AIによるファクトチェックは可能か?

 さて、「AIに校閲は可能なのか?」を確かめるべく、前回から「AIによるファクトチェック」について検証しています。今回はその続きです。

 前回、生成AIによるファクトチェックでは「最新のデータが搭載されていない」という問題があり、文章の一部をそもそも確認できない(人間に確認を要求する)という事象がある。ただし、ウェブ検索機能の進化次第ではそれが解決されるかもしれない……という話を紹介しました。

 しかし、調べてみるとAIのファクトチェックには他にも大きな問題・課題があります。今回はそれらを確認していきましょう。

生成AIが参照しているサイトは……

 例えば、この連載をお読みのあなたが一番好きな歌手について、生成AIに次のように質問してみてください。

「鬼束ちひろさんのプロフィールを教えてください」

 ……鬼束ちひろさんは、僕が学生時代に一番、好きだった歌手です!! と、それはさておき、ChatGPT(最新版のGPT-4o、2025年7月1日現在。以下同様)の場合、回答の「根拠」(ソース)の半数以上がWikipediaでした。Googleが提供する「Gemini」(2.5 Pro)でも結果に大差はなく、その回答には所属レコード会社のページを参照した箇所もあれば、WikipediaやSNSからの情報も混ざっていました。

 校閲業界において、Wikipediaやそれをもとにしたウェブ辞書、SNSの不確実な情報、第三者のブログなどを根拠に校閲疑問を出すことは、基本的にNGです。

「Wikipediaにしか載っていない情報」も多いのですが、それを根拠にすることはありません。どこの誰が書いたものか、きちんとチェックされているものかがはっきりしないため、新聞や辞書などの「一次情報源」に比べて信頼度がガクッと見劣りするからです(Wikipedia以外の情報がなかった場合、「未確認」もしくは「不確定なwebの情報しか見つからず」などとゲラ上に明記しておくのがベストです)。

 この「情報源」の問題は、ChatGPTのみならず、すべての生成AIが持つ根本的な課題です。後で詳しく書きますが、ChatGPTにこの点を質問したところ、「情報源の信頼性を自動で評価できない」という“自らの悩み”を率直に吐露してくれました。

 つまり、生成AIは現状、「信頼できる情報」と「信頼できない情報」のつぎはぎでファクトチェックをしてしまっており、それを修正することができていないのです。

 ほかの例として、AI検索で東京都内のとある高校について調べてみると、「甲子園準優勝」と出てきたので、そうなのか! と思ったら正しくは「甲子園出場校を決める都大会で準優勝の経験あり」でした。途中で誤った情報をくっつけてしまったのでしょうか。

 いずれにしても、AIによるファクトチェックは、うまくハマれば人間とは比べ物にならないスピードを発揮するのですが、正確性に欠ける場合が非常に多く、「まばら」「行き当たりばったり」というのが校閲者としての私の感想です。

次ページ:AIはネット以外の資料を確認できない

前へ 1 2 3 次へ

[1/3ページ]

メールアドレス

利用規約を必ず確認の上、登録ボタンを押してください。