「巧妙なニセ情報に弱い」だけじゃなかった…AIによるファクトチェックが完璧と言えない「根本的な問題」
こんにちは。新潮社校閲部の甲谷です。
今回もクイズからいきましょう。
以前、連載でも取り上げた「代用字」。例えば「年令」の“令”は代用字で、本来は「年齢」です(「年令」がダメというわけではありません)。では、以下の熟語における本来の表記はそれぞれ何でしょうか?
1.希薄 2.憶測 3.決別 4.波乱 5.扇動
【回答】皆さん、分かりましたか?クイズの答え合わせをしてみましょう
AIによるファクトチェックは可能か?
さて、「AIに校閲は可能なのか?」を確かめるべく、前回から「AIによるファクトチェック」について検証しています。今回はその続きです。
前回、生成AIによるファクトチェックでは「最新のデータが搭載されていない」という問題があり、文章の一部をそもそも確認できない(人間に確認を要求する)という事象がある。ただし、ウェブ検索機能の進化次第ではそれが解決されるかもしれない……という話を紹介しました。
しかし、調べてみるとAIのファクトチェックには他にも大きな問題・課題があります。今回はそれらを確認していきましょう。
生成AIが参照しているサイトは……
例えば、この連載をお読みのあなたが一番好きな歌手について、生成AIに次のように質問してみてください。
「鬼束ちひろさんのプロフィールを教えてください」
……鬼束ちひろさんは、僕が学生時代に一番、好きだった歌手です!! と、それはさておき、ChatGPT(最新版のGPT-4o、2025年7月1日現在。以下同様)の場合、回答の「根拠」(ソース)の半数以上がWikipediaでした。Googleが提供する「Gemini」(2.5 Pro)でも結果に大差はなく、その回答には所属レコード会社のページを参照した箇所もあれば、WikipediaやSNSからの情報も混ざっていました。
校閲業界において、Wikipediaやそれをもとにしたウェブ辞書、SNSの不確実な情報、第三者のブログなどを根拠に校閲疑問を出すことは、基本的にNGです。
「Wikipediaにしか載っていない情報」も多いのですが、それを根拠にすることはありません。どこの誰が書いたものか、きちんとチェックされているものかがはっきりしないため、新聞や辞書などの「一次情報源」に比べて信頼度がガクッと見劣りするからです(Wikipedia以外の情報がなかった場合、「未確認」もしくは「不確定なwebの情報しか見つからず」などとゲラ上に明記しておくのがベストです)。
この「情報源」の問題は、ChatGPTのみならず、すべての生成AIが持つ根本的な課題です。後で詳しく書きますが、ChatGPTにこの点を質問したところ、「情報源の信頼性を自動で評価できない」という“自らの悩み”を率直に吐露してくれました。
つまり、生成AIは現状、「信頼できる情報」と「信頼できない情報」のつぎはぎでファクトチェックをしてしまっており、それを修正することができていないのです。
ほかの例として、AI検索で東京都内のとある高校について調べてみると、「甲子園準優勝」と出てきたので、そうなのか! と思ったら正しくは「甲子園出場校を決める都大会で準優勝の経験あり」でした。途中で誤った情報をくっつけてしまったのでしょうか。
いずれにしても、AIによるファクトチェックは、うまくハマれば人間とは比べ物にならないスピードを発揮するのですが、正確性に欠ける場合が非常に多く、「まばら」「行き当たりばったり」というのが校閲者としての私の感想です。
[1/3ページ]


