「巧妙なニセ情報に弱い」だけじゃなかった…AIによるファクトチェックが完璧と言えない「根本的な問題」
AIはネット以外の資料を確認できない
さらに、根本的な問題として、「AIはインターネット上にない資料を確認できない」という点も指摘しておかねばなりません。
人間の校閲者は、現場でいろいろな資料を参照します。既に世に出ている書籍や新聞、雑誌などの「引用の確認」や「内容の確認」という作業を日々、頻繁に行っています。
また、週刊誌を例にとると、プリントアウトされた裁判資料や公文書、FAX、記者の取材メモに至るまで、「データ化されていないが必ず確認しなければならない」資料というのは山ほどあります。スキャンして文字を認識して……といった手法で一部の業務をAIが担当できる可能性はありますが、いずれにしろ最終的には人間が確認する必要がありますよね。万が一、引用照合のミスが残ったまま刊行物が世に出た場合、AIのせいにするわけにはいきません。
ChatGPT自身にも訊いてみた
前回と今回で見てきた「情報のアップデート」と「情報源」、「ネット上にない資料」という3つの要素からしても、AIにファクトチェックを一任するのは今後も困難、というのが2025年夏時点での私の結論です。
ただし、「どこを調べれば目的の情報にたどり着けるか」ということを瞬時にアドバイスしてくれるなど、人間の心強いサポート役にはなりえます。「有能すぎる相談相手」「一番賢い友達」というイメージでしょうか。
ここで、本人登場! ということで、生成AI自身(ChatGPT)にも「生成AIによるファクトチェックを完璧に行なうことは可能でしょうか?」と質問してみました。
すると、「結論から言うと、生成AIによってファクトチェックを『完璧に』行うことは現時点では不可能です」と始まり、「情報源の信頼性を自動で評価できない」「虚偽の巧妙なデータに弱い」など、生成AIの弱点を自ら教えてくれました。
そして最後には、
生成AIはファクトチェックの一次的な確認や誤りの疑いの抽出には非常に役立ちます。しかし、信頼性の高いファクトチェックを求めるなら、人間による裏取りや判断が不可欠です。
と出力されました。
また、ChatGPTにどんな質問をしても、画面の一番下には「ChatGPTの回答は必ずしも正しいとは限りません。重要な情報は確認するようにしてください」と書かれています。
[2/3ページ]

