出版社の校閲担当者が“AIによるファクトチェック”を完璧と思えない3つの理由…「人間が抱く違和感」を反映できない、そして
こんにちは。新潮社校閲部の甲谷です。
さぁ、いつも通りクイズからいきますね。
「砂をかむような思いがした」などと使われる「砂をかむよう」という慣用句。「文化庁 国語に関する世論調査」の平成30年度版の中でこの言葉の調査が行われています。
では、その調査内で、「砂をかむよう」の「辞書上で主に本来の意味とされてきたもの」は次のうちどちらでしょうか?
1.悔しくてたまらない様子
2.無味乾燥でつまらない様子
【回答】皆さん、分かりましたか?クイズの答え合わせをしてみましょう
出版業のどの部分でAIを活用できるか
今まで当連載で、「ファクトチェック」「素読み」「合わせ」について、AIがどれだけ校閲業を担えるか、検証してきました。
今回、私が上記3要素の中で生成AIの実用性が最も高いと感じたのは、「素読み」です。その能力を利用すれば、「入稿する前の原稿整理」にAIは最適だと思います。前もって単純な誤植の多くを拾ってくれますし、差別表現の確認や体裁、表記の大まかな確認を瞬時に行ってもらえます。
ただし、「作家さんからいただいた原稿」を、作家さんに無断で生成AIに整理してもらうことは絶対に許されません。内容の無断改変になってしまうからです。そのため、作家さんが原稿を書く際の補助として“作家さん自身で”生成AIを活用するケースを除いて、外部筆者の原稿に関し、出版社による生成AIの活用推進は、今後も進みにくいのではないかと私はみています。
しかし、逆に言うと「社内筆者の原稿」、すなわち週刊誌やファッション誌、トレンド誌などの特集で、社内の編集者が書く原稿については生成AIに一旦確認してもらってから入稿することは今後、検討してもよいのではないでしょうか。
なぜなら、そのほうが作業効率や生産性は格段に上がります。ゲラ上での修正が少なくなり、校閲だけでなく印刷所と、編集者自身の負担も減ります。すでに新聞社では、原稿整理ツールが導入されているところが多いようです。
ただし、ChatGPTのような社外の生成AIに原稿を「学習」させることには、慎重になったほうが良いでしょう。外部とのつながりをシャットアウトした“社内専用AI”を自社で開発した出版社もあるという噂を聞きました(新潮社ではありません)。
繰り返しになりますが、「外部筆者」の原稿を、誰でもアクセスできる生成AIに見てもらうことは言語道断です。一方、社内原稿の整理のためにAIを使うとしても、セキュリティの担保された校正ソフトや自社AIなどを活用することが求められます。
AIに人間がファクトチェックされる?
ではここからは、AI校閲の未来について考えてみます。
まず、ファクトチェック(調べ物)についてです。当連載でも検証したように、AIによるファクトチェックにはさまざまな課題があり、特にAIが「正しい情報」と「偽情報」を完璧に見分けることが今後も困難であることから、AIが人間をファクトチェックするのではなくAI「を」人間「が」ファクトチェックする、という構図が続くでしょう。
しかし、「素読み」については、2025年の現時点でも、生成AIのスピード、能力はなかなかのものがあります(生成AIが苦手な誤植も連載内で色々判明したわけですが……)。数十年後、いや数年後には「素読み要員」としてAIが活用される現場が出てくる可能性もゼロではないと私は考えています。もしくは、私が知らないだけですでに導入されている現場もあるかもしれません。
ただし、生成AIがどれだけ優秀だとしても、あくまで「要員」、つまりメンバーの一員です。どんな時代になってもAI単独で校閲が完結することはありません。繰り返しになりますがAIのファクトチェック能力には構造上の問題が色々と残りますし、現実の紙で作業している以上、「合わせ」も完璧には行えません。また、素読みについても「人間だけが持つことのできる違和感」をAIが100%装備することは未来永劫、不可能ではないでしょうか。
さらに、AIは「一律的な校閲」は瞬時に行えても、ゲラの特性、媒体ごとに校閲疑問を細かくチューニングすることまでは今後も難しいでしょう。
実際の現場では、たとえば新人作家さんの大きな文学賞がかかっている作品で、編集からも「気づいたことはどんどん出してください!」と言われているゲラと、「最低限の疑問にとどめてください」というオーダーのゲラ、またノンフィクションやフィクション、発表媒体の違いなど、その場その場で変わってくる要素が山ほどあります。
そうしたオーダーに対応すべく、人間の校閲者は校閲疑問の出し方を少しずつ、場合によっては大きく変えています。校閲疑問を編集者が整理すればいいのでは? と思われるかもしれませんが、雑誌などでは校閲が書き手に直接ゲラを渡すケースもある、ということは以前の連載でも触れました。
生成AIに、「たくさん校閲疑問を出す」「最低限の疑問しか出さない」など色々なパターンをオーダーすること自体は今でも可能で、彼らは「はい、わかりました」と万能の神のような返答をしてくれますが、結局は機械がやっていることであって、人間の心に寄り添うには今後も限界があります。
機械によって出力された結果を参考にすることがあっても、最終的には人間が調整しなければならない。これはずっと変わらないことだと私は考えます。
そして、人間には「責任」というものがあります。誤植を出さない責任、誤植が出てしまったら謝る責任、そういったものをAIは背負ってくれません。
[1/2ページ]


