ファクトチェック
読み: ファクトチェック
ファクトチェックとは真偽を検証
ファクトチェックとは、公開された情報や発言の真偽を証拠に基づいて検証する行為のこと。ジャーナリズムの伝統的な手法だが、AIのハルシネーション対策としても重要性が増している。LLMが生成する文章の事実確認を自動化する技術研究も進んでいる。
かんたんに言うと
「本当にそうなのか」を証拠で裏付ける行為。新聞記者が情報を掲載前に裏取りするのと同じ作業を、AI時代にはAIの出力に対しても行う必要が出てきた。
報道機関が築いてきた事実検証の方法論とその歴史
ファクトチェックの歴史は古い。米国ではPolitiFactやFactCheck.orgが政治家の発言を日常的に検証し、真偽を6段階で評価してきた。日本でもFIJ(ファクトチェック・イニシアティブ)が2017年に設立され、選挙期間中の言説検証に取り組んでいる。
検証のプロセスはシンプルである。発言を特定し、一次情報源にあたり、専門家に確認し、判定を下す。
しかし「シンプル」と「簡単」は違う。一次情報源の特定だけでも、統計データの出典を遡り、調査方法の妥当性まで確認する必要がある。1つの発言の検証に数時間から数日かかることも珍しくない。SNSで拡散されるフェイクニュースの速度に、人手の検証が追いつかない構図がある。
AIハルシネーションが突きつける新たな課題
LLMは事実に基づかない情報を、さも事実であるかのように流暢に生成する。存在しない論文の引用、架空の統計データ、実在しない法律条文。これがハルシネーションである。
厄介なのは、AIの出力が文法的に完璧で論理的に筋が通っているため、読み手が嘘に気づきにくい点にある。専門知識がない領域の情報を受け取ったとき、人間は「もっともらしさ」で真偽を判断してしまう。
RAGの導入はハルシネーション対策の定番だが、検索されたソース自体が誤っていればAIの出力も誤る。結局のところ、最後の砦は人間による検証であり、その検証プロセスの効率をどう上げるかが実務上の課題になっている。
自動ファクトチェック技術の現在地
研究の世界では、AIによる自動ファクトチェックが活発に取り組まれている。Google Researchが発表したFACTSCOREは、LLMの出力を命題単位に分解し、各命題をWikipediaなどの信頼できるソースと照合する手法である。
ClaimBusterは自然言語処理で「検証すべき主張」を自動検出するツールとして知られている。政治演説やニュース記事から検証対象のクレームを抽出し、優先順位をつける。
ただし、自動ファクトチェックの精度は研究段階を超えていない。文脈によって意味が変わる発言、比喩的な表現、統計の解釈の妥当性の判断。こうした領域ではAIはまだ人間の検証者に遠く及ばない。
メディアリテラシーとの接点
ファクトチェックは専門機関だけの仕事ではなくなった。AIが生成した文章を日常的に受け取る時代、一人ひとりが「この情報は本当か」と立ち止まる習慣が求められている。
企業のマーケティング部門でも、AIが作成した記事やプレスリリースの事実確認は避けて通れない。AIに「〇〇市場は年率20%で成長している」と書かせたとき、その数字の出典を確認しないまま公開すれば、企業の信用に傷がつく。
検証のコツは「具体的な数字」と「固有名詞」に絞って重点的に確認すること。AIは数値と名称の捏造が多い。逆に、一般的な説明文や定義の記述は比較的正確なことが多い。リスクの高い箇所にリソースを集中させるのが、実務的なファクトチェックの回し方である。
当社の見解
当社ではClaude Code・Antigravity・Codexの3つのAIエージェントを日常業務で併用している。記憶を共有しているため、別のAIに同じ説明を繰り返す必要がない。ただし、記憶共有だけでは足りなかった。一方のAIが他方の成果物を勝手に修正して壊す事故が起きた。これを受けてファイル所有権制度を導入し、どのAIがどのファイルを所有するかを定義した。AIの自主性に頼らず、仕組みで上書きや巻き戻りを防いでいる。
同じ失敗を二度としないAIエージェント
今のAIは、聞けば何でも答えてくれます。
でも、セッションが切れた瞬間に前回の失敗を忘れます。
当社が開発しているAIは、過去の経緯を念頭に置いて、
聞かれる前に「それは前回うまくいきませんでした」と声をかけます。
人間にも同じ失敗をさせず、AI自身も繰り返しません。
古参の社員が横にいるように、黙っていても気づいてくれる。
それが、当社が考える本当のAI社員です。
