Agentic RAGとは
Agentic RAGとは、従来のRAGにAIエージェントの判断力を組み合わせた発展形
読み: エージェンティック・ラグ
かんたんに言うと
ゴルフで例えると、通常のRAGは「コースの攻略メモ」である。選手(LLM)がメモを読んで自分で判断する。Agentic RAGは「そのコースに精通した超優秀なキャディさん」。風や芝の状態を見て「ここは7番アイアンで、こっちの方向に打つといい」と能動的に案内してくれる。いくらプロでも初めてのコースでは最高の結果は出せないが、コースを知り尽くしたキャディさんがいれば、選手の腕前を最大限に引き出せる。この「選手の技術 × キャディの知識」の連携プレイがAgentic RAGの本質である。
一回きりの検索では解けない問いに挑むAgentic RAGの基本概念
通常のRAGは、質問をそのままベクトル検索にかけ、ヒットしたテキスト片をLLMに渡す。検索は1回きり。これで済む質問ならいい。
だが現実の業務では「A社との契約条件のうち、去年の改定で変わった部分を、競合B社の条件と比較してくれ」のような複合的な問いが飛んでくる。1回の検索で正解にたどり着けるはずがない。
検索クエリの質も問題である。ユーザーの質問文がそのまま良い検索クエリになるとは限らない。「最近の売上どうなってる?」では、どの事業部の、どの期間の売上かすらわからない。従来のRAGはこの曖昧さを解消する手段を持っていなかった。
エージェントが検索を設計する
Agentic RAGの核心は、検索の前に「計画」が入ること。
AIエージェントがユーザーの質問を分解し、どのデータソースに、どんなクエリを、どの順番で投げるかを自分で決める。社内のナレッジベース、外部API、構造化データベース、さらにはベクトル検索では辿り着けない「点と点の繋がり」を知識グラフ(GraphRAG)で探索する。情報源ごとに最適な問い合わせ方がある。それをエージェントが判断する。
LangGraphやCrewAIといったフレームワークが、このワークフローの構築を支えている。検索エージェント、評価エージェント、回答生成エージェントを分離し、それぞれが専門の役割を持つマルチエージェント構成も珍しくない。
マルチホップ検索と情報の裏取り
1つの質問に対して、検索→評価→再検索を繰り返すのがマルチホップ検索である。
最初の検索結果を読んだエージェントが「この情報だけでは不十分だ」と判断すれば、追加のクエリを自動生成して2回目の検索に入る。3回、4回と深掘りすることもある。
ここで重要なのは、取得した情報同士の矛盾を検出する能力である。社内マニュアルの記述と実際の運用が食い違っていることは珍しくない。エージェントが矛盾を見つけたら、どちらが新しい情報かを日付で判断するか、あるいは「2つの情報源で記述が異なる」と正直に報告する。嘘の回答を生成するよりはるかにましである。さらに進んだ手法として、回答を出す直前にエージェント自身が「この回答にハルシネーションが含まれていないか」を検証するSelf-RAGのステップもある。
失敗の記憶を次に活かす仕組み
Agentic RAGが従来型と決定的に異なる点がもう一つある。失敗から学ぶ能力である。
過去の検索で的外れな結果を返したクエリ、ユーザーからネガティブな評価を受けた回答。これらをAgent Memoryに蓄積し、次回以降の検索戦略に反映させる。
たとえば「経費精算のルール」と聞かれて古い規定を返してしまった経験があれば、次からは最新の改定日を優先フィルターに加える、といった学習が起きる。使えば使うほど検索の精度が上がる。ただし、この記憶が不正確なフィードバックで汚染されると逆効果になるため、フィードバックの品質管理は欠かせない。
企業での実践と導入の勘所
製薬業界の薬事申請、金融機関のコンプライアンスチェック、製造業の品質基準照合。複数の規制文書を横断的に参照する業務でAgentic RAGは威力を発揮する。
導入にあたって気をつけるべきは、エージェントの「考えすぎ」である。検索を何度も繰り返すとレイテンシとAPIコストが膨らむ。社内のFAQ自動化程度の質問にマルチホップ検索をかける必要はない。質問の複雑さに応じて、従来のRAGとAgentic RAGを切り替えるルーターを置くのが実務上の定石になっている。
単純な質問は従来型で即答。複合的な調査が必要なときだけエージェントが動く。この使い分けを怠ると、コストだけが膨れて現場から「遅くて使えない」と突き返される。なお、エージェントが優秀でもデータが荒れ放題では意味がない。メタデータの付与やドキュメントの構造化を並行して行うことが、Agentic RAGを成功させる裏の主役である。
当社の見解
当社はAI長期記憶システムを自社開発・運用している(2026年4月現在、1,655件の記憶データを蓄積)。この仕組みにより、AIが過去3ヶ月分の経営判断や設計方針を文脈ごと保持し、「前にも同じ話をしましたよね」という手戻りが激減した。セッションが切れても議論の続きから再開できるため、壁打ち相手としてのAIの価値が根本的に変わった。技術的にはCognee MCPサーバーによる記憶保存と、FastEmbed(ONNX Runtime)+ LanceDBによる非常駐型ベクトル検索(検索レイテンシ8ms、GPU不要)を採用。Hindsight(LongMemEval 91.4%精度)やomega-memoryなど複数の既製品を実環境で検証・棄却した上での選定であり、「個人PCでもエンタープライズでも負荷なく動く軽量さ」を最優先に設計している。
同じ失敗を二度としないAIエージェント
今のAIは、聞けば何でも答えてくれます。
でも、セッションが切れた瞬間に前回の失敗を忘れます。
当社が開発しているAIは、過去の経緯を念頭に置いて、
聞かれる前に「それは前回うまくいきませんでした」と声をかけます。
人間にも同じ失敗をさせず、AI自身も繰り返しません。
古参の社員が横にいるように、黙っていても気づいてくれる。
それが、当社が考える本当のAI社員です。
