Bi-Mem

BI MEM
読み: バイメム

読み: バイメム

Bi-MemとはLLMの階層型記憶構築フレームワーク

Bi-Memとは、LLMに階層型の長期記憶を持たせるフレームワーク。会話の事実(Level 0)、シーンの要約(Level 1)、ユーザーのペルソナ(Level 2)の3層構造で記憶を管理し、下位から上位への帰納と、上位から下位への検証を双方向に行う。

かんたんに言うと

「昨日の会議で田中さんがコスト削減を主張した」という事実から、「田中さんは財務重視の人」というペルソナを自動で形成し、次の会話でそのペルソナを前提にAIが応答する仕組み。

3層の階層型メモリグラフ

情報を3つの抽象度で管理する。Level 0(Fact)は会話を細分化した事実データ。キーワードや文脈のメタデータを含む。Level 1(Scene)は複数の事実を意味のあるまとまりとして要約したシーン。Level 2(Persona)はシーンから抽出されたユーザーの興味関心、性格、価値観のプロファイル。
単なるベクトル検索RAGでは「意味が近い文書」は引けても「この人はどういう人か」までは構造化できない。Bi-Memはこの限界を、人間の認知プロセス(具体→抽象の一般化)を模倣することで超える。

双方向の構築とハイブリッド検索

「双方向」がBi-Memの核心。下位の事実から上位のペルソナを帰納的に推測するだけでなく、形成されたペルソナの視点で下位の記憶を検証・強化するトップダウンのフィードバックループを持つ。
記憶の検索ではベクトル検索とBM25キーワード検索のハイブリッドに加え、見つけた記憶ノードから親(抽象概念)や子(具体的事実)をたどるグラフ探索を行う。SceneManagerやPersonaManagerといった複数のAIエージェントが、記憶の整理と構築を自動的に担当する。

当社の見解

記憶を大量に保存しても、AIは自分からは思い出さない。聞けば検索して答えるが、聞かなければ関連する記憶があっても引き出さない。当社が5層検索を設計した理由はここにある。さらに、教訓を全部注入するとAIが情報過多でルールから逸脱する確率が上がる。ルールを詳細に1万文字書いてもAIはその1万文字を読まない。これは人間と同じで、毎回1万文字のルールを読まされても段々と忘れてしまい守れなくなってしまうのと同じである。AIも人間もルールを守ってもらうには、必要な教訓だけをタスクに応じて選択的に注入する仕組みに切り替えた。これで「覚えてくれているな」という実感が増えた。記憶の量より、つながりと想起の仕組みの方が価値が高い。

同じ失敗を二度としないAIエージェント

今のAIは、聞けば何でも答えてくれます。
でも、セッションが切れた瞬間に前回の失敗を忘れます。

当社が開発しているAIは、過去の経緯を念頭に置いて、
聞かれる前に「それは前回うまくいきませんでした」と声をかけます。
人間にも同じ失敗をさせず、AI自身も繰り返しません。

古参の社員が横にいるように、黙っていても気づいてくれる。
それが、当社が考える本当のAI社員です。

相談する