Hindsightとは
Hindsightとは、Vectorize.ioが開発したAIエージェント向けの長期記憶インフラである
読み: ハインドサイト
Vectorize.ioが開発したAIエージェント向けの長期記憶インフラである。LongMemEvalベンチマークで91.4%の精度を達成し、従来のRAGを44.6ポイント上回った。Fortune 500企業での本番稼働実績を持ち、MITライセンスで公開されている。
かんたんに言うと
AIが会話を重ねるほど賢くなるための「記憶の整理棚」である。単に過去のやりとりを保存するのではなく、事実・経験・観察・見解の4つに分類して格納する。人間が「あの件、確かこうだった」と思い出すように、AIが必要な文脈を必要なタイミングで引き出せる仕組みとなっている。
4層のメモリネットワークが実現する構造化された記憶
Hindsightの特徴は、情報を単一のデータベースに格納するのではなく、4つの論理ネットワークに分けて管理する点にある。Worldは外部世界の客観的事実、Experienceはエージェント自身の過去の行動履歴、Observationは複数の事実から合成されたエンティティの要約、Opinionは確信度付きの信念を格納する。
この分離により、事実と見解が混在しない。たとえば「顧客が2回購入した」という事実と「この顧客はリピーターになる可能性が高い」という推論が別の層に管理される。新しい証拠が入ればOpinion層だけが更新され、事実は変わらない。ナレッジグラフとの違いは、この主観と客観の分離にある。
Retain、Recall、Reflectの3つの操作で記憶を制御する
Hindsightの操作体系は3つの動詞に集約される。Retainは対話ストリームを構造化されたナラティブとして保存する処理である。Recallは単なるキーワード検索ではなく、文脈に応じて必要な分だけを抽出する。Reflectは蓄積データからパターンを見出し、信念や好みを更新する推論レイヤーとなる。
この3段階の設計により、LLMは過去の経験から学習する能力を獲得する。検索の心臓部であるTEMPRエンジンは、ベクトル検索、キーワード検索、グラフ検索、時系列検索の4手法を組み合わせ、Reciprocal Rank Fusionで統合して最適な結果を返す。
エンタープライズ設計とMCP対応
Hindsightはサーバー/クラウド環境向けに設計されたエンタープライズ製品である。Docker Compose、Helm、pipでのセルフホスティングに加え、Hindsight Cloudも提供されている。最大150万トークンの対話ログをリアルタイムで構造化・グラフ化する処理はCPU/メモリ消費が激しく、個人PCでの常駐運用には向いていない。
Anthropicが提唱したMCPに対応しており、Claude Desktopやその他のエージェントツールに外部記憶として即座に接続できる。LangGraph、CrewAI、Claude Codeといったエージェントフレームワークとの統合も進んでいる。開発元はVectorize.io。バージニア工科大学やワシントン・ポスト紙との共同研究から生まれた技術で、MITライセンスで公開されている。
当社の見解
当社はCognee MCPサーバーをベースにした独自の記憶システムを運用しており、Hindsightの4層アーキテクチャは設計思想として参考にしている。特にOpinion層の「確信度付き信念」は、当社のimportanceスコア(1-5段階)と近い発想である。導入検証では、あえてエンタープライズサーバーではなく一般的なデスクトップPC環境でHindsightを常駐運用し、実務負荷を計測した。結果、埋め込みモデル(bge-m3)とリランカー(bge-reranker-v2-m3)の常駐によりCPU・GPU使用率が大幅に上昇し、3台のAIを並行運用する環境では他の業務に支障が出ることが分かった。Hindsightの精度(LongMemEvalベンチマーク91.4%)は高く評価できるが、導入先のインフラ規模に応じた構成選定が不可欠である。記憶インフラの選定は「精度」だけでなく「どこで動かすか」「常駐時のリソース消費」を先に検証してから比較すべきである。
同じ失敗を二度としないAIエージェント
今のAIは、聞けば何でも答えてくれます。
でも、セッションが切れた瞬間に前回の失敗を忘れます。
当社が開発しているAIは、過去の経緯を念頭に置いて、
聞かれる前に「それは前回うまくいきませんでした」と声をかけます。
人間にも同じ失敗をさせず、AI自身も繰り返しません。
古参の社員が横にいるように、黙っていても気づいてくれる。
それが、当社が考える本当のAI社員です。
