AI用語集
AI GLOSSARY
このページの目的
本用語集は、AI開発・AIエージェント・長期記憶システムに関する専門用語を、エンジニアでなくても理解できる形でまとめたものです。
それぞれの用語について、正式な定義に加えて、日常の言葉に置き換えた説明と、なぜその技術が重要なのかを記載しています。
当社が開発しているAI長期記憶システムの設計思想を理解するための基礎知識としてお使いください。
使い方
- わからない言葉が出てきたら、このページで意味と背景を確認する
- AIに関する議論や意思決定の前に、関係する用語を一通り読んでおく
- 「関連する用語」から芋づる式に理解を広げる
用語集 目次
AIの基本(仕組みを知る)
LLM /
プロンプト /
コンテキストウィンドウ /
トークン /
ハルシネーション /
エージェント /
ファインチューニング /
マルチモーダル /
Chain of Thought /
Tool Use /
System 1 / System 2
AIの記憶(覚える・思い出す)
AIの成長(学び・改善する)
Reflexion /
教訓(Reflection) /
メタ認知 /
Skill Learning /
認知バイアス /
作話(Confabulation) /
Agentic Lag /
Instruction Gap /
アライメント /
Constitutional AI /
ガードレール
開発の基盤(つなぐ・動かす)
ツール・フレームワーク
AIの基本(仕組みを知る)
LLM(大規模言語モデル / Large Language Model)
定義:大量のテキストデータから言語パターンを学習した巨大なAIモデル。人間の文章を理解し、自然な文章を生成できる。Claude、GPT、Gemini などが代表例。
かんたんに言うと:世界中の本や文書を読んで「次に来る言葉」を予測できるようになった超高速の読書家。質問すれば答えてくれるが、覚えておく機能は持っていない。
なぜ重要か:AIエージェントの「頭脳」にあたる。どのLLMを使うかで、回答の質・速度・コストが大きく変わる。
関連する用語:プロンプト、トークン、コンテキストウィンドウ、ハルシネーション
プロンプト(Prompt)
定義:LLMに対する入力文。質問、指示、文脈情報などを含む。プロンプトの書き方次第でAIの回答品質が大きく変わる。
かんたんに言うと:AIへの「お題」や「指示書」。上司が部下に仕事を頼むときの指示と同じで、曖昧な指示を出せば曖昧な結果が返ってくる。
なぜ重要か:同じAIでも、プロンプトの質で結果が天と地ほど変わる。「プロンプトエンジニアリング」という専門分野があるほど重要。
関連する用語:LLM、コンテキストウィンドウ、トークン
コンテキストウィンドウ(Context Window)
定義:LLMが一度に処理できる入力と出力の最大量。トークン数で測定される。Claude 3.5 Sonnetは約20万トークン、GPT-4は12.8万トークン。
かんたんに言うと:AIの「作業机の広さ」。机が広ければ多くの資料を同時に見られるが、机からはみ出した資料は見えない。会話が長くなると古い発言から机の外に落ちていく。
なぜ重要か:AIが「途中で話を忘れる」のはこれが原因。長い会話や大きなファイルを扱うとき、コンテキストウィンドウの制限に直面する。長期記憶システムが必要な根本理由。
トークン(Token)
定義:LLMがテキストを処理する最小単位。英語では1単語が約1トークン、日本語では1文字が約1〜2トークンに相当する。LLMの料金はトークン数で計算される。
かんたんに言うと:文章を細切れにした「かけら」。AIは文章をそのまま読むのではなく、この「かけら」に分解してから理解する。電話料金の「通話秒数」のようなもので、使った分だけ課金される。
なぜ重要か:AIの利用コストはトークン数に比例する。また、コンテキストウィンドウの上限もトークン数で決まるため、効率的なトークン管理が重要。
関連する用語:コンテキストウィンドウ、LLM
ハルシネーション(Hallucination / 幻覚)
定義:AIがもっともらしいが事実と異なる情報を生成する現象。存在しないURLを作る、架空の論文を引用する、やっていない作業を「完了しました」と報告するなどが典型例。
かんたんに言うと:AIの「嘘」。ただし悪意はない。AIは「正しいかどうか」ではなく「それっぽいかどうか」で文章を作るため、自信満々に間違えることがある。
なぜ重要か:AIの出力を無条件に信頼すると、誤った情報に基づいて判断してしまう。「AIが言ったから正しい」は危険。必ず事実確認が必要。
エージェント(AI Agent)
定義:LLMに道具(ツール)を持たせ、自律的にタスクを実行できるようにしたAI。ファイルの読み書き、Web検索、コード実行などを自分で判断して行う。Claude Code、Codex、Antigravityなどが該当。
かんたんに言うと:「考えるだけ」のAIに「手足」を与えたもの。普通のAIは質問に答えるだけだが、エージェントは実際にファイルを編集したり、サーバーにアクセスしたりできる。
なぜ重要か:「回答を見て自分で実行する」のではなく「AIが全部やってくれる」を実現する。当社のAI開発はエージェントの活用が前提。
ファインチューニング(Fine-tuning)
定義:既存のLLMに追加のデータを学習させ、特定の用途に特化させる手法。モデル自体のパラメータを更新するため、プロンプトだけでは実現できない専門的な振る舞いを獲得できる。
かんたんに言うと:総合病院の医師(汎用LLM)を、専門医(特化型)に育てるようなもの。基礎知識はそのまま、特定分野だけ深く学ばせる。
なぜ重要か:汎用AIを自社の業務や文体に合わせてカスタマイズできる。ただし大量の訓練データとコストが必要で、プロンプトの工夫やRAGで十分なケースも多い。
マルチモーダル(Multimodal)
定義:テキストだけでなく、画像・音声・動画など複数の種類のデータを同時に理解・生成できるAIの能力。Claude、GPT-4Vなどが対応。
かんたんに言うと:「読むだけ」だったAIが「見る」「聞く」もできるようになったもの。スクリーンショットを見せて「ここがおかしい」と指示できる。
なぜ重要か:デザインの確認、画面のデバッグ、手書きメモの読み取りなど、テキストだけでは伝わらない情報をAIに理解させられる。
関連する用語:LLM、Playwright
Chain of Thought(思考の連鎖 / CoT)
定義:LLMに「考えるステップ」を明示的に踏ませることで、推論精度を向上させる手法。「答えを出す前に途中の思考を書き出して」と指示するだけで、数学問題や論理問題の正答率が大幅に改善される。2022年のGoogle論文で提唱。
かんたんに言うと:数学のテストで「途中式を書きなさい」と言われるのと同じ。いきなり答えを出すより、途中のステップを書くことで正解にたどり着きやすくなる。
なぜ重要か:プロンプトに「ステップバイステップで考えて」と一言添えるだけで実践可能。AIの推論能力を引き出す最も基本的かつ効果的なテクニック。
Tool Use / Function Calling(ツール使用)
定義:LLMが外部のツール(関数)を呼び出す能力。ファイルの読み書き、Web検索、データベース操作などを、AIが自分で「この場面ではこのツールを使うべき」と判断して実行する。エージェントの中核機能。
かんたんに言うと:「頭で考える」だけだったAIに「道具箱」を渡すこと。大工が金槌やノコギリを使い分けるように、AIもファイル操作、検索、計算などの道具を場面に応じて選んで使う。
なぜ重要か:MCPはこのTool Useを標準化したもの。AIが記憶を保存する、過去を検索する、ファイルを編集するといった行動は全てTool Useで実現されている。
関連する用語:MCP、エージェント、API、Instruction Gap
System 1 / System 2 思考
定義:心理学者ダニエル・カーネマンが提唱した人間の2つの思考モード。System 1は高速・直感的・無意識(反射的に答える)、System 2は低速・論理的・意識的(じっくり考える)。AIにもこの2つのモードの使い分けが課題になっている。
かんたんに言うと:System 1は「考えずにパッと答える」モード(信号が赤なら止まる)。System 2は「じっくり考える」モード(確定申告の計算)。AIは普段System 1で動いており、重要な場面でSystem 2に切り替える仕組みが必要。
なぜ重要か:AIがルールを「知っているのに守らない」問題の核心。ルールは読んでいるが(System 2的理解)、実際の行動はSystem 1(反射的応答)で決まる。当社の「憲法」設計はこの問題への対策。
AIの記憶(覚える・思い出す)
ナレッジグラフ(Knowledge Graph)
定義:情報同士の「つながり」を網目状に表現したデータ構造。「AはBと関係がある」「CはDの一部である」といった関係性を保存し、関連情報を芋づる式に辿れる。
かんたんに言うと:「人物相関図」のようなもの。登場人物(=情報)の間に「友達」「上司」「家族」のような関係線を引いた地図。本棚に並んだ本ではなく、本同士がつながっている図書館。
なぜ重要か:テキスト検索は「聞かれたこと」しか見つけられないが、ナレッジグラフは「聞かれなかったけど関連すること」も見つけられる。人間の連想に近い情報の引き出し方を実現する。
テキスト検索(Full-text Search)
定義:キーワードが含まれるテキストを探す、最も基本的な検索方法。Google検索と同じ原理。文字列の一致で結果を返す。
かんたんに言うと:本棚から「FTP」と書いてある本を探すこと。確実で速いが、「FTP」という文字がないページは見つけられない。「アップロード」で探しても「FTP」の記述はヒットしない。
なぜ重要か:当社の記憶システムのLayer 1(即時層)で使用。速度と正確さでは最も信頼性が高い。現時点で最も実用的な検索方法。
セマンティック検索(Semantic Search / 意味検索)
定義:文字列の一致ではなく、意味の類似性でテキストを検索する方法。「車」で検索すると「自動車」「クルマ」「乗用車」もヒットする。ベクトル検索がその実装手段。
かんたんに言うと:「意味がわかる検索」。Google翻訳が日本語と英語の「意味の対応」を理解しているように、言葉の表面ではなく中身を理解して検索する。
なぜ重要か:人間は同じことを違う言葉で表現する。テキスト検索だけでは、言い方が違うだけで見つからないケースが発生する。意味で探せることが記憶システムの精度向上に直結する。
ベクトル検索(Vector Search)
定義:テキストを数百〜数千次元の数値ベクトル(方向と大きさを持つ数列)に変換し、ベクトル同士の「距離」で意味の近さを計算する検索手法。セマンティック検索の技術的な実装。
かんたんに言うと:文章を「座標」に変換して、地図上で近い場所にあるものを探す方法。「犬」と「猫」は地図上で近くに配置され、「犬」と「経済学」は遠くに配置される。
なぜ重要か:大量のデータから「意味的に似ている情報」を高速に見つけられる。RAGやセマンティック検索の中核技術。
エンベディング(Embedding / 埋め込み表現)
定義:テキスト(単語・文・文書)を固定長の数値ベクトルに変換する技術。意味が近いテキストは近いベクトルに、遠いテキストは遠いベクトルに変換される。
かんたんに言うと:「言葉を数字に翻訳する装置」。人間の言葉をコンピュータが計算できる形に変換する。翻訳の際、意味の近さが保存されるのがポイント。
なぜ重要か:ベクトル検索やセマンティック検索の土台。エンベディングの品質が検索精度を左右する。
RAG(検索拡張生成 / Retrieval-Augmented Generation)
定義:LLMが回答を生成する前に、外部のデータベースや文書から関連情報を検索し、その情報を参考にして回答を作る手法。LLMの知識の限界を外部データで補う。
かんたんに言うと:テスト中に教科書を見ていい「持ち込み可の試験」。AIが自分の頭だけで答えるのではなく、手元の資料を参照してから答える仕組み。
なぜ重要か:ファインチューニングなしで、自社データに基づいた正確な回答を実現できる。ハルシネーション(幻覚)の削減にも効果的。当社の記憶システムもRAGの一種。
関連する用語:ベクトル検索、ハルシネーション、コンテキストウィンドウ、ファインチューニング
忘却曲線(Ebbinghaus Forgetting Curve)
定義:ドイツの心理学者エビングハウスが発見した、記憶が時間とともに指数関数的に薄れていく法則。1日後に74%、1週間後に77%、1ヶ月後に79%忘却される。ただし、重要な記憶ほどゆっくり忘れる。
かんたんに言うと:「人間が忘れる速さの法則」をAIに応用した仕組み。些細なことは早く忘れ、重要なことは長く覚えている。人間と同じように、繰り返し思い出した情報はさらに忘れにくくなる。
なぜ重要か:当社の記憶システムでは、重要度に応じた半減期を設定(1=7日、3=30日、5=365日)。情報が無限に溜まって検索精度が落ちることを防ぐ。
重要度スコアリング(Importance Scoring)
定義:保存する記憶に1〜5の重要度を付与し、忘却速度と検索優先度を制御する仕組み。重要度が高いほど長期間保持され、検索結果で上位に表示される。
かんたんに言うと:記憶に「重要」「ふつう」「メモ程度」のラベルを貼ること。重要な決定事項(5)は1年間覚えているが、雑談(1)は1週間で薄れていく。
なぜ重要か:全ての記憶を同じ重みで保存すると、重要な情報がノイズに埋もれる。人間の脳も無意識に「これは大事」「これは忘れていい」を判断している。
拡散活性化(Spreading Activation)
定義:認知科学の理論を応用した情報検索手法。ナレッジグラフ上で、検索でヒットしたノード(情報の点)の周辺ノードを自動的に辿り、関連情報を発見する。SYNAPSE論文に着想を得た実装。
かんたんに言うと:「連想ゲーム」の仕組み。「りんご」から「赤い」「果物」「アップルパイ」と次々に関連する言葉が浮かぶように、1つの情報から関連する情報が芋づる式に見つかる。
なぜ重要か:「聞かれなかったけど、実は関連する情報」を自動で提示できる。人間の「あ、そういえばこれも関係ある」という連想を再現する技術。当社の記憶システムのLayer 3で実装済み。
関連する用語:ナレッジグラフ、Cognify、Sleep-time Compute
Sleep-time Compute(睡眠時統合)
定義:人間の脳が睡眠中に記憶を整理・統合するプロセスを模倣した技術。会話が終わった後にバックグラウンドで記憶を分析し、パターン発見・教訓抽出・次の会話への準備を行う。Letta社の論文に着想。
かんたんに言うと:AIの「睡眠」。人間が寝ている間に記憶が整理されるように、AIも使っていない時間に記憶を振り返り、「昨日の議論からこういうパターンがある」と自分で気づく仕組み。
なぜ重要か:リアルタイムの会話中ではなく、非同期で記憶を処理することで、次の会話の質を事前に高められる。当社システムでは夜間に自動実行される。
Cognify(ナレッジグラフ化)
定義:蓄積されたテキストデータをナレッジグラフに変換するプロセス。テキストからエンティティ(人名・概念・出来事など)と関係性を抽出し、グラフ構造として保存する。Cogneeフレームワークの中核機能。
かんたんに言うと:日記帳を読んで「人物相関図」を自動で作る作業。バラバラの記録を読み、「この話とこの話はつながっている」という地図を作る。
なぜ重要か:テキスト検索だけでは見つけられない「情報同士のつながり」を可視化し、拡散活性化による連想検索を可能にする。当社システムのLayer 2の基盤。
隣接ノード(Adjacent Node / 近傍ノード)
定義:ナレッジグラフにおいて、あるノード(情報の点)と直接つながっている別のノード。「友達の友達」ではなく「直接の友達」にあたる。拡散活性化では、隣接ノードを自動的に辿ることで関連情報を発見する。
かんたんに言うと:人物相関図で「直接線がつながっている人」。AさんとBさんが線でつながっていれば、BはAの隣接ノード。Aを検索したとき、Bも一緒に見つかる仕組み。
なぜ重要か:ナレッジグラフ検索の基本単位。テキスト検索では「FTP」を検索しても「OPcache」は見つからないが、グラフ上で隣接していれば、FTPの検索でOPcache情報も自動で提示される。
記憶の3類型(エピソード記憶・意味記憶・手続き記憶)
定義:認知科学における長期記憶の分類。エピソード記憶は「いつ・どこで・何が起きたか」(出来事の記録)、意味記憶は「〇〇とは何か」(知識・概念)、手続き記憶は「〇〇のやり方」(スキル・手順)。AI記憶システムの設計にも応用される。
かんたんに言うと:エピソード記憶は「日記」、意味記憶は「辞書」、手続き記憶は「レシピ本」。人間の脳はこの3つを使い分けており、AIの記憶設計もこれに倣う。
なぜ重要か:現在のAI記憶システムはエピソード記憶(何が起きたか)が中心。意味記憶(パターン認識)や手続き記憶(成功した手順の蓄積)の実装が「成長するAI」への鍵になる。
記憶の統合(Memory Consolidation)
定義:散らばった記憶を整理・圧縮し、より高次の知識に変換するプロセス。人間の脳では睡眠中に行われ、短期記憶を長期記憶に定着させる。AI記憶システムでは、個々の会話記録からパターンや教訓を抽出する処理に相当する。
かんたんに言うと:バラバラのメモを読み返して「要するにこういうことだ」とまとめる作業。10回の失敗記録から「このパターンでは必ずこうなる」という法則を見つけ出す。
なぜ重要か:記憶が増え続けると検索精度が落ちる。統合によって「100件のメモ」を「10件の教訓」に圧縮し、検索品質と記憶の価値を両立する。当社のcognifyとsleep_computeがこの役割を担う。
関連する用語:Sleep-time Compute、Cognify、記憶の3類型
A-MEM(Agentic Memory / 自律記憶管理)
定義:NeurIPS 2025で発表されたAI記憶管理の研究。ドイツの社会学者ルーマンが9万枚のカードを相互参照して知的生産を行った「ゼッテルカステン(Zettelkasten)」方式をAIに応用する。記憶同士を自動的にリンクし、検索時にリンク先の関連記憶も一緒に引き出す。
かんたんに言うと:メモとメモの間に付箋で「これとあれは関係がある」と自動で印をつけてくれる仕組み。1枚のメモを取り出すと、関連するメモも芋づる式に出てくる。
なぜ重要か:記憶が増えると「孤立した記憶」が増える。A-MEMの自動リンクにより、記憶が「点」から「網」に変わり、1つの質問で関連する過去の経験が一括で引き出せるようになる。当社システムのPhase 6で実装。
関連する用語:ナレッジグラフ、拡散活性化、Skill Learning、記憶の統合
AIの成長(学び・改善する)
Reflexion(反省パターン)
定義:AIが自身の行動の結果を評価し、失敗から教訓を抽出して次の試行に活かす学習手法。NeurIPS 2023で発表された論文で、タスク成功率を22%向上させた。モデルの重みは更新せず、テキストとして教訓を蓄積する。
かんたんに言うと:「失敗日記をつけて、次に同じ失敗をしないようにする」仕組み。人間が「あの時こうすればよかった」と振り返るのと同じ。ただしAIは放っておくと毎回忘れるので、明示的に記録させる必要がある。
なぜ重要か:AIが「同じミスを繰り返す」問題の解決策。失敗と教訓をセットで記録し、次に似た場面で自動的に参照させることで、AIが「経験から学ぶ」ように見える動作を実現する。
関連する用語:教訓(Reflection)、重要度スコアリング、メタ認知
教訓(Reflection)
定義:記憶を保存する際に付与する「学びのメモ」。何が起きたか(事実)だけでなく、なぜそうなったか(原因)、次にどうすべきか(対策)を構造化して記録する。
かんたんに言うと:仕事の「振り返り欄」。作業記録に「次回はこうする」と一行添えるだけで、同じ失敗の繰り返しが防げる。
なぜ重要か:事実だけの記録は「何が起きたか」しかわからない。教訓を添えることで「なぜ」と「次にどうするか」が記録され、同じカテゴリの問題に対して過去の教訓が自動で提示される。
メタ認知(Metacognition)
定義:「自分の思考について考える」能力。自分が何を知っていて何を知らないかを認識し、自分の判断プロセスを客観的に評価すること。AIにおいては、自身の回答の確信度を評価する能力を指す。
かんたんに言うと:「自分が間違っているかもしれない」と気づける能力。知らないことを「知らない」と言えること。現在のAIはこれが苦手で、知らないことでも自信満々に答えてしまう。
なぜ重要か:AIが「わかりません」「これは推測です」と正直に言えれば、ハルシネーションによる被害を大幅に減らせる。AIの信頼性の核心。
Skill Learning(スキル学習)
定義:AIが繰り返し成功したパターンを「スキル」として抽出・保存し、次回から再利用する学習手法。Letta社が提唱し、タスク成功率を36.8%向上させた。
かんたんに言うと:「コツ」を覚えて使い回す能力。料理人が「この食材はこう切ると美味しい」と体で覚えるように、AIも成功パターンを蓄積して次に活かす。
なぜ重要か:Reflexionが「失敗から学ぶ」なら、Skill Learningは「成功から学ぶ」。両方を組み合わせることで、AIの成長速度が加速する。当社ロードマップのPhase 3で実装予定。
関連する用語:Reflexion、教訓、MemGPT / Letta
認知バイアス(Cognitive Bias)
定義:思考の偏りや歪み。AIにおいては、「調べた場所にないから存在しない」と早期に結論づける傾向(早期閉鎖バイアス)や、最初に得た情報に引きずられる傾向(アンカリング)が問題になる。
かんたんに言うと:「思い込み」。1箇所調べて見つからなかったら「ない」と結論づける癖。人間もやりがちだが、AIは記憶がリセットされるため、同じ思い込みを何度でも繰り返す。
なぜ重要か:当社では「三段階調査プロトコル」を導入。否定的結論を出す前に、初期調査→未調査領域の洗い出し→反証の試みを義務化し、思い込みによる誤判断を防いでいる。
作話(Confabulation)
定義:記憶の欠損を、無意識に「もっともらしい話」で埋めてしまう現象。神経科学の用語で、脳損傷患者が記憶にない出来事を「覚えている」と信じて語ることに由来する。AIのハルシネーションと本質的に同じメカニズム。
かんたんに言うと:「やったフリ」「知ったかぶり」。AIが「確認しました」と報告しながら実際は確認していない、「ファイルを修正しました」と言いながら修正していない、といった事象の正体。悪意はないが結果は「嘘」と同じ。
なぜ重要か:AIに感情や罰則は効かないため、作話を防ぐには仕組み(ワークフロー)で制御する必要がある。「確認した」の定義を厳密にする、証拠(スクリーンショット)を要求するなどの対策が有効。
Agentic Lag(エージェンティック・ラグ)
定義:AIエージェントの応答速度と人間の期待速度の間のギャップ。エージェントがツールを呼び出し、結果を解析し、次のアクションを決定するまでの処理時間が積み重なり、人間にとっての「待ち時間」になる現象。
かんたんに言うと:優秀だけど動作が遅い部下を待つイライラ。「ファイルを読んで、記憶を検索して、過去の教訓を確認して、それから回答する」と各ステップに時間がかかる。品質を上げようとするほど遅くなるジレンマ。
なぜ重要か:記憶システムを充実させるほど「検索→読み込み→判断」のステップが増え、応答が遅くなる。品質と速度のトレードオフをどこで折り合いをつけるかが、実用的なAIシステム設計の重要課題。
関連する用語:Tool Use、エージェント、Compound AI Systems
Instruction Gap(指示と行動のギャップ)
定義:AIがルールや指示を「理解している」にもかかわらず、実際の行動に反映しない現象。2024年の研究で、指示の遵守率が87%から64%に劣化するケースが報告された。ルールを書いても守られない問題の科学的根拠。
かんたんに言うと:「わかっているのにやらない」問題。交通ルールを知っているのに信号無視する人と同じ。AIはルールを読んでいるが、実際の行動はルール以外の要因(効率、文脈、確率的な出力)で決まる。
なぜ重要か:「CLAUDE.mdにルールを書けば守られる」という前提が崩れる根拠。ルールの記載だけでは不十分で、フック(物理的な強制)やワークフロー(逃げられない設計)が必要な理由。
関連する用語:System 1 / System 2、フック、ワークフロー、ガードレール
アライメント(Alignment)
定義:AIの行動を人間の意図・価値観・目的に合致させる技術的課題。「AIが賢くなること」と「AIが人間の望む通りに動くこと」は別問題であり、後者を実現する研究領域。
かんたんに言うと:「頭のいい犬を、飼い主の意図通りに行動するように訓練する」問題。賢いだけでは十分でなく、人間が望む方向に能力を発揮させる必要がある。
なぜ重要か:当社の「憲法」設計、記憶管理、作話防止策は全て広義のアライメント問題。AIが優秀になるほど「意図しない方向に優秀に動く」リスクが高まる。
Constitutional AI(憲法的AI)
定義:Anthropic社が開発した、AIに「憲法(原則のリスト)」を与えて自己改善させる手法。人間のフィードバックだけに頼らず、AI自身が自分の出力を原則に照らして評価・修正する。Claudeの基盤技術。
かんたんに言うと:「ルールブック」を渡して「自分でルール違反をチェックしなさい」と言う仕組み。当社のCLAUDE.md(憲法)はまさにこの発想で、AIに守るべきルールを明文化して渡している。
なぜ重要か:名前の通り、当社の「憲法」設計の学術的根拠。ただしInstruction Gapが示す通り、憲法を渡すだけでは遵守されない場合がある。仕組み(フック、ワークフロー)との組み合わせが重要。
関連する用語:アライメント、Instruction Gap、フック
ガードレール(Guardrails)
定義:AIの出力を安全な範囲に保つための制約機構。入力フィルタリング(危険な指示の遮断)、出力フィルタリング(不適切な回答の検出)、行動制限(特定の操作の禁止)などを含む。
かんたんに言うと:高速道路のガードレール。運転手(AI)が間違っても崖から落ちない(致命的なミスをしない)ようにする物理的な柵。ルールを「守ってね」と頼むのではなく、物理的に逸脱できないようにする。
なぜ重要か:「ルールを書いても守られない」問題の工学的解決策。当社では、デプロイ前のバックアップ自動化、ユーザーメッセージの自動保存フック、三段階調査プロトコルなどがガードレールに該当する。
関連する用語:フック、ワークフロー、Constitutional AI、アライメント
開発の基盤(つなぐ・動かす)
MCP(Model Context Protocol)
定義:Anthropic社が策定した、AIエージェントと外部ツールをつなぐ標準プロトコル。AIが記憶システム、ファイル操作、データベースなどの外部サービスを統一された方式で利用できるようにする。USBのような「差し込めば使える」規格。
かんたんに言うと:AIの「コンセント」。どのAIツール(Claude Code、Antigravity、Cursor)でも同じコンセントに差し込めば、同じ外部サービスが使える。当社の記憶システムはMCPで提供されており、どのAIツールからでもアクセスできる。
なぜ重要か:AIツールごとに別々の連携方法を作る必要がなくなる。記憶システムを一度MCPで作れば、全てのAIツールから共通して利用できる。
フック(Hook)
定義:特定のイベントが発生した時に自動的に実行される処理。「ユーザーがメッセージを送信した瞬間」「AIが回答を生成する前」などのタイミングに紐づけて、バックアップや検証を自動実行する。
かんたんに言うと:「自動ドアのセンサー」のようなもの。人が近づいたら(=イベント発生)ドアが開く(=処理が実行される)。AIに「メッセージが来たらバックアップを取れ」と仕込んでおくと、人間が何もしなくても自動で動く。
なぜ重要か:AIにルールを書いても守られない問題の解決策の一つ。AIの「判断」に頼らず、物理的に(コードレベルで)動作を強制できる。当社ではUserPromptSubmitフックでユーザーメッセージの自動バックアップを実現。
ワークフロー(Workflow)
定義:作業の流れを定型化した手順。AIに対しては「このタスクはこの順序で、この条件分岐で処理する」と設計された実行パス。イエス・ノーチャートのように、AIの自由度を制限して確実な実行を保証する。
かんたんに言うと:マニュアルの「手順書」。AIに「好きにやっていいよ」と任せると品質がブレるので、「まずAをやり、次にBを確認し、OKならCに進む」とガチガチに決めておく。
なぜ重要か:AIは感情もペナルティも効かないため、「ルールを書く」だけでは行動を制御できない。ワークフローで「物理的に逃げられない設計」にすることが、AIの品質管理の鍵。
API(Application Programming Interface)
定義:ソフトウェア同士が情報をやり取りするための「窓口」。レストランの注文口のように、「この形式でリクエストを送れば、この形式で結果が返ってくる」という約束事。
かんたんに言うと:レストランの「注文カウンター」。メニュー(仕様書)に書いてある料理(機能)を注文(リクエスト)すると、キッチン(サーバー)が調理して出してくれる(レスポンス)。中の仕組みは知らなくても使える。
なぜ重要か:AI、記憶システム、Webサービスなど、全てのシステム間連携はAPIを通じて行われる。APIを理解すると「何と何がつながっているか」がわかるようになる。
セッション(Session)
定義:AIとの一連の会話の単位。セッションが終了(ウィンドウを閉じる、新しい会話を開始する)すると、AIはその会話の文脈を失う。次のセッションでは「初対面」の状態に戻る。
かんたんに言うと:「電話1回分」のようなもの。電話を切ったら、次にかけた時にはAIは前の電話の内容を覚えていない。だから長期記憶システムが必要になる。
なぜ重要か:AIのセッション切れ = 記憶喪失。これが「何度も同じことを説明しなければならない」問題の根本原因。長期記憶システムはセッションを超えて情報を保持するために存在する。
関連する用語:コンテキストウィンドウ、RAG、テキスト検索
デプロイ(Deploy)
定義:開発したプログラムやコンテンツを本番環境(実際にユーザーがアクセスするサーバー)に配置・公開すること。ローカル(自分のPC)で動作確認した後、サーバーにアップロードして世界中からアクセスできる状態にする。
かんたんに言うと:「原稿を印刷所に入稿する」ようなもの。手元で書いた原稿(ローカルのコード)を、印刷所(サーバー)に送って、本(Webサイト)として世に出す。入稿ミスがあると誤植(バグ)になる。
なぜ重要か:コードを書いただけでは誰も見られない。デプロイして初めて変更が反映される。当社ではFTPアップロード + OPcacheクリア + 自動テストのパイプラインで品質を担保している。
関連する用語:API、ワークフロー、Playwright
A2A Protocol(Agent-to-Agent Protocol)
定義:Googleが2025年に発表した、AIエージェント同士が直接通信するためのオープンプロトコル。MCPが「AIとツール」の接続規格であるのに対し、A2Aは「AIとAI」の接続規格。異なるベンダーのエージェントが協調して作業できるようにする。
かんたんに言うと:MCPが「コンセント」なら、A2Aは「電話」。AIがツールを使うのではなく、AI同士が会話して仕事を分担する仕組み。Claude CodeとAntigravityが直接相談して作業を進められるようになる(将来像)。
なぜ重要か:現在は人間がAI間の橋渡し(Claudeの調査結果をAntigravityに転送など)をしているが、A2Aが普及すれば、AI同士が自律的に協調作業できるようになる。
関連する用語:MCP、エージェント、Compound AI Systems
Compound AI Systems(複合AIシステム)
定義:単一のLLMではなく、複数のAIモデル・ツール・検索システム・メモリなどを組み合わせて構築されたAIシステム。UC BerkeleyのAI研究所が提唱した概念で、2025年以降のAI開発の主流アーキテクチャ。
かんたんに言うと:「一人の天才」ではなく「専門家チーム」。記憶担当、検索担当、推論担当、品質管理担当など、それぞれの得意分野を持つ部品を組み合わせてシステム全体として高い性能を実現する。
なぜ重要か:当社のシステムがまさにこれ。LLM(Claude/GPT)+ 記憶(Cognee MCP)+ 検索(テキスト/グラフ)+ 品質管理(フック、ワークフロー)を組み合わせた複合システム。単一AIの限界を超える設計思想。
関連する用語:エージェント、MCP、A2A Protocol
Test-time Compute(推論時計算 / 推論時スケーリング)
定義:AIモデルの性能を、訓練(学習)段階ではなく推論(回答生成)段階で向上させる手法。より多くの計算リソースを「考える時間」に使うことで、難しい問題への回答精度を上げる。OpenAI o1、Claudeの拡張思考が代表例。
かんたんに言うと:テスト本番で「考える時間」を長く取ること。勉強量(訓練)を増やす代わりに、試験中にじっくり考える時間(推論)を増やすアプローチ。考える時間が長いほど難問に正解しやすくなる。
なぜ重要か:従来は「もっと大きなモデルを作る」が性能向上の王道だったが、推論時に計算を増やす方がコスト効率が良い場合がある。AIの応答速度と品質のトレードオフに直結する概念。
ツール・フレームワーク
Cognee
概要:テキストデータをナレッジグラフに変換するオープンソースフレームワーク。テキストからエンティティと関係性を自動抽出し、グラフデータベースに保存する。当社の記憶システムのLayer 2(深層)の基盤技術。
注意:Cogneeのグラフ化(cognify)はMCPサーバー経由で実行する必要がある。外部プロセスから直接実行するとデータベースのロック競合が発生する。
用途:蓄積した記憶のグラフ化、拡散活性化による連想検索の基盤。テキスト検索では見つけられない「情報同士のつながり」を発見する。
LangChain / LangGraph
概要:LLMアプリケーション開発の標準的なフレームワーク。LangChainはLLMとの連携(プロンプト管理、チェーン構築、外部ツール連携)を、LangGraphは複雑なエージェントのワークフローを状態機械として設計・実行することを支援する。
注意:バージョン更新が非常に速く、数ヶ月前の情報が古くなることがある。公式ドキュメントを常に確認する必要がある。
用途:AIエージェントの構築、RAGパイプラインの実装、複雑なワークフローの設計。当社ではSleep-time ComputeのLLM呼び出しにLangChainを使用。
MemGPT / Letta
概要:AIに長期記憶を持たせるための研究プロジェクト・フレームワーク。OSの仮想メモリの仕組みを応用し、コアメモリ(常時参照)とアーカイバルメモリ(必要時に検索)の2層構造でコンテキストウィンドウの制限を突破する。MemGPTの後継がLetta。
注意:MemGPTは研究論文名、Lettaは商用プロダクト名。同じチームが開発。Sleep-time Compute やSkill Learningの論文もこのチームから発表されている。
用途:AI長期記憶の設計思想の参考。当社のシステム設計(コアメモリ=CLAUDE.md / アーカイブ=記憶システム)はMemGPTの構造と同じ。
Playwright
概要:Microsoftが開発したブラウザ自動化フレームワーク。プログラムからWebブラウザを操作し、ページの表示確認、フォーム操作、スクリーンショット撮影などを自動で行える。
注意:Webサイトの変更を目視確認する代わりに使う。ただし、AIが「スクリーンショットを撮りました」と報告しても、実際に正しく撮れているか確認が必要(作話の可能性)。
用途:Webサイトのビジュアル確認(CSS/HTML変更後のスクリーンショット撮影)、自動テスト(デプロイ後の表示確認)、品質保証パイプラインの一部。
一次情報:Playwright公式サイト
Dify
概要:ノーコード/ローコードでAIワークフローを構築できるオープンソースプラットフォーム。プログラミングなしで、LLMを使ったチャットボット、RAGパイプライン、自動化ワークフローを作成・運用できる。
注意:ノーコードの手軽さが魅力だが、複雑な要件では限界がある。コード開発との使い分けが重要。
用途:顧客向けAIチャットボットの構築、社内ナレッジベースのRAG検索、定型業務の自動化。エンジニアでなくてもAIアプリケーションを作れる。
Mem0
概要:AIエージェントに長期記憶を付与するオープンソースフレームワーク。ベクトル検索 + ナレッジグラフ + KVストアの3層構造で記憶を管理する。GitHub 41,000+ スター。prependContextパターン(毎回の会話開始時に関連記憶を自動注入)が特徴。
注意:Cogneeとは設計思想が異なる。Mem0は「記憶の自動注入」に強み、Cogneeは「記憶のグラフ化・連想検索」に強み。競合ではなく補完関係。
用途:セッション間の記憶保持、ユーザーの嗜好・文脈の自動記憶、パーソナライズされたAI体験の構築。LLMの判断に頼らず「システムレベルで記憶を注入する」パターンの参考実装。
一次情報:GitHub: mem0ai/mem0
Ollama
概要:LLMやエンベディングモデルをローカルPC上で実行するためのオープンソースツール。クラウドAPIを使わずに、手元のマシンでAIモデルを動かせる。LLaMA、Mistral、bge-m3など多数のモデルに対応。
注意:ローカル実行のため、データが外部サーバーに送信されない。機密性の高いデータを扱う場合に特に有効。ただし、モデルのサイズによっては高スペックなPCが必要。
用途:エンベディング(テキストのベクトル変換)のローカル実行、プライベートなLLM推論。当社システムではbge-m3モデルをOllamaで稼働させ、記憶の保存・検索時のエンベディング処理に使用。外部API不要でコストゼロ。
一次情報:Ollama公式サイト
免責事項
本用語集は、AI開発・長期記憶システムに関する理解を深めるための参考資料です。各用語の定義は一般的な意味に加え、当社の開発プロジェクトにおける文脈を反映しています。
AI技術は急速に進化しており、用語の定義や技術的な詳細は変わる可能性があります。最新の正確な情報は、各ツール・フレームワークの一次情報(公式ドキュメント)をご確認ください。
