Agent Loop
読み: エージェント・ループ
エージェントループとは自律実行の構造
Agent Loopとは、AIエージェントが目標達成まで「観察→思考→行動」のサイクルを繰り返す実行構造のこと。1回の推論で終わるチャットボットとは根本的に違う。ループを回すたびにエージェントは外部情報を取得し、次の一手を判断し、ツールを操作する。この繰り返しが止まる条件の設計こそが、Agent Loopの設計そのもの。
かんたんに言うと
仕事を頼まれたら、まず状況を見て、考えて、手を動かす。終わっていなければまた状況を見る。この「見る→考える→動く」を目標達成まで何周でも回し続ける仕組みがAgent Loopである。
一問一答を超えるAgent Loopの観察と思考と行動のサイクル
Agent Loopの1周は、Observe、Think、Actで構成される。
Observe。エージェントは前回のActの結果、環境(ファイル、Web、DB等)がどう変わったかを確認し、それを次の思考の材料にする。前のループで得た結果もここに入る。
Think。観察結果をもとにLLMが推論する。「次に何をすべきか」「目標に近づいているか」「方針を変えるべきか」を判断するフェーズである。複雑なタスクでは、目標を達成するための手順を分解し進捗を管理する「計画立案(Planning)」の役割も含まれる。
Act。判断に基づいてツールを呼び出す。Web検索、コード実行、データベースへの書き込み。行動の結果は次のObserveに戻り、ループが回る。
この構造を明示的にプロンプトで実装したのがReActパターンである。Reasoning and Actingの略で、LLMに「思考過程をテキストとして出力させてから行動させる」手法である。思考を可視化することでデバッグしやすくなるという実務上の利点が大きい。ReActはその代表例だが、Plan-and-Execute(計画してから実行)やReflexion(自己反省)など、ループの回し方にはバリエーションが増えている。
ループはいつ止まるのか
Agent Loopで最も厄介な問題は終了条件である。
理想的には、エージェントが「目標を達成した」と自己判断してループを抜ける。だが現実はそう甘くない。LLMが「まだ不十分だ」と判断し続ければ、ループは永遠に回る。
無限ループに陥ったエージェントがAPIを叩き続け、朝起きたらOpenAIの請求が数万円に膨れ上がっていた。こういう話は珍しくない。
実務では複数の安全弁を入れる。ループ回数の上限、経過時間のタイムアウト、トークン消費量の上限。どれか1つでも条件に達したら強制終了する設計が基本。LLMの自己判断だけに頼るのは危険だと覚えておくべきだろう。
トークンコストが積み上がる構造的な理由
Agent Loopには見落とされがちなコスト問題がある。
ループが1周回るたびに、それまでの全履歴をLLMに入力し直す。5周目のThinkフェーズでは、過去4周分のObserve結果とThink結果とAct結果が全てコンテキストに含まれる。つまり、ループが深くなるほど1回あたりの入力トークン数が加速度的に増える。
GPT-4oで10周回すと、単純なタスクでも数ドルかかることがある。コンテキストウィンドウを圧迫して精度が落ちる問題も同時に発生する。ループが深まるほど、LLMは全体の工程のどこにいるかを見失いやすくなる(Lost in the Middle現象)。
対策として、途中の履歴を要約して圧縮するSummarization戦略や、直近N周分だけを保持するSliding Window方式がある。Summarizationはコスト対策だけでなく、エージェントの記憶を整理して精度を維持する設計要素でもある。とはいえ、圧縮すれば情報は落ちる。このトレードオフに正解はなく、タスクの性質に応じて調整するしかない。
どんな場面で使われているか
Agent Loopが実際に動いている場面をいくつか挙げる。
コーディングエージェント。Claude CodeやCursorのAgent機能は、コードを書き、テストを走らせ、エラーが出れば修正し、テストが通るまでループを回す。開発者が寝ている間にバグ修正のプルリクエストが上がっている。
リサーチエージェント。調査テーマを与えると、Web検索→情報収集→不足の特定→追加検索を繰り返し、最終的にレポートを出力する。Deep Researchと呼ばれる機能群がこれにあたる。
カスタマーサポート。顧客の問い合わせに対し、FAQを検索し、該当がなければ過去のチケットを参照し、それでも解決しなければエスカレーション用のチケットを自動起票する。ループの各段階で判断が入る点が、単純な検索とは違う。
当社の見解
当社ではClaude Code・Antigravity・Codexの3つのAIエージェントを日常業務で併用している。記憶を共有しているため、別のAIに同じ説明を繰り返す必要がない。ただし、記憶共有だけでは足りなかった。一方のAIが他方の成果物を勝手に修正して壊す事故が起きた。これを受けてファイル所有権制度を導入し、どのAIがどのファイルを所有するかを定義した。AIの自主性に頼らず、仕組みで上書きや巻き戻りを防いでいる。
同じ失敗を二度としないAIエージェント
今のAIは、聞けば何でも答えてくれます。
でも、セッションが切れた瞬間に前回の失敗を忘れます。
当社が開発しているAIは、過去の経緯を念頭に置いて、
聞かれる前に「それは前回うまくいきませんでした」と声をかけます。
人間にも同じ失敗をさせず、AI自身も繰り返しません。
古参の社員が横にいるように、黙っていても気づいてくれる。
それが、当社が考える本当のAI社員です。
