Agentic AI
読み: エージェンティック・エーアイ
自律型AIとは指示不要で動く
Agentic AIは人間の都度の指示を待たず与えられた最終目標に向けて自ら計画を立案しツールの操作や軌道修正を行いながら自律的にタスクをやり遂げる次世代の人工知能技術である。
かんたんに言うと
毎回手順を教えなければ動かない新人ではなく目的と予算だけ渡せば自分で道具を調達して現場を回すベテランの現場監督のような存在である。
指示待ちから自律行動へ転換するAgentic AIの実態
Generative AIがテキストや画像を生成するだけのツールであるならAgentic AIは自ら考え動くシステムである。チャット画面で人間がプロンプトを打ち込み結果を待つという牧歌的な時代は終わりつつある。目標を与えれば勝手に計画を立てて実行に移す。
AGIへの足掛かりともてはやされることが多い。
だが現場で運用する立場から言わせてもらえばただのループ処理付きLLMに過ぎない。過度な期待は禁物である。システムが自律的に動くということは途中のプロセスがブラックボックス化しやすいことを意味する。どこで判断を誤ったのかログを追うだけでも一苦労である。この技術を業務に組み込むべきか否か。非常に悩ましい。
認知と計画を回す泥臭い裏側
目標設定から実行までを回す技術的な中核はReActと呼ばれるアプローチ。LLMが現状を認知し推論を行い外部のAPIを叩いて行動する。その結果を再び認知して次の計画を立てる。このサイクルを延々と繰り返す。
美しい理論に見えるだろうか。
現実は泥臭いエラーハンドリングの連続である。外部APIのレスポンスが数秒遅れただけでタイムアウトを起こしシステム全体がフリーズする。あるいは予期せぬエラーメッセージを受け取ったLLMがパニックを起こし同じAPIを1秒間に何十回も叩き続ける。現場のエンジニアはこうした暴走を止めるための安全装置の設計に日々追われている。どこまでシステムに裁量を持たせるかは常に判断が分かれるところである。
法務と経理における実務のリアル
具体的な実務への適用を考えてみよう。例えば法務部門での契約書審査である。単に条文の不備を指摘するだけでなく過去の判例データベースを自律的に検索し修正案を作成して関係部署にメールで確認を取る。経理部門なら複数の請求書PDFを読み込み社内のERPシステムと照合して不一致があれば担当者にチャットで問い合わせる。
こうした動きを作るためにMicrosoft Copilot StudioやDifyといったプラットフォームが使われる。ソフトウェアエンジニアの代わりとしてDevinのような特化型モデルも登場した。
ただ既存のレガシーシステムとどう繋ぐか。
古い社内システムはAPIすら用意されていないことが多い。RPAと無理やり連携させて画面操作を代行させるような力技が必要になる場面も多々ある。
暴走と課金爆発という現場の代償
自律的に動くシステムを本番環境に放り込むことの恐ろしさを知っているだろうか。
指示を与えて放置した結果週末の間に無限ループに陥り月額のAPI利用料が数百万に跳ね上がったという笑えない話が実在する。勝手に社外のデータベースにアクセスして意図しないデータを書き込んでしまうリスクもゼロではない。
導入の評価基準はどれだけ賢いかではない。暴走した時にどれだけ早く検知して強制停止できるかに懸かっている。撤退ラインを明確に引けない組織にこの技術を扱う資格はない。投資対効果を計算する前に最悪のシナリオを想定してリカバリーの体制を組む泥臭い準備が求められる。
当社の見解
当社ではClaude Code・Antigravity・Codexの3つのAIエージェントを日常業務で併用している。記憶を共有しているため、別のAIに同じ説明を繰り返す必要がない。ただし、記憶共有だけでは足りなかった。一方のAIが他方の成果物を勝手に修正して壊す事故が起きた。これを受けてファイル所有権制度を導入し、どのAIがどのファイルを所有するかを定義した。AIの自主性に頼らず、仕組みで上書きや巻き戻りを防いでいる。
同じ失敗を二度としないAIエージェント
今のAIは、聞けば何でも答えてくれます。
でも、セッションが切れた瞬間に前回の失敗を忘れます。
当社が開発しているAIは、過去の経緯を念頭に置いて、
聞かれる前に「それは前回うまくいきませんでした」と声をかけます。
人間にも同じ失敗をさせず、AI自身も繰り返しません。
古参の社員が横にいるように、黙っていても気づいてくれる。
それが、当社が考える本当のAI社員です。
