CrewAI
読み: クルーエーアイ
CrewAIとは複数AIの協調基盤
CrewAIは複数のAIエージェントが人間のチームのように役割分担し複雑な業務を自律的に遂行するオープンソースのマルチエージェントフレームワークである。単一のモデルでは処理しきれない多段的なプロセスをコードベースで定義し実行させる。
かんたんに言うと
各分野の専門家を集めたプロジェクトチームである。リサーチャーが資料を集め、ライターが記事を書き、編集者が校正するように、AI同士が連携して一つの目標に向かって動く。
単一LLMの限界を超える CrewAIのマルチエージェント構成
CrewAIを動かす最小単位はAgentである。それぞれに役割と目標、そしてバックグラウンドとなる設定を付与する。次に彼らがこなすべきTaskを定義する。誰がどのTaskをどのような順序で処理するかを束ねるのがCrewという概念になる。
単一のLLMに長文のプロンプトを投げて一発で正解を出そうとするアプローチは、もう限界が来ている。
コンテキストウィンドウが広がったとはいえ、一つのモデルにすべてを背負わせると出力の精度は確実に落ちる。だからこそ役割を細分化する。Agentごとに異なるシステムプロンプトを与え、別々のLLMを割り当てることも可能である。例えばリサーチにはPerplexityのAPIを叩かせ、文章生成にはClaude 3.5 Sonnetを使うといった具合である。適材適所でモデルを使い分ける設計が、実務では効いてくる。
役割分担と協調によるタスク実行の仕組み
CrewAIの裏側ではLangChainが動いている。既存のツール群やAPIとの接続はこれに依存する部分が大きい。処理のフローは大きく分けて逐次処理と階層型処理がある。前者はTask1が終わったらTask2へ、という単純なバケツリレーである。後者はマネージャー役のAgentが全体の進捗を監視し、部下のAgentに指示を出しながら進める。
ただ、階層型処理は挙動が読みにくい。
マネージャーが無限ループに陥り、部下に同じ指示を出し続ける光景を何度見たことか。プロンプトエンジニアリングで制御しようにも、エージェント間の対話プロセスに介入するのは骨が折れる。どこまで自律性を許容し、どこで人間が手綱を握るか。この線引きは常に悩ましい。
法務や物流部門での実務適用と連携ツール
法務部門での契約書レビューを想像してほしい。
Tavilyを使って最新の法改正情報を検索するリサーチャーAgent。その情報をもとに契約書のリスクを洗い出すリーガルAgent。最後に修正案をSlackに通知するコミュニケーターAgent。これらをCrewとして束ねる。
物流部門ならどうだろうか。
GitHub上の在庫管理システムのログを読み解き、配送ルートの最適化案を提示する。天候APIから取得したデータと照らし合わせ、遅延リスクを事前に警告する。これらは夢物語ではない。OpenAIのAPIと数行のPythonコードがあれば、プロトタイプはすぐに動く。だが、実運用に乗せるとなると話は別である。外部ツールとの連携が増えるほど、エラーの発生ポイントも増殖する。
業務無人化の光と影
複数のAgentが対話しながら作業を進める様は、見ていて面白い。だが、その裏で消費されるAPIコストは笑えない。GPT-4クラスのモデルを複数体同時に稼働させ、互いに長文のコンテキストを投げ合う。トークン消費は単一モデルの比ではない。月末の請求書を見て青ざめることになる。
さらに厄介なのがハルシネーションの連鎖である。
一人のAgentが嘘をつくと、それを受け取った次のAgentがその嘘を前提に作業を進めてしまう。結果として、もっともらしいが完全に破綻したアウトプットが生成される。途中のプロセスがブラックボックス化しやすいため、どこで情報が歪んだのかをトレースするのも一苦労である。このリスクをどう評価するかは、現場の判断が分かれるところだろう。
自社への導入を判断するための評価基準
CrewAIはオープンソースであり、Pythonの基礎知識があれば誰でも触れる。だが、それを業務に組み込むべきかは冷静に考える必要がある。対象となる業務が、明確な手順に落とし込めるかどうかが最初の関門である。人間の暗黙知に依存しているプロセスを、そのままAgentに丸投げしても機能しない。
導入の是非を決めるのは、技術的な目新しさではない。
エラーが起きたときに誰が責任を取るのか。システムが停止したときの代替手段は用意されているか。そういった泥臭い運用設計をやり切れる覚悟があるかどうかに尽きる。魔法の杖を求めているなら、手を出さない方がいい。
当社の見解
当社ではClaude Code・Antigravity・Codexの3つのAIエージェントを日常業務で併用している。記憶を共有しているため、別のAIに同じ説明を繰り返す必要がない。ただし、記憶共有だけでは足りなかった。一方のAIが他方の成果物を勝手に修正して壊す事故が起きた。これを受けてファイル所有権制度を導入し、どのAIがどのファイルを所有するかを定義した。AIの自主性に頼らず、仕組みで上書きや巻き戻りを防いでいる。
同じ失敗を二度としないAIエージェント
今のAIは、聞けば何でも答えてくれます。
でも、セッションが切れた瞬間に前回の失敗を忘れます。
当社が開発しているAIは、過去の経緯を念頭に置いて、
聞かれる前に「それは前回うまくいきませんでした」と声をかけます。
人間にも同じ失敗をさせず、AI自身も繰り返しません。
古参の社員が横にいるように、黙っていても気づいてくれる。
それが、当社が考える本当のAI社員です。
