MetaGPT
読み: メタジーピーティー
MetaGPTとはAI協業で自動開発
MetaGPTは複数のAIエージェントにプロダクトマネージャー、アーキテクト、エンジニアといった役割を割り当て、ソフトウェア開発プロセスを模倣させるマルチエージェントフレームワークである。1行の要件定義から設計書、コード、テストまでを自動生成する。
かんたんに言うと
「こんなアプリを作りたい」と伝えるだけで、AI同士がPM、設計者、プログラマーの役割を分担して開発を進める仕組みである。人間のチーム開発をAIで再現しようという試みにあたる。
MetaGPTでマルチエージェントがPMからエンジニアまで役割分担する仕組み
MetaGPTの核心は、LLMに「あなたはプロダクトマネージャーです」「あなたはアーキテクトです」といった明確な役割を与え、エージェント間で成果物をリレーさせる設計にある。
プロダクトマネージャー役のエージェントが要件定義書を作成すると、アーキテクト役がそれを受け取ってシステム設計書を起こす。次にエンジニア役がコードを書き、QA役がテストケースを生成する。各エージェントは自分の担当範囲だけに集中し、前工程の成果物を入力として受け取る。
単一のLLMに全部やらせるより、役割を分けたほうが出力の質が上がるという発想である。人間の組織と同じで、一人に何でもやらせると品質が落ちる。
標準化された成果物による品質管理
MetaGPTが他のマルチエージェントフレームワークと一線を画すのは、SOPと呼ばれる標準業務手順を組み込んでいる点である。各エージェントは自由に振る舞うのではなく、決められたフォーマットで成果物を出力する。
たとえばプロダクトマネージャー役はPRD(Product Requirements Document)のテンプレートに沿って要件をまとめ、アーキテクト役はシーケンス図やクラス図をMermaid記法で出力する。
このフォーマットの強制がないと、エージェント間のコミュニケーションが破綻する。曖昧な指示を次のエージェントに渡せば、出力はどんどん劣化していく。人間の開発でも、ドキュメント標準がないプロジェクトは崩壊しやすい。同じことがAIにも当てはまる。
実際に生成されるコードの品質と限界
MetaGPTにToDoアプリやチャットボットのような定型的なアプリを指示すると、動作するコードが出てくる。GitHubにスターが2万以上付いている理由の一つは、このデモの分かりやすさにある。
ただし、実務レベルのプロダクションコードが出てくるかというと話は別である。既存のコードベースとの統合、エッジケースの処理、パフォーマンスチューニングといった「実装の8割を占める泥臭い作業」には対応しきれない。
プロトタイプやPoCの高速生成には向いているが、そのまま本番に持っていけるケースはまだ限定的である。
CrewAIやAutoGenとの比較
マルチエージェントフレームワークの選択肢はMetaGPTだけではない。MicrosoftのAutoGen、CrewAI、LangGraphなどが競合にあたる。
AutoGenは汎用的な会話型マルチエージェント基盤で、ソフトウェア開発に限らず様々なタスクに使える。CrewAIは役割定義と協調作業の簡潔さに特化している。MetaGPTはソフトウェア開発のワークフローに最も深く特化しており、SOP(標準業務手順)の概念を持つ点が独自性となる。
どれを選ぶかは用途次第である。開発タスクに絞るならMetaGPT、汎用的に使いたいならAutoGenかCrewAIが候補になる。とはいえ、どのフレームワークも成熟途上にあり、半年後には勢力図が変わっている可能性は十分にある。
導入を検討する際の現実的な注意点
MetaGPTを動かすにはバックエンドにLLMが必要であり、エージェントが複数回やり取りするためAPIコストがかさむ。1回の開発タスクで数百回のAPI呼び出しが発生することも珍しくない。
セキュリティ面では、自社のプロダクト仕様やビジネスロジックがLLMのAPIに送信される点を見落としてはならない。機密性の高いプロジェクトであればローカルLLMの利用を検討する必要がある。
もう一つ見落としがちなのは、生成された成果物のレビューコストである。AIが書いたコードを人間が検証する工数はゼロにはならない。「AIが全部やってくれる」という期待で導入すると、レビューの負荷に面食らうことになる。
当社の見解
当社は機密情報のマスキング処理を全てローカルAIで行っている。これにより機密情報を外部に送信せずにAI処理できるようになった。だが、AIが嘘をつくハルシネーションの問題は依然としてある。確認していないのに「確認しました」と言う。当社はこの前提で運用を設計している。事実と推測の強制分離、ファクトチェック機能、3つのAIと人間の同士の三重検証を行っている。どこまでいっても、AIは完璧ではない。理論上100%安全設計をしていても、AIも人間も想定しないことは起こるものだ。その万が一に備えておくことが、AIを使う上では前提になっている。だろうではなく、かもしれない運用がAIを使う上での安全基盤となっている。
同じ失敗を二度としないAIエージェント
今のAIは、聞けば何でも答えてくれます。
でも、セッションが切れた瞬間に前回の失敗を忘れます。
当社が開発しているAIは、過去の経緯を念頭に置いて、
聞かれる前に「それは前回うまくいきませんでした」と声をかけます。
人間にも同じ失敗をさせず、AI自身も繰り返しません。
古参の社員が横にいるように、黙っていても気づいてくれる。
それが、当社が考える本当のAI社員です。
