Magic
読み: マジック
Magicとは超長文脈AI開発企業
Magicは、超長大なコンテキストウィンドウとLTM(Long Term Memory)技術を武器に、コーディング特化型AIを開発しているサンフランシスコのスタートアップである。2024年にEric SchmidtらからシリーズCで3.2億ドルの資金調達を行い(累計調達額は4.65億ドル)、LLMのコンテキスト長競争で独自のポジションを築いている。
かんたんに言うと
AIが一度に読める文書量の限界を極限まで引き上げることで、巨大なソースコード全体を丸ごと理解してプログラミングできるAIを作ろうとしている企業である。
Magicが挑むコンテキストウィンドウの壁とLLMの記憶限界を突破する試み
現在のLLMには「一度に扱える情報量の上限」がある。GPT-4は128Kトークン、Claude 3.5は200Kトークン。大きな数字に見えるが、企業の業務システムのソースコードは数百万行に達することも珍しくない。全体像を一度に読み込めないのである。
Magicが開発したLTM-2-miniは、最大1億トークンのコンテキストウィンドウを謳っている。通常のTransformerアーキテクチャでは計算量が入力長の二乗に比例するため、1億トークンを扱おうとするとコストが天文学的になる。Magicは独自のアーキテクチャでこの問題に取り組んでいるとされるが、技術的な詳細は限定的にしか公開されていない。
LTM技術の仕組みと狙い
MagicのLTMはLong Term Memoryの略で、RAGとは異なるアプローチで長期記憶を実現する技術である。RAGが「必要なときに外部から情報を引っ張ってくる」方式なのに対し、LTMは「最初から全てを記憶した状態で推論する」方式に近い。
この違いは実務上のインパクトが大きい。RAGでは検索精度がボトルネックになり、関連情報を取りこぼすリスクが常にある。一方でLTMは全体を保持しているため、コードベースの離れた箇所にある依存関係も見逃しにくい。
ただし、コンテキストに入れるデータ量が増えるほど推論コストは上がる。全てを記憶しておく方式が経済的に成り立つのか。ここがMagicの技術が本当に実用的かどうかの分水嶺になる。
コーディング特化という戦略的選択
OpenAIやAnthropicが汎用LLMを追求する中、Magicはコーディングに絞っている。汎用モデルで勝負するには計算資源の規模で大手に太刀打ちできないという現実的な判断がある。
コーディングはLLMの応用先として独特の性質を持つ。人間にとっては面倒でも、構造化されたルールに基づく作業が多い。テストを実行すれば出力の正しさを自動検証できる。この特性は、LLMの弱点であるハルシネーションの影響を最小化できる領域である。
Magicの製品であるLTM Agentは、大規模コードベースを丸ごと読み込み、バグ修正や機能追加を自律的に行うことを目指している。GitHubのイシューを渡すとプルリクエストを返す。これが実用レベルに達すれば、ソフトウェア開発の生産性が根本から変わる。
資金調達と競合環境
2024年8月に発表された3.2億ドルのシリーズCは、AI業界でも注目を集めた。累計調達額は4.65億ドルに達した。リード投資家はEric SchmidtのInnovation Endeavorsで、Sequoia CapitalやNat Friedman(元GitHub CEO)も参加している。
競合は強力である。GitHub Copilotを擁するMicrosoft、Devinを開発したCognition、Cursorを展開するAnysphere。いずれもAIコーディングの市場を狙っている。Magicの差別化要因は超長コンテキストの独自技術にあるが、OpenAIやGoogleもコンテキスト長の拡張を進めており、技術的な優位性がいつまで持続するかは不透明である。
スタートアップにとっての最大のリスクは「大手が同じことをできるようになった瞬間に優位性が消える」点にある。Magicが生き残るには、コンテキスト長だけでなく、コーディング精度やエンタープライズ向けの運用体制で差をつける必要がある。
長期記憶のアプローチが示す業界の方向性
Magicの取り組みは、LLMの進化における一つの方向性を象徴している。「モデルを賢くする」のではなく「モデルが扱える情報量を増やす」というアプローチである。
現時点ではRAGが主流であり、コストパフォーマンスの面でも実績の面でもRAGに軍配が上がる。Magicの技術が本当にRAGを置き換えるのか、それとも補完的な関係に落ち着くのかは、まだ誰にもわからない。
はっきりしているのは、「AIがどこまでの文脈を把握できるか」が今後の業務活用の幅を決めるということである。自社のナレッジベースが100ページなのか100万ページなのかで、必要なアーキテクチャはまるで違ってくる。自社のデータ規模を正確に把握しておくことが、技術選定の第一歩になる。
当社の見解
当社ではClaude Code・Antigravity・Codexの3つのAIエージェントを日常業務で併用している。記憶を共有しているため、別のAIに同じ説明を繰り返す必要がない。ただし、記憶共有だけでは足りなかった。一方のAIが他方の成果物を勝手に修正して壊す事故が起きた。これを受けてファイル所有権制度を導入し、どのAIがどのファイルを所有するかを定義した。AIの自主性に頼らず、仕組みで上書きや巻き戻りを防いでいる。
同じ失敗を二度としないAIエージェント
今のAIは、聞けば何でも答えてくれます。
でも、セッションが切れた瞬間に前回の失敗を忘れます。
当社が開発しているAIは、過去の経緯を念頭に置いて、
聞かれる前に「それは前回うまくいきませんでした」と声をかけます。
人間にも同じ失敗をさせず、AI自身も繰り返しません。
古参の社員が横にいるように、黙っていても気づいてくれる。
それが、当社が考える本当のAI社員です。
