基盤モデル

FOUNDATION MODEL GUIDE
読み: 基盤モデル

読み: 基盤モデル

基盤モデルとは汎用AIの土台

基盤モデルは膨大なデータで事前学習され文章作成から画像生成まで多様なタスクに柔軟に適応できる汎用的なAIモデルである。Foundation Modelとも呼ばれ特定の用途に限定されずファインチューニングやプロンプトの工夫次第で様々な業務に転用できる特徴を持つ。

かんたんに言うと

あらゆる料理のベースとなる万能出汁である。そのままではただのスープだが醤油を足せば和食にスパイスを加えればカレーになるように少しの手を加えるだけで多様なシステムに化ける。

Transformerが変えたAI開発と基盤モデルの誕生

Transformerアーキテクチャの登場以降、AIの開発手法は一変した。かつては画像認識ならCNN自然言語処理ならRNNと個別にモデルを組んでいたが、今は違う。
テキストも画像も音声も、巨大なニューラルネットワークに流し込んで事前学習させる。これが基盤モデル。
特定のタスクを教え込むのではなく、インターネット上の膨大なデータから言葉の規則性や世界の構造を自己教師あり学習で獲得させる。
結果として、翻訳要約もコード生成もこなせる怪物が生まれた。
ただ、この事前学習には数千基のH100 GPUと数ヶ月の計算時間が要る。自社でゼロから作ろうなどと考えるのは、一部のメガテック企業を除けば現実的ではない。

法務や経理の現場を激変させる代表的ツール群

OpenAIのGPT-4oやAnthropicClaude 3.5 Sonnet、GoogleのGemini 1.5 Pro。これらが現在の代表格である。
法務部門での契約書レビューを想像してほしい。
以前なら法務特化の自然言語処理モデルを数千万かけて開発していた。今はClaude 3.5 SonnetAPIを叩き、プロンプトで指示を出すだけで、NDAの不利な条項を瞬時に洗い出す。
経理部門の領収書読み取りも同じである。Gemini 1.5 Proのマルチモーダル機能を使えば、手書きのメモが添えられたかすれたレシートからでも、正確に金額と日付を抽出する。
わざわざ専用のOCRソフトを買う必要すらなくなりつつある。
現場の業務フローにどう組み込むか。そこが腕の見せ所である。

汎用性の影に潜む技術的限界と現場の落とし穴

基盤モデルのメリットは、一つのAPIで複数の業務に対応できる点にある。
だが、現場で運用を始めるとすぐに壁にぶつかる。
もっとも厄介なのは、もっともらしい嘘を出力する現象である。
法務の契約書チェックで存在しない判例をでっち上げられたら目も当てられない。
プロンプトエンジニアリングで制御しようとするが、モデルのバージョンアップで突然挙動が変わることも日常茶飯事である。
機密情報を扱う製造業の設計部門などでは、パブリックなAPIに図面データを投げるわけにはいかない。
閉域網で動かすためにLlama 3などのオープンモデルをオンプレミス環境にデプロイする選択肢もあるが、インフラの維持費と精度のトレードオフは常に悩ましい。

自社に最適なAIを導入するための評価基準と判断材料

結局のところ、どの基盤モデルをどう使うべきか。
社内規定の検索システムを作りたいなら、RAGを構築してGPT-4oのAPIとベクトルデータベースを組み合わせるのが定石である。
しかし、自社特有の専門用語が多すぎる製造業の保守マニュアル検索などでは、RAGだけでは精度が出ないことがある。
その場合、MistralやQwenなどの軽量なオープンモデルを自社のデータでファインチューニングするアプローチが視野に入る。
APIの従量課金を受け入れるか、GPUサーバーの固定費を払うか。
モデルの陳腐化が激しい現在、特定のベンダーにロックインされるリスクをどう評価するか。
技術選定の判断は分かれる。正解はない。ただ、現場のデータと要件を直視し、泥臭く検証を繰り返すしかない。

当社の見解

当社は機密情報のマスキング処理を全てローカルAIで行っている。これにより機密情報を外部に送信せずにAI処理できるようになった。だが、AIが嘘をつくハルシネーションの問題は依然としてある。確認していないのに「確認しました」と言う。当社はこの前提で運用を設計している。事実と推測の強制分離、ファクトチェック機能、3つのAIと人間の同士の三重検証を行っている。どこまでいっても、AIは完璧ではない。理論上100%安全設計をしていても、AIも人間も想定しないことは起こるものだ。その万が一に備えておくことが、AIを使う上では前提になっている。だろうではなく、かもしれない運用がAIを使う上での安全基盤となっている。

同じ失敗を二度としないAIエージェント

今のAIは、聞けば何でも答えてくれます。
でも、セッションが切れた瞬間に前回の失敗を忘れます。

当社が開発しているAIは、過去の経緯を念頭に置いて、
聞かれる前に「それは前回うまくいきませんでした」と声をかけます。
人間にも同じ失敗をさせず、AI自身も繰り返しません。

古参の社員が横にいるように、黙っていても気づいてくれる。
それが、当社が考える本当のAI社員です。

相談する