大規模言語モデル

LARGE LANGUAGE MODEL
読み: 大規模言語モデル

読み: 大規模言語モデル

大規模言語モデルとはAI基盤技術

大規模言語モデルはインターネット上の膨大なテキストデータを学習し人間と同等レベルの自然な文章の生成や要約翻訳などの高度な言語処理を実行できる人工知能の基盤技術である。

かんたんに言うと

膨大な過去の会話記録を丸暗記し、次に続く最も自然な言葉を確率で推測し続ける、超高速な連想ゲームの達人のようなものである。

大規模言語モデルが膨大なテキストデータから文脈を理解する次世代AI基盤技術の正体

LLM生成AIのコア技術。自然言語処理の分野でパラメータと呼ばれる変数を数千億規模で持つ。
GPT-4やClaude 3.5 Sonnetなどは、このパラメータの暴力で文脈を理解しているように振る舞う。
本当に理解しているわけではない。
ただ、次にくる単語を確率的に予測しているだけである。この単純な仕組みが、なぜこれほど流暢な文章を生み出すのか。現場で使っていると時々不思議に思うことがある。

確率に基づく単語の予測とTransformerの仕組み

裏側にあるのはTransformerというディープラーニングのアーキテクチャである。
文章中のどの単語に注目すべきかを計算するアテンション機構が、文脈の保持を可能にした。ニューラルネットワークの層を深くすることで、より複雑なパターンを学習する。
だが、この仕組みゆえの弱点もある。計算量が膨大になりすぎるのである。
NVIDIAのH100を何千基も並べたクラスタで数ヶ月かけて学習させる。電気代だけで億単位が飛ぶ。自社でゼロからモデルを作る企業が日本にいくつあるだろうか。現実的にはAPI経由で既存モデルを叩くことになる。

法務や人事における実務適用とツールの限界

現場での使い道はどうだろうか。
法務部門でNDAのレビューにGemini 1.5 Proを試した。数万字の契約書を丸ごとプロンプトに突っ込めるコンテキストウィンドウの広さは特筆に値する。しかし、自社特有の法務基準を完全に反映させるのは難しい。
人事部門での採用面接の文字起こし要約でも同じである。Copilotに議事録をまとめさせると、無難な箇条書きが出来上がる。だが、候補者の微妙なニュアンスや熱量は抜け落ちる。
結局、最後は人間が手を入れることになる。どこまでをAIに任せるべきか、現場のマネージャーは常に悩ましい判断を迫られる。

導入で直面する事実誤認とデータ保護のトレードオフ

ハルシネーションは消えない。
もっともらしい嘘をつく。存在しない判例をでっち上げた事例は有名だが、実務でも平気で架空の社内規定を捏造する。
これを防ぐためにRAGを組むのが定石である。社内ドキュメントをベクトル化して検索し、その結果をプロンプトに含める。
ただ、PineconeやWeaviateなどのベクトルデータベースのチューニングは泥臭い作業といえる。検索精度が低ければ、結局ゴミをLLMに食わせることになる。
さらに、機密情報の扱いも厄介である。API経由でデータを送る際、オプトアウトの設定を忘れて学習データに吸い込まれる事故は後を絶たない。

自社に最適なAI環境を構築するための選定基準

クラウドSaaSを使うか、VPC内に閉じた環境を作るか。
Azure OpenAI Serviceを使えばエンタープライズレベルのセキュリティは担保しやすい。だが、ランニングコストは跳ね上がる。
オープンソースLlama 3をオンプレミスで動かす選択肢もある。ファインチューニングで自社専用モデルを作ることも可能である。
しかし、インフラの運用保守を誰がやるのか。モデルの陳腐化スピードは異常である。半年前に苦労して作った独自モデルが、最新の汎用APIに性能であっさり負ける。
どのレイヤーで勝負するのか。技術の進化に振り回されず、自社の身の丈に合ったアーキテクチャを選ぶのは本当に難しい。

当社の見解

当社は機密情報のマスキング処理を全てローカルAIで行っている。これにより機密情報を外部に送信せずにAI処理できるようになった。だが、AIが嘘をつくハルシネーションの問題は依然としてある。確認していないのに「確認しました」と言う。当社はこの前提で運用を設計している。事実と推測の強制分離、ファクトチェック機能、3つのAIと人間の同士の三重検証を行っている。どこまでいっても、AIは完璧ではない。理論上100%安全設計をしていても、AIも人間も想定しないことは起こるものだ。その万が一に備えておくことが、AIを使う上では前提になっている。だろうではなく、かもしれない運用がAIを使う上での安全基盤となっている。

同じ失敗を二度としないAIエージェント

今のAIは、聞けば何でも答えてくれます。
でも、セッションが切れた瞬間に前回の失敗を忘れます。

当社が開発しているAIは、過去の経緯を念頭に置いて、
聞かれる前に「それは前回うまくいきませんでした」と声をかけます。
人間にも同じ失敗をさせず、AI自身も繰り返しません。

古参の社員が横にいるように、黙っていても気づいてくれる。
それが、当社が考える本当のAI社員です。

相談する