GPT

GPT
読み: ジーピーティー

読み: ジーピーティー

GPTとは文章生成AIの中核技術

GPTはOpenAIが開発したGenerative Pre-trained Transformerの略称であり膨大なテキストデータを事前学習して人間と同等レベルの自然な文章を生成する大規模言語モデルの基盤技術。

かんたんに言うと

膨大な過去の会話記録を丸暗記し、次に発せられるべき最も確率の高い単語を延々と紡ぎ続ける、極めて優秀だが記憶喪失のタイピストのようなものである。

膨大なテキストから言語の法則を抽出するGPTの全体像

Generative Pre-trained Transformer。これがGPTの正体である。OpenAIが開発したこの大規模言語モデルは、インターネット上のテキストを貪欲に飲み込み、言語の法則を抽出した。

ただの確率計算機にすぎない。

そう切り捨てるエンジニアもいるが、出力される文章の自然さは異常である。文脈を理解しているかのように振る舞うが、実際には次に続く単語を予測しているに過ぎない。この単純なメカニズムが、なぜこれほどまでに人間臭いテキストを生み出せるのか。パラメータの規模が閾値を超えた瞬間、モデルの振る舞いが劇的に変わる現象を現場で目の当たりにしたとき、背筋が寒くなったのを覚えている。

膨大なデータから文脈を予測するTransformerの仕組み

ディープラーニングの歴史において、Transformerの登場は特異点だった。従来のRNNが単語を順番に処理していたのに対し、Transformerは文章全体を同時に俯瞰する。

Attention機構というやつである。

どの単語がどの単語に強く結びついているかを計算し、文脈の重み付けを行う。事前学習で膨大なテキストのパターンを叩き込まれたGPTは、このAttentionを駆使して次に来る単語を確率的に弾き出す。だが、この計算リソースの消費量は尋常ではない。GPUクラスタを何ヶ月も回し続ける電気代を想像したことがあるだろうか。我々のような実務家からすれば、この巨大なブラックボックスをどう手なずけるかが常に悩ましい。

法務や経理の現場を揺るがすGPT搭載ツールの実態

ChatGPTの登場以降、あらゆるSaaSがGPTを組み込み始めた。Copilot for Microsoft 365やNotion AIは、もはや日常のツールとして定着しつつある。

だが、現場の現実は甘くない。

法務部門で契約書のドラフト作成にGPTを使おうとしたケースがある。確かにそれらしい条文は出力される。しかし、準拠法や管轄裁判所の指定で微妙なズレが生じる。経理部門での請求書データの突合でも、フォーマットの揺れに弱く、結局人間が目視で確認する羽目になった。ツールが強力であればあるほど、業務フローへの組み込み方で判断が分かれる。単に導入すれば魔法のように仕事が消えるわけではないのである。

現場を混乱させるもっともらしい嘘とプロンプトの限界

GPTの最大の厄介事はハルシネーションである。もっともらしい嘘を平然と吐く。

存在しない判例をでっち上げた。

法務の担当者が青ざめて報告してきたことがある。プロンプトエンジニアリングで出力の精度を上げようと、Few-shotプロンプティングChain of Thoughtを駆使してガチガチに制約をかけた。結果どうなったか。モデルは指示の多さに混乱し、かえって破綻したテキストを返し始めた。プロンプトをこねくり回すことに時間を溶かすくらいなら、最初から人間が書いた方が早いのではないか。そう感じる瞬間は少なくない。AIの出力結果をどこまで信用し、どこから人間のチェックを入れるべきか、その境界線の設定は常に悩ましい。

APIかEnterpriseか実運用に耐えうるインフラの選択

自社環境にGPTをどう組み込むか。選択肢はいくつかある。OpenAI APIを直接叩くか、ChatGPT Enterpriseを契約するか、あるいはAzure OpenAI Serviceを経由するかに懸かっている。

セキュリティ部門は必ずAzureを推してくる。

閉域網での接続やコンプライアンス要件を満たしやすいからである。しかし、Azure側のモデルアップデートが本家OpenAIより遅れることがあり、開発現場からは不満の声が上がる。一方で、APIのレート制限に引っかかり、月末にシステムが停止するトラブルも経験した。インフラの選定は、コスト、セキュリティ、そして開発スピードのどれを優先するかという泥臭いトレードオフの連続である。どれを選んでも一長一短があり、正解を出すのは難しい。

当社の見解

当社は機密情報のマスキング処理を全てローカルAIで行っている。これにより機密情報を外部に送信せずにAI処理できるようになった。だが、AIが嘘をつくハルシネーションの問題は依然としてある。確認していないのに「確認しました」と言う。当社はこの前提で運用を設計している。事実と推測の強制分離、ファクトチェック機能、3つのAIと人間の同士の三重検証を行っている。どこまでいっても、AIは完璧ではない。理論上100%安全設計をしていても、AIも人間も想定しないことは起こるものだ。その万が一に備えておくことが、AIを使う上では前提になっている。だろうではなく、かもしれない運用がAIを使う上での安全基盤となっている。

同じ失敗を二度としないAIエージェント

今のAIは、聞けば何でも答えてくれます。
でも、セッションが切れた瞬間に前回の失敗を忘れます。

当社が開発しているAIは、過去の経緯を念頭に置いて、
聞かれる前に「それは前回うまくいきませんでした」と声をかけます。
人間にも同じ失敗をさせず、AI自身も繰り返しません。

古参の社員が横にいるように、黙っていても気づいてくれる。
それが、当社が考える本当のAI社員です。

相談する