RLHF

RLHF
読み: アールエルエイチエフ

読み: アールエルエイチエフ

RLHFとはAI調整の核心技術

RLHFはReinforcement Learning from Human Feedbackの略称で、人間の評価を報酬として与えることでAIの出力を人間の価値観や意図に沿うよう調整する強化学習手法。

かんたんに言うと

新入社員の作成した契約書ドラフトに対し、法務部長が赤字を入れて「この表現はリスクが高い」「ここは良い」と採点し、その基準を学習させるようなものである。

AIの暴走を防ぐ人間フィードバック型強化学習RLHFの基本概念

GPT-4やClaude 3 Opusがどれだけ流暢な文章を生成できても、そのままではただの確率的な単語の羅列に過ぎない。彼らは平気で嘘をつくし、倫理的にアウトな発言もする。

これを人間の価値観に合わせるアライメントの作業がRLHFである。

アライメントを怠った素のモデルを法務チェックに投入したとしよう。彼らは存在しない最高裁判例を平然とでっち上げる。ハルシネーションである。初歩的な技術用語すら理解していないモデルを業務で使う気にはならないのと同じで、人間の常識から逸脱した出力を垂れ流すAIは実務の現場では使い物にならない。人間のフィードバックを注入することで、ようやくビジネスの土俵に上がれる。

報酬モデルを用いた学習プロセス

RLHFの仕組みは大きく3つのステップに分かれる。まず事前学習済みLLMに複数の回答を出させ、人間がそれをランク付けする。次に、その人間の評価基準を模倣する報酬モデルを構築する。最後にPPOというアルゴリズムを使って、報酬モデルが高得点を出すようにLLM強化学習させる。

なぜ直接人間が評価し続けないのかわかるだろうか。

コストが天文学的に膨れ上がるからである。毎回人間が採点していてはモデルの学習スピードに到底追いつかない。だから人間の代役となる報酬モデルを挟む。現場でよく見る失敗は、この報酬モデルの精度が低いままPPOを回してしまうこと。結果として、AIは報酬モデルの抜け穴を突いて無意味な高得点を稼ぐハックを覚えてしまう。

ビジネス実装例と代表的なAIツール

OpenAIのChatGPTが世間を騒がせたのは、このRLHFを徹底的にやり込んだからに他ならない。AnthropicのClaudeやGoogleのGeminiも同様の手法を採用し、出力のトーンや安全性を調整している。

人事部門での採用スクリーニングや、経理部門での経費規定チェックにこれらのモデルを使う際、RLHFの恩恵を直接受けている。

例えば、人事評価のテキストを要約させる際、性別や年齢に基づく差別的な表現をAIが生成しないのは、RLHFによってそういう発言は減点されると叩き込まれているからである。ただ、各社でRLHFの味付けが異なるため、Claudeは安全側に倒しすぎて回答を拒否しがちだが、Geminiはあっさり答えてしまうといった違いが出る。

導入するメリットと運用上の限界

最大のメリットはブランドセーフティの確保である。企業が提供するサービスにAIを組み込む際、不適切な発言を防ぐ防波堤になる。

だが、限界もある。アノテーションコストの異常な高さである。

さらに厄介なのが人間のバイアス混入リスクである。評価者の偏見がそのままAIに反映されてしまう。海外の安価な労働力を使ってアノテーションを行った結果、現地の文化や政治的偏見がモデルに染み付いてしまったケースを私は何度も見てきた。自社の倫理観とアノテーターの倫理観のズレをどう埋めるか。これは本当に悩ましい。

自社プロジェクトにおける導入の判断基準

自社で独自モデルにRLHFを適用すべきか。

結論から言うと、大半の企業にとって自前でのRLHFは割に合わない。数千から数万件の高品質な人間による評価データを用意する予算と時間は、通常のプロジェクトには存在しない。

既存のRLHF済みAPIを叩き、プロンプトエンジニアリングや通常のファインチューニングで調整する方が現実的である。どうしても自社特有の複雑な価値観をモデルの根底に組み込みたい場合のみ、RLHFの導入を検討する余地がある。どこまで自社でコントロールすべきか、投資対効果の観点から判断が分かれるところである。

当社の見解

技術の選定で最も避けるべきは「流行っているから」という理由で導入することだ。当社は複数のAIツール・フレームワークを実際に検証した上で、自社の用途に合うものだけを採用している。検証せずに導入したツールは、ほぼ例外なく3か月以内に使わなくなった。実装指示した人間側が実装したことも忘れて、気が付けば動いていない機能があった、ということも起きる。さらに、MCPやフックやルールを増やしすぎてAIが情報過多で機能しなくなった経験もある。どんなにルールや機能を付け足しても機能しなければ意味がない。足し算より引き算。1週間の検証期間が、3か月の手戻りを防ぐ。

同じ失敗を二度としないAIエージェント

今のAIは、聞けば何でも答えてくれます。
でも、セッションが切れた瞬間に前回の失敗を忘れます。

当社が開発しているAIは、過去の経緯を念頭に置いて、
聞かれる前に「それは前回うまくいきませんでした」と声をかけます。
人間にも同じ失敗をさせず、AI自身も繰り返しません。

古参の社員が横にいるように、黙っていても気づいてくれる。
それが、当社が考える本当のAI社員です。

相談する