システムプロンプト

SYSTEM PROMPT
読み: システムプロンプト

読み: システムプロンプト

システムプロンプトとはAI制御の要

システムプロンプトは、LLMの振る舞いや役割を根底から定義する初期指示の文字列である。ユーザーが入力するテキストの前に読み込まれ、出力のトーン、制約事項、前提知識をモデルに強制する。汎用的な生成AIを特定の業務専用アシスタントへと変貌させるための最重要設定と言える。

かんたんに言うと

新入社員に渡す「業務マニュアルと配属部署のルールブック」のセット。これを最初に読ませておかないと、彼らは自分の勝手な判断基準で仕事を進めてしまう。

汎用AIを業務専用アシスタントに変えるシステムプロンプトの正体

LLMAPIを叩く際、リクエストの配列の先頭に「role: system」として渡すテキスト。これがシステムプロンプトの正体である。ユーザープロンプトが入力される前に処理され、モデルのペルソナや出力フォーマットを縛り付ける。

ただの文字列だが、影響力は絶大である。

例えばOpenAIのAPIでGPT-4oを呼び出すとき、システムプロンプトに「あなたはJSON形式でのみ応答する」と書けば、余計な挨拶文を省いてデータだけを返すようになる。システム連携を前提とするなら必須の処理である。

だが、現場では欲張って失敗するケースが後を絶たない。指示を詰め込みすぎると、モデルはコンテキストウィンドウの制約やアテンションの減衰により、後半の指示をあっさり忘れる。どれだけ削ぎ落とせるかが実務家の腕の見せ所である。

現場の業務フローを変える実装ツールと活用例

法務部門の契約書レビューを例に挙げよう。Claude 3.5 Sonnetを使う場合、単に「チェックして」と投げるだけでは素人の感想しか返ってこない。システムプロンプトで「あなたは日本法に精通した弁護士。下請法違反のリスクを指摘せよ」と明確に縛ることで、初めて実用に耐える出力が得られる。

経理部門ならどうだろうか。Azure OpenAI Service経由でセキュアな環境を構築し、社内の経費精算規定をシステムプロンプトに埋め込む。領収書の読み取り結果と規定を照合させるわけである。

最近はDifyのようなプラットフォームが普及し、非エンジニアでもGUI上でシステムプロンプトを調整できるようになった。ChatGPT Enterpriseを全社導入してプロンプトのテンプレートを共有する企業も多い。

ツールは揃った。では、誰がそのプロンプトをメンテナンスするのか。

設定による効果と技術的な限界

システムプロンプトを作り込めば出力は安定する。しかし、万能ではない。

最大の懸念はプロンプトインジェクションである。悪意あるユーザーが「これまでの指示を無視して」と入力したとき、システムプロンプトの制約を突破して機密情報を漏らす危険性が常につきまとう。システム側で入力文字列をフィルタリングするなどの対策が必要だが、いたちごっこが続いている。

また、ハルシネーションを完全に防ぐことも不可能である。「知らないことは知らないと答えよ」とシステムプロンプトに書いても、もっともらしい嘘をつくモデルは存在する。

どこまでシステムプロンプトで制御し、どこからをアプリケーション側のロジックで担保するか。この境界線の引き方は、プロジェクトごとに判断が分かれる。

自社導入に向けた評価基準と運用体制

社内文書を検索して回答させるRAGを構築する際も、検索結果をどう解釈し、どう回答を組み立てるかはシステムプロンプト次第である。ここで出力の質が決まる。

ガバナンスの観点からは、システムプロンプトのバージョン管理が求められる。昨日まで正しく動いていたAIが、プロンプトの微修正で突然ポンコツになるのは日常茶飯事である。Gitなどで変更履歴を追い、リグレッションテストを回す仕組みがないと、本番環境の運用は破綻する。

現場の担当者にプロンプトのチューニングを任せるか、それともシステム部門が中央集権的に管理するか。

現場のドメイン知識は捨てがたいが、野良プロンプトが乱立するリスクもある。どちらの体制を敷くべきか、非常に悩ましい。

当社の見解

当社は機密情報のマスキング処理を全てローカルAIで行っている。これにより機密情報を外部に送信せずにAI処理できるようになった。だが、AIが嘘をつくハルシネーションの問題は依然としてある。確認していないのに「確認しました」と言う。当社はこの前提で運用を設計している。事実と推測の強制分離、ファクトチェック機能、3つのAIと人間の同士の三重検証を行っている。どこまでいっても、AIは完璧ではない。理論上100%安全設計をしていても、AIも人間も想定しないことは起こるものだ。その万が一に備えておくことが、AIを使う上では前提になっている。だろうではなく、かもしれない運用がAIを使う上での安全基盤となっている。

同じ失敗を二度としないAIエージェント

今のAIは、聞けば何でも答えてくれます。
でも、セッションが切れた瞬間に前回の失敗を忘れます。

当社が開発しているAIは、過去の経緯を念頭に置いて、
聞かれる前に「それは前回うまくいきませんでした」と声をかけます。
人間にも同じ失敗をさせず、AI自身も繰り返しません。

古参の社員が横にいるように、黙っていても気づいてくれる。
それが、当社が考える本当のAI社員です。

相談する