DLP
読み: ディーエルピー
DLPとはAI時代の情報漏洩対策
DLPは従業員がAIシステムに入力するプロンプトやアップロードするファイルから個人情報や機密データを検知し外部への情報流出やAIの学習データへの意図しない取り込みを未然に防ぐセキュリティ技術である。
かんたんに言うと
空港の手荷物検査場である。危険物や持ち出し禁止の品をX線で透視し、ゲートを通過する前に没収する。AIという外部の国へ機密データが渡るのを水際で食い止める税関のような役割を果たす。
生成AIへの機密データ入力が招く学習データ流出の現実
ChatGPTをはじめとするLLMを業務に組み込む際、誰もが一度は背筋が凍る思いをするはずである。従業員が未発表の製品仕様や顧客リストを平気でプロンプトに放り込むからである。
悪意はない。ただ便利だから使うだけである。
しかし、入力されたデータが生成AIの学習に回されれば、他社のプロンプトへの回答として自社の機密が漏れ出す。この惨劇を防ぐための防波堤がDLPである。単なるアクセス制御ではなく、通信の中身を解析して機密情報の流出を検知する。
本当にそこまで必要なのか。
現場のエンジニアとしては、開発スピードが落ちるため入れたくないのが本音である。だが、一度でもデータがLLMの重みとして吸収されれば、それを取り消す手段は存在しない。
パターンマッチングとマスキングによる通信遮断の裏側
DLPがどうやって機密を嗅ぎ分けるのか。基本は正規表現を用いたパターンマッチングである。マイナンバーやクレジットカード番号など、特定のフォーマットを持つ文字列をAPIのペイロードから瞬時に識別する。
検知した後のアクションはいくつかある。
通信そのものを遮断してエラーを返すか、該当部分だけをアスタリスクなどに置き換えるマスキング処理を行うかに懸かっている。実務上、どちらを選ぶかは非常に悩ましい。遮断すれば安全だが業務が止まる。マスキングなら処理は続くが、文脈が壊れてLLMがまともな推論を返せなくなることが多い。
最近は単純なパターンだけでなく、文脈から機密性を判定する機械学習ベースの検知も増えた。ただ、日本語の揺らぎに対応しきれず誤検知を連発する製品も少なくない。カタログスペックを鵜呑みにすると痛い目を見る。
法務と人事での活用事例と代表的ツール
法務部門がNDAのドラフトをAIにレビューさせる際、取引先名や金額がそのまま外部に送信されるリスクがある。ここでMicrosoft PurviewのDLP機能が活きる。Officeアプリと密結合しているため、Word上の機密ラベルを読み取り、AIへのコピペをOSレベルでブロックできる。
人事部門ではどうだろうか。
採用候補者の職務経歴書を要約させる際、氏名や住所が漏れる。Google Cloud DLPのAPIを社内システムに組み込めば、テキストストリームから個人情報をリアルタイムで除去してからLLMに渡せる。
また、従業員が勝手に外部のAIサービスを使うシャドーIT対策には、Netskopeのようなクラウドプロキシが効く。通信経路でプロンプトを監視し、ポリシー違反を弾く。
ゼロトラスト環境下の過剰検知が招く業務停滞
DLPを導入すればコンプライアンス要件は満たせる。ゼロトラストの原則に従い、すべての通信を疑ってかかる体制が整う。経営陣はこれで安心するだろう。
だが、現場は地獄である。
最大の敵はフォールスポジティブ、つまり誤検知である。例えば、社内向けのダミーデータや、公開済みのプレスリリースまで機密扱いされてブロックされる。その度にセキュリティ担当者に解除申請が飛び、AIのレスポンスを待つ前に人間がになる。
検知ルールを緩めればすり抜ける。厳しくすれば仕事にならない。このチューニングの落とし穴にハマり、結局DLPの機能をオフにしてしまう企業をいくつも見てきた。セキュリティと利便性のバランスをどこで取るか、判断が分かれるところである。
CASB連携とデータ主権を見据えたアーキテクチャ設計
どのDLPを選ぶべきか。機能一覧のマルバツ表を作っても意味がない。
まず考えるべきは、既存のインフラとの相性である。すでにCASBを導入しているなら、その拡張機能としてDLPを有効化するのが手っ取り早い。ネットワークの出口で一括して網をかけられるからである。
欧州の顧客データを扱うならGDPRへの対応も無視できない。
データが物理的にどのリージョンで処理され、DLPの検知ログ自体に個人情報が含まれていないかまで問われる。ログの保管場所すら法的な火種になるのである。
結局のところ、ツール単体で完結する話ではない。社内のデータ分類ルールが形骸化していれば、どんな高価なDLPを入れてもゴミしか検知しない。自社のデータ資産をどれだけ正確に把握できているか。それが導入の成否を分ける。
当社の見解
当社はAIの安全運用のために3層防御を設計・実装している。万が一インシデントが発生しても数分以内に復旧できるバックアップ体制を持つ。実際にAIが暴走してテスト環境を停止させた経験があり、その教訓から「失敗を防ぐ」だけでなく「失敗しても戻せる」設計が本質だと確信している。加えて、AIは事実でないことを断定する。この前提で事実/推測の強制分離とファクトチェックを実装した。安全性は仕組みで担保するものだ。
同じ失敗を二度としないAIエージェント
今のAIは、聞けば何でも答えてくれます。
でも、セッションが切れた瞬間に前回の失敗を忘れます。
当社が開発しているAIは、過去の経緯を念頭に置いて、
聞かれる前に「それは前回うまくいきませんでした」と声をかけます。
人間にも同じ失敗をさせず、AI自身も繰り返しません。
古参の社員が横にいるように、黙っていても気づいてくれる。
それが、当社が考える本当のAI社員です。
