Perplexity
読み: パープレキシティ
PerplexityとはAI検索の実力
Perplexityは次世代の対話型AI検索エンジンとしてのサービス名と大規模言語モデルが次に出現する単語を予測する際の迷い度合いを示す評価指標という二つの重要な意味を持つAI用語である。
かんたんに言うと
Perplexityを評価指標として見るならカーナビが次の交差点で右折か左折か迷う度合いである。数値が低いほど迷いなく正解のルートを導き出す。
検索サービスと評価指標を混同しないためのPerplexityの二つの顔
Perplexityという言葉が現場で飛び交うとき文脈を見誤ると話が噛み合わなくなる。
一つはPerplexity AIが提供する検索エンジンのこと。もう一つはLLMの性能を測る評価指標を指す。
前者はユーザーが直接触れるプロダクトであり後者はモデル開発者が使う専門用語である。
Llama 3やClaude 3.5 Sonnetの論文を読めば必ずこの指標が登場する。数値が低いほどモデルが次の単語を予測する際の迷いが少ないことを意味する。
現場のエンジニアがこのモデルはPerplexityが高いと言った場合それは褒め言葉ではない。予測精度が低いというダメ出しである。
この二つの意味を混同したままベンダーの営業トークを聞いていると痛い目を見る。
対話型検索の裏側と自然言語処理における予測精度の測定メカニズム
検索エンジンとしてのPerplexityはRAGの仕組みを極めて洗練された形で実装している。
ユーザーの質問に対しリアルタイムでWebをクロールし関連するテキストを抽出してLLMに読み込ませる。
裏で動いているのは単純なキーワードマッチではない。
評価指標としてのPerplexityを低く抑えるよう訓練された自然言語処理モデルが文脈を理解して回答を生成する。
ただこの仕組みは万能ではない。
検索元の記事自体が間違っていればどれだけモデルの予測精度が高くても誤情報が出力される。
あなたは検索結果の参照元リンクを毎回クリックしているだろうか。
法務や製造現場におけるAI検索ツールの実用性と代表的サービス
AIの恩恵を受けるのは特定の部署だけではない。
法務部門での契約書ドラフト作成前の判例調査や製造業における過去の歩留まり低下要因の文献リサーチでPerplexity AIは威力を発揮する。
GensparkやCopilotといった競合も存在するがレスポンスの速さと参照元の明示という点でPerplexityのUIは頭一つ抜けている。
特に法務の現場では根拠となる条文や判例のソースが必須である。
ChatGPTのWeb検索機能も進化しているが検索に特化したUIの使い勝手ではまだ差がある。
とはいえどのツールを選ぶかは現場のITリテラシーに依存するため一概にどれがベストとは言い切れない。判断が分かれるところである。
情報収集の高速化がもたらす恩恵と現場の落とし穴
リサーチの時間は劇的に短縮される。
だが現場には思わぬ落とし穴が待っている。
検索結果を鵜呑みにした若手社員が存在しない架空の判例を社内会議の資料に載せてしまったケースを私は知っている。
AI検索エンジンはもっともらしい嘘をつく。
ファクトチェックの工程を省けるわけではない。むしろ検索が速くなった分人間が裏取りをする回数が増えるという皮肉な結果を招くこともある。
ツールが優秀になればなるほど人間の思考力は奪われていくのではないか。
このジレンマの扱いは非常に悩ましい。
企業がAI検索エンジンを業務導入する際の評価基準と運用要件
企業が導入に踏み切る際無料版をそのまま使わせるのはリスクが高すぎる。
入力したデータが学習に利用される可能性があるからである。
Perplexityのエンタープライズ版やAzure OpenAI Serviceを経由したセキュアな環境構築が求められる。
しかしセキュリティ要件をガチガチに固めすぎると今度は使い勝手が悪くなり誰も使わなくなる。
IP制限やSSO連携を実装しつつ現場の検索体験を損なわないバランスをどう取るか。
結局のところツールを入れるだけで全てがうまくいく魔法など存在しない。現場の泥臭い運用ルール作りから逃げることはできないのである。
当社の見解
当社は機密情報のマスキング処理を全てローカルAIで行っている。これにより機密情報を外部に送信せずにAI処理できるようになった。だが、AIが嘘をつくハルシネーションの問題は依然としてある。確認していないのに「確認しました」と言う。当社はこの前提で運用を設計している。事実と推測の強制分離、ファクトチェック機能、3つのAIと人間の同士の三重検証を行っている。どこまでいっても、AIは完璧ではない。理論上100%安全設計をしていても、AIも人間も想定しないことは起こるものだ。その万が一に備えておくことが、AIを使う上では前提になっている。だろうではなく、かもしれない運用がAIを使う上での安全基盤となっている。
同じ失敗を二度としないAIエージェント
今のAIは、聞けば何でも答えてくれます。
でも、セッションが切れた瞬間に前回の失敗を忘れます。
当社が開発しているAIは、過去の経緯を念頭に置いて、
聞かれる前に「それは前回うまくいきませんでした」と声をかけます。
人間にも同じ失敗をさせず、AI自身も繰り返しません。
古参の社員が横にいるように、黙っていても気づいてくれる。
それが、当社が考える本当のAI社員です。
