社内AIナレッジチャット

KNOWLEDGE CHAT

なぜあの会社は
機密情報を
AIで扱えるのか

顧客データ、従業員情報、研究開発データ、特許資料。
漏洩が許されない情報を扱う現場でも、
データを外部に送信しない構成でAIを導入できます。

  • データが外部に出ない
  • 500万円台から導入可能
  • ソースコード譲渡
  • オンプレ構成にも対応

データが外部に出ない

500万円台から導入可能

ソースコード譲渡

オンプレ構成にも対応

01

Problem機密情報を扱う業務でAI導入を阻む3つの壁

SaaS型AIでは機密情報を扱えない

ChatGPTやCopilotなど汎用SaaS型AIは、入力データが外部サーバーに送信される構成のため、顧客データ、研究開発データ、特許資料などの機密情報を入力できない。情報漏洩リスクを懸念し、情シス部門がAI利用自体を禁止しているケースも多い。

自社構築は高額で時間がかかる

セキュリティ要件を満たすAI基盤をゼロから構築すると、数千万円規模の費用と半年以上の開発期間が必要になる。PoC段階でこの規模の投資を決裁するのは難しく、検討が停滞してしまう。

構築できても社内で使われない

技術的に導入できても、社内で使われなければ意味がない。操作方法の教育、プロンプト設計、利用促進まで含めた導入設計がなければ、ツールは放置される。

02

SolutionOSSと既製部品でコスト障壁を解消する

OSSベースのAI基盤をAWS東京リージョン内に構築し、
データの保管・処理・推論をすべて国内で完結させます。
既製コンポーネントの組み合わせにより、自社構築のコスト障壁を解消します。

データの閉じ込め

会話ログ、ナレッジデータ、バックアップのすべてをAWS東京リージョン内のRDS・S3に保管。LLM推論もBedrock東京リージョンを使用し、データが外部に送信されない構成です。

OSSベースの低コスト構成

OSS(Dify)をベースにした構成で、ライセンス費用はゼロ。AWS Bedrock、RDS、S3など既製のクラウドコンポーネントを組み合わせることで、フルスクラッチ開発に比べて構築期間とコストを圧縮します。

閉域構成にも対応

社内規程でクラウド利用が制限されている場合は、オンプレミスまたは閉域VPC内に構築します。外向き通信を遮断し、推論・保存・ログが外部に出ない構成を設計します。

03

Mechanism導入から定着までの3ステップ

1

AI基盤の構築

Difyベースの基盤をお客様専用のAWS環境内にセルフホスト。PDF、Word、HTMLなど既存の社内文書を取り込み、再学習なしでAIが回答できるナレッジベースを構築します。

2

運用設計と教育

権限管理、監査ログ、入力ルールを設計し、運用体制を整えます。Difyの操作方法やプロンプト設計のトレーニングを実施し、社内での活用率を高めます。

3

自立運用への移行

ソースコードを譲渡し、お客様自身でAIを運用・改善できる状態を目指します。ナレッジの追加・更新もお客様側で完結できるよう、ドキュメントと研修を提供します。

04

Capability社内AIナレッジチャットでできること

社内文書の即時検索

規程、マニュアル、議事録、FAQ。散在するドキュメントの中から必要な情報をAIが探し出し、要点を返します。

根拠付き回答

回答の参照元ドキュメントを明示します。「どの文書のどの箇所に基づいた回答か」が確認でき、共有や報告にそのまま使えます。

下書き生成

社内メール、申請文、FAQドラフトなど、業務文書の下書きを生成します。法務、情シス、管理部門の定型的な文書作成工数を削減します。

対象:社内の情報照会と業務文書作成
対象外:一般顧客向けの常時接客チャット(CS用途)は別途要件整理が必要です

05

Why Us選ばれる理由

1

機密情報保護の観点で設計する

データの保管先、推論の実行場所、管理者のアクセス制御、監査ログの保管まで、個人情報保護法や営業秘密管理の観点で要件を整理し、構成と運用に落とし込みます。納品物には構成図、データフロー、権限設計、ログ方針を含みます。

2

ソースコードを譲渡する

SaaSのブラックボックスではなく、お客様がソースコードを所有できます。ベンダーロックインを回避し、将来的な内製化や独自カスタマイズが可能です。

3

導入形態を選べる

AWS東京リージョン完結で短期導入するか、閉域オンプレ構成で物理的にもデータが外に出ない構成にするか。お客様の社内規程とセキュリティ要件に合わせて選択できます。

06

Pricing導入ロードマップと費用

01

要件定義

対象業務、利用者の範囲、セキュリティ要件をヒアリングし、導入形態(クラウド / オンプレ)を決定します。

02

PoC(概念実証)

限定的な文書セットでRAG基盤を構築し、回答精度と運用フローを検証します。小規模な投資でAI導入の実現性を確認できます。

03

本番開発・運用開始

PoCの結果をもとに、全文書の取り込み、権限設計、監査ログ設定を実装。操作研修を実施し、ソースコードを譲渡して運用を開始します。

費用の目安

500万円〜(要件により変動)

構成の規模、導入形態(クラウド / オンプレ)、対象文書の量によって変動します。
まずは要件整理から始めますので、お気軽にご相談ください。

07

FAQよくある質問

入力したデータはAIの再学習に使われますか
いいえ。再学習への利用を行わない設計です。お客様データはVPC内またはオンプレミス環境で処理し、外部の学習モデルへ送信されない構成にしています。
SaaS型AIでは機密情報を扱えないのですか
多くのSaaS型AIは入力データが外部サーバーに送信される構成のため、顧客データや研究開発データなどの機密情報を入力するとデータ漏洩のリスクがあります。当社の構成では、データの保管・処理・推論をすべてAWS東京リージョン内またはオンプレミスに閉じ込めるため、機密情報を扱う業務でもAIを活用できます。
社内規程でクラウド利用が制限されています
オンプレミスまたは閉域ネットワークで、推論・保存・ログ管理を完結させる構成をご提案します。インターネット分離、監査ログ、保管年数、運用権限などの要件に合わせて設計します。
どんな形式の文書を取り込めますか
PDF、Word、HTML、テキストファイルなど主要な形式に対応しています。取り込んだ文書からRAGのナレッジベースを自動構築するため、AIの再学習は不要です。
PoCから本番移行する際にデータの再設定は必要ですか
不要です。PoCの設定をそのまま本番環境に移行できるため、再設定やデータ移行の手間は発生しません。
導入後のサポート体制はどうなっていますか
ソースコード譲渡後も、保守契約によりLLMバージョンアップ、セキュリティパッチ適用、監視・障害対応を継続できます。お客様自身での運用が軌道に乗るまでトレーニングを実施します。