NIST AI RMF

NIST AI RMF
読み: ニスト エーアイ アールエムエフ

読み: ニスト エーアイ アールエムエフ

NIST AI RMFとはリスク管理

NIST AI RMFは米国国立標準技術研究所が2023年1月に公開した、AIシステムのリスクを管理するためのフレームワーク。GOVERN、MAP、MEASURE、MANAGEの4つの機能で構成され、AIの信頼性を組織的に確保するための指針を提供している。法的拘束力はないが、事実上の国際標準として各国のAIガバナンス策定に影響を与えている。

かんたんに言うと

AIを安全に使うために何を考え、何を測り、どう管理すればいいかを体系的にまとめた米国政府のガイドブックである。

AIリスクを組織的に管理する国際標準フレームワークが生まれた背景

NISTはもともとサイバーセキュリティフレームワークで知られる機関である。2018年ごろからAIの普及に伴うリスクが政策課題になり、米国議会からAIのリスク管理に関する標準策定を求められた。
2021年にドラフトが公開され、産業界や学術界からのパブリックコメントを経て、2023年1月にAI RMF 1.0として正式公開された。同時にAI RMF Playbookという実践ガイドも公開されている。
特徴は、特定の技術や産業に限定しない汎用性の高さにある。AI倫理の抽象的な原則を、組織が実務で使える具体的なアクションに落とし込むことを目指している。

GOVERN、MAP、MEASURE、MANAGEの4機能

フレームワークはコアとなる4つの機能で構成されている。
GOVERNは組織全体のAIリスク管理体制を整える機能である。責任の所在、ポリシーの策定、ステークホルダーとのコミュニケーション体制がここに含まれる。他の3機能の土台となるため、最初に着手すべき領域になる。
MAPはAIシステムがもたらすリスクの全体像を把握する機能である。利用目的、対象ユーザー、社会への影響範囲を整理し、想定されるリスクの洗い出しを行う。
MEASUREは特定したリスクを定量的または定性的に測定する機能である。モデルの精度、公平性指標、堅牢性テストの結果などを継続的に計測する。
MANAGEは測定結果に基づいてリスクに対処する機能である。リスクの軽減、移転、受容、回避のいずれかの判断を下し、実行する。

AI RMF Playbookの実務的な使い方

AI RMF本体は考え方の枠組みであり、具体的に何をすればいいかはPlaybookに記載されている。各機能のサブカテゴリごとに推奨アクションが列挙されており、自社の状況に合わせて取捨選択する形で使う。
たとえばGOVERN 1.1では、組織のAI活用に関するポリシーの文書化を求めている。MAP 1.1ではAIシステムの目的と利用者の範囲の定義を求めている。全項目を一度に対応する必要はなく、優先度の高い項目から段階的に取り組むことが推奨されている。
Playbookはオンラインで無償公開されており、NISTのウェブサイトからアクセスできる。定期的に更新されるため、最新版を参照することが重要になる。

EU AI Actや日本のAIガイドラインとの関係

EU AI ActはリスクベースのアプローチでAIを規制する法律で、2024年に成立した。NIST AI RMFと共通点が多いが、EU AI Actには法的拘束力がある点が決定的に異なる。
日本では経済産業省が「AI事業者ガイドライン」を公開しており、NIST AI RMFの考え方を参考にしつつ日本の法制度に合わせた内容になっている。法的拘束力はないが、業界団体や大企業の内部基準に取り込まれるケースが増えている。
グローバルに事業を展開する企業にとっては、NIST AI RMFをベースに自社のAIガバナンスを構築し、EU AI Actの要求事項と日本のガイドラインの差分を上乗せする形が効率的である。3つの枠組みを別々に対応すると重複作業が膨れ上がる。

自社への導入で押さえておくべきポイント

まず、フレームワークの全項目に対応しようとしないこと。NIST自身が段階的な導入を推奨しており、組織の規模やAI活用の成熟度に応じて取り組む範囲を決めるべきとしている。
次に、GOVERN機能を最初に整備すること。責任者を決め、ポリシーを文書化し、経営層のコミットメントを得る。ここが曖昧なまま技術的な測定や対策に入ると、誰の判断でリスクを受容するのかが決まらず、結局何も進まない。
AI RMFの導入自体を目的にしないことも重要になる。フレームワークはあくまで手段であり、目的は自社のAIシステムが信頼に足るものであることを内外に示せる状態を作ること。チェックリストを埋めることが仕事になってしまっては本末転倒である。

当社の見解

当社はAIの安全運用のために3層防御を設計・実装している。万が一インシデントが発生しても数分以内に復旧できるバックアップ体制を持つ。実際にAIが暴走してテスト環境を停止させた経験があり、その教訓から「失敗を防ぐ」だけでなく「失敗しても戻せる」設計が本質だと確信している。加えて、AIは事実でないことを断定する。この前提で事実/推測の強制分離とファクトチェックを実装した。安全性は仕組みで担保するものだ。

同じ失敗を二度としないAIエージェント

今のAIは、聞けば何でも答えてくれます。
でも、セッションが切れた瞬間に前回の失敗を忘れます。

当社が開発しているAIは、過去の経緯を念頭に置いて、
聞かれる前に「それは前回うまくいきませんでした」と声をかけます。
人間にも同じ失敗をさせず、AI自身も繰り返しません。

古参の社員が横にいるように、黙っていても気づいてくれる。
それが、当社が考える本当のAI社員です。

相談する