公的機関・国際標準

AIセキュリティ ガイドライン

経済産業省・個人情報保護委員会・NISTなど公的機関が公表しているAIセキュリティ関連ガイドラインを要点とともにまとめました。

経済産業省・総務省2024年4月

AI事業者ガイドライン(第1.1版)

原文 →

AI開発者・提供者・利用者それぞれに向けた包括的なガイドライン。透明性・公平性・安全性・セキュリティの4原則を軸に構成。

// 主なポイント
AI利用者は入力情報の機密性を自ら管理する責任がある
提供者はAIの能力と限界を利用者に明示すること
ハルシネーション(誤情報生成)リスクを利用者に周知すること
個人情報保護法・著作権法との整合性を確認すること
個人情報保護委員会2023年6月

生成AIサービスの利用に関する注意喚起

原文 →

生成AIへの個人情報入力に関する注意喚起。第三者提供の観点から、AIサービスへのデータ送信が個人情報保護法の規制対象となる可能性を指摘。

// 主なポイント
個人情報をAIサービスに入力する行為は第三者提供に該当しうる
利用者から同意を得ずにAIに個人情報を入力してはならない
AIサービスの学習利用設定(オプトアウト)を必ず確認すること
越境データ移転(海外サーバー)への対応を検討すること
NIST(米国標準技術研究所)2024年3月

AIセキュリティガイドライン

原文 →

NIST AI RMF(AIリスク管理フレームワーク)に基づくセキュリティガイドライン。プロンプトインジェクション・データポイズニング等の攻撃への対策を体系化。

// 主なポイント
AIシステムへの脅威をGOVERN・MAP・MEASURE・MANAGEの4機能で管理
プロンプトインジェクション攻撃への対策を設計段階から組み込む
モデルの出力を本番環境に適用する前に必ず人間によるレビューを挟む
サードパーティAIサービス利用時のサプライチェーンリスクを評価する
内閣府2023年9月

生成AI利用ガイドライン

原文 →

政府機関における生成AI活用のガイドライン。情報セキュリティ・著作権・ハルシネーション対策の3点を重点項目として明示。

// 主なポイント
機密情報・個人情報・未公表情報の入力を禁止
AI生成コンテンツの公開前に必ず人間が内容を確認・検証する
著作権侵害リスクがある出力は使用しない
AI利用の記録を残し、必要に応じて開示できる体制を整備する