AI Security
NEWS
ニュース
CVE
チェックリスト
ガイドライン
用語集
AI Security Lab →
今すぐ確認できる
AIセキュリティ チェックリスト
ChatGPT・Claude等のAIツールを安全に使うための実践チェックリスト。チェックを入れて自社のリスクを確認しましょう。
ChatGPT / Claude 基本設定
チャット履歴・学習をオフにする
ChatGPT: Settings → Data Controls → Improve the model for everyone をOFF
APIキーを環境変数で管理する
コードにハードコードしない。.envファイルを使い.gitignoreに追加する
共有PCでのログアウトを徹底する
使用後は必ずサインアウト。ブラウザのパスワード保存も無効化推奨
入力前に機密情報かどうか確認する
個人名・会社名・契約内容・ソースコードは入力前に一呼吸置く
社内ルール整備
AI利用ガイドラインを文書化する
何を入力してよいか・NGかを明文化。経済産業省テンプレートを活用
利用可能なAIツールを承認制にする
勝手に新しいAIサービスを使わない。IT部門or管理者の承認を必須化
情報分類レベルを定義する
「公開可能」「社内限定」「機密」の3段階でAI入力可否を決める
インシデント報告フローを作る
誤入力が発生した場合の連絡先・手順を事前に決めておく
プロンプトインジェクション対策
ユーザー入力をシステムプロンプトと分離する
AIアプリ開発時:ユーザー入力をそのままシステムプロンプトに連結しない
出力をそのまま実行しない
AIが生成したコード・コマンドは必ず人間がレビューしてから実行する
外部コンテンツの読み込みを制限する
AIエージェントに外部URLを読み込ませる場合はドメインを許可リスト化
ログを記録・監視する
AIとのやり取りをログに残し、異常なパターンを検知できる体制を作る
個人情報・法的リスク管理
個人情報をAIに入力しない
氏名・住所・電話番号・メールアドレスは入力禁止。匿名化してから使う
著作物の無断利用に注意する
AI生成コンテンツの著作権は未確定。商用利用前に法務確認を推奨
利用規約を定期的に確認する
OpenAI・Anthropic等の規約は頻繁に更新される。四半期ごとに見直す
医療・法律・財務アドバイスに使わない
AIの出力を専門家の判断の代わりに使うことは法的リスクがある
// より深く学ぶ
体系的に学びたい方へ
AI Security Labのeラーニングでは、このチェックリストの背景にある法律・事例・実践手順を18レッスンで学べます。
AI Security Lab を見る →