プロンプトインジェクション、ハルシネーションなど、AIセキュリティを理解するうえで必須の用語を解説します。
悪意あるテキストをAIへの入力(プロンプト)に混入させ、AIの動作を攻撃者の意図した方向に誘導する攻撃手法。システムプロンプトの無効化、機密情報の抽出、意図しない操作の実行などが可能になる。
AIが事実と異なる情報を、あたかも正確であるかのように生成する現象。存在しない論文・法律・人物を「作り出す」ケースが代表例。業務での利用時に特に注意が必要。
AIモデルの学習データに悪意あるデータを混入させ、モデルの出力を意図的に歪める攻撃。特定のキーワードに反応して誤った判断をするよう学習させることができる。
外部知識ベースを検索してその内容をコンテキストとして与えることで、AIの回答精度を向上させる手法。ハルシネーションの軽減や最新情報への対応に効果的。一方でセキュリティ設計が不十分だと情報漏洩リスクがある。
大量のテキストデータで学習した大規模な言語モデル。ChatGPT(GPT-4o)・Claude・Geminiなどが代表例。自然言語の生成・理解・翻訳・要約など幅広いタスクをこなすが、学習データのバイアスや知識カットオフの問題がある。
AIの安全フィルターや倫理制約を回避して、本来禁止されている出力(違法情報・有害コンテンツ等)を生成させる手法。「ロールプレイ」「仮定の話として」などの迂回表現が使われることが多い。
目標を与えられると自律的にツール(ブラウザ・コード実行・API等)を使って行動するAIシステム。自律性が高いほどセキュリティリスクも増大し、プロンプトインジェクション攻撃の影響が拡大しやすい。
テキストや画像を数値ベクトルとして保存・検索するデータベース。RAGシステムの基盤として使われる。アクセス制御が不適切だと、異なる権限のユーザーのデータが混在して漏洩するリスクがある。
ファインチューニング(追加学習)の段階で悪意あるデータを注入し、特定条件下でモデルが意図した動作をするよう改ざんする攻撃。バックドア攻撃とも呼ばれる。
LLMアプリケーションにおける主要なセキュリティリスク10項目をまとめたOWASPのガイドライン。プロンプトインジェクション・安全でない出力処理・サプライチェーン脆弱性などが含まれる。
AIを使って人物の顔や声を精巧に合成・改ざんした偽の動画・音声・画像。なりすまし詐欺・フィッシング・誤情報拡散に悪用される。
正規のサービスや人物を装い、メール・SMS・偽サイトを通じてパスワードや個人情報を騙し取る攻撃。AIの登場により自然な日本語でのフィッシングメール生成が容易になり、精度が大幅に向上している。
感染したコンピュータのファイルを暗号化し、復号と引き換えに身代金を要求するマルウェア。AIを活用した高度化・自動化が進んでおり、IPAの情報セキュリティ10大脅威2026で1位に選出。
「社内にいるから安全」という前提を捨て、すべてのアクセスを検証する考え方。AIシステムにおいても同様で、内部からのリクエストも必ず認証・認可・ログ記録を行う。
パスワードに加えて、スマートフォンへのコード送信・生体認証・ハードウェアキーなど複数の認証要素を組み合わせる方法。パスワード漏洩時の不正ログインを防ぐ最も効果的な対策のひとつ。
PC・スマートフォン・サーバーなどネットワークに接続する端末を保護するセキュリティ対策の総称。AIを活用した脅威検知(EDR)が主流になっている。
EU一般データ保護規則。EU在住者の個人データを扱う企業すべてに適用される。AI学習データへの個人情報利用には明示的な同意が必要で、違反時は最大売上高4%または2000万ユーロの制裁金が科される。
日本における個人情報の取扱いを定めた法律。AIサービスへの個人情報入力は第三者提供に該当する可能性がある。個人情報保護委員会は2023年にAIサービスへの入力に関する注意喚起を発令。
既存の学習済みモデルに対して、特定のタスク・ドメイン向けの追加学習を行う手法。業務特化モデルを作れる反面、学習データの管理が不適切だと情報漏洩やモデル汚染のリスクがある。
テキスト・画像などを意味的な距離を反映した数値ベクトルに変換するモデル。RAGシステムやセマンティック検索の基盤。入力データがモデル提供者のサーバーに送信されるため、機密情報の取り扱いに注意が必要。
ターゲット企業を直接攻撃するのではなく、ソフトウェアライブラリや外部委託先など信頼された第三者を経由して侵入する攻撃。AIライブラリ・MLOpsツールへの悪意あるコード混入が増加している。
技術的な手法ではなく、人間の心理や行動を利用して情報を詐取する攻撃。AIにより攻撃者が個人に最適化された巧妙な文章を大量生成できるようになり、被害が拡大している。
公開されたソフトウェアの脆弱性に付与される固有の識別番号。「CVE-2024-XXXXX」形式で表記される。AIフレームワーク(LangChain・Hugging Face等)でも多数のCVEが報告されており、定期的な確認が必要。
攻撃者の視点でAIシステムの脆弱性を探し出す評価手法。ジェイルブレイク・有害コンテンツ生成・偏見の検出などを専門チームが試みる。大手AI企業は外部レッドチームを採用している。
AI生成コンテンツに人間には知覚できない印(透かし)を埋め込み、AIが生成したものと識別できるようにする技術。ディープフェイク・偽情報対策として注目されており、EU AI法でも義務化が検討されている。
AIモデルへの大量のクエリを通じて、学習データに含まれる個人情報や機密情報を推定・復元する攻撃。医療・金融データで学習されたモデルから患者情報などが漏洩するリスクがある。
特定のデータがAIモデルの学習データに含まれていたかどうかを推定する攻撃。医療や金融の機密データが学習に使われたかどうかを外部から確認できてしまうプライバシーリスクがある。
AIモデルの学習時に数学的ノイズを加えることで、個々のデータを特定できないようにしながら統計的な学習を可能にするプライバシー保護技術。メンバーシップ推論攻撃・モデル反転攻撃への対策として有効。
AI技術の開発・運用・利用に関する方針・ルール・監視体制の総称。EU AI法・経済産業省ガイドライン・NIST AI RMFなどの規制に対応するための組織的な取り組みが企業に求められている。
世界初のAI包括規制法。AIシステムをリスクレベルに応じて4段階に分類し、高リスクAIには厳格な要件を課す。2026年時点で段階的に施行中。
AIサービスのシステムプロンプト(非公開の初期指示)を攻撃者が抽出する手法。企業の独自プロンプトや機密設定が露出するリスクがある。プロンプトインジェクションの一種。