← トップへ戻る|AI Security NEWS
重要インシデントSecurityWeek2026年5月7日

AI画像認識モデルが微細な画像変更で攻撃される可能性

概要

Ciscoのセキュリティ研究チームが、視覚言語モデル(VLM:画像と言語を処理するAIモデル)に対するピクセルレベルの摂動(細かい画像変更)を利用した攻撃方法を分析しました。この攻撃では、人間の目には認識できない微細な画素単位の変更を画像に加えることで、AIモデルを誤作動させることができます。影響範囲は、自動運転車の認識システムや医療画像診断AI、セキュリティカメラシステムなど、視覚認識を活用するAIアプリケーション全般に及びます。今後の対策としては、AI開発企業によるロバスト性(攻撃耐性)の強化、入力検証メカニズムの導入、モデルの継続的な検証が重要です。

#AI セキュリティ#敵対的攻撃#画像認識

元記事(SecurityWeek

https://www.securityweek.com/attackers-could-exploit-ai-vision-models-using-imperceptible-image-changes/

関連コンテンツ

セキュリティチェックリスト
自社のリスクを確認する
🛡️
CVE脆弱性情報
最新の脆弱性を確認する
📋
ガイドライン
安全なAI利用の指針
📖
用語集
AIセキュリティ用語を学ぶ
← ニュース一覧に戻る