重要インシデントSecurityWeek2026年5月7日
AI画像認識モデルが微細な画像変更で攻撃される可能性
概要
Ciscoのセキュリティ研究チームが、視覚言語モデル(VLM:画像と言語を処理するAIモデル)に対するピクセルレベルの摂動(細かい画像変更)を利用した攻撃方法を分析しました。この攻撃では、人間の目には認識できない微細な画素単位の変更を画像に加えることで、AIモデルを誤作動させることができます。影響範囲は、自動運転車の認識システムや医療画像診断AI、セキュリティカメラシステムなど、視覚認識を活用するAIアプリケーション全般に及びます。今後の対策としては、AI開発企業によるロバスト性(攻撃耐性)の強化、入力検証メカニズムの導入、モデルの継続的な検証が重要です。
#AI セキュリティ#敵対的攻撃#画像認識