AI基礎概念
Adversarial Attack(敵対的攻撃)
読み方:あどばーさりあるあたっく
敵対的攻撃とは
敵対的攻撃(Adversarial Attack)は、人間には気づかないごくわずかなノイズをデータに加えることで、AIモデルに誤った判断をさせる攻撃手法です。たとえば人間には「パンダ」にしか見えない画像に特殊なノイズを加えると、AIが「テナガザル」と自信満々に誤認してしまいます。
なぜ脅威なのか
自動運転 の標識認識や医療診断AIなど、ミスが許されない場面では深刻な安全リスクとなります。対策としてはあえて攻撃用データで学習させる敵対的学習や、不審な入力を監視するAIガードレール、セキュリティ専門家が自らのAIを攻撃して脆弱性を発見するレッドチーミングなどがあります。XAIによる判断根拠の可視化も防御に有効です。
企業が抱えるセキュリティリスク
顔認証による入退室システムの突破や、決済AIシステムの誤判定による不正送金など、ビジネスの根幹を揺るがす直接的なリスクとなります。AIをシステムに組み込む企業は、従来のサイバーセキュリティ対策に加え、「AIの脆弱性を突かれるリスク」を想定した多層的な防御(ガードレール設計や人間による承認プロセスの挟み込み)が2026年におけるコンプライアンス要件となっています。