講演抄録/キーワード |
講演名 |
2019-12-06 10:10
単眼深度推定CNNにおける敵対的画像生成 ○山中幸一郎・松本隆太郎・高橋桂太・藤井俊彰(名大) |
抄録 |
(和) |
近年,畳み込みニューラルネットワーク (CNN) を用いたクラス分類問題 · 物体認識問題において, Adver- sarial Examples ( 敵対的画像生成 ) の研究が盛んに行われている.敵対的画像生成とは, CNN への入力画像に摂動を 加えることで CNN を騙し,誤推定を意図的に誘発させる手法である.敵対的画像生成は主に 2 種類に分類され,入 力画像全体のピクセル値を僅かに変更する手法と入力画像の局所領域に特定のパターン ( 敵対的パッチ画像 ) を上書き する手法の 2 種類が存在する.後者の手法は敵対的画像生成の中でも特に Adversarial Patch Attack ( 敵対的パッチ画 像生成 ) と呼ばれ,最近の研究では現実世界における敵対的画像生成も提案されている.すなわち,敵対的パッチ画像 をカメラで撮影することで,クラス分類 CNN や物体認識 CNN を騙すことができる.しかし,回帰問題における敵対 的画像生成はあまり研究されていない.そこで,本稿では回帰問題,特に単眼深度推定 CNN における敵対的画像生 成手法を提案する.提案手法を用いることで,単眼深度推定 CNN の深度推定結果を任意に操作できる敵対的パッチ 画像が生成できることを実験により示す. |
(英) |
Adversarial examples for classification and object recognition problems using convolutional neural net- works (CNN) have attracted much attention in recent years. By adding perturbations to an input image of a CNN, adversarial attack is able to intentionally induce erroneous inferences. Adversarial attack is roughly classified into two types. The one is a method that slightly changes the pixel values of an entire input image, and the other is a method that overwrites a specific pattern (adversarial patch) on a local region of the input image. The latter method is called the adversarial patch attack, and recently real world attack was proposed by using this method. In other words, the classification CNN and the object recognition CNN could be deceived by taking a printed adversarial patch with a camera. However, adversarial attacks on regression problems have not been studied well. In this paper, we propose an adversarial attack method for regression problem, especially for monocular depth estimation CNN. We demonstrate that our method is capable of generating adversarial patches that can arbitrarily manipulate the output of the monocular depth estimation. |
キーワード |
(和) |
単眼深度推定 / CNN / 敵対的画像生成 / 敵対的パッチ画像 / / / / |
(英) |
Monocular Depth Estimation / CNN / Adversarial Examples / Adversarial Patch / / / / |
文献情報 |
映情学技報 |
資料番号 |
|
発行日 |
|
ISSN |
|
PDFダウンロード |
|
|