講演抄録/キーワード |
講演名 |
2019-09-24 15:15
周波数領域ごとの分類によるAdversarial Examplesの検出手法の提案 ○加瀬裕也・木村昌臣(芝浦工大) SSS2019-20 |
抄録 |
(和) |
ニューラルネットワークの誤分類を引き起こす特殊なデータAdversarial Examplesの検出手法を提案する. Adversarial Examplesは元データに摂動と呼ばれるごく小さなノイズを加えることで生成され, 特に画像の場合は摂動による変化は人の目では見てわからないほど小さく設定される. 先行研究では, 摂動について周波数解析を行った結果, 0Hz周辺で影響が大きくなり, また, 手書き数字画像データセットMNISTは高周波に特徴はないため0Hz周辺帯域のカットとローパスフィルタの適用を提案した. しかし一般の写真については低周波だけでなく高周波にも特徴があるためカットすることは適切ではない. そこで本研究では低周波だけでなく高周波も利用したAdversarial Examplesの検出手法を提案する. |
(英) |
We propose a detection method of special data Adversarial Examples that cause misclassification of neural networks. Adversarial Examples are generated by adding a small amount of noise called perturbation to the original data. Especially in the case of images, changes due to perturbation are set so small that it cannot be perceived by the human eye. In previous research, as a result of frequency analysis of the perturbation, it was found that the influence became large around 0Hz and therefore they proposed a application 0Hz cut. In addition, the dataset MNIST for handwritten digit images has no high frequency characteristics and therefore they proposed the application of a low pass filter. However, the photo has characteristics not only low frequency but also high frequency, so it is not appropriate to cut. In this study, we propose a detection method of Adversarial Examples using not only low frequencies but also high frequencies. |
キーワード |
(和) |
機械学習 / ニューラルネットワーク / Adversarial Examples / 周波数 / 画像 / 頑健性 / / |
(英) |
Machine Learning / Neural Network / Adversarial Examples / Frequency / Image / Robustness / / |
文献情報 |
信学技報, vol. 119, no. 210, SSS2019-20, pp. 13-16, 2019年9月. |
資料番号 |
SSS2019-20 |
発行日 |
2019-09-17 (SSS) |
ISSN |
Print edition: ISSN 0913-5685 Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
SSS2019-20 |