講演抄録/キーワード |
講演名 |
2021-12-16 11:00
Self-Attention機構を組み込んだPatchCoreによる異常検知 ○武名佑起(静岡大)・野田祥希・望月凜平(明電舎)・松村 周(鉄道総研)・大橋剛介(静岡大) PRMU2021-29 |
抄録 |
(和) |
近年,深層学習を用いた工業製品の外観検査において,傷や汚れなどの局所領域の異常検知では,優れた精度を達成しているモデルが多く存在する.しかし,部品同士の 共起関係の異常検知には弱いという課題がある.そこで,ピクセル間の関係性を 導出可能なTransformerのSelf-attention機構に着目し,共起関係の異常検知を可能にする.異常検知のベンチマークMVTec AD DatasetsのState-of-the-artであるPatchCoreにSelf-attention機構を導入することによって,部品同士の共起関係の異常を識別かつ,関係性の異なる箇所を特定可能なモデルを提案する. |
(英) |
In recent years, in visual inspection of industrial products using deep learning, There are many models that achieve excellent accuracy in detecting anomalies in local area such as scratches and stains. However, there is a problem that it is weak in detecting anomalies in cooccurrence relations between parts. Therefore, we focus on Transformer’s Self-attention module, which can determine the relationship between pixels, and enable anomaly detection of cooccurrence relationships. By introducing a Self-attention module into PatchCore, which is a State-of-the-art of MVTec AD Datasets of the anomaly detection benchmark, we propose a model that can identify anomalies in the cooccurrence relationships between parts and localize the parts with different relationships. |
キーワード |
(和) |
深層学習 / 異常検知 / 教師なし学習 / PatchCore / Self-attention / / / |
(英) |
Deep learning / Anomaly detection / Unsupervised learning / PatchCore / Self-attention / / / |
文献情報 |
信学技報, vol. 121, no. 304, PRMU2021-29, pp. 31-36, 2021年12月. |
資料番号 |
PRMU2021-29 |
発行日 |
2021-12-09 (PRMU) |
ISSN |
Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
PRMU2021-29 |