講演名 | 2018-01-25 Deep Learning for End-to-End Automatic Target Recognition from Synthetic Aperture Radar Imagery 古川 英俊(東芝インフラシステムズ), |
---|---|
PDFダウンロードページ | PDFダウンロードページへ |
抄録(和) | 合成開口レーダ(SAR)自動目標認識(ATR)の標準アーキテクチャーは,検出,識別及び分類の3つの段階から構成される.近年,SAR ATR用畳み込みニューラルネットワーク(CNN)が提案されているが,そのほとんどは,SAR ATRの第3段階の分類として,SAR画像から抽出されたターゲットチップから目標クラスを分類している.本報告では,SAR画像からのEnd-to-End ATRのために,新しいCNNを提案する.検証支援ネットワーク(VersNet)という名のCNNは,SAR ATRの3つの段階全てをEnd-to-Endに行なう.VersNetは,複数クラス及び複数目標が存在する任意のサイズのSAR画像を入力し,検出した各目標の位置,クラス及び姿勢を表わすSAR ATR画像を出力する.本報告は,MSTARデータセットを用いて,ピクセル毎に全12クラス(10の目標クラス,目標の前面クラス及び背景クラス)のスコアを出力するように学習したVersNetの評価結果について述べる. |
抄録(英) | The standard architecture of synthetic aperture radar (SAR) automatic target recognition (ATR) consists of three stages: detection, discrimination, and classification. In recent years, convolutional neural networks (CNNs) for SAR ATR have been proposed, but most of them classify target classes from a target chip extracted from SAR imagery, as a classification for the third stage of SAR ATR. In this report, we propose a novel CNN for end-to-end ATR from SAR imagery. The CNN named verification support network (VersNet) performs all three stages of SAR ATR end-to-end. VersNet inputs a SAR image of arbitrary sizes with multiple classes and multiple targets, and outputs a SAR ATR image representing the position, class, and pose of each detected target. This report describes the evaluation results of VersNet which trained to output scores of all 12 classes: 10 target classes, a target front class, and a background class, for each pixel using the moving and stationary target acquisition and recognition (MSTAR) public dataset. |
キーワード(和) | 自動目標認識 / 複数目標 / 検出 / 分類 / 姿勢推定 / 畳み込みニューラルネットワーク / 深層学習 / 合成開口レーダ |
キーワード(英) | automatic target recognition (ATR) / multiple targets / detection / classification / pose estimation / convolutional neural network (CNN) / deep learning / synthetic aperture radar (SAR) |
資料番号 | SANE2017-92 |
発行日 | 2018-01-18 (SANE) |
研究会情報 | |
研究会 | SANE |
---|---|
開催期間 | 2018/1/25(から2日開催) |
開催地(和) | 長崎県美術館 |
開催地(英) | Nagasaki Prefectural Art Museum |
テーマ(和) | 測位・航法,レーダ及び一般 |
テーマ(英) | Positioning, navigation, Radar and general |
委員長氏名(和) | 福島 荘之介(電子航法研) |
委員長氏名(英) | Sonosuke Fukushima(ENRI) |
副委員長氏名(和) | 森山 敏文(長崎大) / 灘井 章嗣(NICT) |
副委員長氏名(英) | Toshifumi Moriyama(Nagasaki Univ.) / Akitsugu Nadai(NICT) |
幹事氏名(和) | 小幡 康(三菱電機) / 毛塚 敦(電子航法研) |
幹事氏名(英) | Yasushi Obata(Mitsubishi Electric) / Atsushi Kezuka(ENRI) |
幹事補佐氏名(和) | 秋田 学(電通大) / 夏秋 嶺(東大) |
幹事補佐氏名(英) | Manabu Akita(Univ. of Electro-Comm.) / Ryo Natsuaki(Univ. of Tokyo) |
講演論文情報詳細 | |
申込み研究会 | Technical Committee on Space, Aeronautical and Navigational Electronics |
---|---|
本文の言語 | ENG |
タイトル(和) | |
サブタイトル(和) | |
タイトル(英) | Deep Learning for End-to-End Automatic Target Recognition from Synthetic Aperture Radar Imagery |
サブタイトル(和) | |
キーワード(1)(和/英) | 自動目標認識 / automatic target recognition (ATR) |
キーワード(2)(和/英) | 複数目標 / multiple targets |
キーワード(3)(和/英) | 検出 / detection |
キーワード(4)(和/英) | 分類 / classification |
キーワード(5)(和/英) | 姿勢推定 / pose estimation |
キーワード(6)(和/英) | 畳み込みニューラルネットワーク / convolutional neural network (CNN) |
キーワード(7)(和/英) | 深層学習 / deep learning |
キーワード(8)(和/英) | 合成開口レーダ / synthetic aperture radar (SAR) |
第 1 著者 氏名(和/英) | 古川 英俊 / Hidetoshi Furukawa |
第 1 著者 所属(和/英) | 東芝インフラシステムズ株式会社(略称:東芝インフラシステムズ) Toshiba Infrastructure Systems & Solutions Corporation(略称:Toshiba Infrastructure Systems & Solutions) |
発表年月日 | 2018-01-25 |
資料番号 | SANE2017-92 |
巻番号(vol) | vol.117 |
号番号(no) | SANE-403 |
ページ範囲 | pp.35-40(SANE), |
ページ数 | 6 |
発行日 | 2018-01-18 (SANE) |