電子情報通信学会 研究会発表申込システム
講演論文 詳細
技報閲覧サービス
技報オンライン
‥‥ (ESS/通ソ/エレソ/ISS)
技報アーカイブ
‥‥ (エレソ/通ソ)
 トップに戻る 前のページに戻る   [Japanese] / [English] 

講演抄録/キーワード
講演名 2017-01-26 15:20
GPUクラスタを用いたFDTD法による地中レーダ画像生成とディープラーニングによる地中レーダの物体識別
園田 潤仙台高専)・木本智幸大分高専
技報オンラインサービス実施中
抄録 (和) 地中レーダでは地中に入射した電波の誘電率差で生じる反射波により地中物体を検出する技術であり,近年劣化が社会問題化している社会インフラのセンシングに有効な技術である.しかしながら,地中レーダ画像から地中物体の材質や大きさを識別することが課題であった.本研究では,多層のニューラルネットワークによる機械学習であるディーラーニングによるレーダ画像からの地中物体識別を目的に,GPUクラスタを用いたFDTD法による地中レーダシミュレーションによりレーダ画像を大量生成し,この画像群を用いたディープラーニングによる地中物体識別を試みた結果,5層の畳み込みニューラルネットワークCNNにより不均質媒質でも5種類の物体の材質と大きさを80%程度で識別できたことを報告する. 
(英) Recently, deteriorations of social infrastructures such as tunnels and bridges become a serious social problem. It is required to properly and rapidly detect for abnormal parts of the social infrastructures. The ground penetrating radar (GPR) is efficient for the social infrastructure inspection. However, it is difficult to identify material and size of the underground object from the radar image obtained the GPR. In this study, to objectively and quantitatively inspect from the GPR images by the deep learning, %for a social infrastructure using the GPR, we have automatically and massively generated the GPR images by a fast finite-difference time-domain (FDTD) simulation on graphics processing units (GPUs), and have learned the underground object using the generated GPR images by a deep convolutional neural network (CNN). It is shown that we have obtained five layers CNN can identify five materials and size with roughly 80 % accuracy in in-homogeneous underground media.
キーワード (和) ディープラーニング / 畳み込みニューラルネットワーク / 地中レーダ / FDTD法 / GPU / 物体識別 / /  
(英) Deep learning / convolutional neural network / ground penetrating radar / FDTD method / GPU / object identification / /  
文献情報 信学技報, vol. 116, no. 427, SANE2016-103, pp. 41-46, 2017年1月.
資料番号 SANE2016-103 
発行日 2017-01-19 (SANE) 
ISSN Print edition: ISSN 0913-5685  Online edition: ISSN 2432-6380

研究会情報
研究会 SANE  
開催期間 2017-01-26 - 2017-01-27 
開催地(和) 長崎県美術館 
開催地(英) Nagasaki Prefectural Art Museum 
テーマ(和) 測位・航法,レーダ及び一般 
テーマ(英) Positioning, navigation, Radar and general 
講演論文情報の詳細
申込み研究会 SANE 
会議コード 2017-01-SANE 
本文の言語 日本語 
タイトル(和) GPUクラスタを用いたFDTD法による地中レーダ画像生成とディープラーニングによる地中レーダの物体識別 
サブタイトル(和)  
タイトル(英) Object Identification by Ground Penetrating Radar using Deep Learning with Radar Images using FDTD Method on GPU Cluster 
サブタイトル(英)  
キーワード(1)(和/英) ディープラーニング / Deep learning  
キーワード(2)(和/英) 畳み込みニューラルネットワーク / convolutional neural network  
キーワード(3)(和/英) 地中レーダ / ground penetrating radar  
キーワード(4)(和/英) FDTD法 / FDTD method  
キーワード(5)(和/英) GPU / GPU  
キーワード(6)(和/英) 物体識別 / object identification  
キーワード(7)(和/英) /  
キーワード(8)(和/英) /  
第1著者 氏名(和/英/ヨミ) 園田 潤 / Jun Sonoda / ソノダ ジュン
第1著者 所属(和/英) 仙台高等専門学校 (略称: 仙台高専)
National Institute of Technology, Sendai College (略称: NIT, Sendai College)
第2著者 氏名(和/英/ヨミ) 木本 智幸 / Tomoyuki Kimoto / キモト トモユキ
第2著者 所属(和/英) 大分工業高等専門学校 (略称: 大分高専)
National Institute of Technology, Oita College (略称: NIT, Oita College)
第3著者 氏名(和/英/ヨミ) / /
第3著者 所属(和/英) (略称: )
(略称: )
第4著者 氏名(和/英/ヨミ) / /
第4著者 所属(和/英) (略称: )
(略称: )
第5著者 氏名(和/英/ヨミ) / /
第5著者 所属(和/英) (略称: )
(略称: )
第6著者 氏名(和/英/ヨミ) / /
第6著者 所属(和/英) (略称: )
(略称: )
第7著者 氏名(和/英/ヨミ) / /
第7著者 所属(和/英) (略称: )
(略称: )
第8著者 氏名(和/英/ヨミ) / /
第8著者 所属(和/英) (略称: )
(略称: )
第9著者 氏名(和/英/ヨミ) / /
第9著者 所属(和/英) (略称: )
(略称: )
第10著者 氏名(和/英/ヨミ) / /
第10著者 所属(和/英) (略称: )
(略称: )
第11著者 氏名(和/英/ヨミ) / /
第11著者 所属(和/英) (略称: )
(略称: )
第12著者 氏名(和/英/ヨミ) / /
第12著者 所属(和/英) (略称: )
(略称: )
第13著者 氏名(和/英/ヨミ) / /
第13著者 所属(和/英) (略称: )
(略称: )
第14著者 氏名(和/英/ヨミ) / /
第14著者 所属(和/英) (略称: )
(略称: )
第15著者 氏名(和/英/ヨミ) / /
第15著者 所属(和/英) (略称: )
(略称: )
第16著者 氏名(和/英/ヨミ) / /
第16著者 所属(和/英) (略称: )
(略称: )
第17著者 氏名(和/英/ヨミ) / /
第17著者 所属(和/英) (略称: )
(略称: )
第18著者 氏名(和/英/ヨミ) / /
第18著者 所属(和/英) (略称: )
(略称: )
第19著者 氏名(和/英/ヨミ) / /
第19著者 所属(和/英) (略称: )
(略称: )
第20著者 氏名(和/英/ヨミ) / /
第20著者 所属(和/英) (略称: )
(略称: )
講演者
発表日時 2017-01-26 15:20:00 
発表時間 25 
申込先研究会 SANE 
資料番号 IEICE-SANE2016-103 
巻番号(vol) IEICE-116 
号番号(no) no.427 
ページ範囲 pp.41-46 
ページ数 IEICE-6 
発行日 IEICE-SANE-2017-01-19 


[研究会発表申込システムのトップページに戻る]

[電子情報通信学会ホームページ]


IEICE / 電子情報通信学会