お知らせ 研究会の開催と会場に参加される皆様へのお願い(2020年7月開催~)
電子情報通信学会 研究会発表申込システム
講演論文 詳細
技報閲覧サービス
[ログイン]
技報アーカイブ
 トップに戻る 前のページに戻る   [Japanese] / [English] 

講演抄録/キーワード
講演名 2019-12-06 15:40
積層自己符号化器における冗長表現およびブラックボックスの抑制
石川眞澄九工大MBE2019-56 NC2019-47
抄録 (和) 深層学習の進展はめざましく,その認識性能は人を凌駕するとも言われている.ただ,獲得される特徴量は明確でなく,深層学習の判断理由も人には理解できないことが多い.1990年代のニューラルネットワークも同様の問題点があり,筆者は主として離散的入出力モデルを対象とした忘却(L1ノルム,ラプラス正則化)等の提案によりその解決を目指した.本稿では,この提案を深層学習向けに拡張する.非線形系である深層学習ではL1ノルムが冗長表現を生成することが多く,人の理解を妨げる.このため,L1ノルムに加えて,構造分割,選択的L1ノルム,隠れ層活性度正則化等を併用する方法を提案する.また冗長表現とは何か,その存在の有無をどう判定するかについても考察する.本提案を深層学習の一つである積層自己符号化器に適用し,提案の有効性を検証したい. 
(英) Recent progress in deep learning (DL) is remarkable and its recognition capability is said to surpass that of humans. The acquired features, however, don’t seem to be sufficiently clear. Furthermore, the basis of judgement by DL is mostly unknown. In 1990s the author proposed L1-norm regularization and relevant terms to create understandable neural networks mainly with discrete valued inputs and outputs. Because DL is inherently nonlinear, L1-norm alone might not be enough to understand the resulting models due to frequently emerging redundant representations. The present paper extends the previous proposal to deep learning models with special emphasis on redundant representations. Training with L1-norm and selective L1-norm to connection weights, decomposition of a model, and suppressing redundant representations are proposed. The paper clarifies the effectiveness of the proposal by applying it to stacked autoencoders using red wine quality data.
キーワード (和) 積層自己符号化器 / スパースモデリング / 深層学習 / 冗長表現 / ブラックボックス / / /  
(英) Stacked autoencoder / Sparse modeling / Deep learning / Redundant representation / Black box / / /  
文献情報 信学技報, vol. 119, no. 328, NC2019-47, pp. 67-72, 2019年12月.
資料番号 NC2019-47 
発行日 2019-11-29 (MBE, NC) 
ISSN Print edition: ISSN 0913-5685  Online edition: ISSN 2432-6380
著作権に
ついて
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034)
PDFダウンロード MBE2019-56 NC2019-47

研究会情報
研究会 NC MBE  
開催期間 2019-12-06 - 2019-12-06 
開催地(和) 豊橋技術科学大学 
開催地(英) Toyohashi Tech 
テーマ(和) NC, ME, 一般 
テーマ(英)  
講演論文情報の詳細
申込み研究会 NC 
会議コード 2019-12-NC-MBE 
本文の言語 日本語 
タイトル(和) 積層自己符号化器における冗長表現およびブラックボックスの抑制 
サブタイトル(和)  
タイトル(英) Prevention of redundant representations and of the black box in stacked autoencoders 
サブタイトル(英)  
キーワード(1)(和/英) 積層自己符号化器 / Stacked autoencoder  
キーワード(2)(和/英) スパースモデリング / Sparse modeling  
キーワード(3)(和/英) 深層学習 / Deep learning  
キーワード(4)(和/英) 冗長表現 / Redundant representation  
キーワード(5)(和/英) ブラックボックス / Black box  
キーワード(6)(和/英) /  
キーワード(7)(和/英) /  
キーワード(8)(和/英) /  
第1著者 氏名(和/英/ヨミ) 石川 眞澄 / Masumi Ishikawa / イシカワ マスミ
第1著者 所属(和/英) 九州工業大学 (略称: 九工大)
Kyushu Institute of Technology (略称: Kyutech)
第2著者 氏名(和/英/ヨミ) / /
第2著者 所属(和/英) (略称: )
(略称: )
第3著者 氏名(和/英/ヨミ) / /
第3著者 所属(和/英) (略称: )
(略称: )
第4著者 氏名(和/英/ヨミ) / /
第4著者 所属(和/英) (略称: )
(略称: )
第5著者 氏名(和/英/ヨミ) / /
第5著者 所属(和/英) (略称: )
(略称: )
第6著者 氏名(和/英/ヨミ) / /
第6著者 所属(和/英) (略称: )
(略称: )
第7著者 氏名(和/英/ヨミ) / /
第7著者 所属(和/英) (略称: )
(略称: )
第8著者 氏名(和/英/ヨミ) / /
第8著者 所属(和/英) (略称: )
(略称: )
第9著者 氏名(和/英/ヨミ) / /
第9著者 所属(和/英) (略称: )
(略称: )
第10著者 氏名(和/英/ヨミ) / /
第10著者 所属(和/英) (略称: )
(略称: )
第11著者 氏名(和/英/ヨミ) / /
第11著者 所属(和/英) (略称: )
(略称: )
第12著者 氏名(和/英/ヨミ) / /
第12著者 所属(和/英) (略称: )
(略称: )
第13著者 氏名(和/英/ヨミ) / /
第13著者 所属(和/英) (略称: )
(略称: )
第14著者 氏名(和/英/ヨミ) / /
第14著者 所属(和/英) (略称: )
(略称: )
第15著者 氏名(和/英/ヨミ) / /
第15著者 所属(和/英) (略称: )
(略称: )
第16著者 氏名(和/英/ヨミ) / /
第16著者 所属(和/英) (略称: )
(略称: )
第17著者 氏名(和/英/ヨミ) / /
第17著者 所属(和/英) (略称: )
(略称: )
第18著者 氏名(和/英/ヨミ) / /
第18著者 所属(和/英) (略称: )
(略称: )
第19著者 氏名(和/英/ヨミ) / /
第19著者 所属(和/英) (略称: )
(略称: )
第20著者 氏名(和/英/ヨミ) / /
第20著者 所属(和/英) (略称: )
(略称: )
講演者
発表日時 2019-12-06 15:40:00 
発表時間 25 
申込先研究会 NC 
資料番号 IEICE-MBE2019-56,IEICE-NC2019-47 
巻番号(vol) IEICE-119 
号番号(no) no.327(MBE), no.328(NC) 
ページ範囲 pp.67-72 
ページ数 IEICE-6 
発行日 IEICE-MBE-2019-11-29,IEICE-NC-2019-11-29 


[研究会発表申込システムのトップページに戻る]

[電子情報通信学会ホームページ]


IEICE / 電子情報通信学会