電子情報通信学会 研究会発表申込システム
講演論文 詳細
技報閲覧サービス
技報オンライン
‥‥ (ESS/通ソ/エレソ/ISS)
技報アーカイブ
‥‥ (エレソ/通ソ)
 トップに戻る 前のページに戻る   [Japanese] / [English] 

講演抄録/キーワード
講演名 2017-11-10 13:00
エンタングルメント・エントロピーを用いた畳み込みニューラルネットワーク
江口 脩田中 勝福岡大
技報オンラインサービス実施中
抄録 (和) 本稿では,エンタングルメント・エントロピーを用いて入力データの識別にとって不要な情報を削減する過程をもつCNNを提案する.従来のCNNはプーリング層で抽出された情報の抽象化を行い,ドロップアウトによりアンサンブル学習のような効果を持たせることで識別を行っている.このプーリング層の役割を識別に不要な情報の削減過程とみなし,またドロップアウトは選択されなかったユニットが次に選択されたときにはネットワークの出力に対するノイズの役割をしロバストな識別を実現しているのではないかという仮定を置き,この仮定に基づき,フィルターの出力に対してエンタングルメントエントロピーのドミナントな固有値のみを用いて出力を再構成し,これを出力とし後の層へ渡し,識別を行う.なお,誤差の逆伝搬に関しては従来と同様な手法を利用する.このようなCNNによるmnistを用いたときの識別結果について紹介する. 
(英) In this paper, we propose a CNN with a process to reduce unnecessary information to identify input data using entanglement entropy. The conventional CNN performs abstraction of information extracted in pooling layer, and performs the identification by giving an effect such as ensemble learning by dropout. Assuming that the role of this pooling layer is a reduction process of information that is not necessary to identify the role of the pooling layer, and the dropout is the next selection, the drop out is made to reconstruct the output by using only dominant eigenvalues of the entanglement entropy for the output of the filter, and then pass the output to the output and pass it to the later layer to perform the identification. In terms of reverse propagation of errors, the same method as that of conventional methods is used. This is an overview of the identification results of CNN's use of mnist.
キーワード (和) 量子力学 / 機械学習 / エンタングルメント・エントロピー / 特異値分解 / 畳み込みニューラルネットワーク / / /  
(英) quantum mechanics / machine learning / entanglement entropy / singular value decomposition / convolutional neural network / / /  
文献情報 信学技報, vol. 117, no. 293, IBISML2017-65, pp. 227-233, 2017年11月.
資料番号 IBISML2017-65 
発行日 2017-11-02 (IBISML) 
ISSN Print edition: ISSN 0913-5685  Online edition: ISSN 2432-6380

研究会情報
研究会 IBISML  
開催期間 2017-11-08 - 2017-11-10 
開催地(和) 東京大学 
開催地(英) Univ. of Tokyo 
テーマ(和) 情報論的学習理論ワークショップ (IBIS2017) 
テーマ(英) Information-Based Induction Science Workshop (IBIS2017) 
講演論文情報の詳細
申込み研究会 IBISML 
会議コード 2017-11-IBISML 
本文の言語 日本語 
タイトル(和) エンタングルメント・エントロピーを用いた畳み込みニューラルネットワーク 
サブタイトル(和)  
タイトル(英) Convolutional Neural Network with Entanglement Entropy 
サブタイトル(英)  
キーワード(1)(和/英) 量子力学 / quantum mechanics  
キーワード(2)(和/英) 機械学習 / machine learning  
キーワード(3)(和/英) エンタングルメント・エントロピー / entanglement entropy  
キーワード(4)(和/英) 特異値分解 / singular value decomposition  
キーワード(5)(和/英) 畳み込みニューラルネットワーク / convolutional neural network  
キーワード(6)(和/英) /  
キーワード(7)(和/英) /  
キーワード(8)(和/英) /  
第1著者 氏名(和/英/ヨミ) 江口 脩 / Shu Eguchi / エグチ シュウ
第1著者 所属(和/英) 福岡大学 (略称: 福岡大)
Fukuoka University (略称: Fukuoka Univ.)
第2著者 氏名(和/英/ヨミ) 田中 勝 / Masaru Tanaka / タナカ マサル
第2著者 所属(和/英) 福岡大学 (略称: 福岡大)
Fukuoka University (略称: Fukuoka Univ.)
第3著者 氏名(和/英/ヨミ) / /
第3著者 所属(和/英) (略称: )
(略称: )
第4著者 氏名(和/英/ヨミ) / /
第4著者 所属(和/英) (略称: )
(略称: )
第5著者 氏名(和/英/ヨミ) / /
第5著者 所属(和/英) (略称: )
(略称: )
第6著者 氏名(和/英/ヨミ) / /
第6著者 所属(和/英) (略称: )
(略称: )
第7著者 氏名(和/英/ヨミ) / /
第7著者 所属(和/英) (略称: )
(略称: )
第8著者 氏名(和/英/ヨミ) / /
第8著者 所属(和/英) (略称: )
(略称: )
第9著者 氏名(和/英/ヨミ) / /
第9著者 所属(和/英) (略称: )
(略称: )
第10著者 氏名(和/英/ヨミ) / /
第10著者 所属(和/英) (略称: )
(略称: )
第11著者 氏名(和/英/ヨミ) / /
第11著者 所属(和/英) (略称: )
(略称: )
第12著者 氏名(和/英/ヨミ) / /
第12著者 所属(和/英) (略称: )
(略称: )
第13著者 氏名(和/英/ヨミ) / /
第13著者 所属(和/英) (略称: )
(略称: )
第14著者 氏名(和/英/ヨミ) / /
第14著者 所属(和/英) (略称: )
(略称: )
第15著者 氏名(和/英/ヨミ) / /
第15著者 所属(和/英) (略称: )
(略称: )
第16著者 氏名(和/英/ヨミ) / /
第16著者 所属(和/英) (略称: )
(略称: )
第17著者 氏名(和/英/ヨミ) / /
第17著者 所属(和/英) (略称: )
(略称: )
第18著者 氏名(和/英/ヨミ) / /
第18著者 所属(和/英) (略称: )
(略称: )
第19著者 氏名(和/英/ヨミ) / /
第19著者 所属(和/英) (略称: )
(略称: )
第20著者 氏名(和/英/ヨミ) / /
第20著者 所属(和/英) (略称: )
(略称: )
講演者
発表日時 2017-11-10 13:00:00 
発表時間 150 
申込先研究会 IBISML 
資料番号 IEICE-IBISML2017-65 
巻番号(vol) IEICE-117 
号番号(no) no.293 
ページ範囲 pp.227-233 
ページ数 IEICE-7 
発行日 IEICE-IBISML-2017-11-02 


[研究会発表申込システムのトップページに戻る]

[電子情報通信学会ホームページ]


IEICE / 電子情報通信学会