電子情報通信学会 研究会発表申込システム
講演論文 詳細
技報閲覧サービス
技報オンライン
‥‥ (ESS/通ソ/エレソ/ISS)
技報アーカイブ
‥‥ (エレソ/通ソ)
 トップに戻る 前のページに戻る   [Japanese] / [English] 

講演抄録/キーワード
講演名 2014-11-17 17:00
[ポスター講演]文脈自由文法に基づいた復元的ニューラルネット
濱口拓男新保 仁松本裕治奈良先端大
技報オンラインサービス実施中
抄録 (和) Neural Networkを用いた言語モデルには,文字列からベクトルを獲得するEncodeとしての側面と,ベクトルから文字列を獲得するDecodeとしての側面が存在する.Recurrent Neural Network (Recurrent NN)はDecodeモデルの一種であり,ベクトル表現された状態からの予測と遷移を時系列に沿って繰り返すモデルである.しかし自然言語としては,時系列的な関係ではなく,文脈自由文法のような木構造を仮定する方が自然である.そこで本稿では,木構造のDecodeモデルであるReconstructive Neural Network (Reconstructive NN)を提案する.我々はモデルの性質を調べるために,以下の4つの実験を行った.Recurrent NNとの比較,データを構成する文字列の長さの分布と精度の関係,ベクトルの次元と文字列の長さの関係,Reconstrucitve NNが言語の情報を反映しているかについてである. 
(英) There are two aspects about Neural Language Model,one aspect, `Encode', obtains a vector from a sequence and the other aspect, `Decode', obtains a sequence from a vector.Recurrent Neural Network (Recurrent NN) is a kind of `Decode' model which repeats prediction and transition from vector-represented state through time.However, a tree structure based model such as Context Free Grammar is more natural for natural languate tha a time-series structure based model.This paper proposes new tree structure `Decode' Model called Reconstrucitve Neural Network (Reconstructive NN).We conduct the following four experiemtns to show this model's ability:comparision of Recurrent NN and Reconstructive NN,relationship between the accuracy and the Distribution of word length included training data,relationship between the vector dimension and the words length,and the ability of Reconstructive NN comes from natural language.
キーワード (和) 深層学習 / 分散表現 / リカレントニューラルネットワーク / リカーシブニューラルネットワーク / / / /  
(英) Deep Learning / Distributed Representation / Recurrent Neural Network / Recursive Nerural Network / / / /  
文献情報 信学技報, vol. 114, no. 306, IBISML2014-48, pp. 103-110, 2014年11月.
資料番号 IBISML2014-48 
発行日 2014-11-10 (IBISML) 
ISSN Print edition: ISSN 0913-5685  Online edition: ISSN 2432-6380

研究会情報
研究会 IBISML  
開催期間 2014-11-17 - 2014-11-19 
開催地(和) 名古屋大学 
開催地(英) Nagoya Univ. 
テーマ(和) 情報論的学習理論ワークショップ(IBIS2014) 
テーマ(英)  
講演論文情報の詳細
申込み研究会 IBISML 
会議コード 2014-11-IBISML 
本文の言語 日本語 
タイトル(和) 文脈自由文法に基づいた復元的ニューラルネット 
サブタイトル(和)  
タイトル(英) Reconstructive Neural Net based on Context Free Grammar 
サブタイトル(英)  
キーワード(1)(和/英) 深層学習 / Deep Learning  
キーワード(2)(和/英) 分散表現 / Distributed Representation  
キーワード(3)(和/英) リカレントニューラルネットワーク / Recurrent Neural Network  
キーワード(4)(和/英) リカーシブニューラルネットワーク / Recursive Nerural Network  
キーワード(5)(和/英) /  
キーワード(6)(和/英) /  
キーワード(7)(和/英) /  
キーワード(8)(和/英) /  
第1著者 氏名(和/英/ヨミ) 濱口 拓男 / Takuo Hamaguchi / ハマグチ タクオ
第1著者 所属(和/英) 奈良先端科学技術大学院大学 (略称: 奈良先端大)
Nara Institute of Science and Technology (略称: NAIST)
第2著者 氏名(和/英/ヨミ) 新保 仁 / Masashi Shimbo / シンボ マサシ
第2著者 所属(和/英) 奈良先端科学技術大学院大学 (略称: 奈良先端大)
Nara Institute of Science and Technology (略称: NAIST)
第3著者 氏名(和/英/ヨミ) 松本 裕治 / Yuji Matsumoto / マツモト ユウジ
第3著者 所属(和/英) 奈良先端科学技術大学院大学 (略称: 奈良先端大)
Nara Institute of Science and Technology (略称: NAIST)
第4著者 氏名(和/英/ヨミ) / /
第4著者 所属(和/英) (略称: )
(略称: )
第5著者 氏名(和/英/ヨミ) / /
第5著者 所属(和/英) (略称: )
(略称: )
第6著者 氏名(和/英/ヨミ) / /
第6著者 所属(和/英) (略称: )
(略称: )
第7著者 氏名(和/英/ヨミ) / /
第7著者 所属(和/英) (略称: )
(略称: )
第8著者 氏名(和/英/ヨミ) / /
第8著者 所属(和/英) (略称: )
(略称: )
第9著者 氏名(和/英/ヨミ) / /
第9著者 所属(和/英) (略称: )
(略称: )
第10著者 氏名(和/英/ヨミ) / /
第10著者 所属(和/英) (略称: )
(略称: )
第11著者 氏名(和/英/ヨミ) / /
第11著者 所属(和/英) (略称: )
(略称: )
第12著者 氏名(和/英/ヨミ) / /
第12著者 所属(和/英) (略称: )
(略称: )
第13著者 氏名(和/英/ヨミ) / /
第13著者 所属(和/英) (略称: )
(略称: )
第14著者 氏名(和/英/ヨミ) / /
第14著者 所属(和/英) (略称: )
(略称: )
第15著者 氏名(和/英/ヨミ) / /
第15著者 所属(和/英) (略称: )
(略称: )
第16著者 氏名(和/英/ヨミ) / /
第16著者 所属(和/英) (略称: )
(略称: )
第17著者 氏名(和/英/ヨミ) / /
第17著者 所属(和/英) (略称: )
(略称: )
第18著者 氏名(和/英/ヨミ) / /
第18著者 所属(和/英) (略称: )
(略称: )
第19著者 氏名(和/英/ヨミ) / /
第19著者 所属(和/英) (略称: )
(略称: )
第20著者 氏名(和/英/ヨミ) / /
第20著者 所属(和/英) (略称: )
(略称: )
講演者
発表日時 2014-11-17 17:00:00 
発表時間 180 
申込先研究会 IBISML 
資料番号 IEICE-IBISML2014-48 
巻番号(vol) IEICE-114 
号番号(no) no.306 
ページ範囲 pp.103-110 
ページ数 IEICE-8 
発行日 IEICE-IBISML-2014-11-10 


[研究会発表申込システムのトップページに戻る]

[電子情報通信学会ホームページ]


IEICE / 電子情報通信学会