講演抄録/キーワード |
講演名 |
2014-07-01 10:00
学習パラメータを離散化した制限付きボルツマンマシンの学習の検討 ○品川政太朗(東北大)・早川吉弘(仙台高専)・佐藤茂雄・小野美 武・中島康治(東北大) NLP2014-27 |
抄録 |
(和) |
近年,機械学習の分野で,現実的な多層の階層型ニューラルネットワーク(Deep Neural Network,DNN)の学習手法が「ディープラーニング」と呼ばれ注目を集めている.DNNの構築には制限つきボルツマンマシン(RBM)やオートエンコーダ(AE)によって各層間ごとに事前学習を行う、という手法が有効でよく用いられているが、その分計算時間がかかるという難点がある.これを解決する方法のひとつとして集積回路によるオンチップ化により並列計算を行う方法が挙げられるが、メモリの回路面積が有限であることから大規模なデータの処理には向かないといえる.本研究ではこれを解決するため、決定論的RBM(DRBM)を対象に事前学習で学習する学習パラメータ(荷重値、バイアス)を離散値として学習が可能であることを示し、これをDNNの初期値としたときも事前学習の効果が得られていることを示す. |
(英) |
Recently, the method of Deep Neural Network (DNN) with hierarchical learning has been remarkable for performance to solve various complex tasks in machine learning, called “Deep Learning”. Pre-training for every two layers by using Restricted Boltzmann Machine (RBM) or auto-encoder (AE) is efficient and frequently used for constructing DNN. However, it takes longer time for learning. To solve this problem, we can select parallel computation by developing LSI chips. LSI chips have however limited area for Memory, it is not easy to apply them to big data processing. We show that learning of Deterministic RBM (DRBM) with discrete value of learning parameter (weight, bias) is efficient to solve this problem, and this method still has capability to create good DNN. |
キーワード |
(和) |
ニューラルネットワーク / 階層型 / 深層学習 / 事前学習 / 制限つきボルツマンマシン / 離散化 / / |
(英) |
Neural network / Hierarchical / Deep learning / Pre-training / Restricted Boltzmann Machine / Discretization / / |
文献情報 |
信学技報, vol. 114, no. 113, NLP2014-27, pp. 37-40, 2014年6月. |
資料番号 |
NLP2014-27 |
発行日 |
2014-06-23 (NLP) |
ISSN |
Print edition: ISSN 0913-5685 Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
NLP2014-27 |