講演名 1996/3/18
ベイズ法による種々の正則化項のパラメータ推定
吉田 一浩, 石川 眞澄,
PDFダウンロードページ PDFダウンロードページへ
抄録(和) ニューラルネットワークの学習において, 過剰学習を避けるために正則化項がよく用いられる. この正則化項が過大な荷重を抑制し, 過剰学習を避けるのに効果的であるためである. 正則化項としてPlautらによって提案された, Gaussian regularizerと呼ばれる結合荷重の自乗和を用いる方法がもっぱら使用されている. また, 正則化項を使用するにあたって, 問題点の一つに正則化項のパラメータの決定がある. 本論文では正則化項に忘却つき構造学習で用いられる, Laplace regularizerと呼ばれる結合荷重の絶対値和を取り上げ, 両者の正則化項のパラメータをベイズ推定より求め, 比較を行なう.
抄録(英) A regularizer is often used in the learning of neural networks to avoid over-generalization or over-fitting. It is effective, because it penalizes large connection weights. In most cases, a regularizer of the sum of squared connection weights, called a Gaussian regularizer, is used. It corresponds to the one proposed by Plant and others. One of th difficulties in the use of regularizers is that the determibation of a regularization parameter. The present paper proposes the use of various types of regularizers such as the sum of the absolute values of connection weight, called a Laplace regularizer, which has been used in structural learning with fogetting.
キーワード(和) ベイズ推定 / 正則化 / ニューラルネットワーク
キーワード(英) Bayesian estimation / regularization / neural network
資料番号 NC-95-122
発行日

研究会情報
研究会 NC
開催期間 1996/3/18(から1日開催)
開催地(和)
開催地(英)
テーマ(和)
テーマ(英)
委員長氏名(和)
委員長氏名(英)
副委員長氏名(和)
副委員長氏名(英)
幹事氏名(和)
幹事氏名(英)
幹事補佐氏名(和)
幹事補佐氏名(英)

講演論文情報詳細
申込み研究会 Neurocomputing (NC)
本文の言語 JPN
タイトル(和) ベイズ法による種々の正則化項のパラメータ推定
サブタイトル(和)
タイトル(英) Bayesian Estimation of Parameters of Various Regularizers in the Learning of Neural Networks
サブタイトル(和)
キーワード(1)(和/英) ベイズ推定 / Bayesian estimation
キーワード(2)(和/英) 正則化 / regularization
キーワード(3)(和/英) ニューラルネットワーク / neural network
第 1 著者 氏名(和/英) 吉田 一浩 / Kazuhiro Yoshida
第 1 著者 所属(和/英) 九州工業大学情報工学部
Faculty of Computer Science and Systems Engineering Kyushu Institute of Technology
第 2 著者 氏名(和/英) 石川 眞澄 / Masumi Ishikawa
第 2 著者 所属(和/英) 九州工業大学情報工学部
Faculty of Computer Science and Systems Engineering Kyushu Institute of Technology
発表年月日 1996/3/18
資料番号 NC-95-122
巻番号(vol) vol.95
号番号(no) 598
ページ範囲 pp.-
ページ数 8
発行日