講演名 | 1999/10/21 MLPの正則化項に関する一検討 内田 真人, 塩谷 浩之, 伊達 惇, |
---|---|
PDFダウンロードページ | PDFダウンロードページへ |
抄録(和) | 多層パーセプトロンの学習において,過学習の回避,汎化能力の向上,あるいは構造化等の目的で,最小化すべき損失関数に正則化項を付け加える学習法が提案されている.本稿では,パラメータ推定の枠組を用い,非ベイズ的正則化項付き学習アルゴリズムを導出した.本稿で設定した確率モデルの特徴は,損失関数を自乗誤差関数とした場合に顕著に現れる.この場合,正則化項をモデルの分散として捉えることが可能になった. |
抄録(英) | Learning methods adding a regularization term to a loss function to be minimized has been proposed for training multi layer perceptrons, in order to avoid overfitting, improve predictive performance, or perform structurization. In this paper, a learning algoithm with non-Bayesian regularization term whose scaduling parameter doesn't become a constant is derived based on a framework of the parametric estimation. The proposed model is remarkable becase the reguralization term can be regarded as a variance of the model if quadratic loss function is used as a loss function. |
キーワード(和) | 正則化項 / 多層パーセプトロンの学習 |
キーワード(英) | Regularization term / learning of multi layer perceptrons |
資料番号 | NC99-44 |
発行日 |
研究会情報 | |
研究会 | NC |
---|---|
開催期間 | 1999/10/21(から1日開催) |
開催地(和) | |
開催地(英) | |
テーマ(和) | |
テーマ(英) | |
委員長氏名(和) | |
委員長氏名(英) | |
副委員長氏名(和) | |
副委員長氏名(英) | |
幹事氏名(和) | |
幹事氏名(英) | |
幹事補佐氏名(和) | |
幹事補佐氏名(英) |
講演論文情報詳細 | |
申込み研究会 | Neurocomputing (NC) |
---|---|
本文の言語 | JPN |
タイトル(和) | MLPの正則化項に関する一検討 |
サブタイトル(和) | |
タイトル(英) | Regularization Term of Multi Layer Perceptrons |
サブタイトル(和) | |
キーワード(1)(和/英) | 正則化項 / Regularization term |
キーワード(2)(和/英) | 多層パーセプトロンの学習 / learning of multi layer perceptrons |
第 1 著者 氏名(和/英) | 内田 真人 / Masato UCHIDA |
第 1 著者 所属(和/英) | 北海道大学工学部 Faculty of Engineering, Hokkaido University |
第 2 著者 氏名(和/英) | 塩谷 浩之 / Hiroyuki SHIOYA |
第 2 著者 所属(和/英) | 北海道大学工学部 Faculty of Engineering, Hokkaido University |
第 3 著者 氏名(和/英) | 伊達 惇 / Tsutomu DA-TE |
第 3 著者 所属(和/英) | 北海道大学工学部 Faculty of Engineering, Hokkaido University |
発表年月日 | 1999/10/21 |
資料番号 | NC99-44 |
巻番号(vol) | vol.99 |
号番号(no) | 382 |
ページ範囲 | pp.- |
ページ数 | 6 |
発行日 |