講演名 2007-12-22
交差検証誤差最小化によるSV回帰ハイパーパラメータ最適化の高速化
烏山 昌幸, 中野 良平,
PDFダウンロードページ PDFダウンロードページへ
抄録(和) サポートベクトル回帰(SVR)の汎化性能は,ハイパーパラメータである無反応領域の幅ε,ペナルティ係数C,カーネル関数のパラメータσなどに大きく依存する.我々は交差検証誤差最小化の観点からSVRのハイパーパラメータを最適化する手法MCV-SVR法を提案してきた.しかし,MCV-SVRは交差検証を利用するため計算コズトが大きくなる.そこで,本論文ではSVRの交差検証高速化手法であるAOSVR准適用することで,MCV-SVRの高速化をはかった.実験では,AOSVRによってMCV-SVRの大幅な高速化が可能であることを示す,また既存の他手法との比較実験によりMCV-SVR法の有効性を示す.
抄録(英) The performance of Support Vector Regression (SVR) deeply depends on its hyperparameters. such as an insensitive zone thickness, a penalty factor, and kernel parameters. A method called MCV-SVR was once proposed, which optimizes SVR hyperparameters so that cross-validation error is minimized. However, the computational cost of CV is usually high. In this paper we apply Accurate Online Support Vector Regression (AOSVR) to the MCV-SVR cross-validation procedure. The AOSVR enables an efficient update of a trained SVR function. We show the AOSVR dramatically accelerates the MCV-SVR. Moreover, our experiments showed our faster MCV-SVR has better generalization than other existing methods.
キーワード(和) サポートベクトルマシン / サポートベクトル回帰 / 交差検証誤差最小化
キーワード(英) support vector machines / support vector regression / mimum cross-validation
資料番号 NC2007-73
発行日

研究会情報
研究会 NC
開催期間 2007/12/15(から1日開催)
開催地(和)
開催地(英)
テーマ(和)
テーマ(英)
委員長氏名(和)
委員長氏名(英)
副委員長氏名(和)
副委員長氏名(英)
幹事氏名(和)
幹事氏名(英)
幹事補佐氏名(和)
幹事補佐氏名(英)

講演論文情報詳細
申込み研究会 Neurocomputing (NC)
本文の言語 JPN
タイトル(和) 交差検証誤差最小化によるSV回帰ハイパーパラメータ最適化の高速化
サブタイトル(和)
タイトル(英) Optimizing SVR Hyperparameters via Fast Cross-Validation using AOSVR
サブタイトル(和)
キーワード(1)(和/英) サポートベクトルマシン / support vector machines
キーワード(2)(和/英) サポートベクトル回帰 / support vector regression
キーワード(3)(和/英) 交差検証誤差最小化 / mimum cross-validation
第 1 著者 氏名(和/英) 烏山 昌幸 / Masayuki KARASUYAMA
第 1 著者 所属(和/英) 名古屋工業大学大学院工学研究科
Nagoya Institute of Technology
第 2 著者 氏名(和/英) 中野 良平 / Ryohei NAKANO
第 2 著者 所属(和/英) 名古屋工業大学大学院工学研究科
Nagoya Institute of Technology
発表年月日 2007-12-22
資料番号 NC2007-73
巻番号(vol) vol.107
号番号(no) 410
ページ範囲 pp.-
ページ数 6
発行日