講演名 | 2017-03-07 正則化項付き経験誤差最小化に対する二重加速確率的分散縮小勾配法 村田 智也(東工大), 鈴木 大慈(東工大), |
---|---|
PDFダウンロードページ | PDFダウンロードページへ |
抄録(和) | We develop a new stochastic gradient method for solving convex regularized empirical risk minimization problem in mini-batch settings. The core of our proposed method is incorporation of our new technique ``double acceleration'' and variance reduction technique. We theoretically analyze our proposed method, and show that our method much improves the mini-batch efficiency of previous accelerated stochastic methods, and essentially only needs size $sqrt{n}$ mini-batches for achieving the optimal iteration complexities for both non-strongly and strongly convex objectives, where $n$ is the training set size. Furthermore, we show that even in non-mini-batch settings, our method still improves the best known convergence rate for non-strongly convex objectives, and achieves the one for strongly convex objectives. |
抄録(英) | We develop a new stochastic gradient method for solving convex regularized empirical risk minimization problem in mini-batch settings. The core of our proposed method is incorporation of our new technique ``double acceleration'' and variance reduction technique. We theoretically analyze our proposed method, and show that our method much improves the mini-batch efficiency of previous accelerated stochastic methods, and essentially only needs size $sqrt{n}$ mini-batches for achieving the optimal iteration complexities for both non-strongly and strongly convex objectives, where $n$ is the training set size. Furthermore, we show that even in non-mini-batch settings, our method still improves the best known convergence rate for non-strongly convex objectives, and achieves the one for strongly convex objectives. |
キーワード(和) | 凸最適化 / 経験誤差最小化 / 確率的最適化 / 分散縮小 / 二重加速 / ミニバッチ法 |
キーワード(英) | convex optimizaition / empirical risk minimization / stochastic optimization / variance reduction / double acceleration / mini-batch method |
資料番号 | IBISML2016-106 |
発行日 | 2017-02-27 (IBISML) |
研究会情報 | |
研究会 | IBISML |
---|---|
開催期間 | 2017/3/6(から2日開催) |
開催地(和) | 東京工業大学 |
開催地(英) | Tokyo Institute of Technology |
テーマ(和) | 統計数理,機械学習,データマイニング,一般 |
テーマ(英) | Statistical Mathematics, Machine Learning, Data Mining, etc. |
委員長氏名(和) | 福水 健次(統計数理研) |
委員長氏名(英) | Kenji Fukumizu(ISM) |
副委員長氏名(和) | 杉山 将(東大) / 鹿島 久嗣(京大) |
副委員長氏名(英) | Masashi Sugiyama(Univ. of Tokyo) / Hisashi Kashima(Kyoto Univ.) |
幹事氏名(和) | 津田 宏治(東大) / 竹内 一郎(名工大) |
幹事氏名(英) | Koji Tsuda(Univ. of Tokyo) / Ichiro Takeuchi(Nagoya Inst. of Tech.) |
幹事補佐氏名(和) | 神嶌 敏弘(産総研) / 岩田 具治(NTT) |
幹事補佐氏名(英) | Toshihiro Kamishima(AIST) / Tomoharu Iwata(NTT) |
講演論文情報詳細 | |
申込み研究会 | Technical Committee on Infomation-Based Induction Sciences and Machine Learning |
---|---|
本文の言語 | ENG-JTITLE |
タイトル(和) | 正則化項付き経験誤差最小化に対する二重加速確率的分散縮小勾配法 |
サブタイトル(和) | |
タイトル(英) | Doubly Accelerated Stochastic Variance Reduced Gradient Method for Regularized Empirical Risk Minimization |
サブタイトル(和) | |
キーワード(1)(和/英) | 凸最適化 / convex optimizaition |
キーワード(2)(和/英) | 経験誤差最小化 / empirical risk minimization |
キーワード(3)(和/英) | 確率的最適化 / stochastic optimization |
キーワード(4)(和/英) | 分散縮小 / variance reduction |
キーワード(5)(和/英) | 二重加速 / double acceleration |
キーワード(6)(和/英) | ミニバッチ法 / mini-batch method |
第 1 著者 氏名(和/英) | 村田 智也 / Tomoya Murata |
第 1 著者 所属(和/英) | 東京工業大学(略称:東工大) Tokyo Institute of Technology(略称:Tokyo Tech) |
第 2 著者 氏名(和/英) | 鈴木 大慈 / Taiji Suzuki |
第 2 著者 所属(和/英) | 東京工業大学(略称:東工大) Tokyo Institute of Technology(略称:Tokyo Tech) |
発表年月日 | 2017-03-07 |
資料番号 | IBISML2016-106 |
巻番号(vol) | vol.116 |
号番号(no) | IBISML-500 |
ページ範囲 | pp.49-56(IBISML), |
ページ数 | 8 |
発行日 | 2017-02-27 (IBISML) |