講演抄録/キーワード |
講演名 |
2018-06-13 16:15
モデル選択のためのサポートベクトル列挙 ○金森憲太朗(北大)・原 聡(阪大)・石畠正和(NTT)・有村博紀(北大) IBISML2018-12 |
抄録 |
(和) |
多くの機械学習問題では,学習アルゴリズムは目的関数を最適化するモデルを一つ出力し,その他のモデルを考慮しない.これに対して,最近,最適解を含む複数のモデルを列挙する方法が提案されている.例えば,HaraとMaehara(AAAI'17)によるLasso解の列挙と,Ruggieri(ICML'17)による決定木の列挙が挙げられる.本研究では,HaraとMaeharaの方法を拡張し,サポートベクトルマシン(SVM)の学習問題におけるモデルの$K$-best列挙問題を解く効率良いアルゴリズムを与える.このアルゴリズムは,与えられた非負整数$K>0$に対して,異なるサポートベクトルを持ち,SVM学習の双対問題の目的関数の値が上位$K$個であるモデルを値の降順で出力する.さらに,人工データと実データと用いた実験において,提案手法の計算効率と有用性を検証した. |
(英) |
In ordinary machine learning problems, the learning algorithm outputs a single model that optimizes its learning objective function, and doesn't consider the other models. In contrast, recently, some methods for enumerating multiple models are presented. For example, Hara and Maehara presented an algorithm for Lasso (AAAI'17), while, Ruggieri for decision tree learning (ICML'17). In this paper, we extend the algorithm of Hara and Maehara, we present an efficient algorithm for the $K$-best model enumeration problem in the training of Support Vector Machines (SVM). This algorithm is, given a non-negative number $K>0$, enumerating $K$-best models that have distinct support vectors in the descending order of the values of the objective function of SVM. By experiments on synthetic and real datasets, we evaluate the efficiency and effectiveness of our algorithm. |
キーワード |
(和) |
サポートベクトルマシン(SVM) / モデル列挙 / モデル選択 / サンプル部分集合選択 / / / / |
(英) |
Support Vector Machine (SVM) / model enumeration / model selection / subsample selection / / / / |
文献情報 |
信学技報, vol. 118, no. 81, IBISML2018-12, pp. 81-88, 2018年6月. |
資料番号 |
IBISML2018-12 |
発行日 |
2018-06-06 (IBISML) |
ISSN |
Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
IBISML2018-12 |