講演抄録/キーワード |
講演名 |
2017-09-15 16:20
リッジ回帰によるk近傍分類の性能改善 ○重藤優太郎(千葉工大)・新保 仁・松本裕治(奈良先端大) PRMU2017-53 IBISML2017-25 |
抄録 |
(和) |
本論文では, $k$近傍分類のための非類似度関数とその学習法を提案する. 既存の距離学習は, 目的関数に基づいた写像行列を学習し, この写像行列を用いてクエリ事例とラベル付き事例を特徴空間の新たな点に写像する. 一方で, 本論文の提案手法は, クエリ事例を固定し, ラベル付き事例のみを同一特徴空間上の適切な点に移動する. 提案手法がもたらす$k$近傍分類の性能改善は, ハブ事例の出現という観点から説明することができる. 近年, ハブ事例の出現による, 近傍法の性能低下が報告されている. 本論文では, このハブ事例の出現を抑制することにより, 分類性能の改善を行う. 実験の結果, 文書および画像データの分類において, 提案手法が, 既存の距離学習よりも良い, もしくは同等の正解率を得ることを確認した. |
(英) |
This paper proposes an inexpensive way to learn an effective dissimilarity function to be used for $k$-nearest neighbor ($k$-NN) classification. Unlike Mahalanobis metric learning methods that map both query (unlabeled) objects and labeled objects to new coordinates by a single transformation, our method learns a transformation of labeled objects to new points in the feature space whereas query objects are kept in their original coordinates. In experiments with large document and image datasets, it achieves $k$-NN classification accuracy better than or at least comparable to the state-of-the-art metric learning methods. |
キーワード |
(和) |
$k$近傍分類 / 距離学習 / リッジ回帰 / ハブの出現 / / / / |
(英) |
$k$-nearest neighbor classification / metric learning / ridge regression / hubness phenomenon / / / / |
文献情報 |
信学技報, vol. 117, no. 211, IBISML2017-25, pp. 113-119, 2017年9月. |
資料番号 |
IBISML2017-25 |
発行日 |
2017-09-08 (PRMU, IBISML) |
ISSN |
Print edition: ISSN 0913-5685 Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
PRMU2017-53 IBISML2017-25 |
|