講演名 2001/6/22
構造化学習とサポートベクターマシンの性能比較
塚本 直樹, 高橋 治久,
PDFダウンロードページ PDFダウンロードページへ
抄録(和) 有限事例からの学習の目的は、汎化性能の最適なネットワークを構成することである。汎化能力の高いネットワークを構成するため、構造化学習として、ウェイトディケイ法などが提案されてきた。しかし、これらの方法は学習時間が長くなってしまう。近年これら両方の要求を満たす学習法として、サポートベクターマシン(SVM)が注目されている。この方法は、事前のネットワークの情報が必要なく、小さく汎化能力の高いネットワークを構成することができる。この報告では、SVMの双対形式のラグランジアン最適化法の代わりにウエイトディケイ法を使った学習法を提案し、両者の性能比較の結果を報告する。その結果、訓練データ数が少ない時はSVMの方が、多い時は構造化学習の方が汎化性能が良かった。
抄録(英) Support vector machine is paid great attention recently from machine learning and neural network societies. This method is being a standard method for machine learning, which well meets trade-off for quick learning and good generalization. In this report we compare on the generalization performance the SVM with the complexity regularization which minimizes the similar loss function as SVM. The result on the Majority XOR problem says that if input dimension is small the complexity regularization shows better performance and vice versa. The experiment results also says that if the data size is large compared with the input dimension complexity regularization is better than SVM.
キーワード(和) サポートベクターマシン / 構造化学習
キーワード(英) Support vectoer machine / Complexity-Regularization
資料番号 NC2001-29
発行日

研究会情報
研究会 NC
開催期間 2001/6/22(から1日開催)
開催地(和)
開催地(英)
テーマ(和)
テーマ(英)
委員長氏名(和)
委員長氏名(英)
副委員長氏名(和)
副委員長氏名(英)
幹事氏名(和)
幹事氏名(英)
幹事補佐氏名(和)
幹事補佐氏名(英)

講演論文情報詳細
申込み研究会 Neurocomputing (NC)
本文の言語 JPN
タイトル(和) 構造化学習とサポートベクターマシンの性能比較
サブタイトル(和)
タイトル(英) Generalization Performence : SVM vs Complexity-Regularization
サブタイトル(和)
キーワード(1)(和/英) サポートベクターマシン / Support vectoer machine
キーワード(2)(和/英) 構造化学習 / Complexity-Regularization
第 1 著者 氏名(和/英) 塚本 直樹 / Naoki Tsukamoto
第 1 著者 所属(和/英) 電気通信大学電子情報学科
Department of Communications and Systems, The University of Electro-Communications
第 2 著者 氏名(和/英) 高橋 治久 / Haruhisa Takahashi
第 2 著者 所属(和/英) 電気通信大学電子情報学科
Department of Communications and Systems, The University of Electro-Communications
発表年月日 2001/6/22
資料番号 NC2001-29
巻番号(vol) vol.101
号番号(no) 154
ページ範囲 pp.-
ページ数 7
発行日