講演名 2020-03-02
機械学習における乗算を用いない次元削減
小野 順貴(首都大東京),
PDFダウンロードページ PDFダウンロードページへ
抄録(和) 本研究では,機械学習において,乗算を用いず,要素を選択するのみで次元削減を行う手法を提案する。機械学習における次元削減は,不要なモデルパラメータを減らし,過学習の緩和や学習速度の向上につながる重要な前処理である。基本的でよく用いられている手法の一つは主成分分析であるが,主成分分析には行列の乗算を必要とするため,補聴器や組み込み機器など,演算能力が限られているシステムでは,主成分分析の乗算回数自体が大きな計算負荷となる場合がある。本研究では,次元削減の計算量を減らすため,要素選択のみで次元削減を行うことを考える。このとき重要となるのは,入力ベクトルのどの要素を選択するかである。本研究では,線形自己符号化器の再構成損失を目的関数とし,これを最小とする要素を選ぶ離散最適化問題としてこれを定式化する。また,目的関数がより小さくなるように,選択要素を逐次的に入れ替えていくことで,これを解く手法を提案する。目的関数の計算には逆行列演算が含まれるが,逆行列補題を用いてこの演算量を大幅に削減するアルゴリズムについても述べる。画像に対する予備的な実験結果により,本手法の有効性を示す。
抄録(英) In this study, we propose a dimension reduction method for machine learning by only selecting elements without multiplication. In machine learning, the dimension reduction is an important preprocessing that reduces unnecessary model parameters, and it alleviates over-fitting and improves learning speed. One of the basic and frequently used methods is principal component analysis (PCA). However, since PCA requires matrix multiplication, it is not suitable for a system with limited computational power such as hearing aids and embedded devices. The number of times of multiplication in PCA itself may cause a large calculation load. In this study, to reduce the amount of calculation in dimension reduction, we consider dimension reduction only by element selection. What is essential at this time is which elements of the input vector are selected. In this study, we consider an objective function defined as the reconstruction loss of a linear autoencoder, and this is formulated as a discrete optimization problem that selects the element that minimizes it. Also, we propose a method to solve this problem by sequentially replacing elements chosen so that the objective function becomes smaller. The calculation of the objective function includes the inverse matrix operation. An algorithm that significantly reduces the amount of computation using the inverse matrix lemma is described. Preliminary experimental results for video show the effectiveness of this method.
キーワード(和) 次元削減 / 機械学習 / 要素選択 / 乗算 / 計算量
キーワード(英) dimension reduction / machine learning / element seelction / multiplication / computational cost
資料番号 EA2019-104,SIP2019-106,SP2019-53
発行日 2020-02-24 (EA, SIP, SP)

研究会情報
研究会 SP / EA / SIP
開催期間 2020/3/2(から2日開催)
開催地(和) 沖縄産業支援センター
開催地(英) Okinawa Industry Support Center
テーマ(和) 音声,応用/電気音響,信号処理,一般
テーマ(英)
委員長氏名(和) 河井 恒(NICT) / 古家 賢一(大分大) / 相川 直幸(東京理科大)
委員長氏名(英) Hisashi Kawai(NICT) / Kenichi Furuya(Oita Univ.) / Naoyuki Aikawa(TUS)
副委員長氏名(和) 李 晃伸(名工大) / 島内 末廣(金沢工大) / 武岡 成人(静岡理工科大) / 林 和則(阪市大) / 坂東 幸浩(NTT)
副委員長氏名(英) Akinobu Ri(Nagoya Inst. of Tech.) / Suehiro Shimauchi(Kanazawa Inst. of Tech.) / Shigeto Takeoka(Shizuoka Inst. of Science and Tech.) / Kazunori Hayashi(Osaka City Univ) / Yukihiro Bandou(NTT)
幹事氏名(和) 南條 浩輝(京大) / 小川 哲司(早大) / 松井 健太郎(NHK) / 小山 翔一(東大) / 中本 昌由(広島大) / 小西 克巳(法政大)
幹事氏名(英) Hiroaki Nanjo(Kyoto Univ.) / Tetsuji Ogawa(Waseda Univ.) / Kentaro Matsui(NHK) / Shoichi Koyama(Univ. of Tokyo) / Masayoshi Nakamoto(Hiroshima Univ.) / Katsumi Konishi(Hosei Univ.)
幹事補佐氏名(和) 郡山 知樹(東大) / 井島 勇祐(NTT) / 井本 桂右(立命館大) / 森川 大輔(富山県立大) / 杉本 憲治郎(早大)
幹事補佐氏名(英) Tomoki Koriyama(Univ. of Tokyo) / Yusuke Ijima(NTT) / Keisuke Imoto(Ritsumeikan Univ.) / Daisuke Morikawa(Toyama Pref Univ.) / Kenjiro Sugimoto(Waseda Univ.)

講演論文情報詳細
申込み研究会 Technical Committee on Speech / Technical Committee on Engineering Acoustics / Technical Committee on Signal Processing
本文の言語 JPN
タイトル(和) 機械学習における乗算を用いない次元削減
サブタイトル(和)
タイトル(英) Dimension reduction without multiplication in machine learning
サブタイトル(和)
キーワード(1)(和/英) 次元削減 / dimension reduction
キーワード(2)(和/英) 機械学習 / machine learning
キーワード(3)(和/英) 要素選択 / element seelction
キーワード(4)(和/英) 乗算 / multiplication
キーワード(5)(和/英) 計算量 / computational cost
第 1 著者 氏名(和/英) 小野 順貴 / Nobutaka Ono
第 1 著者 所属(和/英) 首都大学東京(略称:首都大東京)
Tokyo Metropolitan University(略称:TMU)
発表年月日 2020-03-02
資料番号 EA2019-104,SIP2019-106,SP2019-53
巻番号(vol) vol.119
号番号(no) EA-439,SIP-440,SP-441
ページ範囲 pp.21-26(EA), pp.21-26(SIP), pp.21-26(SP),
ページ数 6
発行日 2020-02-24 (EA, SIP, SP)