講演名 2015-06-23
大規模データ・高次元トピックに対応したトピックモデル
横井 創磨(東大), 佐藤 一誠(東大), 中川 裕志(東大),
PDFダウンロードページ PDFダウンロードページへ
抄録(和) 大規模な文書データに対して頻度分布のロングテールに位置する単語は情報量が少ないため,トピックモデルと呼ばれる単語の統計モデルを分布の背後に仮定することで,検索エンジンやオンライン広告などの性能が向上することが知られている.しかし,このような場面において用いられるトピックモデルは,予め仮定する潜在トピック数を高次元に設定する必要があり,計算速度や必要メモリ量が問題になる.トピックモデルの最も基本的なモデルである LDA に対して,大量の文書を扱える SGRLD LDA や高次元のトピックを扱える AliasLDA などの手法が存在するが,大量の文書・高次元のトピックを同時に達成するためには非効率的なアルゴリズムを巨大な計算機リソースを用いて実行しなくてはならない.そこで本研究では,これらの手法をうまく組み合わせることで効率的な計算を可能にする.また,勾配計算において更新の方法を工夫することにより,余分な空間を使わずに期待値計算を行うことができる.実験により,提案手法は大規模データかつ高次元トピックでも実行可能であり,さらに既存手法と比較して速く,特に高次元トピックでは10倍以上高速であることを示す.
抄録(英) It is known that topic model with high dimensional topics improves IR performance like search engines and online advertisements, because it helps to model long-tail words in large scale corpora. However, high dimensional topics with large corpora cause 2 problems: computational performance and memory requirement. For the fundamental topic model, LDA, SGRLD LDA is proposed to scale to large corpora and AliasLDA to accelerate computing topics. In this paper, we propose a method for both topic computation and data scalability, by combining these techniques. Also careful calculation of gradients reduces required space to expectations. Experiments demonstrate that our method is scalable for both corpus size and topic dimension, also achieve faster runtime speed compared to the existing approach, especially 10+ times faster on high dimensional topics setting.
キーワード(和) トピックモデル / Langevin MCMC / alias法 / スケーラビリティ
キーワード(英) topic modeling / Langevin MCMC / alias method / scalability
資料番号 IBISML2015-5
発行日 2015-06-16 (IBISML)

研究会情報
研究会 NC / IPSJ-BIO / IBISML / IPSJ-MPS
開催期間 2015/6/23(から3日開催)
開催地(和) 沖縄科学技術大学院大学
開催地(英) Okinawa Institute of Science and Technology
テーマ(和) 機械学習によるバイオデータマインニング、一般
テーマ(英) Machine Learning Approach to Biodata Mining, and General
委員長氏名(和) 斎藤 利通(法政大) / 関嶋 政和(東工大) / 鷲尾 隆(阪大) / 庄野 逸(電通大)
委員長氏名(英) Toshimichi Saito(Hosei Univ.) / Masakazu Sekijima(東工大) / Takashi Washio(Osaka Univ.) / Hayaru Shouno(電通大)
副委員長氏名(和) 佐藤 茂雄(東北大) / / 福水 健次(統計数理研) / 杉山 将(東工大)
副委員長氏名(英) Shigeo Sato(Tohoku Univ.) / / Kenji Fukumizu(ISM) / Masashi Sugiyama(Tokyo Inst. of Tech.)
幹事氏名(和) 堀尾 恵一(九工大) / 田中 宏喜(京都産大) / 大羽 成征(京大) / 瀬々 潤(お茶の水女子大) / 吉本 潤一郎(OIST) / 松井 知子(統計数理研) / 大羽 成征(京大) / 小野 智司(鹿児島大) / 但馬 康宏(岡山県立大) / 林田 守広(京大) / 岩田 具治(NTT) / 吉田 哲也(北大) / 松田 健(静岡理工科大)
幹事氏名(英) Keiichi Horio(Kyushu Inst. of Tech.) / Hiroki Tanaka(Kyoto Sangyo Univ.) / Shigeyuki Oba(京大) / Jun Sese(お茶の水女子大) / Junichiro Yoshimoto(OIST) / Tomoko Matsui(ISM) / Shigeyuki Ohba(Kyoto Univ.) / Satoshi Ono(鹿児島大) / Yasuhiro Tajima(岡山県立大) / Morihiro Hayashida(京大) / Tomoharu Iwata(NTT) / Tetsuya Yoshida(北大) / Takeshi Matsuda(静岡理工科大)
幹事補佐氏名(和) 神原 裕行(東工大) / 秋間 学尚(東北大) / / 津田 宏治(東大) / 鹿島 久嗣(京大)
幹事補佐氏名(英) Hiroyuki Kanbara(Tokyo Inst. of Tech.) / Hisanao Akima(Tohoku Univ.) / / Koji Tsuda(Univ. of Tokyo) / Hisashi Kashima(Kyoto Univ.)

講演論文情報詳細
申込み研究会 Technical Committee on Neurocomputing / Special Interest Group on Bioinformatics and Genomics / Technical Committee on Infomation-Based Induction Sciences and Machine Learning / Special Interest Group on Mathematical Modeling and Problem Solving
本文の言語 JPN
タイトル(和) 大規模データ・高次元トピックに対応したトピックモデル
サブタイトル(和)
タイトル(英) Corpus and Topic Scalable Topic Model
サブタイトル(和)
キーワード(1)(和/英) トピックモデル / topic modeling
キーワード(2)(和/英) Langevin MCMC / Langevin MCMC
キーワード(3)(和/英) alias法 / alias method
キーワード(4)(和/英) スケーラビリティ / scalability
第 1 著者 氏名(和/英) 横井 創磨 / Soma Yokoi
第 1 著者 所属(和/英) 東京大学(略称:東大)
The University of Tokyo(略称:UTokyo)
第 2 著者 氏名(和/英) 佐藤 一誠 / Issei Sato
第 2 著者 所属(和/英) 東京大学(略称:東大)
The University of Tokyo(略称:UTokyo)
第 3 著者 氏名(和/英) 中川 裕志 / Hiroshi Nakagawa
第 3 著者 所属(和/英) 東京大学(略称:東大)
The University of Tokyo(略称:UTokyo)
発表年月日 2015-06-23
資料番号 IBISML2015-5
巻番号(vol) vol.115
号番号(no) IBISML-112
ページ範囲 pp.27-31(IBISML),
ページ数 5
発行日 2015-06-16 (IBISML)