講演名 | 2022-06-27 Transformer-Based Fully Trainable Model for Point Process with Past Sequence-Representative Vector 西澤 郁也(和歌山大), 洪 秀俊(和歌山大), 八谷 大岳(和歌山大), |
---|---|
PDFダウンロードページ | PDFダウンロードページへ |
抄録(和) | |
抄録(英) | Recently, a Transformer-based partially trainable point process has been proposed, where a feature vector is extracted from past event sequence to predict the future event. However, high dependencies of the feature on last event andlimitation of handmade designed hazard function would cause deterioration peformance. To overcome these problems, wepropose a Transformer-based fully trainable point process, where multiple trainable vectors are embedded into the past eventsequence and are transformed through an attention mechanism to realize adaptive and general approximation and prediction. We show the effectiveness of our proposed method through experiments on two datasets. |
キーワード(和) | 点過程 / Transformer / 地震データ / Hawkes過程 |
キーワード(英) | point process / Transformer / seismic event / Hawkes process |
資料番号 | NC2022-1,IBISML2022-1 |
発行日 | 2022-06-20 (NC, IBISML) |
研究会情報 | |
研究会 | NC / IBISML / IPSJ-BIO / IPSJ-MPS |
---|---|
開催期間 | 2022/6/27(から3日開催) |
開催地(和) | 琉球大学50周年記念館 |
開催地(英) | |
テーマ(和) | 機械学習によるバイオデータマイニング、一般 |
テーマ(英) | |
委員長氏名(和) | 山川 宏(東大) / 杉山 将(東大) |
委員長氏名(英) | Hiroshi Yamakawa(Univ of Tokyo) / Masashi Sugiyama(Univ. of Tokyo) |
副委員長氏名(和) | 田中 宏和(東京都市大学) / 神嶌 敏弘(産総研) / 津田 宏治(東大) |
副委員長氏名(英) | Hirokazu Tanaka(Tokyo City Univ.) / Toshihiro Kamishima(AIST) / Koji Tsuda(Univ. of Tokyo) |
幹事氏名(和) | 寺島 裕貴(NTT) / 西田 知史(NICT) / 岩田 具治(NTT) / 中村 篤祥(北大) |
幹事氏名(英) | Hiroki Terashima(NTT) / Satoshi Nishida(NICT) / Tomoharu Iwata(NTT) / Atsuyoshi Nakamura(Hokkaido Univ.) |
幹事補佐氏名(和) | 田和辻 可昌(早大) / 栗川 知己(関西医科大) / 河原 吉伸(阪大) / 鈴木 大慈(東工大) |
幹事補佐氏名(英) | Yoshimasa Tawatsuji(Waseda Univ.) / Tomoki Kurikawa(KMU) / Yoshinobu Kawahara(Osaka Univ.) / Taiji Suzuki(Tokyo Inst. of Tech.) |
講演論文情報詳細 | |
申込み研究会 | Technical Committee on Neurocomputing / Technical Committee on Infomation-Based Induction Sciences and Machine Learning / Special Interest Group on Bioinformatics and Genomics / Special Interest Group on Mathematical Modeling and Problem Solving |
---|---|
本文の言語 | ENG |
タイトル(和) | |
サブタイトル(和) | |
タイトル(英) | Transformer-Based Fully Trainable Model for Point Process with Past Sequence-Representative Vector |
サブタイトル(和) | |
キーワード(1)(和/英) | 点過程 / point process |
キーワード(2)(和/英) | Transformer / Transformer |
キーワード(3)(和/英) | 地震データ / seismic event |
キーワード(4)(和/英) | Hawkes過程 / Hawkes process |
第 1 著者 氏名(和/英) | 西澤 郁也 / Fumiya Nishizawa |
第 1 著者 所属(和/英) | 和歌山大学大学院システム工学研究科(略称:和歌山大) Graduate School of System Engineering, Wakayama University(略称:Graduate School of System Engineering, Wakayama University) |
第 2 著者 氏名(和/英) | 洪 秀俊 / Sujun Hong |
第 2 著者 所属(和/英) | 和歌山大学大学院システム工学研究科(略称:和歌山大) Graduate School of System Engineering, Wakayama University(略称:Graduate School of System Engineering, Wakayama University) |
第 3 著者 氏名(和/英) | 八谷 大岳 / Hirotaka Hachiya |
第 3 著者 所属(和/英) | 和歌山大学大学院システム工学研究科(略称:和歌山大) Graduate School of System Engineering, Wakayama University(略称:Graduate School of System Engineering, Wakayama University) |
発表年月日 | 2022-06-27 |
資料番号 | NC2022-1,IBISML2022-1 |
巻番号(vol) | vol.122 |
号番号(no) | NC-89,IBISML-90 |
ページ範囲 | pp.1-5(NC), pp.1-5(IBISML), |
ページ数 | 5 |
発行日 | 2022-06-20 (NC, IBISML) |