お知らせ 2023年度・2024年度 学生員 会費割引キャンペーン実施中です
お知らせ 技術研究報告と和文論文誌Cの同時投稿施策(掲載料1割引き)について
お知らせ 電子情報通信学会における研究会開催について
お知らせ NEW 参加費の返金について
電子情報通信学会 研究会発表申込システム
講演論文 詳細
技報閲覧サービス
[ログイン]
技報アーカイブ
 トップに戻る 前のページに戻る   [Japanese] / [English] 

講演抄録/キーワード
講演名 2022-03-01 14:20
ファインチューニングを利用した歪みエフェクタの高速モデリング
少路春希吉本健人阪 大樹黒田大貴北原大地田中賢一郎平林 晃立命館大EA2021-75 SIP2021-102 SP2021-60
抄録 (和) 深層学習に基づく歪みエフェクタのモデリングを高速に行う手法を提案する.エフェクタの個体や設定を変えて何回もモデリングすることを考えると1 回当たりの学習時間の短縮が求められるが,単に学習データ量を削減するとモデリング精度が低下してしまう.本研究では,目的の歪みエフェクタを少量データからモデリングする際に,異なる歪みエフェクタに対して十分訓練済みのネットワークパラメータを初期値としてファインチューニングを行う.数値実験で,提案手法が少量データからでも精度を維持したまま歪みエフェクタを高速にモデリングすることを示す. 
(英) We propose a fast modeling method for distortion pedals based on deep learning. For modeling many times with different pedals and settings, it is desired to shorten the training time per one model, but simply reducing the amount of training data decreases the modeling accuracy. In this paper, when modeling a target distortion pedal from a small amount of data, we propose to apply fine-tuning where network parameters well-trained for another distortion pedal are used as initial values. Numerical experiments show that the proposed method trains the model of the target distortion pedal very quickly from a small amount of data while maintaining the modeling accuracy.
キーワード (和) 歪みエフェクタ / 深層学習 / WaveNet / 転移学習 / ファインチューニング / / /  
(英) Distortion Pedal / Deep Learning / WaveNet / Transfer Learning / Fine-Tuning / / /  
文献情報 信学技報, vol. 121, no. 384, SIP2021-102, pp. 70-75, 2022年3月.
資料番号 SIP2021-102 
発行日 2022-02-22 (EA, SIP, SP) 
ISSN Online edition: ISSN 2432-6380
著作権に
ついて
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034)
PDFダウンロード EA2021-75 SIP2021-102 SP2021-60

研究会情報
研究会 EA SIP SP IPSJ-SLP  
開催期間 2022-03-01 - 2022-03-02 
開催地(和) 沖縄県立博物館・美術館 
開催地(英)  
テーマ(和) 応用/電気音響, 信号処理,音声,一般 
テーマ(英)  
講演論文情報の詳細
申込み研究会 SIP 
会議コード 2022-03-EA-SIP-SP-SLP 
本文の言語 日本語 
タイトル(和) ファインチューニングを利用した歪みエフェクタの高速モデリング 
サブタイトル(和)  
タイトル(英) Fast Distortion Pedal Modeling with Fine-Tuning 
サブタイトル(英)  
キーワード(1)(和/英) 歪みエフェクタ / Distortion Pedal  
キーワード(2)(和/英) 深層学習 / Deep Learning  
キーワード(3)(和/英) WaveNet / WaveNet  
キーワード(4)(和/英) 転移学習 / Transfer Learning  
キーワード(5)(和/英) ファインチューニング / Fine-Tuning  
キーワード(6)(和/英) /  
キーワード(7)(和/英) /  
キーワード(8)(和/英) /  
第1著者 氏名(和/英/ヨミ) 少路 春希 / Haruki Shoji / ショウジ ハルキ
第1著者 所属(和/英) 立命館大学 (略称: 立命館大)
Ritsumeikan University (略称: Ritsumeikan Univ.)
第2著者 氏名(和/英/ヨミ) 吉本 健人 / Kento Yoshimoto / ヨシモト ケント
第2著者 所属(和/英) 立命館大学 (略称: 立命館大)
Ritsumeikan University (略称: Ritsumeikan Univ.)
第3著者 氏名(和/英/ヨミ) 阪 大樹 / Daiki Saka / サカ ダイキ
第3著者 所属(和/英) 立命館大学 (略称: 立命館大)
Ritsumeikan University (略称: Ritsumeikan Univ.)
第4著者 氏名(和/英/ヨミ) 黒田 大貴 / Hiroki Kuroda / クロダ ヒロキ
第4著者 所属(和/英) 立命館大学 (略称: 立命館大)
Ritsumeikan University (略称: Ritsumeikan Univ.)
第5著者 氏名(和/英/ヨミ) 北原 大地 / Daichi Kitahara / キタハラ ダイチ
第5著者 所属(和/英) 立命館大学 (略称: 立命館大)
Ritsumeikan University (略称: Ritsumeikan Univ.)
第6著者 氏名(和/英/ヨミ) 田中 賢一郎 / Kenichiro Tanaka / タナカ ケンイチロウ
第6著者 所属(和/英) 立命館大学 (略称: 立命館大)
Ritsumeikan University (略称: Ritsumeikan Univ.)
第7著者 氏名(和/英/ヨミ) 平林 晃 / Akira Hirabayashi / ヒラバヤシ アキラ
第7著者 所属(和/英) 立命館大学 (略称: 立命館大)
Ritsumeikan University (略称: Ritsumeikan Univ.)
第8著者 氏名(和/英/ヨミ) / /
第8著者 所属(和/英) (略称: )
(略称: )
第9著者 氏名(和/英/ヨミ) / /
第9著者 所属(和/英) (略称: )
(略称: )
第10著者 氏名(和/英/ヨミ) / /
第10著者 所属(和/英) (略称: )
(略称: )
第11著者 氏名(和/英/ヨミ) / /
第11著者 所属(和/英) (略称: )
(略称: )
第12著者 氏名(和/英/ヨミ) / /
第12著者 所属(和/英) (略称: )
(略称: )
第13著者 氏名(和/英/ヨミ) / /
第13著者 所属(和/英) (略称: )
(略称: )
第14著者 氏名(和/英/ヨミ) / /
第14著者 所属(和/英) (略称: )
(略称: )
第15著者 氏名(和/英/ヨミ) / /
第15著者 所属(和/英) (略称: )
(略称: )
第16著者 氏名(和/英/ヨミ) / /
第16著者 所属(和/英) (略称: )
(略称: )
第17著者 氏名(和/英/ヨミ) / /
第17著者 所属(和/英) (略称: )
(略称: )
第18著者 氏名(和/英/ヨミ) / /
第18著者 所属(和/英) (略称: )
(略称: )
第19著者 氏名(和/英/ヨミ) / /
第19著者 所属(和/英) (略称: )
(略称: )
第20著者 氏名(和/英/ヨミ) / /
第20著者 所属(和/英) (略称: )
(略称: )
講演者 第1著者 
発表日時 2022-03-01 14:20:00 
発表時間 25分 
申込先研究会 SIP 
資料番号 EA2021-75, SIP2021-102, SP2021-60 
巻番号(vol) vol.121 
号番号(no) no.383(EA), no.384(SIP), no.385(SP) 
ページ範囲 pp.70-75 
ページ数
発行日 2022-02-22 (EA, SIP, SP) 


[研究会発表申込システムのトップページに戻る]

[電子情報通信学会ホームページ]


IEICE / 電子情報通信学会