講演抄録/キーワード |
講演名 |
2022-06-18 15:00
ブラインド音源分離の分離音と観測信号を教師信号として用いたSequential Neural Beamformerの教師なし学習 ○西城耕平・小川哲司(早大) SP2022-25 |
抄録 |
(和) |
ブラインド音源分離(BSS)の分離音と観測信号を教師信号として用いたSequential Neural Beamformer (Seq-NBF)の教師なし学習法を提案する.近年,BSSを疑似教師としたteacher-student学習による教師なし音源分離が提案されたが,教師信号が歪みを含むため性能には限界がある.一方,2つの異なる観測信号の分離・再混合を繰り返して元の観測信号に近づくように学習を行うUnmix-Remix無矛盾学習(URCL)は,歪みを含まない観測信号そのものを教師信号として用いることができる.しかし,全く分離を行わない自明解が存在するためスクラッチから学習を行うのは困難である.本研究では,BSSを疑似教師としてSeq-NBFを学習し,URCLでファインチューンする教師なし学習法を提案する.2つの学習法を段階的に適用することで各学習法の長所を活かし短所を補うことを狙う.また,2つのNBFをスタックしたSeq-NBFの構成により,BSSを疑似教師とした学習においてBSSを上回る性能が得られること,およびURCLを用いたファインチューニングで性能が大きく改善することが期待される.音源分離実験より,提案法は疑似教師として用いたBSSを大きく上回る性能を達成し,教師あり学習にも匹敵する性能を与えることを確認した. |
(英) |
We present an unsupervised training method of the sequential neural beamformer (Seq-NBF) using the separated signals from blind source separation (BSS) and observed mixtures as supervisory signals. Recently, separated signals of BSS have been used for training neural separators in an unsupervised manner. However, the performance is limited due to distortions in the supervision. In contrast, unmix-remix-consistent learning (URCL) utilizes distortion-free observed mixtures as the supervision, where we make remixed mixtures obtained by repeatedly separating and remixing two different mixtures closer to the original ones. Still, it is difficult to train separators from scratch with RCCL because it has a trivial solution of not separating signals. The present study provides a novel unsupervised learning algorithm for the Seq-NBF, where we first pre-train Seq-NBF with teacher-student learning with BSS and then fine-tune with URCL. By applying the two methods in stages, we make the most of their strengths and compensate for their weaknesses. We also expect that the configuration of Seq-NBF, which stacks two NBFs, will contribute to outperforming BSS in learning using the BSS outputs and boost the effectiveness of URCL-based fine-tuning. Experiments demonstrated that the proposed method significantly outperformed conventional BSS and achieved performance comparable to supervised learning (0.4 point difference in word error rate). |
キーワード |
(和) |
教師なし音源分離 / Unmix-Remix無矛盾学習 / Sequential Neural Beamformer / ブラインド音源分離 / / / / |
(英) |
unsupervised speech separation / unmix-remix consistent learning / sequential neural beamformer / blind source separation / / / / |
文献情報 |
信学技報, vol. 122, no. 81, SP2022-25, pp. 110-115, 2022年6月. |
資料番号 |
SP2022-25 |
発行日 |
2022-06-10 (SP) |
ISSN |
Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
SP2022-25 |
研究会情報 |
研究会 |
SP IPSJ-MUS IPSJ-SLP |
開催期間 |
2022-06-17 - 2022-06-18 |
開催地(和) |
オンライン開催 |
開催地(英) |
Online |
テーマ(和) |
音学シンポジウム2022 |
テーマ(英) |
|
講演論文情報の詳細 |
申込み研究会 |
SP |
会議コード |
2022-06-SP-MUS-SLP |
本文の言語 |
日本語 |
タイトル(和) |
ブラインド音源分離の分離音と観測信号を教師信号として用いたSequential Neural Beamformerの教師なし学習 |
サブタイトル(和) |
|
タイトル(英) |
Unsupervised Training of Sequential Neural Beamformer Using Blindly-separated and Non-separated Signals |
サブタイトル(英) |
|
キーワード(1)(和/英) |
教師なし音源分離 / unsupervised speech separation |
キーワード(2)(和/英) |
Unmix-Remix無矛盾学習 / unmix-remix consistent learning |
キーワード(3)(和/英) |
Sequential Neural Beamformer / sequential neural beamformer |
キーワード(4)(和/英) |
ブラインド音源分離 / blind source separation |
キーワード(5)(和/英) |
/ |
キーワード(6)(和/英) |
/ |
キーワード(7)(和/英) |
/ |
キーワード(8)(和/英) |
/ |
第1著者 氏名(和/英/ヨミ) |
西城 耕平 / Kohei Saijo / サイジョウ コウヘイ |
第1著者 所属(和/英) |
早稲田大学 (略称: 早大)
Waseda University (略称: Waseda Univ.) |
第2著者 氏名(和/英/ヨミ) |
小川 哲司 / Tetsuji Ogawa / オガワ テツジ |
第2著者 所属(和/英) |
早稲田大学 (略称: 早大)
Waseda University (略称: Waseda Univ.) |
第3著者 氏名(和/英/ヨミ) |
/ / |
第3著者 所属(和/英) |
(略称: )
(略称: ) |
第4著者 氏名(和/英/ヨミ) |
/ / |
第4著者 所属(和/英) |
(略称: )
(略称: ) |
第5著者 氏名(和/英/ヨミ) |
/ / |
第5著者 所属(和/英) |
(略称: )
(略称: ) |
第6著者 氏名(和/英/ヨミ) |
/ / |
第6著者 所属(和/英) |
(略称: )
(略称: ) |
第7著者 氏名(和/英/ヨミ) |
/ / |
第7著者 所属(和/英) |
(略称: )
(略称: ) |
第8著者 氏名(和/英/ヨミ) |
/ / |
第8著者 所属(和/英) |
(略称: )
(略称: ) |
第9著者 氏名(和/英/ヨミ) |
/ / |
第9著者 所属(和/英) |
(略称: )
(略称: ) |
第10著者 氏名(和/英/ヨミ) |
/ / |
第10著者 所属(和/英) |
(略称: )
(略称: ) |
第11著者 氏名(和/英/ヨミ) |
/ / |
第11著者 所属(和/英) |
(略称: )
(略称: ) |
第12著者 氏名(和/英/ヨミ) |
/ / |
第12著者 所属(和/英) |
(略称: )
(略称: ) |
第13著者 氏名(和/英/ヨミ) |
/ / |
第13著者 所属(和/英) |
(略称: )
(略称: ) |
第14著者 氏名(和/英/ヨミ) |
/ / |
第14著者 所属(和/英) |
(略称: )
(略称: ) |
第15著者 氏名(和/英/ヨミ) |
/ / |
第15著者 所属(和/英) |
(略称: )
(略称: ) |
第16著者 氏名(和/英/ヨミ) |
/ / |
第16著者 所属(和/英) |
(略称: )
(略称: ) |
第17著者 氏名(和/英/ヨミ) |
/ / |
第17著者 所属(和/英) |
(略称: )
(略称: ) |
第18著者 氏名(和/英/ヨミ) |
/ / |
第18著者 所属(和/英) |
(略称: )
(略称: ) |
第19著者 氏名(和/英/ヨミ) |
/ / |
第19著者 所属(和/英) |
(略称: )
(略称: ) |
第20著者 氏名(和/英/ヨミ) |
/ / |
第20著者 所属(和/英) |
(略称: )
(略称: ) |
講演者 |
第1著者 |
発表日時 |
2022-06-18 15:00:00 |
発表時間 |
120分 |
申込先研究会 |
SP |
資料番号 |
SP2022-25 |
巻番号(vol) |
vol.122 |
号番号(no) |
no.81 |
ページ範囲 |
pp.110-115 |
ページ数 |
6 |
発行日 |
2022-06-10 (SP) |