講演抄録/キーワード |
講演名 |
2016-07-28 14:00
英語レベル連結DNN音響モデルを用いた日本人英語音声認識の評価 ○河内祐太・政瀧浩和・浅見太一・青野裕司(NTT) SP2016-20 |
抄録 |
(和) |
本稿では,非ネイティブ音声認識の精度向上を目的とした,ネイティブ性の表現ベクトルを用いた音響モデルを提案する.深層学習によるDNN-HMM 音響モデルは,音声認識において広く用いられてきたが,非ネイティブ音声認識は非ネイティブ音声を用いて学習を行ったとしてもいまだに困難な課題である.これは,非ネイティブ話者の発音が,外国語習熟度や母語を反映し,多様に変化することが主要因として挙げられる.我々はこの問題に対して,DNN の入力特徴にネイティブ性を表現するベクトルを追加することで解決を試みる.ネイティブ性は,音響特徴を母語と認識対象の言語にフレームごとに判別するように学習された別のDNN モデルのボトルネック特徴ベクトルによって表現される.この追加特徴により,入力の音響空間を話者の持つ非ネイティブ性によって分割することで,異なった外国語習熟度の話者からの音響特徴が混合することを防ぐことができる.実験では,日本人英語発話データを用い,提案する音響モデルと従来のDNN-HMM 音響モデルを訓練・評価し,単語誤り率の観点での改善を示す. |
(英) |
In this paper, we propose an acoustic model that takes into consideration foreign language fluency level by extracting a representational vector for nativeness. Deep neural network acoustic models are commonly
used but their accuracy is not stable if they are trained using the non-native speech data. This is caused by the wide variation in non-native pronunciations, which are related to their foreign language fluency level. We tackled this problem by extending the acoustic feature vectors through the concatenation of the nativeness feature vectors. Nativeness is defined by bottleneck feature vectors of a deep neural network trained to distinguish languages. These additional feature vectors separate the input acoustic space of non-native speakers by their foreign language fluency levels to prevent confusion with features from different levels. We evaluated the proposed deep neural network acoustic model using Japanese English speech data, and show that the proposed model outperforms conventional DNN-HMM, which is trained using the same speech data. |
キーワード |
(和) |
音声認識 / 非ネイティブ / 音響モデル / 深層学習 / / / / |
(英) |
speech recognition / non-native / acoustic modeling / deep learning / / / / |
文献情報 |
信学技報, vol. 116, no. 165, SP2016-20, pp. 1-6, 2016年7月. |
資料番号 |
SP2016-20 |
発行日 |
2016-07-21 (SP) |
ISSN |
Print edition: ISSN 0913-5685 Online edition: ISSN 2432-6380 |
著作権に ついて |
技術研究報告に掲載された論文の著作権は電子情報通信学会に帰属します.(許諾番号:10GA0019/12GB0052/13GB0056/17GB0034/18GB0034) |
PDFダウンロード |
SP2016-20 |