講演名 1997/9/12
ニュース音声認識用言語モデルの学習期間の検討
小林 彰夫, 今井 亨, 安藤 彰男,
PDFダウンロードページ PDFダウンロードページへ
抄録(和) ニュース音声認識のためのn-gramモデルの検討を行った. 第一に, 言語モデルの学習期間, 学習時期について検討した. その結果, パープレキシティに関して, (1)学習期間が長期間のほうが低下する, (2)評価を行う時点に近い時期の学習データを用いた方が低下する, の2点が得られた. 第二に, 評価を行う直前のデータを重み付けすることにより, テストセットに近い時期のbigram, trigramの確率値を上昇させた「重み付け言語モデル」の検討を行った. 認識実験の結果, 重み付けされない言語モデルを用いた場合に比べて, 認識率が向上し, 重み付け言語モデルが音声認識に有効であることを確認した.
抄録(英) This paper prepsents a new language model for speech recognition of broadcast news. We examined broadcast time of news scripts to train a language model, and found that a longer or closer period of training data decreased test-set perplexity calculated by an n-gram language model. Then we mixed a closer training data to 5-year long data with weighting. The weighted language model yielded a better speech recognition accuracy than a non-weighted language model.
キーワード(和) ニュース音声認識 / n-gram言語モデル / パープレキシティ
キーワード(英) news speech recognition / n-gram language model / perplexity
資料番号 DSP97-93,SP97-48
発行日

研究会情報
研究会 DSP
開催期間 1997/9/12(から1日開催)
開催地(和)
開催地(英)
テーマ(和)
テーマ(英)
委員長氏名(和)
委員長氏名(英)
副委員長氏名(和)
副委員長氏名(英)
幹事氏名(和)
幹事氏名(英)
幹事補佐氏名(和)
幹事補佐氏名(英)

講演論文情報詳細
申込み研究会 Digital Signal Processing (DSP)
本文の言語 JPN
タイトル(和) ニュース音声認識用言語モデルの学習期間の検討
サブタイトル(和)
タイトル(英) A Study on Broadcast Time of News Scripts to Train a Language Model for News Speech Recognition
サブタイトル(和)
キーワード(1)(和/英) ニュース音声認識 / news speech recognition
キーワード(2)(和/英) n-gram言語モデル / n-gram language model
キーワード(3)(和/英) パープレキシティ / perplexity
第 1 著者 氏名(和/英) 小林 彰夫 / Akio Kobayashi
第 1 著者 所属(和/英) NHK放送技術研究所
NHK(Japan Broadcasting Corp.)Sci. & Tech. Res. Labs
第 2 著者 氏名(和/英) 今井 亨 / Toru Imai
第 2 著者 所属(和/英) NHK放送技術研究所
NHK(Japan Broadcasting Corp.)Sci. & Tech. Res. Labs
第 3 著者 氏名(和/英) 安藤 彰男 / Akio Ando
第 3 著者 所属(和/英) NHK放送技術研究所
NHK(Japan Broadcasting Corp.)Sci. & Tech. Res. Labs
発表年月日 1997/9/12
資料番号 DSP97-93,SP97-48
巻番号(vol) vol.97
号番号(no) 247
ページ範囲 pp.-
ページ数 8
発行日