講演名 | 1996/12/13 対話音声認識のための事前タスク適応の検討 伊藤 彰則, 好田 正紀, |
---|---|
PDFダウンロードページ | PDFダウンロードページへ |
抄録(和) | 連続音声認識のための統計的言語モデルを構築するためには,大量の言語データが必要となる. しかし,特定のタスクの言語データを大量に集めるには大きな人手と時間がかかる. そこで本稿では, 既存の大量の言語データに特定タスクの言語データを少量混合することによって, N-gram言語モデルの性能の改善を試みる. ここでは特定タスクとして観光案内対話タスクを想定し, さまざまな大量データと混合したときの性能を調査した. その結果,ある程度タスクドメインに共通性があるデータの場合に性能が改善できることがわかった. また, 形態素単位のN-gramを構築する場合,大量データと小量データの形態素解析の一貫性が重要であることが明らかになった. |
抄録(英) | A stochastic language model (SLM) is indispensable for continuous speech recognition. Generally,large corpus of the task domain is required to make a good SLM. When making a SLM for a specific task domain, it is ideal to obtain large number of sentences of the domain. But it takes large time and effort to collect linguistic data of a specific domain, especially of a spoken dialog domain. In this paper, we investigated possibility of making a good N-gram SLM using small corpus of a specific domain with task independent large corpus. Sightseeing information dialog task was chosen for the specific task, and we examined several kinds of corpora for task independent corpus. We carried out experiments to measure perplexity of the adapted N-gram model. From the experiments, it is found that the adaptation improved perplexity of the model when the task domain of the small and large corpora are similar. The results also showed that the coherence of morphemic analysis of the small and large corpora greatly affects the perplexity of the adapted model. |
キーワード(和) | 連続音声認識 / 統計的言語モデル / N-gram / タスク適応 |
キーワード(英) | continuous speech recognition / stochastic language model / N-gram / task adaptation |
資料番号 | NLC96-50,SP96-81 |
発行日 |
研究会情報 | |
研究会 | NLC |
---|---|
開催期間 | 1996/12/13(から1日開催) |
開催地(和) | |
開催地(英) | |
テーマ(和) | |
テーマ(英) | |
委員長氏名(和) | |
委員長氏名(英) | |
副委員長氏名(和) | |
副委員長氏名(英) | |
幹事氏名(和) | |
幹事氏名(英) | |
幹事補佐氏名(和) | |
幹事補佐氏名(英) |
講演論文情報詳細 | |
申込み研究会 | Natural Language Understanding and Models of Communication (NLC) |
---|---|
本文の言語 | JPN |
タイトル(和) | 対話音声認識のための事前タスク適応の検討 |
サブタイトル(和) | |
タイトル(英) | Task adaptation of a stochastic language model for dialogue speech recognition |
サブタイトル(和) | |
キーワード(1)(和/英) | 連続音声認識 / continuous speech recognition |
キーワード(2)(和/英) | 統計的言語モデル / stochastic language model |
キーワード(3)(和/英) | N-gram / N-gram |
キーワード(4)(和/英) | タスク適応 / task adaptation |
第 1 著者 氏名(和/英) | 伊藤 彰則 / Akinori Ito |
第 1 著者 所属(和/英) | 山形大学工学部電子情報工学科 Faculty of Engineering, Yamagata University |
第 2 著者 氏名(和/英) | 好田 正紀 / Masaki Kohda |
第 2 著者 所属(和/英) | 山形大学工学部電子情報工学科 Faculty of Engineering, Yamagata University |
発表年月日 | 1996/12/13 |
資料番号 | NLC96-50,SP96-81 |
巻番号(vol) | vol.96 |
号番号(no) | 420 |
ページ範囲 | pp.- |
ページ数 | 8 |
発行日 |