Spoken term detection based on acoustic models trained in multiple languages for zero-resource language

Satoru Mizuochi, Yuya Chiba, Takashi Nose, Akinori Ito

研究成果: Conference contribution

抄録

In this paper, we study a spoken term detection method for zero-resource languages by using rich-resource languages. The examined method combines phonemic posteriorgrams (PPGs) extracted from phonemic classifiers of multiple languages and detects a query word based on dynamic time warping. As a result, the method showed better detection performance in a zero-resource language compared with the method using PPGs of a single language.

本文言語English
ホスト出版物のタイトル2020 IEEE 9th Global Conference on Consumer Electronics, GCCE 2020
出版社Institute of Electrical and Electronics Engineers Inc.
ページ351-352
ページ数2
ISBN(電子版)9781728198026
DOI
出版ステータスPublished - 2020 10 13
イベント9th IEEE Global Conference on Consumer Electronics, GCCE 2020 - Kobe, Japan
継続期間: 2020 10 132020 10 16

出版物シリーズ

名前2020 IEEE 9th Global Conference on Consumer Electronics, GCCE 2020

Conference

Conference9th IEEE Global Conference on Consumer Electronics, GCCE 2020
国/地域Japan
CityKobe
Period20/10/1320/10/16

ASJC Scopus subject areas

  • 信号処理
  • 電子工学および電気工学
  • メディア記述
  • 器械工学
  • コンピュータ ネットワークおよび通信
  • コンピュータ ビジョンおよびパターン認識

フィンガープリント

「Spoken term detection based on acoustic models trained in multiple languages for zero-resource language」の研究トピックを掘り下げます。これらがまとまってユニークなフィンガープリントを構成します。

引用スタイル