表題番号:1997A-191 日付:2002/02/25
研究課題口形の変化で伝えられる音声情報の言語による違いの解析
研究者所属(当時) 資格 氏名
(代表者) 人間科学部 教授 比企 静雄
研究成果概要
発話に伴う口形の変化から音声情報を視覚的に感知する読話(読唇)は、聴覚に障害がある場合だけでなく、通常の会話でも、顔の表情も含めた音声情報の総合的な把握のために重要な役割を持っており、近年、国際的にもその特性への関心が高まってきた。この研究では、口形によって伝えられる情報の量と、言語によるその違いを推定する方策を提案した。
 まず、基本語彙の集合(たとえば2、000語の)は、言語が違っても相互に、同じ量の言語的な情報を含んでいるという前提をおく。この基本語彙の集合を表現するためん、母音の数や、子音の数や、音節の構成や、単語の構成などの各段落の間で、それぞれの言語に特有の相補関係がある。母音の数が少ない言語では、子音が多く使われるとか、音節の数が少ない言語では、音節を繰り返し使って単語を構成する。
 ところが、この相補関係によって、基本語彙の集合の情報の量が同じでも、読話の情報の量に言語の相互で違いが生じる。それは、この相補関係の各段階での口形の情報の寄与が、言語によって違うからである。
 この各段階での情報の量を推定するために、記号に種類が、母音から母音の口形素へ、子音から子音の口形素へ減少することによる情報の減少を計算する。これらをエントロピー(ビット)の減少で表わす。単語の構成の段階では、同音語による情報の減少も計算する。ひとつの言語で各段階での口形の情報の減少の量を加え合わせることによって、基本語彙の集合のもつ同じ量の情報からの減少として、他の言語との相互の違いを推定することができる。
 推定をより正確にするためには、各言語単位の出現頻度や遷移確率の統計データを使う必要があり、これには、電子辞書を利用できる。日本語と英語を例にとって、相互の読話の情報量の違いを推定してある。日本では、同音語が異常に多いことの不利な影響も考慮してある。
研究成果の発表
1998.12. Proceedings, Australian Conference on Auditory-Visual Speech Processing (AVSP '98), Sydney, Australia, 1998.