[go: up one dir, main page]

JPH01165000A - Vocal sound section information forming apparatus - Google Patents

Vocal sound section information forming apparatus

Info

Publication number
JPH01165000A
JPH01165000A JP32330787A JP32330787A JPH01165000A JP H01165000 A JPH01165000 A JP H01165000A JP 32330787 A JP32330787 A JP 32330787A JP 32330787 A JP32330787 A JP 32330787A JP H01165000 A JPH01165000 A JP H01165000A
Authority
JP
Japan
Prior art keywords
phoneme
information
boundary
parameters
section information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP32330787A
Other languages
Japanese (ja)
Inventor
Makoto Akaha
誠 赤羽
Atsunobu Hiraiwa
平岩 篤信
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP32330787A priority Critical patent/JPH01165000A/en
Priority to AU26617/88A priority patent/AU612737B2/en
Priority to KR1019880016203A priority patent/KR0136608B1/en
Priority to GB8828532A priority patent/GB2213623B/en
Priority to DE3841376A priority patent/DE3841376A1/en
Priority to FR888816163A priority patent/FR2624297B1/en
Publication of JPH01165000A publication Critical patent/JPH01165000A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE: To correctly segment a phoneme section by providing an acoustic analyzing means, a feature point extracting means, and a phoneme section information output means. CONSTITUTION: The acoustic analyzing means 5 takes an acoustic analysis of an input speech and finds parameters for phoneme sections and the feature point extracting means 61 extracts feature points such as a rise, a fall, and a zero crossing as to the parameters for the phoneme sections. The phoneme section information output means 7 finds phoneme section border candidates and phoneme border features (e.g. from consonant to vowel, from vowel to vowel, and rise from voiceless sound) of the respective border candidates from information on the feature points of the respective parameters and outputs those phoneme section border candidates and phoneme border candidates as vocal sound section information. Consequently, the accurate phoneme section information can easily be obtained.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 この発明は、音声認識の特に音B認識において入力音声
の音韻区間を分割するために重要な音韻区間情報の形成
装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to an apparatus for forming phoneme segment information, which is important for dividing phoneme segments of input speech in speech recognition, particularly sound B recognition.

〔発明の概要〕[Summary of the invention]

この発明は入力音声の音響分析を行なって得た複数種の
音韻区間用パラメータのそれぞれの立ち上がり、立ち下
がり、ピーク点などの特徴点の情報から音韻区間境界候
補と無音から立上り、子音−母音、母音−母音等の各境
界候補の音韻境界特徴を求め、これらを音韻区間情報と
するもので、音韻区間の判定を正確かつ効率良くなすこ
とができるようにしたものである。
This invention uses information on feature points such as rising, falling, and peak points of each of multiple types of phonetic segment parameters obtained through acoustic analysis of input speech to identify phonetic segment boundary candidates, rising from silence, consonant-vowel, The phonetic boundary features of each boundary candidate such as vowel-vowel are determined and these are used as phonetic interval information, making it possible to accurately and efficiently determine the phonetic interval.

〔従来の技術〕[Conventional technology]

連続音声、大語量音声認識の場合には、音韻認識が基本
となる。この音韻認識に当たっては認、■対象の入力音
声を音韻区間毎に分割する必要がある。
In the case of continuous speech and large volume speech recognition, phonological recognition is the basis. For this phoneme recognition, it is necessary to divide the target input speech into phoneme sections.

例えば「す」という語を発音したとき、音声波形は、子
音「S」と母音「U」とに音韻分割することができる。
For example, when pronouncing the word "su", the speech waveform can be phonetically divided into a consonant "S" and a vowel "U".

この音韻区間に分割(以下セグメンテーションという)
する方法としては、従来は音声のパワーやゼロクロスレ
ートなどをスレッショールド値と比較して分割点く区間
境界)を求める方法が用いられている。
Divide into this phonological interval (hereinafter referred to as segmentation)
Conventionally, the method used is to compare the power of the voice, the zero-crossing rate, etc. with a threshold value and find the dividing point (interval boundary).

〔発明が解決しようとする問題点〕[Problem that the invention seeks to solve]

ところが、音韻のセグメンテーションを音声パワーやゼ
ロクロスレートとスレッショールド値トの単なる比較に
より行なうときは、音韻区間のセグメンテーションを正
確に行なうことは、スレッショールド値の設定の困難さ
と相俟って、むすがしかった。
However, when phonological segmentation is performed simply by comparing speech power or zero crossing rate with a threshold value, it is difficult to accurately segment the phonological interval, coupled with the difficulty of setting the threshold value. It was difficult.

この発明は、より正しく音韻区間のセグメンテーション
を行なうことのできる情報を提供できる装置を提案しよ
うとするものである。
The present invention aims to propose a device that can provide information that enables more accurate segmentation of phoneme intervals.

〔問題点を解決するための手段〕[Means for solving problems]

この発明においては音響分析手段と、特徴点抽出手段と
、音韻区間情報出力手段とを設ける。
In this invention, acoustic analysis means, feature point extraction means, and phoneme interval information output means are provided.

〔作用〕[Effect]

音響分析手段は入力音声の音響分析を行ない、複数の音
韻区間用パラメータを求める。
The acoustic analysis means acoustically analyzes the input speech and obtains parameters for a plurality of phoneme intervals.

特徴点抽出手段は上記音韻区間用パラメータについて立
ち上がり、立ち下がり、ゼロクロス等の特徴点を抽出す
る。
The feature point extracting means extracts feature points such as rising edges, falling edges, and zero crossings for the phoneme interval parameters.

音韻区間情報出力手段は上記各パラメータの特徴点の情
報から音韻区間境界候補と、各境界候補の音韻境界特徴
(例えば子音→母音、母音→母音、無音からの立ち上が
り等)を求め、これら音韻区間境界候補及び音韻境界特
徴を音韻区間情報として出力する。
The phoneme interval information output means calculates phoneme interval boundary candidates and phoneme boundary features of each boundary candidate (for example, consonant → vowel, vowel → vowel, rise from silence, etc.) from the information on the feature points of each parameter, and The boundary candidates and phoneme boundary features are output as phoneme interval information.

〔実施例〕〔Example〕

第1図はこの発明により装置の一実施例を備えた音声認
識装置の一例を示す。
FIG. 1 shows an example of a speech recognition device comprising an embodiment of the device according to the invention.

すなわち、マイクロホン(1)からの音声信号がアンプ
(2)及び帯域制限用のローパスフィルタ(3)を介し
てA / Dコンバータ(4)にて供給され、例えば1
2、5kHzのサンプリング周波数で12ビツトのデジ
タル音声信号に変換される。このデジタル音声信号は音
響分析手段(5)に供給される。
That is, an audio signal from a microphone (1) is supplied to an A/D converter (4) via an amplifier (2) and a band-limiting low-pass filter (3).
It is converted into a 12-bit digital audio signal at a sampling frequency of 2.5kHz. This digital audio signal is supplied to acoustic analysis means (5).

この音響分析手段(5)はこの例ではバンドパスフィル
タバンクを有する過渡検出パラメータ生成手段(51)
と、音声パワーを検出する対数パワー検出手段(52)
と、ゼロクロスレート演算手段(53)と、隣接サンプ
ルの相関関係を見るための1次のパーコール係数の演算
手段(54)と、パワースペクトルの傾きの演算手l1
(55)と、音声の基本周期の検出手段(56)を備え
る。
This acoustic analysis means (5) is, in this example, a transient detection parameter generation means (51) having a bandpass filter bank.
and logarithmic power detection means (52) for detecting voice power.
, zero cross rate calculation means (53), first-order Percoll coefficient calculation means (54) for checking the correlation between adjacent samples, and power spectrum slope calculation means l1
(55), and means (56) for detecting the fundamental period of voice.

過渡検出パラメータは入力音声の過渡性及び定常性を検
出するためのもので、この過渡検出パラメータは、音声
スペクトルの変化量を各チャンネ ル(周波数)の時間
方向のブロック内の分散の和として定義される。
The transient detection parameter is used to detect the transient nature and stationarity of the input audio, and this transient detection parameter defines the amount of change in the audio spectrum as the sum of the variance within the block in the time direction of each channel (frequency). be done.

すなわち、先ず、音声スペクトルS i (n)を周波
数方向の以下に示す平均値3 a v g (n)でゲ
インを正規化する。
That is, first, the gain of the audio spectrum S i (n) is normalized using the average value 3 av g (n) shown below in the frequency direction.

ここで、iはチャンネル番号、qはチャンネル数(バン
ドパスフィルタ数)を示す。また、qチャンネルの各チ
ャンネルの情報は時間方向にサンプリングされるが、同
一時点のqチャンネルの情報のブロックをフレームとい
い、nは認識に使用されるフレートの番号を示している
Here, i indicates a channel number, and q indicates the number of channels (number of bandpass filters). Furthermore, although the information of each channel of the q channel is sampled in the time direction, a block of information of the q channel at the same time is called a frame, and n indicates the number of the flight used for recognition.

ゲイン正規化の行われた音声スペクトルS i (n)
は 5i(n)−5i(n)−Savg(n)      
+・−r2)となる。
Gain normalized speech spectrum S i (n)
is 5i(n)-5i(n)-Savg(n)
+・−r2).

過渡検出パラメータT (n)は、そのフレームの前後
のMフレームの合計(2M+1.)であるC n−M、
n+M]ブロック内の各チャンネルの時間方向の分散の
和として定義する。
The transient detection parameter T (n) is C n-M, which is the sum of M frames before and after the frame (2M+1.);
n+M] is defined as the sum of time-direction variances of each channel within the block.

ここで、 で各チャンネルのブロック内の時間方向の平均値である
Here, is the average value in the time direction within the block of each channel.

なお、実際的には:n  M、n二M〕ブロック中心付
近の変化は、音のゆらぎやノイズを拾いやすいので、過
渡検出パラメータT (n)の計算から取り除くことに
し、第(3)式は次のように変更される。
In addition, in practice: nM, n2M] Changes near the center of the block are likely to pick up sound fluctuations and noise, so we decided to remove them from the calculation of the transient detection parameter T (n), and use Equation (3) is changed as follows.

そして、第(5)式において、a=l、 M=28. 
 m=3.q=32としてパラメータT (n)が求め
られ、例えば「あさ(asa) Jという入力音声の場
合、第2図Aのようになる。なお、第2図Gはこのとき
の入力音声波形である。
In equation (5), a=l, M=28.
m=3. The parameter T (n) is found with q=32, and for example, in the case of the input voice "Asa J", it will be as shown in Figure 2 A. Note that Figure 2 G is the input voice waveform at this time. .

他のパラメータである対数パワー、ゼロクロスL/−1
”、1次のパーコール係数、パワースペクトルの傾き及
び基本周期の傾きの検出の演算も、過渡検出パラメータ
の演算と同様に、ある時点くフレーム)を中心としてそ
の前後にMフレーム分の時間幅を有するウィンドーを考
え、このウィンドーを順次1サンプル点ずつ時間方向に
移動させ、各ウィンドー内でそれぞれ演算を行なって、
各パラメータを生成する。
Other parameters are logarithmic power, zero cross L/-1
Similarly to the calculation of transient detection parameters, calculations for detecting the first-order Percoll coefficient, power spectrum slope, and fundamental period slope are based on a time width of M frames before and after a certain frame. Consider a window, move this window one sample point at a time in the time direction, perform calculations within each window,
Generate each parameter.

第2図Bはこうして得られた対数パワーを、同図Cは同
じくゼロクロスレートを、同図りは同じく1次のパーコ
ール係数を、同図Eは同じくパワースペクトルの傾きを
、それぞれ示している。
FIG. 2B shows the logarithmic power thus obtained, FIG. 2C shows the zero cross rate, the same first-order Percoll coefficient, and FIG. 2E shows the slope of the power spectrum.

また、同図Fは音声ピッチ、つまり音声の基本周期を示
している。
Further, F in the figure shows the voice pitch, that is, the fundamental period of the voice.

音響分析手段(5)から、上記のようにして得られた各
パラメータは認識処理用パラメータとして音響分析手段
(8)に供給される。また、手段(51)〜(55)か
らの各パラメータは、セグメンテーション用パラメータ
として第1セグメンテーション手段(6)の特徴点抽出
手段(61)に供給される。
The parameters obtained as described above are supplied from the acoustic analysis means (5) to the acoustic analysis means (8) as parameters for recognition processing. Further, each parameter from the means (51) to (55) is supplied as a segmentation parameter to the feature point extraction means (61) of the first segmentation means (6).

この第1セグメンテーション手段(6)ではセグメンテ
ーション用パラメータから音韻境界候補を求めるために
、−船釣な特徴点を抽出する。この例では、特徴点とし
て次の7種を用いる。
This first segmentation means (6) extracts characteristic points in order to obtain phoneme boundary candidates from the segmentation parameters. In this example, the following seven types of feature points are used.

■立ち上がり点    −一′− ■立ら下がり点    −)−一 特徴点抽出手1+(61)ではこれらの特徴点情報記憶
手段からの特徴点情報を参照して各パラメータについて
特徴点を抽出する。第2図A〜Eの各パラメータにおい
て時間軸方向について縦線で示す位置が各特徴点位置で
ある。
(1) Rising point -1'- (2) Falling point -)-1 Feature point extraction method 1+ (61) extracts feature points for each parameter by referring to the feature point information from these feature point information storage means. In each parameter of FIGS. 2A to 2E, the positions indicated by vertical lines in the time axis direction are the respective feature point positions.

この第1セグメンテーション手段(6)から得られた抽
出された特徴煮付の各パラメータは第2セグメンテーシ
ョン手段〔7〕に供給される。この第2セグメンテーシ
ョン手段(7)は、特徴点統合処理手段(71)と、音
韻境界特徴検出手段(72)と、特徴点統合情報記憶手
段(73)と、音韻境界特徴情報記憶半没(74)とか
らなる。
Each extracted feature parameter obtained from the first segmentation means (6) is supplied to the second segmentation means [7]. This second segmentation means (7) includes a feature point integration processing means (71), a phoneme boundary feature detection means (72), a feature point integration information storage means (73), and a phoneme boundary feature information storage semi-immersed (74). ).

第1セグメンテーション手段(6)で求めた特徴点は、
パラメータ毎に位置ずれ、未検出などがあるので、特徴
点統合処理手段(71)では、記憶手段(73)からの
特徴点情報を参照して各パラメータの特徴点をまとめて
、音韻境界候補を決定する。特徴点統合情報はどのパラ
メータの特徴点を優先してとるかの情報である。この音
韻境界候補の一例を第2図Gの音声波形の下方において
、時間軸方向についての縦線により示した。
The feature points obtained by the first segmentation means (6) are:
Since each parameter has positional deviations, non-detections, etc., the feature point integration processing means (71) refers to the feature point information from the storage means (73), collects the feature points of each parameter, and selects phoneme boundary candidates. decide. The feature point integration information is information about which parameter's feature points should be taken with priority. An example of this phoneme boundary candidate is shown below the speech waveform in FIG. 2G by a vertical line in the time axis direction.

また、音韻境界特徴検出手段(72)では、各音韻境界
候補の音韻境界特徴を求める。この例ではこの音韻境界
特徴として、次の8種類が用いられる。
Further, the phoneme boundary feature detection means (72) determines the phoneme boundary feature of each phoneme boundary candidate. In this example, the following eight types of phoneme boundary features are used.

■無音からの立ち上がり (S−R) ■子音性→母音性    (C−V) ■子音性→子音性    (C−C) ■母音性→母音性    (V−V) ■母音性への立ち下がり (V−F) ■母音性→子音性    <v−c> ■無音への立ち下がり  (F−3) ■有音→無音      (S−3) 音韻境界特徴情報記憶手段(74)にはこれら8種類の
音韻境界特徴情報が記憶されており、音韻境界特徴検出
手段(72)ではこの記憶手段(74)からの情報を参
照して各音韻境界候補の音韻境界特徴を検出する。第2
図Gの下方において、音韻境界候補の縦線の近傍におい
て、S−R,C−V、等によりこの音韻境界特徴が示さ
れている。
■Rising from silence (S-R) ■Consonantity → Vowelness (C-V) ■Consonance → Consonance (C-C) ■Vowelance → Vowelness (V-V) ■Falling to vowelness (V-F) ■Vowelality → Consonance <v-c> ■Falling to silence (F-3) ■Speech → Silence (S-3) These 8 are stored in the phoneme boundary feature information storage means (74). The phoneme boundary feature information of each type is stored, and the phoneme boundary feature detecting means (72) refers to the information from the storage means (74) to detect the phoneme boundary feature of each phoneme boundary candidate. Second
In the lower part of Figure G, near the vertical line of the phoneme boundary candidate, this phoneme boundary feature is shown by SR, CV, etc.

こうして、第2セグメンテーション手段(7)からは、
音韻区間情報として、音韻境界候補情報と、その音韻境
界特徴情報が得られる。そして、この音韻区間情報が音
韻認識手段(8)に供給される。
In this way, from the second segmentation means (7),
As phoneme interval information, phoneme boundary candidate information and its phoneme boundary feature information are obtained. This phoneme segment information is then supplied to the phoneme recognition means (8).

この音B認識手段(8)では、音響分析手段(5)から
の各パラメータを認識処理用パラメータとして、第2セ
グメンテーション手段(7)からの音韻区間情報を参照
しながら音韻認識を実行する。そして、この音B認識手
段(8)からは認識された音韻記号が得られ、これが後
段の連続音声、大語儒音声認識手段に供給される。
This sound B recognition means (8) uses each parameter from the acoustic analysis means (5) as a parameter for recognition processing, and executes phoneme recognition while referring to the phoneme section information from the second segmentation means (7). Recognized phoneme symbols are obtained from this sound B recognition means (8), and are supplied to the subsequent continuous speech and Daigo Confucian speech recognition means.

なお、以上の例はハードウェアで構成したが、第1及び
第2セグメンテーション手段(6)及び(7)、さらに
は音響分析手段(5)の演算部分、音韻認識手段(8)
はコンピュータにより実現できるものである。
Although the above example is configured with hardware, the first and second segmentation means (6) and (7), the calculation part of the acoustic analysis means (5), and the phoneme recognition means (8)
can be realized by a computer.

〔発明の効果〕〔Effect of the invention〕

この発明によれば、音響分析して得た複数のパラメータ
について、音韻境界と予想される特徴点を抽出し、これ
ら複数のパラメータの特徴点の情報から音韻区間候補を
決定するようにしたので、より正確な音韻区間情報が得
やすくなる。また、音韻区間情報として音韻区間候補の
特徴も得るようにしたので、音fJ Kn識がやりやす
くなるという利益もある。
According to this invention, feature points predicted to be phoneme boundaries are extracted from a plurality of parameters obtained through acoustic analysis, and phoneme interval candidates are determined from information on the feature points of these plurality of parameters. It becomes easier to obtain more accurate phoneme interval information. Furthermore, since the characteristics of the phoneme interval candidates are also obtained as the phoneme interval information, there is an advantage that it becomes easier to recognize the sounds fJ Kn.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図はこの発明の一実施例のブロック図、第2図はそ
の説明のための図である。 (5)は音響分析手段、(61)は特徴点抽出手段、(
71)は特徴点統合処理手段、(72)は音韻境界特徴
検出手段である。
FIG. 1 is a block diagram of an embodiment of the present invention, and FIG. 2 is a diagram for explaining the same. (5) is an acoustic analysis means, (61) is a feature point extraction means, (
71) is a feature point integration processing means, and (72) is a phoneme boundary feature detection means.

Claims (1)

【特許請求の範囲】 a)入力音声の音響分析を行ない、複数の音韻区間用パ
ラメータを求める音響分析手段と、 b)上記各パラメータについて特徴点を抽出する手段と
、 c)上記各パメラータの特徴点の情報から音韻区間境界
候補と各境界候補の音韻境界特徴を求め、これら音韻区
間境界候補及び音韻境界特徴を音韻区間情報として出力
する手段とからなる音韻区間情報形成装置。
[Scope of Claims] a) Acoustic analysis means for acoustically analyzing input speech to obtain parameters for a plurality of phoneme intervals; b) Means for extracting feature points for each of the parameters; c) Features of each of the pamelata. A phoneme interval information forming device comprising means for determining phoneme interval boundary candidates and phoneme boundary features of each boundary candidate from point information, and outputting these phoneme interval boundary candidates and phoneme boundary features as phoneme interval information.
JP32330787A 1987-12-08 1987-12-21 Vocal sound section information forming apparatus Pending JPH01165000A (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP32330787A JPH01165000A (en) 1987-12-21 1987-12-21 Vocal sound section information forming apparatus
AU26617/88A AU612737B2 (en) 1987-12-08 1988-12-06 A phoneme recognition system
KR1019880016203A KR0136608B1 (en) 1987-12-08 1988-12-06 Phoneme recognizing device for voice signal status detection
GB8828532A GB2213623B (en) 1987-12-08 1988-12-07 Voice signal status detection systems
DE3841376A DE3841376A1 (en) 1987-12-08 1988-12-08 SYSTEM FOR DETECTING PHONEMES
FR888816163A FR2624297B1 (en) 1987-12-08 1988-12-08 SYSTEM FOR DETECTING A CONDITION OF A VOICE SIGNAL FOR THE RECOGNITION OF PHONEMAS

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32330787A JPH01165000A (en) 1987-12-21 1987-12-21 Vocal sound section information forming apparatus

Publications (1)

Publication Number Publication Date
JPH01165000A true JPH01165000A (en) 1989-06-29

Family

ID=18153323

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32330787A Pending JPH01165000A (en) 1987-12-08 1987-12-21 Vocal sound section information forming apparatus

Country Status (1)

Country Link
JP (1) JPH01165000A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003527632A (en) * 2000-03-15 2003-09-16 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Laguerre function for audio coding
JP2009075536A (en) * 2007-08-28 2009-04-09 Nippon Telegr & Teleph Corp <Ntt> Steady rate calculation device, noise level estimation device, noise suppression device, method thereof, program, and recording medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003527632A (en) * 2000-03-15 2003-09-16 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Laguerre function for audio coding
JP2009075536A (en) * 2007-08-28 2009-04-09 Nippon Telegr & Teleph Corp <Ntt> Steady rate calculation device, noise level estimation device, noise suppression device, method thereof, program, and recording medium

Similar Documents

Publication Publication Date Title
JP3162994B2 (en) Method for recognizing speech words and system for recognizing speech words
US8326610B2 (en) Producing phonitos based on feature vectors
JPS6336676B2 (en)
CN107564543B (en) A Speech Feature Extraction Method with High Emotion Discrimination
JP3006677B2 (en) Voice recognition device
US8942977B2 (en) System and method for speech recognition using pitch-synchronous spectral parameters
US7627468B2 (en) Apparatus and method for extracting syllabic nuclei
JP4839970B2 (en) Prosody identification apparatus and method, and speech recognition apparatus and method
JPH01165000A (en) Vocal sound section information forming apparatus
KR0136608B1 (en) Phoneme recognizing device for voice signal status detection
KR100194953B1 (en) Pitch detection method by frame in voiced sound section
Laleye et al. Automatic boundary detection based on entropy measures for text-independent syllable segmentation
JP3008404B2 (en) Voice recognition device
JPH04115299A (en) Method and device for determining voice presence/absence
JP3049711B2 (en) Audio processing device
JPH02226300A (en) Phoneme section information generating device
JPS6250800A (en) Voice recognition equipment
Zbancioc et al. Integrated system for prosodic features detection from speech
JPH01170998A (en) Phoneme section information generating device
Huckvale 12 Data Processing: Digital Analysis of Speech Audio Signals
JPH02232698A (en) Voice recognition device
JPH0398098A (en) Voice recognition device
JPS5925240B2 (en) Word beginning detection method for speech sections
JPH03191399A (en) Sentence segmentation system
JPH026079B2 (en)