[go: up one dir, main page]

JPH01112297A - Voice synthesizer - Google Patents

Voice synthesizer

Info

Publication number
JPH01112297A
JPH01112297A JP62269647A JP26964787A JPH01112297A JP H01112297 A JPH01112297 A JP H01112297A JP 62269647 A JP62269647 A JP 62269647A JP 26964787 A JP26964787 A JP 26964787A JP H01112297 A JPH01112297 A JP H01112297A
Authority
JP
Japan
Prior art keywords
effective sound
sound effect
sound
synthesis
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP62269647A
Other languages
Japanese (ja)
Inventor
Kiyo Hara
紀代 原
Hideyuki Takagi
英行 高木
Satoru Kabasawa
樺澤 哲
Hidekazu Tsuboka
英一 坪香
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP62269647A priority Critical patent/JPH01112297A/en
Publication of JPH01112297A publication Critical patent/JPH01112297A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE: To add an effective sound to a synthetic voice by generating an effective sound from information related to an effective sound added to a character string and inserting the generated effective sound into a synthetic voice. CONSTITUTION: An effective sound symbol processing part 4 extracts information related to an effective sound included in an inputted character string and outputs its time length to an effective sound generating part 11 and a mixing part 12 mixes the effective sound obtained by the generating part 11 with a voice obtained by a voice synthesizing part 10 and a synthetic voice with the effective sound is obtained from a synthetic voice output terminal 13. Thus the information related to the effective sound added to the inputted character string or symbol string is extracted and the effective sound is generated in accordance with the information and inserted or mixed into/with the synthetic voice. Consequently the effective sound can be added to the synthetic voice.

Description

【発明の詳細な説明】 産業上の利用分野 本発明は音声合成装置に関するものである。[Detailed description of the invention] Industrial applications The present invention relates to a speech synthesis device.

従来の技術 従来の音声合成装置としては、例えば、古井:ディジタ
ル音声処理特p、I46(東海大学出版会1985) 
 に示されている。第4図はこの従来の音声合成装置の
構成を示すブロック図である。1は文字列入力端で漢字
仮名混じり文が入力される。
BACKGROUND ART Conventional speech synthesis devices include, for example, Furui: Digital Speech Processing Special p., I46 (Tokai University Press 1985).
is shown. FIG. 4 is a block diagram showing the configuration of this conventional speech synthesis device. 1 is a character string input terminal where a sentence containing kanji and kana is input.

2はテキスト処理部で、入力された漢字仮名混じり文は
辞書3を用いて単語・付属語に分割され、各々の読み・
アクせント型が付与される。5は韻律制御部で各単語、
付属語のアクセント型から文節のアクセント型の決定、
ポーズ位置や文全体のイントネーション等の決定を規則
により行う。6は音韻制御部で、テキスト解析部で得ら
れた読みに対し、母音の無声化や鼻音化処理、仮名表記
と発声音声の異なる場合の処理(「私は」の「は」は、
「わ」と発声される)等を行ない、音声表記を得る。7
は合成パラメータ作成部で、韻律情報や音声表記情報か
ら実際の合成に必要な合成パラメータ列を得る。合成パ
ラメータとは、音の高さを決める基本周波数、音の大き
さを決める振幅、声道の状態を決める声道記述パラメー
タ(PARCOR係数やホルマント周波数等)、声帯の
状態を決める有声/無声判定フラグ等があり、バラメ−
タテ−プル8に格納されている。9はパラメータ補間部
で、7で得られた合成パラメータ値を補間して一定時間
毎の合成パラメータ列を得る。10は音声合成部で、9
で得られた合成パラメータ列から実際の音声を合成し、
合成音声出力端13に得る。
2 is a text processing unit, which uses a dictionary 3 to divide input sentences containing kanji and kana into words and adjuncts, and calculates the readings and adjuncts of each.
An accent type is assigned. 5 is the prosodic control section for each word,
Determining the accent type of a clause from the accent type of an attached word,
Decisions such as pause position and intonation of the entire sentence are made according to rules. 6 is the phonological control unit, which processes the pronunciation obtained by the text analysis unit to make vowels devoiced and nasalized, and to process cases where the kana notation and the vocalization differ (the ``ha'' in ``watashi wa'' is
), etc., to obtain the phonetic notation. 7
is a synthesis parameter creation unit that obtains a synthesis parameter sequence necessary for actual synthesis from prosody information and phonetic notation information. Synthesis parameters are the fundamental frequency that determines the pitch of the sound, the amplitude that determines the loudness of the sound, the vocal tract descriptive parameters (PARCOR coefficient, formant frequency, etc.) that determines the state of the vocal tract, and the voiced/unvoiced judgment that determines the state of the vocal cords. There are flags, etc., and there are various
It is stored in vertical table 8. Reference numeral 9 denotes a parameter interpolation unit that interpolates the synthesis parameter values obtained in step 7 to obtain a synthesis parameter sequence at fixed time intervals. 10 is a speech synthesis section; 9
Synthesize the actual voice from the synthesis parameter sequence obtained in
It is obtained at the synthesized speech output terminal 13.

発明が解決しようとする問題点 文字列もしくは記号列で表記された文章の読み上げを行
う場合、効果音として自然の音(波の音など〉、動物の
鳴き声や楽器音を挿入したり、合成音声にかぶせたり(
ミキシング)したい場合がある。従来の合成装置ではこ
のような効果音の挿入は考慮されておらず、挿入したい
効果音を文字表記して音声として合成することが出来る
のみである。しかしながら、音声に適した合成手法は、
声道声帯をモデル化したものが多く、効果音の合成には
不適当で、その品質も十分とはいえない。
Problems that the invention aims to solve When reading out a text expressed as a string of characters or symbols, it is possible to insert natural sounds (such as the sound of waves), animal sounds, or musical instrument sounds as sound effects, or use synthesized speech. (
mixing). Conventional synthesis devices do not take such sound effect insertion into consideration, and can only synthesize the desired sound effect as voice by writing it in text. However, the synthesis method suitable for speech is
Many of them model the vocal tract and vocal cords, making them unsuitable for synthesizing sound effects, and their quality is not sufficient.

また、効果音を擬音語として文字表記するにも限界があ
る。単に音声の合間に効果音を挿入するだけなら、前記
の効果音の擬音語表記で実現出来なくもないが、合成音
声と効果音を重ね合わせるとなると、従来の合成装置で
は実現不可能である。
Additionally, there are limits to the ability to write sound effects as onomatopoeic words. If you simply want to insert a sound effect between voices, it is possible to achieve this by using the onomatopoeic notation of the sound effect described above, but when it comes to overlapping synthesized voices and sound effects, it is impossible to achieve this with conventional synthesis equipment. .

本発明はかかる点に鑑みてなされたもので、入力文字列
もしくは記号列の中に効果音を指定する情報をいれてお
き、その情報に従って効果音を生成し、合成音声に挿入
あるいはミキシングすることによって、合成音声に効果
音を付けることを目的としている。
The present invention has been made in view of this point, and includes a method of including information specifying sound effects in an input character string or symbol string, generating sound effects according to that information, and inserting or mixing them into synthesized speech. The purpose is to add sound effects to synthesized speech.

問題点を解決するための手段 本発明は、文字列もしくは記号列(以後テキストという
)を入力するテキスト入力手段と、前記テキスト入力手
段から入力されたテキストを解析して読みに関する情報
と効果音に関する情報を得るテキスト解析手段と、前記
テキスト解析手段で得られた前記解析結果に従って合成
パラメータを作成する合成パラメータ作成手段と、前記
合成パラメータから音声を合成する音声合成手段と、前
記効果音に関する情報から効果音を生成する効果音生成
手段を有することを特徴とする音声合成装置である。
Means for Solving the Problems The present invention provides a text input means for inputting a character string or a symbol string (hereinafter referred to as text), and a text input means for analyzing the text inputted from the text input means to provide information on pronunciation and sound effects. a text analysis means for obtaining information; a synthesis parameter creation means for creating synthesis parameters according to the analysis results obtained by the text analysis means; a speech synthesis means for synthesizing speech from the synthesis parameters; and from information regarding the sound effects. This is a speech synthesis device characterized by having a sound effect generation means for generating sound effects.

作用 本発明は前記した構成により、入力された文字列もしく
は記号列に付加された効果音に関する情報を取りだし、
その情報に従って効果音を生成し、合成音声に挿入ある
いはミキシングすることによって、合成音声に効果音を
付与することを可能とする。
Effect of the present invention With the above-described configuration, the present invention extracts information regarding sound effects added to an input character string or symbol string,
By generating sound effects according to the information and inserting or mixing them into the synthesized speech, it is possible to add sound effects to the synthesized speech.

実施例 第1図は本発明の一実施例の音声合成装置の構成を示す
ブロック図である。■は文字列入力端で漢字仮名混じり
文が入力される。2はテキスト処理部で、入力された漢
字仮名混じり文は辞書3を用いて単語・付属語に分割さ
れ、各々の読み・アクセント型が付与される。4は効果
音記号処理部で、入力文字列内に含まれた効果音に関す
る情報を取り出す。5は韻律制御部で各単語、付属語の
アクセント型から文節のアクセント型の決定、ポーズ位
置や文全体のイントネーション等の決定を規則により行
う。6は音韻制御部で、テキスト解析部で得られた読み
に対し、母音の無声化や鼻音化処理、仮名表記と発声音
声の異なる場合の処理等を行ない、音声表記を得る。7
は合成パラメータ作成部で、韻律情報や音声表記情報か
ら実際の合成に必要な合成パラメータ列を得る。効果音
と合成音声を被せる場合には合成音声の時間長分だけ効
果音を作成する必要があるので、その時間長を効果音生
成部11に出力する。合成パラメータはパラメータテー
ブル8に格納されている。9はパラメータ補間部で8で
得られた合成パラメータ値を補間して一定時間毎の合成
パラメータを得る。10は音声合成部で、9で得られた
合成パラメータ列から実際の音声を合成する。11は効
果音生成部で4で得られた効果音に関する情報に従って
効果音を生成する。動作の詳細については後述する。1
2はミキシング部で、11で得られた効果音と10で得
られた音声のミキシングを行ない、効果音付きの合成音
を合成音声出力端13に得る。
Embodiment FIG. 1 is a block diagram showing the configuration of a speech synthesizer according to an embodiment of the present invention. ■: A sentence containing kanji and kana is input at the character string input terminal. Reference numeral 2 denotes a text processing unit, which divides the inputted kanji-kana-mixed text into words and adjunct words using a dictionary 3, and assigns readings and accent types to each word. 4 is a sound effect symbol processing unit that extracts information regarding sound effects included in the input character string. 5 is a prosody control unit which determines the accent type of each word and adjunct, the accent type of the clause, the pause position, the intonation of the entire sentence, etc., according to rules. Reference numeral 6 denotes a phoneme control unit which performs processes such as devoicing and nasalization of vowels and processing when the kana notation differs from the uttered voice to obtain a phonetic notation for the pronunciation obtained by the text analysis unit. 7
is a synthesis parameter creation unit that obtains a synthesis parameter sequence necessary for actual synthesis from prosody information and phonetic notation information. When a sound effect and a synthesized voice are overlapped, it is necessary to create a sound effect for the time length of the synthesized voice, so the time length is output to the sound effect generation section 11. The synthesis parameters are stored in a parameter table 8. Reference numeral 9 denotes a parameter interpolation unit that interpolates the synthesis parameter values obtained in step 8 to obtain synthesis parameters at fixed time intervals. Reference numeral 10 denotes a speech synthesis unit, which synthesizes actual speech from the synthesis parameter sequence obtained in step 9. Reference numeral 11 denotes a sound effect generation unit which generates sound effects according to the information regarding the sound effects obtained in step 4. Details of the operation will be described later. 1
2 is a mixing section which mixes the sound effect obtained in step 11 and the voice obtained in step 10 to obtain a synthesized sound with sound effects at a synthesized speech output terminal 13.

第2図は効果音作成部11の構成を示したブロック図で
ある。llaは効果音情報入力端で効果音の種類と時間
長に関する情報が入力される。
FIG. 2 is a block diagram showing the configuration of the sound effect creation section 11. As shown in FIG. lla is a sound effect information input terminal, into which information regarding the type and duration of the sound effect is input.

11bは効果音データ読みだし部で、必要な効果音が格
納されているアドレスを計算し、必要な時間長井のデー
タ読みだしを行う。格納されている効果音の時間長が必
要な時間長より短いときは読みだしたデータを繰り返し
使用する。llcは効果音データ格納部で、効果音デー
タが標本化周波数10kHz、tt−1awPcMを用
いて8ビツトに圧縮されて格納されている。本実施例で
は効果音の種類は8種とし、1効果音あたり約0.8秒
分のデータが格納されているものとする(トータル64
にバイト分である)。lidはデコード部でμm1aw
PcM圧縮された効果音データのデコーディングを行な
い、12ビツトのデータに変換する。変換式等は既に公
知である。lidは振幅処理部で効果音の立ち上がり、
立ち下がり部(開始部、終了部)の振幅処理を行う。振
幅処理に用いる関数f (t)を第3図に示す。横軸は
時間(msec) 、縦軸は関数値である。振幅処理は
以下の式に従って行なわれる。
Reference numeral 11b denotes a sound effect data reading unit which calculates the address where the necessary sound effect is stored and reads out the data for the necessary time. When the time length of the stored sound effect is shorter than the required time length, the read data is used repeatedly. llc is a sound effect data storage unit in which sound effect data is compressed to 8 bits using a sampling frequency of 10 kHz and tt-1awPcM and stored therein. In this example, it is assumed that there are 8 types of sound effects, and that approximately 0.8 seconds worth of data is stored for each sound effect (total 64 types).
). lid is μm1aw in the decoding section
PcM compressed sound effect data is decoded and converted into 12-bit data. The conversion formula etc. are already known. lid is the amplitude processing section, and the rise of the sound effect,
Performs amplitude processing of the falling portion (start portion, end portion). FIG. 3 shows the function f (t) used for amplitude processing. The horizontal axis is time (msec) and the vertical axis is the function value. Amplitude processing is performed according to the following equation.

立ち上がり時x(t)−f(t)*x(t)  o<t
≦100立ち下がり時x(t)−f(T−t)*x(t
)  T−100<t≦Tt: 時間(msec) T: 時間長 x(t):効果音データ f(t): 振幅制御関数 こうして得られた効果音データをミキシング部12に出
力する。
At rise x(t)-f(t)*x(t) o<t
≦100 falling x(t)-f(T-t)*x(t
) T-100<t≦Tt: Time (msec) T: Time length x(t): Sound effect data f(t): Amplitude control function The sound effect data obtained in this way is output to the mixing section 12.

次に各処理の詳細について実例を用いて説明する。「■
これが波の音です。」という文章が入力された場合につ
いて考える。テキスト解析2により入力文章は以下のよ
うに分割され、アクセント型や読みの情報を得る。ここ
で、■は波の音を効果音として合成音声にかぶせるとい
う記号とする。説明のため、便宜上Oという記号を用い
たが、記号そのものは何でもよく、JISコードやシフ
トJISコードの空白もしくはヌルコードの割り当てら
れた未使用コードを用いると、効果音記号の存在が入力
文字列には現れない。テキスト解析部では、この■の記
号は処理されず効果音記号処理部にまわされる。
Next, details of each process will be explained using an example. “■
This is the sound of waves. Consider a case where the sentence ``'' is input. Text analysis 2 divides the input text into the following parts to obtain information on accent type and pronunciation. Here, ■ is a symbol that indicates that the sound of waves is overlaid on the synthesized voice as a sound effect. For the sake of explanation, we have used the symbol O for convenience, but any symbol may be used; if you use an unused code with a blank or null code assigned to the JIS code or Shift JIS code, the presence of the sound effect symbol will be detected in the input string. does not appear. In the text analysis section, this ■ symbol is not processed and is sent to the sound effect symbol processing section.

(入力文章) 「すこれが波の音です。」(単語分割)
 これ/が/波/の/音/です。
(Input text) “This is the sound of waves.” (Word division)
This is the sound of waves.

(読ミ)        コレ    ガ  ナミ  
ノ    オド   デス(アクセント型)/A’B’
b (品詞)   代名 格助名格助名 助動ここで「がJ
「の」「です」等イ」異語に対して与えられているアク
セント型は、N HKアクセント辞典・解説付録(日本
放送出版会1985年)に記載されているもので、自立
語と結合して文節を構成する際の結合アクセント型を示
したものである。また、各単語のアクセント型は音の高
低を示したものである。4効果音記号処理部では、 す
から必要な効果音と、効果音の挿入位置を決定する。こ
の場合は す が文頭にあった文章の終了時まで効果音
が被せられるものとする。次に、韻律処理部5て、ポー
ズ位置や文節のアクセント型、文全体のイントネーショ
ンを決定する。又音韻処理部6で実際の音声表記を得る
。韻律処理部、音韻処理部の出力を以下に示す。「ス」
の肩に付け= 9− たO印は「ス」が無声化することを示す。
(Reading) Kore Ganami
No Odo Death (accent type)/A'B'
b (Part of speech) Pronoun Case auxiliary name Case auxiliary pronoun Here “gaJ
The accent types given to different words such as ``no'', ``desu'', etc. are those listed in the NHK Accent Dictionary/Explanatory Appendix (Japan Broadcasting Publishing Co., Ltd., 1985), and are those that combine with independent words. This figure shows the combining accent types used when constructing clauses. Furthermore, the accent type of each word indicates the pitch of the sound. 4. The sound effect symbol processing section determines the necessary sound effects and the insertion position of the sound effects. In this case, the sound effect shall be overlaid until the end of the sentence where ``su'' was at the beginning of the sentence. Next, the prosody processing unit 5 determines the pause position, the accent type of the phrase, and the intonation of the entire sentence. Further, the phoneme processing section 6 obtains the actual phonetic notation. The outputs of the prosody processing section and the phoneme processing section are shown below. "vinegar"
The O mark on the shoulder of = 9- indicates that the "s" is devoiced.

(音声表記)      コレガ        ナミ
ノオトデス(文章制御)  へ (、fズ) r\へ(
文節アクセント)/””          n以上で
得られた韻律情報・音韻情報に従って合成パラメータ作
成部6で実際の合成パラメータを得る。本実施例では、
合成素片単位として音素(C,V)を、声道の特徴記述
パラメータとしてホルマント周波数を用いる。即ち以下
に示す各音素毎に、ホルマント周波数、バンド幅、基本
周波数、振幅、有声/無声判定及び各音素の継続時間長
のパラメータが、パラメータ・テーブル8を参照して作
成される。これ等のパラメータ値は、音韻環境等を考慮
して規則を用いて変更される。
(phonetic notation) Korega Naminootodes (sentence control) to (, fs) r\to (
Actual synthesis parameters are obtained in the synthesis parameter creation section 6 according to the prosodic information and phonetic information obtained above n (Phrase accent)/"''n. In this example,
The phoneme (C, V) is used as a synthesized segment unit, and the formant frequency is used as a characteristic description parameter of the vocal tract. That is, for each phoneme shown below, parameters such as formant frequency, bandwidth, fundamental frequency, amplitude, voiced/unvoiced determination, and duration of each phoneme are created with reference to parameter table 8. These parameter values are changed using rules in consideration of the phonetic environment and the like.

(素片表記)  KOREG八(ボズ)NAMINOO
TODESU パラメータ補間部9では、こうして得られた各音素毎の
パラメータの線形補間を行ない、5 m5ec毎のパラ
メータ列を得、合成部10でホルマント型の合成器を用
いて合成する。
(Fragment notation) KOREG 8 (Boz) NAMINOO
The TODESU parameter interpolation unit 9 performs linear interpolation of the parameters for each phoneme thus obtained to obtain a parameter sequence every 5 m5ec, which is synthesized by the synthesis unit 10 using a formant type synthesizer.

= 10− 合成部10で得られた音声波形をy(t)とする。= 10- Let the audio waveform obtained by the synthesis unit 10 be y(t).

また、効果音生成部11においては既に説明した手順に
従って、効果音x(t)が生成される。ミキシング部1
2では、y(t)、x(t) を入力として、次式によ
り出力波形 z(t)を求める。
Further, the sound effect generating section 11 generates the sound effect x(t) according to the procedure already described. Mixing section 1
2, the output waveform z(t) is obtained using the following equation using y(t) and x(t) as inputs.

z(t) −w * x(t) + (1−w) * 
y(t)但し  w −0,3 ここで、Wは重み係数で効果音と音声の音量の割合を示
す。
z(t) −w * x(t) + (1−w) *
y(t) where w −0,3 Here, W is a weighting coefficient and indicates the ratio of the volume of the sound effect and the voice.

以上のように本実施例によれば、効果音記号処理部を設
けて入力文字列から効果音に関する情報を取りだし、そ
の情報に従って効果音を作成して合成音声に挿入したり
、ミキシングすることにより、合成音声に効果音を付加
することができる。
As described above, according to this embodiment, a sound effect symbol processing section is provided to extract information regarding sound effects from an input character string, create sound effects according to the information, and insert or mix them into synthesized speech. , it is possible to add sound effects to synthesized speech.

なお、実施例において合成単位は音素(C1■)、ホル
マント合成方式をを用いたが、これに限定されるもので
はない。また、効果音の作成手法として、μm]awP
CMを用いたが、これは本発明を何等拘束するものでは
ない。
In the embodiment, the synthesis unit is the phoneme (C1) and the formant synthesis method is used, but the present invention is not limited to this. In addition, as a method for creating sound effects, μm]awP
Although CM was used, this does not limit the present invention in any way.

発明の詳細 な説明したように、本発明によれば、文字列に付加され
た効果音に関する情報から効果音を生成し、合成音声に
挿入したり、ミキシングすることにより、合成音声に効
果音を付加することができ、その実用的価値には大なる
ものがある。
As described in detail, according to the present invention, a sound effect is generated from information regarding a sound effect added to a character string, and the sound effect is added to the synthesized speech by inserting it into the synthesized speech or mixing it. can be added, and its practical value is great.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明における一実施例の音声合成装置のブロ
ック図、第2図は効果音生成部の構成を示したブロック
図、第3図は効果音生成部における振幅制御特性図、第
4図は従来例の音声合成装置のブロック図である。 1・・・文字列入力端、2・・・テキスト解析部、3・
・・辞書、4・・・効果音記号処理部、5・・・韻律制
御部、6・・・音韻制御部、7・・・合成パラメータ制
御部、8・・・パラメータテーブル、9・・・パラメー
タ補間部、10・・・音声合成部、11・・・効果音生
成部、12・・・ミキシング部、13・・・合成音声出
力端、11a・・・効果音情報入力端、llb・・・効
果音データ読みだし部、llc・・・データ格納部、l
id・・・デコード部、11e・・・振幅処理部、ll
f・・・効果音出力端。 代理人の氏名 弁理士 中尾敏男 ほか1名= 13−
FIG. 1 is a block diagram of a speech synthesis device according to an embodiment of the present invention, FIG. 2 is a block diagram showing the configuration of a sound effect generation section, FIG. 3 is an amplitude control characteristic diagram in the sound effect generation section, and FIG. The figure is a block diagram of a conventional speech synthesis device. 1...Character string input end, 2...Text analysis section, 3.
... Dictionary, 4... Sound effect symbol processing section, 5... Prosody control section, 6... Phoneme control section, 7... Synthesis parameter control section, 8... Parameter table, 9... Parameter interpolation unit, 10...Speech synthesis unit, 11...Sound effect generation unit, 12...Mixing unit, 13...Synthesized voice output terminal, 11a...Sound effect information input terminal, llb...・Sound effect data reading unit, llc...data storage unit, l
id...decoding section, 11e...amplitude processing section, ll
f...Sound effect output end. Name of agent: Patent attorney Toshio Nakao and 1 other person = 13-

Claims (1)

【特許請求の範囲】[Claims] 文字列もしくは記号列(以後テキストという)を入力す
るテキスト入力手段と、前記テキスト入力手段から入力
されたテキストを解析して読みに関する情報と効果音に
関する情報を得るテキスト解析手段と、前記テキスト解
析手段で得られた前記解析結果に従って合成パラメータ
を作成する合成パラメータ作成手段と、前記合成パラメ
ータから音声を合成する音声合成手段と、前記効果音に
関する情報から効果音をを生成する効果音生成手段を有
することを特徴とする音声合成装置。
a text input means for inputting a character string or a symbol string (hereinafter referred to as text); a text analysis means for analyzing the text input from the text input means to obtain information regarding readings and information regarding sound effects; and the text analysis means. a synthesis parameter creation means for creating a synthesis parameter according to the analysis result obtained in the above, a speech synthesis means for synthesizing a voice from the synthesis parameter, and a sound effect generation means for generating a sound effect from the information regarding the sound effect. A speech synthesis device characterized by:
JP62269647A 1987-10-26 1987-10-26 Voice synthesizer Pending JPH01112297A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62269647A JPH01112297A (en) 1987-10-26 1987-10-26 Voice synthesizer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62269647A JPH01112297A (en) 1987-10-26 1987-10-26 Voice synthesizer

Publications (1)

Publication Number Publication Date
JPH01112297A true JPH01112297A (en) 1989-04-28

Family

ID=17475262

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62269647A Pending JPH01112297A (en) 1987-10-26 1987-10-26 Voice synthesizer

Country Status (1)

Country Link
JP (1) JPH01112297A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002221980A (en) * 2001-01-25 2002-08-09 Oki Electric Ind Co Ltd Text voice converter
JP2008151605A (en) * 2006-12-15 2008-07-03 Denso Corp Seating detection system and occupant protection system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002221980A (en) * 2001-01-25 2002-08-09 Oki Electric Ind Co Ltd Text voice converter
JP2008151605A (en) * 2006-12-15 2008-07-03 Denso Corp Seating detection system and occupant protection system

Similar Documents

Publication Publication Date Title
US6470316B1 (en) Speech synthesis apparatus having prosody generator with user-set speech-rate- or adjusted phoneme-duration-dependent selective vowel devoicing
JPH05113795A (en) Voice synthesizing device
US6829577B1 (en) Generating non-stationary additive noise for addition to synthesized speech
JPH05100692A (en) Voice synthesizer
JPH01112297A (en) Voice synthesizer
JP3233036B2 (en) Singing sound synthesizer
JP3113101B2 (en) Speech synthesizer
JPH01321496A (en) Speech synthesizing device
JP2703253B2 (en) Speech synthesizer
JP3397406B2 (en) Voice synthesis device and voice synthesis method
JPH0313999A (en) Voice synthesizer
JP2910587B2 (en) Speech synthesizer
JPH06138894A (en) Device and method for voice synthesis
JP2573586B2 (en) Rule-based speech synthesizer
JPH0990987A (en) Speech synthesis method and apparatus
JPS62215299A (en) Sentence reciting apparatus
JPH08160990A (en) Speech synthesizing device
JP2001166787A (en) Speech synthesizer and natural language processing method
JPH02285400A (en) speech synthesizer
JPH06168265A (en) Language processor and speech synthesizer
Butler et al. Articulatory constraints on vocal tract area functions and their acoustic implications
JPH0572599B2 (en)
JPS60205597A (en) Voice synthesizer
Fadhil et al. Implementation of an unlimited English Speech Synthesizer by Rules
JPH08328578A (en) Text voice synthesizer