JP2024087465A - Voice processing device - Google Patents
Voice processing device Download PDFInfo
- Publication number
- JP2024087465A JP2024087465A JP2022202302A JP2022202302A JP2024087465A JP 2024087465 A JP2024087465 A JP 2024087465A JP 2022202302 A JP2022202302 A JP 2022202302A JP 2022202302 A JP2022202302 A JP 2022202302A JP 2024087465 A JP2024087465 A JP 2024087465A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- control signal
- unit
- vehicle
- voice command
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 9
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 abstract description 17
- 238000001514 detection method Methods 0.000 abstract description 4
- 238000004891 communication Methods 0.000 description 14
- 241001446467 Mama Species 0.000 description 9
- 238000001228 spectrum Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000015654 memory Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
Images
Landscapes
- Lock And Its Accessories (AREA)
Abstract
Description
本開示は、音声に基づいて処理を行う音声処理装置に関する。 This disclosure relates to a voice processing device that performs processing based on voice.
近年、ユーザが発した音声を認識する音声認識技術がしばしば用いられる。例えば、特許文献1には、ユーザが発した音声を認識する音声認識装置が開示されている。 In recent years, voice recognition technology that recognizes voices uttered by a user is often used. For example, Patent Document 1 discloses a voice recognition device that recognizes voices uttered by a user.
ユーザが発した音声に基づいて処理を行う装置では、ユーザが発した音声に応じた処理を適切に行うことが望まれている。 In a device that performs processing based on the voice uttered by a user, it is desirable to perform processing appropriately according to the voice uttered by the user.
ユーザが発した音声に応じた処理を適切に行うことができる音声処理装置を提供することが望ましい。 It is desirable to provide a voice processing device that can appropriately process voice uttered by a user.
本開示の一実施の形態に係る音声処理装置は、音声解析部と、制御信号生成部とを備えている。音声解析部は、音声データに基づいて、音声データに含まれる、予め定められた音声コマンドを検出するものである。制御信号生成部は、音声解析部により検出された音声コマンドに基づいて、その音声コマンドが示す処理を指示する制御信号を生成するものである。音声コマンドは、第1の部分と、第1の部分よりも後に配置され、動詞を含む第2の部分と、第2の部分よりも後に配置され、第1の部分と同じである第3の部分とを含む。 A voice processing device according to an embodiment of the present disclosure includes a voice analysis unit and a control signal generation unit. The voice analysis unit detects a predetermined voice command included in the voice data based on the voice data. The control signal generation unit generates a control signal that instructs a process indicated by the voice command detected by the voice analysis unit based on the voice command. The voice command includes a first portion, a second portion that is located after the first portion and includes a verb, and a third portion that is located after the second portion and is the same as the first portion.
本開示の一実施の形態に係る音声処理装置によれば、ユーザが発した音声に応じた処理を適切に行うことができる。 According to an embodiment of the voice processing device of the present disclosure, it is possible to appropriately perform processing according to the voice uttered by the user.
以下、本開示の実施の形態について、図面を参照して詳細に説明する。 The following describes in detail the embodiments of the present disclosure with reference to the drawings.
<実施の形態>
[構成例]
図1は、一実施の形態に係る音声処理装置を備えた音声処理システム1の一構成例を表すものである。この音声処理システム1は、この例では、車両10に適用されている。車両10は、自動車などの車両である。車両10は、ユーザインタフェース11と、マイクロフォン12と、処理部20と、通信部13と、ナビゲーション処理部14と、ヘッドランプ制御部15と、ドアロック制御部16とを備えている。
<Embodiment>
[Configuration example]
1 shows an example of a configuration of a voice processing system 1 including a voice processing device according to an embodiment. In this example, the voice processing system 1 is applied to a vehicle 10. The vehicle 10 is a vehicle such as an automobile. The vehicle 10 includes a
ユーザインタフェース11は、例えば、表示パネル、タッチパネル、各種ボタンなどを含み、車両10の乗員の操作を受け付けるとともに、様々な情報を車両10の乗員に提示するように構成される。
The
マイクロフォン12は、車両10の乗員が発した音声に応じた音波を電気信号(音声信号)に変換するように構成される。
The
処理部20は、例えば1または複数のプロセッサおよび1または複数のメモリを含んで構成される。処理部20は、音声解析部21と、制御信号生成部22とを有している。
The
音声解析部21は、マイクロフォン12から供給された音声信号に基づいて、音声を解析するように構成される。具体的には、音声解析部21は、まず、マイクロフォン12から供給された音声信号に基づいて、所定のサンプリングレートでAD(Analog to Digital)変換を行うことにより、音声データを生成する。そして、音声解析部21は、この音声データに基づいてフーリエ変換を行うことにより、スペクトルデータを生成する。具体的には、音声解析部21は、所定の時間間隔で、スペクトルデータを順次生成することにより、一連のスペクトルデータを生成する。音声解析部21は、一連のスペクトルデータのそれぞれに基づいて、音声データに含まれる文字や単語を抽出することにより、その音声データが示す文章を含む文章データを生成する。そして、音声解析部21は、この文章データに基づいて、車両10の乗員が指示する処理の内容を示す音声コマンドを検出する。音声処理システム1において使用可能な音声コマンドは、予め定められている。なお、この例では、音声解析部21は、文章データに基づいて音声コマンドを検出したが、これに限定されるものではなく、これに代えて、例えば、音声データに基づいて音声コマンドを検出してもよいし、スペクトルデータに基づいて音声コマンドを検出してもよい。そして、音声解析部21は、音声コマンドの検出結果を制御信号生成部22に供給するようになっている。
The
制御信号生成部22は、音声解析部21における音声コマンドの検出結果に基づいて、音声コマンドが示す処理に応じた制御信号を生成するように構成される。そして、処理部20は、この制御信号を、通信部13、ナビゲーション処理部14、ヘッドランプ制御部15、およびドアロック制御部16に供給するようになっている。
The control
通信部13は、例えば無線LAN(Local Area Network)やブルートゥース(登録商標)などの無線通信を行うことにより、外部機器と通信を行うように構成される。この例では、通信部13は、車両10の乗員のスマートフォン100と通信を行うことができるようになっている。
The
ナビゲーション処理部14は、車両10が走行すべき目的地までのルート(予定走行ルート)を決定するとともに、車両10の乗員に予定走行ルートのルート情報を提供することにより、決定した予定走行ルートに沿って車両10を誘導するように構成される。ナビゲーション処理部14は、GPS(Global Positioning System)などのGNSS(Global Navigation Satellite System)を用いて、地上での車両10の位置を取得し、道路地図についての情報を含む地図情報データベースを用いて、車両10の予定走行ルートを決定する。ナビゲーション処理部14は、例えば、地図情報データベースを記憶し、記憶された地図情報データベースを用いて予定走行ルートを決定してもよいし、例えば地図情報データベースが記憶されたネットワークサーバと通信を行うことにより予定走行ルートを決定してもよい。ナビゲーション処理部14は、例えば、車両10の乗員がユーザインタフェース11を操作することにより入力した目的地についての情報に基づいて目的地までの予定走行ルートを決定し、決定した予定走行ルートについてのルート情報を、このユーザインタフェース11を用いて乗員に提供するようになっている。
The
ヘッドランプ制御部15は、車両10の前方に光を照射するヘッドランプの点灯動作および消灯動作を制御するように構成される。
The
ドアロック制御部16は、乗員が乗降する車両10のドアの施錠動作および開錠動作を制御するように構成される。
The door
スマートフォン100は、この例では車両10の乗員が所有する高機能携帯電話である。このスマートフォン100には、例えば電話帳データを含む様々なデータが記憶されている。スマートフォン100は、車両10の通信部13との間で通信を行うことができるようになっている。
In this example, the
この構成により、音声処理システム1では、処理部20は、マイクロフォン12から供給された音声信号に基づいて、音声コマンドを検出することにより、車両1の乗員の音声指示を把握し、制御信号を生成する。そして、通信部13、ナビゲーション処理部14、ヘッドランプ制御部15、およびドアロック制御部16は、この制御信号に基づいて、乗員の音声指示に応じた処理を行うようになっている。
In this configuration, in the voice processing system 1, the
ここで、処理部20は、本開示の一実施の形態における「音声処理装置」の一具体例に対応する。音声解析部21は、本開示の一実施の形態における「音声解析部」の一具体例に対応する。制御信号生成部22は、本開示の一実施の形態における「制御信号生成部」の一具体例に対応する。車両10は、本開示の一実施の形態における「車両」の一具体例に対応する。
Here, the
[動作および作用]
続いて、本実施の形態の音声処理システム1の動作および作用について説明する。
[Actions and Functions]
Next, the operation and function of the voice processing system 1 of the present embodiment will be described.
(全体動作概要)
まず、図1~3を参照して、音声処理システム1の動作を説明する。ユーザインタフェース11は、車両10の乗員の操作を受け付けるとともに、様々な情報を車両10の乗員に提示する。マイクロフォン12は、車両10の乗員が発した音声に応じた音波を電気信号(音声信号)に変換する。処理部20の音声解析部21は、マイクロフォン12から供給された音声信号に基づいて、音声コマンドを検出する。制御信号生成部22は、音声解析部21における音声コマンドの検出結果に基づいて、音声コマンドが示す処理に応じた制御信号を生成する。通信部13は、車両10の乗員のスマートフォン100と通信を行う。ナビゲーション処理部14は、車両10が走行すべき目的地までのルート(予定走行ルート)を決定するとともに、車両10の乗員に予定走行ルートのルート情報を提供することにより、決定した予定走行ルートに沿って車両10を誘導する。ヘッドランプ制御部15は、車両10の前方に光を照射するヘッドランプの点灯動作および消灯動作を制御する。ドアロック制御部16は、乗員が乗降する車両10のドアの施錠動作および開錠動作を制御する。
(Overall operation overview)
First, the operation of the voice processing system 1 will be described with reference to FIGS. 1 to 3. The
(詳細動作)
図2は、音声コマンドの一例を表すものである。音声コマンドは、車両10の乗員は、音声コマンドを含む音声を発することにより、この例では、通信部13、ナビゲーション処理部14、ヘッドランプ制御部15、およびドアロック制御部16に処理を行わせることができる。
(Detailed operation)
2 shows an example of a voice command. In this example, the passenger of the vehicle 10 can cause the
例えば、図2(A)に示したように、音声データに含まれる文章が「Aさんに電話して」である場合には、音声解析部21は、この、Aさんへの電話を指示する音声コマンドを検出し、制御信号生成部22は、スマートフォン100がAさんに電話を行うように制御する制御信号を生成する。処理部20は、この制御信号を通信部13に供給する。通信部13は、この制御信号をスマートフォン100に送信する。スマートフォン100は、この制御信号に基づいて、電話帳データを用いてAさんの電話番号を特定し、この電話番号を用いてAさんに電話をかける処理を行う。
For example, as shown in FIG. 2(A), if the sentence included in the voice data is "Call A", the
また、例えば、図2(B)に示したように、音声データに含まれる文章が「B市に行きたい」である場合には、音声解析部21は、この、B市へのルートの提供を指示する音声コマンドを検出し、制御信号生成部22は、音声解析部21から供給された情報に基づいて、ナビゲーション処理部14がB市までの予定走行ルートを決定するように制御する制御信号を生成する。処理部20は、この制御信号をナビゲーション処理部14に供給する。ナビゲーション処理部14は、この制御信号に基づいて、B市までの予定走行ルートを決定し、決定した予定走行ルートをユーザインタフェース11に表示させる。
Also, for example, as shown in FIG. 2(B), if the sentence included in the voice data is "I want to go to City B," the
また、例えば、図2(C)に示したように、音声データに含まれる文章が「ヘッドランプを消して」である場合には、音声解析部21は、この、ヘッドランプの消灯を指示する音声コマンドを検出し、制御信号生成部22は、ヘッドランプ制御部15がヘッドランプを消灯させるように制御する制御信号を生成する。処理部20は、この制御信号をヘッドランプ制御部15に供給する。ヘッドランプ制御部15は、この制御信号に基づいて、ヘッドランプを消灯するように、ヘッドランプの動作を制御する。
Also, for example, as shown in FIG. 2(C), if the sentence included in the voice data is "Turn off the headlamps," the
また、例えば、図2(D)に示したように、音声データに含まれる文章が「ドアをロックして」である場合には、音声解析部21は、この、ドアの施錠を指示する音声コマンドを検出し、制御信号生成部22は、ドアロック制御部16がドアをロックするように制御する制御信号を生成する。処理部20は、この制御信号をドアロック制御部16に供給する。ドアロック制御部16は、この制御信号に基づいて、ドアを施錠する。
For example, as shown in FIG. 2(D), if the sentence included in the voice data is "lock the door," the
ところで、例えば、図2(A)において「Aさん」の文字数が少ない場合があり得る。また、例えば、図2(B)において「B市」の文字数が少ない場合があり得る。音声解析部21は、このような文字数が少ない単語を認識しにくい可能性がある。また、車両10では、走行音などのノイズが多いので、音声解析部21は、このような文字数が少ない単語を認識しにくい可能性がある。
For example, in FIG. 2(A), the number of characters in "Mr. A" may be small. Also, in FIG. 2(B), the number of characters in "City B" may be small. The
図3は、音声コマンドのより具体的な一例を表すものである。例えば、「ママ」の文字数は2文字であり短く、「ママ」は例えば「電話して」よりも短い。また「ママ」は同じ音の繰り返しである。よって、音声解析部21は、この「ママ」の部分を認識しにくい可能性がある。また、例えば「津市」の文字数は2文字であり短く、「津市」は「行きたい」よりも短い。よって、音声解析部21は、この「津市」の部分を認識しにくい可能性がある。
Figure 3 shows a more specific example of a voice command. For example, "mama" is short, having only two characters, and is shorter than, for example, "call me." Also, "mama" is a repetition of the same sound. Therefore, it may be difficult for the
そこで、音声解析部21は、このような文字数が少ない単語を認識しやすくするために、以下に示すような音声コマンドをも解析することができる。
Therefore, in order to make it easier to recognize words with such a small number of characters, the
図4は、音声コマンドの他の一例を表すものである。これらの音声コマンドは、3つの部分P1~P3を含む。部分P1,P2からなる文章は、図3の文章と同じである。部分P3は、部分P1と同じである。例えば、部分P2は、動詞を含む。そして、部分P1,P3は、その動詞の目的語を含む。この目的語は、例えば、普通名詞、固有名詞、代名詞、略称などがあり得る。 Figure 4 shows another example of a voice command. These voice commands include three parts P1 to P3. The sentence consisting of parts P1 and P2 is the same as the sentence in Figure 3. Part P3 is the same as part P1. For example, part P2 includes a verb. And parts P1 and P3 include the object of the verb. This object can be, for example, a common noun, a proper noun, a pronoun, an abbreviation, etc.
例えば、図4(A)に示したように、音声データに含まれる文章が「ママに電話して、ママに」である場合には、音声解析部21は、部分P1(“ママに”)と部分P3(“ママに”)の類似性が高いことを検出する。乗員は、このように「ママに」の部分を繰り返して発している。よって、解析される音素が増えるので、音声解析部21は、この「ママに」を認識することができる。そして、制御信号生成部22は、スマートフォン100がママに電話を行うように制御する制御信号を生成する。処理部20は、この制御信号を通信部13に供給する。通信部13は、この制御信号をスマートフォン100に送信する。スマートフォン100は、この制御信号に基づいて、電話帳データを用いて電話番号を特定し、この電話番号を用いて電話をかける処理を行う。
For example, as shown in FIG. 4A, if the sentence included in the voice data is "Call Mama, Mama," the
例えば、図4(B)に示したように、音声データに含まれる文章が「津市に行きたい、三重県津市に」である場合には、音声解析部21は、部分P1(“津市に”)と部分P3(“津市に”)の類似性が高いことを検出する。乗員は、このように「津市に」の部分を繰り返して発している。よって、解析される音素が増えるので、音声解析部21は、「津市に」を認識することができる。そして、制御信号生成部22は、音声解析部21から供給された情報に基づいて、ナビゲーション処理部14が三重県津市までの予定走行ルートを決定するように制御する制御信号を生成する。処理部20は、この制御信号をナビゲーション処理部14に供給する。ナビゲーション処理部14は、この制御信号に基づいて、三重県津市までの予定走行ルートを決定し、決定した予定走行ルートをユーザインタフェース11に表示させる。
For example, as shown in FIG. 4B, if the sentence included in the voice data is "I want to go to Tsu City, Tsu City, Mie Prefecture," the
人間は、例えば、他の人から短い言葉が発せられた場合に、その短い言葉を認識しにくい場合がある。人間は、この場合において、もう一度その言葉が発せられると、その短い言葉を認識しやすい。同様に、音声解析部21は、互いに類似性が高い部分P1,P3を検出した場合に、その部分P1,P3を精度よく認識することができる。これにより、音声処理システム1では、短い単語を含む文章の認識精度を高めることができ、ユーザが発した音声に応じた処理を適切に行うことができる。
For example, when a short word is spoken by another person, humans may find it difficult to recognize the short word. In this case, if the word is spoken again, humans will find it easier to recognize the short word. Similarly, when the
このように、音声処理システム1では、音声データに基づいて、音声データに含まれる、予め定められた音声コマンドを検出する音声解析部21と、音声解析部21により検出された音声コマンドに基づいて、その音声コマンドが示す処理を指示する制御信号を生成する制御信号生成部22とを設けるようにした。この音声コマンドは、第1の部分(部分P1)と、第1の部分よりも後に配置され、動詞を含む第2の部分(部分P2)と、第2の部分よりも後に配置され、第1の部分と同じである第3の部分(部分P3)とを含むようにした。これにより、音声解析部21は、その部分P1,P3を精度よく認識することができる。その結果、音声処理システム1では、例えば、短い単語を含む文章の認識精度を高めることができるので、ユーザが発した音声に応じた処理を適切に行うことができる。
In this way, the voice processing system 1 is provided with a
また、音声処理システム1では、第1の部分(部分P1)における文字の数は、第2の部分(部分P2)における文字の数よりも少ないようにした。このような場合でも、この部分P1と同じである部分P3があるので、この文字の数が少ない部分が繰り返されるため、この文字の数が少ない部分を精度よく認識することができる。その結果、音声処理システム1では、ユーザが発した音声に応じた処理を適切に行うことができる。 Furthermore, in the voice processing system 1, the number of characters in the first part (part P1) is made smaller than the number of characters in the second part (part P2). Even in such a case, since there is a part P3 that is the same as part P1, this part with a smaller number of characters is repeated, and therefore this part with a smaller number of characters can be recognized with high accuracy. As a result, the voice processing system 1 can appropriately perform processing according to the voice uttered by the user.
また、音声処理システム1では、第1の部分は、第2の部分に含まれる動詞の目的語を含むようにした。目的語は、例えば、普通名詞だけではなく、固有名詞、代名詞、略称などがあり得るので、認識されにくい場合がある。音声処理システム1では、このような場合でも、この部分P1と同じである部分P3があるので、例えば目的語を認識しにくい場合でも、この目的語が繰り返されるため、この目的語を精度よく認識することができる。その結果、音声処理システム1では、ユーザが発した音声に応じた処理を適切に行うことができる。 In addition, in the speech processing system 1, the first part includes the object of the verb included in the second part. The object may be, for example, not only a common noun but also a proper noun, pronoun, abbreviation, etc., and may be difficult to recognize. In the speech processing system 1, even in such cases, there is a part P3 that is the same as the part P1, so that even if the object is difficult to recognize, for example, the object is repeated and the object can be recognized with high accuracy. As a result, the speech processing system 1 can appropriately perform processing according to the voice uttered by the user.
また、音声処理システム1では、処理部20は、車両1に設けられるようにした。そして、車両1は、制御信号に基づいて、音声コマンドに応じた処理を行うようにした。これにより、音声処理システム1では、走行音などのノイズが多い車両内において、ユーザが発した音声に応じた処理を適切に行うことができる。
In addition, in the voice processing system 1, the
[効果]
以上のように本実施の形態では、音声データに基づいて、音声データに含まれる、予め定められた音声コマンドを検出する音声解析部と、音声解析部により検出された音声コマンドに基づいて、その音声コマンドが示す処理を指示する制御信号を生成する制御信号生成部とを設けるようにした。この音声コマンドは、第1の部分と、第1の部分よりも後に配置され、動詞を含む第2の部分と、第2の部分よりも後に配置され、第1の部分と同じである第3の部分とを含むようにした。これにより、ユーザが発した音声に応じた処理を適切に行うことができる。
[effect]
As described above, in this embodiment, a voice analysis unit detects a predetermined voice command included in the voice data based on the voice data, and a control signal generation unit generates a control signal instructing a process indicated by the voice command based on the voice command detected by the voice analysis unit. The voice command includes a first part, a second part that is arranged after the first part and includes a verb, and a third part that is arranged after the second part and is the same as the first part. This makes it possible to appropriately perform a process according to the voice uttered by the user.
本実施の形態では、第1の部分における文字の数は、第2の部分における文字の数よりも少ないようにしたので、ユーザが発した音声に応じた処理を適切に行うことができる。 In this embodiment, the number of characters in the first part is set to be less than the number of characters in the second part, so that processing can be appropriately performed according to the voice uttered by the user.
本実施の形態では、第1の部分は、第2の部分に含まれる動詞の目的語を含むようにしたので、ユーザが発した音声に応じた処理を適切に行うことができる。 In this embodiment, the first part includes the object of the verb contained in the second part, so that appropriate processing can be performed according to the voice uttered by the user.
本実施の形態では、処理部を、車両に設けるようにした。そして、車両は、制御信号に基づいて、音声コマンドに応じた処理を行うようにした。これにより、ユーザが発した音声に応じた処理を適切に行うことができる。 In this embodiment, the processing unit is provided in the vehicle. The vehicle then performs processing in response to the voice command based on the control signal. This allows appropriate processing to be performed in response to the voice uttered by the user.
以上、実施の形態を挙げて本発明を説明したが、本発明はこれらの実施の形態等には限定されず、種々の変形が可能である。 The present invention has been described above using embodiments, but the present invention is not limited to these embodiments and various modifications are possible.
例えば、上記実施の形態では、本技術を車両10に適用したが、これに限定されるものではなく、これに代えて、様々な装置に適用することができる。具体的には、本技術を、例えばスマートフォンやスマートスピーカに適用してもよい。 For example, in the above embodiment, the present technology is applied to a vehicle 10, but the present technology is not limited to this and can be applied to various devices instead. Specifically, the present technology may be applied to, for example, a smartphone or a smart speaker.
また、例えば、図2~4に記載の音声コマンドは一例であり、他の音声コマンドであってもよい。 In addition, for example, the voice commands shown in Figures 2 to 4 are just examples, and other voice commands may be used.
本明細書中に記載された効果はあくまで例示であり、本開示の効果は、本明細書中に記載された効果に限定されない。よって、本開示に関して、他の効果が得られてもよい。 The effects described in this specification are merely examples, and the effects of the present disclosure are not limited to the effects described in this specification. Therefore, other effects may be obtained with respect to the present disclosure.
さらに、本開示は、以下の態様を取り得る。 Furthermore, the present disclosure may take the following forms:
(1)
音声データに基づいて、前記音声データに含まれる、予め定められた音声コマンドを検出する音声解析部と、
前記音声解析部により検出された前記音声コマンドに基づいて、その音声コマンドが示す処理を指示する制御信号を生成する制御信号生成部と
を備え、
前記音声コマンドは、第1の部分と、前記第1の部分よりも後に配置され、動詞を含む第2の部分と、前記第2の部分よりも後に配置され、前記第1の部分と同じである第3の部分とを含む
音声処理装置。
(2)
前記第1の部分における文字の数は、前記第2の部分における文字の数よりも少ない
前記(1)に記載の音声処理装置。
(3)
前記第1の部分は、前記第2の部分に含まれる前記動詞の目的語を含む
前記(1)または(2)に記載の音声処理装置。
(4)
前記音声処理装置は、車両設けられ、
前記車両は、前記制御信号に基づいて、前記音声コマンドに応じた処理を行う
前記(1)から(3)のいずれかに記載の音声処理装置。
(1)
a voice analysis unit that detects a predetermined voice command included in the voice data based on the voice data;
a control signal generating unit configured to generate a control signal for instructing a process indicated by the voice command based on the voice command detected by the voice analyzing unit,
The voice command includes a first portion, a second portion located after the first portion and including a verb, and a third portion located after the second portion and identical to the first portion.
(2)
The speech processing device according to (1), wherein the number of characters in the first portion is smaller than the number of characters in the second portion.
(3)
The speech processing device according to (1) or (2), wherein the first portion includes an object of the verb included in the second portion.
(4)
The voice processing device is provided in a vehicle,
The voice processing device according to any one of (1) to (3), wherein the vehicle performs processing according to the voice command based on the control signal.
1…音声処理システム、10…車両、11…ユーザインタフェース、12…マイクロフォン、13…通信部、14…ナビゲーション処理部、15…ヘッドランプ制御部、16…ドアロック制御部、20…処理部、21…音声解析部、22…制御信号生成部、100…スマートフォン。 1... voice processing system, 10... vehicle, 11... user interface, 12... microphone, 13... communication unit, 14... navigation processing unit, 15... headlamp control unit, 16... door lock control unit, 20... processing unit, 21... voice analysis unit, 22... control signal generation unit, 100... smartphone.
Claims (4)
前記音声解析部により検出された前記音声コマンドに基づいて、その音声コマンドが示す処理を指示する制御信号を生成する制御信号生成部と
を備え、
前記音声コマンドは、第1の部分と、前記第1の部分よりも後に配置され、動詞を含む第2の部分と、前記第2の部分よりも後に配置され、前記第1の部分と同じである第3の部分とを含む
音声処理装置。 a voice analysis unit that detects a predetermined voice command included in the voice data based on the voice data;
a control signal generating unit configured to generate a control signal for instructing a process indicated by the voice command based on the voice command detected by the voice analyzing unit,
The voice command includes a first portion, a second portion located after the first portion and including a verb, and a third portion located after the second portion and identical to the first portion.
請求項1に記載の音声処理装置。 The speech processing device of claim 1 , wherein the number of characters in the first portion is less than the number of characters in the second portion.
請求項1に記載の音声処理装置。 The speech processing device according to claim 1 , wherein the first portion includes an object of the verb included in the second portion.
前記車両は、前記制御信号に基づいて、前記音声コマンドに応じた処理を行う
請求項1に記載の音声処理装置。 The voice processing device is provided in a vehicle,
The voice processing device according to claim 1 , wherein the vehicle performs processing in accordance with the voice command based on the control signal.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2022202302A JP2024087465A (en) | 2022-12-19 | 2022-12-19 | Voice processing device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2022202302A JP2024087465A (en) | 2022-12-19 | 2022-12-19 | Voice processing device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2024087465A true JP2024087465A (en) | 2024-07-01 |
Family
ID=91671437
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022202302A Pending JP2024087465A (en) | 2022-12-19 | 2022-12-19 | Voice processing device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2024087465A (en) |
-
2022
- 2022-12-19 JP JP2022202302A patent/JP2024087465A/en active Pending
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN108242236B (en) | Dialogue processing device, vehicle and dialogue processing method | |
| US9202465B2 (en) | Speech recognition dependent on text message content | |
| CN111661068B (en) | Agent device, method for controlling agent device, and storage medium | |
| US7826945B2 (en) | Automobile speech-recognition interface | |
| US8639508B2 (en) | User-specific confidence thresholds for speech recognition | |
| US8438028B2 (en) | Nametag confusability determination | |
| US9484027B2 (en) | Using pitch during speech recognition post-processing to improve recognition accuracy | |
| CN105222797B (en) | Utilize the system and method for oral instruction and the navigation system of partial match search | |
| US20070219786A1 (en) | Method for providing external user automatic speech recognition dictation recording and playback | |
| JP2020154082A (en) | Agent device, agent device control method, and program | |
| JP7239359B2 (en) | AGENT DEVICE, CONTROL METHOD OF AGENT DEVICE, AND PROGRAM | |
| JP2020144264A (en) | Agent device, control method of agent device, and program | |
| JP7274901B2 (en) | AGENT DEVICE, CONTROL METHOD OF AGENT DEVICE, AND PROGRAM | |
| JP7239365B2 (en) | AGENT DEVICE, CONTROL METHOD OF AGENT DEVICE, AND PROGRAM | |
| JP2024087465A (en) | Voice processing device | |
| JP7169921B2 (en) | AGENT DEVICE, AGENT SYSTEM, CONTROL METHOD OF AGENT DEVICE, AND PROGRAM | |
| JP2020160132A (en) | Agent device, agent device control method and program, agent server as well as agent server control method | |
| JP2020079865A (en) | Information processing device, agent system, information processing method, and program | |
| JP2021033929A (en) | Control system and control method | |
| JP2020152298A (en) | Agent device, agent device control method, and program | |
| JP2020142721A (en) | Agent system, on-vehicle equipment control method, and program | |
| JP7217209B2 (en) | VOICE DIALOGUE DEVICE, VOICE DIALOGUE METHOD, AND PROGRAM | |
| JP7274376B2 (en) | AGENT DEVICE, CONTROL METHOD OF AGENT DEVICE, AND PROGRAM | |
| JP2020135110A (en) | Agent device, agent device control method, and program | |
| JP7297483B2 (en) | AGENT SYSTEM, SERVER DEVICE, CONTROL METHOD OF AGENT SYSTEM, AND PROGRAM |