[go: up one dir, main page]

JP2003177786A - Language model creation device and speech recognition device using the same - Google Patents

Language model creation device and speech recognition device using the same

Info

Publication number
JP2003177786A
JP2003177786A JP2001376804A JP2001376804A JP2003177786A JP 2003177786 A JP2003177786 A JP 2003177786A JP 2001376804 A JP2001376804 A JP 2001376804A JP 2001376804 A JP2001376804 A JP 2001376804A JP 2003177786 A JP2003177786 A JP 2003177786A
Authority
JP
Japan
Prior art keywords
corpus
sentence
language model
similarity
scale
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001376804A
Other languages
Japanese (ja)
Other versions
JP2003177786A5 (en
Inventor
Makoto Nishizaki
誠 西崎
Yoshihisa Nakato
良久 中藤
Mitsuru Endo
充 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2001376804A priority Critical patent/JP2003177786A/en
Publication of JP2003177786A publication Critical patent/JP2003177786A/en
Publication of JP2003177786A5 publication Critical patent/JP2003177786A5/ja
Withdrawn legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 例文とそのバリエーションが認識可能となる
言語モデルの生成を容易に行うことを目的とする。 【解決手段】 例文を予め格納する例文コーパス記憶部
11と、大規模コーパスを格納する大規模コーパス記憶
部12と、前記例文コーパス記憶部に格納される例文に
類似した文を前記大規模コーパス記憶部の大規模コーパ
スから選択し、テキストを抽出するテキスト選択部13
と、前記選択されたコーパスと前記例文コーパスを利用
して言語モデルの学習を行う言語モデル学習部15とを
具備することを特徴とするもので、例文とあらかじめ用
意された大規模コーパスを用いることで例文とそのバリ
エーションが認識可能となる言語モデルの生成を容易に
行うことができるものである。
(57) [Summary] [PROBLEMS] To easily generate a language model capable of recognizing example sentences and variations thereof. An example sentence corpus storage unit for storing example sentences in advance, a large-scale corpus storage unit for storing a large-scale corpus, and a sentence similar to an example sentence stored in the example-sentence corpus storage unit are stored in the large-scale corpus storage. Selection unit 13 for selecting text from a large-scale corpus and extracting text
And a language model learning unit 15 that learns a language model using the selected corpus and the example sentence corpus, and uses an example sentence and a large-scale corpus prepared in advance. Thus, it is possible to easily generate a language model capable of recognizing example sentences and variations thereof.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業の属する技術分野】本発明は、音声認識のなかで
言語制約の部分を受け持つ言語モデル装置及びそれを利
用した音声認識装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a language model device which is responsible for a language restriction part in speech recognition and a speech recognition device using the language model device.

【0002】[0002]

【従来の技術】連続音声認識で用いられる言語制約とし
て、単語の連接関係を確率的にモデル化した統計的言語
モデルN-gramが使われる。しかし、言語モデルN-gramの
構築のためには、使用される環境に合わせた発声例を大
量に収集して単語連接情報を必要がある。しかし、応用
ごとに大量のコーパスを1から集めることは、コストや
時間の観点から現実的に困難である。
2. Description of the Related Art As a language constraint used in continuous speech recognition, a statistical language model N-gram which stochastically models word concatenation is used. However, in order to construct a language model N-gram, it is necessary to collect a large number of utterance examples according to the environment in which they are used and to obtain word concatenation information. However, it is practically difficult to collect a large number of corpus from one for each application from the viewpoint of cost and time.

【0003】この問題に対して、既存の大規模コーパス
を利用する試みがなされている。しかし、単純に既存の
コーパスをただ使うだけでは、十分な性能が得られない
ことが特開2001−134285号公報で指摘されて
おり、大規模コーパスを加える際に発声目的に応じて加
える文の取捨選択が効果的であることが開示されてい
る。
For this problem, an attempt has been made to use an existing large-scale corpus. However, it has been pointed out in Japanese Patent Laid-Open No. 2001-134285 that sufficient performance cannot be obtained by simply using an existing corpus, and when adding a large-scale corpus, a sentence to be added depending on the utterance purpose is added. It is disclosed that the selection is effective.

【0004】図4に特開2001−134285号公報
で開示されている音声認識装置の構成図を示し、以下に
説明する。学習データ選択部1において音声認識部5で
使用する言語モデル又はコーパスを学習データ記憶部2
から選択し、学習データ変換部3において音声認識部5
で利用するフォーマットに変換した後、音声認識部5は
発話内容や相手に適した言語モデルを利用して音声認識
を行うものである。
FIG. 4 shows a block diagram of a voice recognition device disclosed in Japanese Patent Laid-Open No. 2001-134285, which will be described below. In the learning data selection unit 1, the language model or corpus used in the speech recognition unit 5 is set as the learning data storage unit 2
Selected from the speech recognition section 5 in the learning data conversion section 3
After conversion into the format used in, the voice recognition unit 5 performs voice recognition by using a language model suitable for the utterance content and the partner.

【0005】[0005]

【発明が解決しようとする課題】しかし、発声目的に応
じて、加える文の取捨選択を行うためには、あらかじめ
大規模コーパスの各文に対して、分類情報を付与してお
く必要がある。そのため、各選択文に対して選択するか
否かの判断を下すことは現実的には困難である。
However, in order to select sentences to be added according to the purpose of utterance, it is necessary to add classification information to each sentence of the large-scale corpus in advance. Therefore, it is practically difficult to judge whether or not to select each selected sentence.

【0006】このことは、音声翻訳など比較的少数な特
定の文(数千文程度)の認識を目的としたシステムの開
発に対しては問題となる。特定文の認識を行うために
は、あらかじめ入力対象となる文と、各々の文に対する
利用者の発声しうる各文のバリエーションの吸収が可能
な言語モデルの構築が必要となる。しかし、大規模コー
パスの各文に対して、各々がそのバリエーションに相当
するのか否かの判定を人手で行うことはコストの観点か
ら難しいという課題を有していた。
[0006] This poses a problem for the development of a system for recognizing a relatively small number of specific sentences (about several thousand sentences) such as voice translation. In order to recognize a specific sentence, it is necessary to build a language model that can absorb the sentence to be input and the variations of each sentence that can be uttered by the user for each sentence. However, it is difficult from a cost point of view to manually determine whether or not each sentence of a large-scale corpus corresponds to its variation.

【0007】本発明は、例文とあらかじめ用意された大
規模コーパスを用いることで例文とそのバリエーション
が認識可能となる言語モデルの生成を容易に行うことを
目的とする。
An object of the present invention is to easily generate a language model in which an example sentence and its variations can be recognized by using the example sentence and a large-scale corpus prepared in advance.

【0008】[0008]

【課題を解決するための手段】この課題を解決するため
に本発明は、例文を予め格納する例文コーパス記憶部
と、大規模コーパスを格納する大規模コーパス記憶部
と、前記例文コーパス記憶部に格納される例文に類似し
た文を前記大規模コーパス記憶部の大規模コーパスから
選択し、テキストを抽出するテキスト選択部と、前記選
択されたコーパスと前記例文コーパスを利用して言語モ
デルの学習を行う言語モデル学習部とを具備するように
構成したものである。
In order to solve this problem, the present invention provides an example sentence corpus storage unit that stores example sentences in advance, a large-scale corpus storage unit that stores a large-scale corpus, and the example sentence corpus storage unit. A sentence similar to the stored example sentence is selected from the large-scale corpus of the large-scale corpus storage unit, and a text selection unit for extracting text, a language model learning using the selected corpus and the example sentence corpus. And a language model learning unit for performing.

【0009】これにより、大規模コーパスの各文があら
かじめ用意された例文のバリエーションであるか否かの
判定基準を設けることで、自動的に選択が行える方法を
提供し、例文とあらかじめ用意された大規模コーパスを
用いることで例文とそのバリエーションが認識可能とな
る言語モデルの生成を容易に行うことができるものであ
る。
Thus, by providing a criterion for determining whether or not each sentence of the large-scale corpus is a variation of the prepared example sentence, a method for automatically selecting is provided, and the example sentence and the prepared sentence are prepared in advance. By using a large-scale corpus, it is possible to easily generate a language model that can recognize example sentences and their variations.

【0010】[0010]

【発明の実施の形態】本発明の請求項1に記載の発明
は、2種類のコーパスを用意し、第1のコーパスをもと
に第2のコーパスから第1のコーパスに関連する文を選
択するテキスト選択方法において、第1のコーパス内の
文と類似した文を第2のコーパスから選択し、前記選択
によって得られた選択コーパスあるいは第1のコーパス
と選択コーパスの組み合わせによって言語モデルを作成
するとしたものであり、第1のコーパス作成で想定でき
なかった文を第2のコーパスから選び出し言語モデルの
作成に利用することでより頑健な言語モデルが作成可能
となる作用を有する。
BEST MODE FOR CARRYING OUT THE INVENTION The invention according to claim 1 of the present invention prepares two kinds of corpora, and selects sentences related to the first corpus from the second corpus based on the first corpus. In the text selecting method, a sentence similar to the sentence in the first corpus is selected from the second corpus, and a language model is created by the selected corpus obtained by the selection or the combination of the first corpus and the selected corpus. By selecting a sentence that cannot be assumed in the creation of the first corpus from the second corpus and using it in the creation of the language model, a more robust language model can be created.

【0011】請求項2に記載の発明は、請求項1の言語
モデル作成方法において、人手により付与された類似度
を用いることを特徴としたものであり、第2のコーパス
から類似した文を精度良く選択でき、頑健な言語モデル
が作成できるという作用を有する。
The invention according to claim 2 is characterized in that, in the language model creating method according to claim 1, the degree of similarity given by hand is used, and a similar sentence is obtained from the second corpus with high accuracy. It has the effect of being able to select well and to create a robust language model.

【0012】請求項3に記載の発明は、請求項1の言語
モデル作成方法において、類似性の判定を行う対象文を
形態素に相当する単位に分割し、表記上の対応関係を求
めた上、前記第1のコーパスに属する文が第2のコーパ
スに属する文にどれだけ再現されているかという尺度
と、どれだけ正確に再現されているかという尺度を類似
度として利用するものであり、人手を掛けることなく頑
健な言語モデルが作成可能となる作用を有する。
According to a third aspect of the present invention, in the language model creating method of the first aspect, the target sentence for which similarity is to be determined is divided into units corresponding to morphemes, and the notational correspondence is obtained. The scale of how much the sentence belonging to the first corpus is reproduced in the sentence belonging to the second corpus and the scale of how accurately it is reproduced are used as the degree of similarity. This has the effect of making it possible to create a robust language model.

【0013】請求項4に記載の発明は、請求項1の言語
モデル作成方法において、類似性の判定を行う対象文を
形態素に相当する単位に分割し、対応関係を求めた上、
前記第1のコーパスに属する文が第2のコーパスに属す
る文にどれだけ再現されているかという尺度と、どれだ
け正確に再現されているかという尺度を適切な重みで組
み合わせ類似度として利用するものであり、選択基準に
重み付けができ、さらに類似度パラメタを一元化できる
という作用を有する。
According to a fourth aspect of the present invention, in the language model creating method according to the first aspect, the target sentence for which similarity is to be determined is divided into units corresponding to morphemes, and the correspondence is determined.
A measure of how much the sentence belonging to the first corpus is reproduced in the sentence belonging to the second corpus and a measure of how accurately it is reproduced are used as a combination similarity with appropriate weights. The selection criterion can be weighted, and the similarity parameter can be unified.

【0014】請求項5に記載の発明は、請求項3または
請求項4の言語モデル作成方法において、形態素に相当
する単位毎に重みをつけて類似度の計算を行うことを特
徴とするものであり、類似度の計算をより緻密に行うこ
とが可能となるという作用を有する。
The invention according to a fifth aspect is characterized in that, in the language model creating method according to the third or fourth aspect, the similarity is calculated by weighting each unit corresponding to a morpheme. There is an effect that the similarity can be calculated more precisely.

【0015】請求項6に記載の発明は、請求項5の言語
モデル作成方法において、名詞や動詞といった自立語の
みに基づいて類似度の計算を行うことを特徴とするもの
であり、文の意味内容に基づいた類似度の計算を可能に
するという作用を有する。
The invention according to claim 6 is characterized in that, in the method for creating a language model according to claim 5, the similarity is calculated based only on independent words such as nouns and verbs, and the meaning of the sentence. It has an effect of enabling calculation of similarity based on content.

【0016】請求項7に記載の発明は、前記請求項1乃
至6のいずれかに記載の言語モデル作成方法において、
第2のコーパスとしてユーザの書いたメールや文章を利
用することを特徴としたものであり、個人に適応した言
語モデルが作成可能になるという作用を有する。
According to a seventh aspect of the present invention, in the language model creating method according to any one of the first to sixth aspects,
The second corpus is characterized by using a mail or a sentence written by the user, and has an effect that a language model adapted to an individual can be created.

【0017】請求項8に記載の発明は、請求項1乃至7
のいずれかに記載の言語モデル作成方法において、第1
コーパスをもとに複数のコーパスから文を選択し利用す
ることを特徴としたものであり、より多くのコーパスを
利用することで選択コーパスのさらなる拡充を実現でき
るという作用を有する。
The invention according to claim 8 is the same as claims 1 to 7.
The method for creating a language model according to any one of
The feature is that sentences are selected and used from a plurality of corpuses based on the corpora, and the selection corpora can be further expanded by using more corpora.

【0018】請求項9に記載の音声認識方法は、請求項
1乃至8のいずれかに記載の言語モデル作成方法に基づ
き作成された言語モデルを利用して、音声認識を行うこ
とを特徴としたものであり、コーパスを拡充した効果に
より、第1のコーパスにより学習した言語モデルによる
音声認識に対して、ユーザの発声の自由度を増すことが
できるという作用を有する。
The speech recognition method according to claim 9 is characterized in that speech recognition is performed using a language model created based on the language model creation method according to any one of claims 1 to 8. The effect of expanding the corpus has the effect that the degree of freedom of the user's utterance can be increased with respect to the speech recognition by the language model learned by the first corpus.

【0019】請求項10に記載の発明は、例文を予め格
納する例文コーパス記憶部と、大規模コーパスを格納す
る大規模コーパス記憶部と、前記例文コーパス記憶部に
格納される例文に類似した文を前記大規模コーパス記憶
部の大規模コーパスから選択し、テキストを抽出するテ
キスト選択部と、前記選択されたコーパスと前記例文コ
ーパスを利用して言語モデルの学習を行う言語モデル学
習部とを具備することを特徴とするもので、第1のコー
パス作成で想定できなかった文を第2のコーパスから選
び出し言語モデルの作成に利用することでより頑健な言
語モデルが作成可能となる作用を有する。
According to the tenth aspect of the invention, an example sentence corpus storage unit for storing an example sentence in advance, a large scale corpus storage unit for storing a large scale corpus, and a sentence similar to the example sentence stored in the example sentence corpus storage unit. Is selected from the large-scale corpus of the large-scale corpus storage unit to extract text, and a language model learning unit that learns a language model using the selected corpus and the example sentence corpus. This has the effect of making it possible to create a more robust language model by selecting sentences that could not be assumed in the creation of the first corpus from the second corpus and using them in the creation of the language model.

【0020】請求項11に記載の発明は、請求項10記
載の言語モデル作成装置において、前記テキスト選択部
は、類似性の判定を行う対象文を形態素に相当する単位
に分割し、表記上の対応関係を求めた上、前記第1のコ
ーパスに属する文が第2のコーパスに属する文にどれだ
け再現されているかという尺度と、どれだけ正確に再現
されているかという尺度を類似度として利用することを
特徴とするもので、人手を掛けることなく頑健な言語モ
デルが作成可能となる作用を有する。
According to an eleventh aspect of the present invention, in the language model creating apparatus according to the tenth aspect, the text selection unit divides a target sentence for which similarity determination is performed into units corresponding to morphemes, In addition to obtaining the correspondence, a measure of how much the sentence belonging to the first corpus is reproduced in the sentence belonging to the second corpus and a measure of how accurately it is reproduced are used as the similarity. This has the effect that a robust language model can be created without manpower.

【0021】請求項12に記載の発明は、請求項10記
載の言語モデル作成装置において、前記テキスト選択部
は、類似性の判定を行う対象文を形態素に相当する単位
に分割し、対応関係を求めた上、前記第1のコーパスに
属する文が第2のコーパスに属する文にどれだけ再現さ
れているかという尺度と、どれだけ正確に再現されてい
るかという尺度を適切な重みで組み合わせ類似度として
利用することを特徴とするもので、選択基準に重み付け
ができ、さらに類似度パラメタを一元化できるという作
用を有する。
According to a twelfth aspect of the present invention, in the language model creating apparatus according to the tenth aspect, the text selection unit divides a target sentence for which similarity is to be determined into units corresponding to morphemes, and establishes correspondence relationships. In addition, a measure of how much the sentence belonging to the first corpus is reproduced in the sentence belonging to the second corpus and a measure of how accurately it is reproduced are combined with appropriate weights as the similarity degree. It is characterized by being used, and has the effect that the selection criteria can be weighted and that the similarity parameter can be unified.

【0022】請求項13に記載の発明は、請求項11ま
たは請求項12記載の言語モデル作成装置において、形
態素に相当する単位毎に重みをつけて、類似度の計算を
行いうことを特徴とするもので、類似度の計算をより緻
密に行うことが可能となるという作用を有する。
According to a thirteenth aspect of the present invention, in the language model creating apparatus according to the eleventh aspect or the twelfth aspect, the similarity is calculated by weighting each unit corresponding to a morpheme. This has the effect of making it possible to calculate the degree of similarity more precisely.

【0023】請求項14に記載の発明は、前記請求項1
0乃至13のいずれかに記載の言語モデル作成装置によ
り作成された言語モデルを利用して音声認識を行うこと
を特徴とするもので、コーパスを拡充した効果により、
第1のコーパスにより学習した言語モデルによる音声認
識に対して、ユーザの発声の自由度を増すことができる
という作用を有する。
The invention according to claim 14 is the same as claim 1
The speech recognition is performed by using the language model created by the language model creation device according to any one of 0 to 13, and the effect of expanding the corpus is
It has an effect that the degree of freedom of the user's utterance can be increased with respect to the voice recognition by the language model learned by the first corpus.

【0024】以下に本発明の実施の形態について、図を
用いて説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0025】(実施の形態1)図1は、本発明の実施の
形態1における言語モデル作成装置を備えた音声認識装
置のブロック図である。
(Embodiment 1) FIG. 1 is a block diagram of a speech recognition apparatus equipped with a language model creating apparatus according to Embodiment 1 of the present invention.

【0026】図1において、11は例文を予め格納する
例文コーパス記憶部、12は大規模コーパスを格納する
大規模コーパス記憶部、13は例文コーパス記憶部11
に格納される例文に類似した文を大規模コーパス記憶部
12の大規模コーパスから選択し抽出するテキスト選択
部、14は選択されたテキストが格納される選択コーパ
ス記憶部、15は選択されたコーパスと例文コーパスを
利用し言語モデルの学習を行う言語モデル学習部、17
は認識対象となる音声を入力する音声入力部、16は音
声入力部17で取り込まれた音声に対して認識処理を行
う音声認識部、18はその結果の出力部である。
In FIG. 1, 11 is an example sentence corpus storage unit that stores example sentences in advance, 12 is a large scale corpus storage unit that stores a large scale corpus, and 13 is an example sentence corpus storage unit 11.
The text selection unit for selecting and extracting a sentence similar to the example sentence stored in the large-scale corpus storage unit 12 from the large-scale corpus, 14 is a selected corpus storage unit in which the selected text is stored, and 15 is the selected corpus Language model learning unit for learning a language model using the corpus and example sentence corpus, 17
Is a voice input unit that inputs a voice to be recognized, 16 is a voice recognition unit that performs recognition processing on the voice captured by the voice input unit 17, and 18 is an output unit of the result.

【0027】上記のように構成された音声認識装置の動
作について説明する。
The operation of the speech recognition apparatus configured as above will be described.

【0028】例文コーパス記憶部11は、システム開発
者や利用者などによってあらかじめ例文が格納されてい
る記憶装置である。例文の格納形態は、各文をあらかじ
め単語に相当する単位(以下、形態素)に分割をしてお
くことが望ましいが、例文をそのままで格納しておくこ
とも可能であり、例文コーパス記憶部11から出力する
際は、形態素解析などのフィルタを使用し、形態素に分
割すれば良い。
The example sentence corpus storage unit 11 is a storage device in which example sentences are stored in advance by a system developer or a user. Regarding the storage form of example sentences, it is desirable to divide each sentence into units (hereinafter, morphemes) corresponding to words in advance, but it is also possible to store example sentences as they are, and the example sentence corpus storage unit 11 When outputting from, a filter such as a morpheme analysis may be used and divided into morphemes.

【0029】大規模コーパス記憶部12は、大規模コー
パスとしては、新聞データベースや旅行会話のデータベ
ースなどを利用できる。格納形態は、例文コーパス記憶
部11と同様にあらかじめ単語に相当する単位に分割を
しておくことが望ましいが、上記データベースをそのま
まで格納しても、形態素解析などのフィルタを大規模コ
ーパス記憶部12からデータを出力する際に利用すれば
良い。
The large-scale corpus storage unit 12 can use a newspaper database, a travel conversation database, or the like as the large-scale corpus. It is desirable that the storage form is divided into units corresponding to words in advance like the example sentence corpus storage unit 11. However, even if the above database is stored as it is, a filter for morphological analysis or the like is stored in the large-scale corpus storage unit. It may be used when data is output from 12.

【0030】テキスト選択部13は、例文コーパス記憶
部11と大規模コーパス記憶部12から類似性の判定を
行うための形態素に相当する単位に区切られた文を受け
取り、後述する基準でそれらの間の類似度を求める。こ
の類似度があらかじめ決められた基準を満たすと、判定
を行った大規模コーパスの文が例文に似ていると判定
し、その文を選択コーパス記憶部4に出力する。
The text selection unit 13 receives sentences separated from the example sentence corpus storage unit 11 and the large-scale corpus storage unit 12 in units corresponding to morphemes for determining similarity, and the sentences are separated between them according to a criterion described later. The degree of similarity of. When the degree of similarity satisfies a predetermined criterion, it is determined that the sentence of the determined large-scale corpus is similar to the example sentence, and the sentence is output to the selected corpus storage unit 4.

【0031】選択コーパス記憶部14には、例文に類似
していると判定された文が大規模コーパスから選択され
格納される。言語モデル学習部15は、選択コーパス記
憶部14に得られた選択コーパスと例文コーパスをもと
に、それらを適切な重みで混合して言語モデルの学習を
行う。学習される言語モデルは2-gram,3-gramなどその
種類は問わない。
In the selected corpus storage unit 14, sentences judged to be similar to the example sentence are selected from the large-scale corpus and stored. Based on the selected corpus and the example sentence corpus obtained in the selected corpus storage unit 14, the language model learning unit 15 mixes them with appropriate weights to learn a language model. The language model to be learned may be of any type such as 2-gram or 3-gram.

【0032】以上のように学習された言語モデルをもと
に、音声認識部16では音声入力部17でとり込まれた
音声の認識を行い、その結果をデータ出力部18に送る
ことで、データ出力部18で出力される。出力の方法
は、ディスプレイを用いて利用者に提示しても良いし、
出力部の先にアプリケーションをつなげることで、音声
認識の結果を他のアプリケーションで利用することも可
能である。
Based on the language model learned as described above, the voice recognition unit 16 recognizes the voice captured by the voice input unit 17, and sends the result to the data output unit 18 to obtain the data. It is output by the output unit 18. The output method may be presented to the user using a display,
By connecting an application to the end of the output section, the result of voice recognition can be used in another application.

【0033】以下、テキスト選択部13の詳しい動作を
説明する。一般に、大規模コーパスに蓄えられた文と例
文コーパスに蓄えられた文は、長さも違えば使われてい
る単語も異なっている。文間の類似性を求めるために
は、それらの間の対応関係を求めておく必要がある。
The detailed operation of the text selection unit 13 will be described below. In general, sentences stored in a large-scale corpus and sentences stored in an example sentence corpus have different lengths and different words used. In order to find the similarity between sentences, it is necessary to find the correspondence between them.

【0034】図2は例文28、30と大規模コーパス側
の文27、29として以下の2例を想定した場合の対応
付けを行った例である。
FIG. 2 is an example in which the example sentences 28 and 30 and the sentences 27 and 29 on the large-scale corpus side are associated with each other assuming the following two examples.

【0035】このような対応付けは、DP法(動的計画
法)などの手法を利用すれば簡単に実現できる。図2の
C、S、I、Dのそれぞれの記号21,22は、C23
が両文の間で同一であったと判定された部分、S24が
単語の入れ替わりが起きたと判定された部分、I25が
大規模コーパス側で余計な形態素が入っている(挿入)
と判定された部分、D26が大規模コーパス側に抜け、
つまり脱落があった部分を意味する。
Such correspondence can be easily realized by using a method such as the DP method (dynamic programming method). The symbols 21 and 22 of C, S, I, and D in FIG.
Is determined to be the same between the two sentences, S24 is determined to have been transposed, and I25 is an extra morpheme on the large-scale corpus side (insert).
The part that was determined to be, D26 escaped to the large corpus side,
In other words, it means the part that was dropped.

【0036】このような対応づけが行なわれた両文に対
して、テキスト選択部13では再現率(以下、Corre)
と適合率(以下、Acc)に相当する2つの類似度パラメ
タを計算し、この類似度パラメタをもとに、あらかじめ
設定された閾値Cth, Athを超えるものを類似文として選
択する。類似度の計算は以下のように行う。
The text selection unit 13 reproduces the recall rate (hereinafter, "Corre") of both sentences associated with each other.
And two similarity parameters corresponding to the matching rate (hereinafter referred to as Acc) are calculated, and based on these similarity parameters, those exceeding a preset threshold value Cth, Ath are selected as similar sentences. The calculation of the degree of similarity is performed as follows.

【0037】[0037]

【数1】 [Equation 1]

【0038】Nは用例側の総形態素数、NCは両文間で
等しいと判定された形態素の数、NIは用例にはなく大
規模コーパス側の文に含まれると判定された形態素の
数、つまりIの数である。
N is the total number of morphemes on the example side, N C is the number of morphemes determined to be the same between both sentences, and N I is the number of morphemes determined to be included in the sentence on the large-scale corpus side not in the example. The number, that is, the number of I.

【0039】図2の例で、各々の類似度パラメタは以下
のように計算できる。
In the example of FIG. 2, each similarity parameter can be calculated as follows.

【0040】 例1 Corre = 3/5 = 0.6 Acc = 3/(5+1) =
0.5 例2 Corre = 4/6 = 0.67 Acc = 4/(6+1) = 0.57 類似文の選択を行う閾値Cth, Athを変えることで最終的
に得られる言語モデルの性能は変化する。例えば、Cth>
0.7, Ath>0.7といった閾値に設定することで、例文に対
して語尾変化を起こしたような文。例えば、「席はあり
ますか」に対して、「席はありませんか」といった文が
大規模コーパスから選択することが可能となる。また、
「席はありますか」に対して、「ジュースはあります
か」のように単語が入れ替わっただけの文の選択も可能
となる。
Example 1 Corre = 3/5 = 0.6 Acc = 3 / (5 + 1) =
0.5 Example 2 Corre = 4/6 = 0.67 Acc = 4 / (6 + 1) = 0.57 The performance of the finally obtained language model changes by changing the thresholds Cth and Ath for selecting similar sentences. For example, Cth>
Sentences that change the endings of example sentences by setting thresholds such as 0.7 and Ath> 0.7. For example, a sentence such as "Do you have a seat?" Can be selected from a large corpus in response to "Do you have a seat?". Also,
It is also possible to select a sentence in which the words are exchanged, such as "Do you have juice?"

【0041】しかし、上の例のように「席」に対して
「ジュース」と入れ替えが起きている文の選択を行うと
出現する形態素の種類が増加してしまう。このようなケ
ースが問題になる場合には、形態素間の意味的類似性の
情報をシソーラスなどにより持っておくことで、類似性
にそって入れ替えられる形態素に制約をかけることによ
り目的に添った形で文の選択が可能となる。また、類似
度の計算を動詞や名詞といった自立語だけに注目し行う
ことも可能である。このように、形態素に重み付けを行
うことで、文体の違いを無視し、文の内容のみにそって
文の選択が可能となる。
However, when a sentence in which "juice" is replaced with "seat" is selected as in the above example, the types of morphemes that appear will increase. When such a case becomes a problem, information about the semantic similarity between morphemes is held by a thesaurus, etc., and the morphemes that can be replaced according to the similarity are constrained to achieve the desired shape. The sentence can be selected with. It is also possible to calculate the degree of similarity by focusing only on independent words such as verbs and nouns. By weighting the morphemes in this way, it becomes possible to ignore the difference in style and select a sentence only based on the content of the sentence.

【0042】以上の動作をフローチャートで示すと図3
のようになる。ステップ301で変数の初期化を行う。ス
テップ302ですべての用例文(Ny個の用例があるとす
る)に対して、以下の処理を行ったかの判定を行い、行
っていれば(i>=Ny)ステップ311の終了処理に行く。そ
うでなければ、i番目の用例文に対して、すべての大規
模コーパス内の文との類似度を計算する処理に移る。ス
テップ304で変数の初期化を行い、ステップ305ですべて
の処理が終了したかのチェックを行う。終わってなけれ
ばステップ307で類似度の計算を行う。ステップ308で求
めた類似度が選択するか否かの閾値を超えているかの判
定を行い、超えていればステップ309で選択された文を
選択コーパス記憶部にコピーをする。その後、変数jに
1を足し、次の大規模コーパスの文j+1に対し同様の処
理を行う。ここで、一度選択が行われた大規模コーパス
の文にフラグをつけることで、同じ文を何度も選択しま
うといった問題を避けることが可能である。
FIG. 3 is a flow chart showing the above operation.
become that way. In step 301, variables are initialized. In step 302, it is determined whether or not the following process has been performed for all example sentences (assuming that there are Ny examples), and if so (i> = Ny), the end process of step 311 is performed. If not, the process moves to the process of calculating the degree of similarity with the sentences in all large-scale corpora for the i-th example sentence. In step 304, variables are initialized, and in step 305, it is checked whether all the processing is completed. If not completed, the similarity is calculated in step 307. It is determined whether the similarity calculated in step 308 exceeds a threshold for selecting or not, and if it exceeds, the sentence selected in step 309 is copied to the selected corpus storage unit. After that, 1 is added to the variable j, and similar processing is performed on the sentence j + 1 of the next large-scale corpus. Here, it is possible to avoid the problem of selecting the same sentence many times by adding a flag to the sentence of the large-scale corpus that has been selected once.

【0043】本実施の形態では、比較的少数の文例を格
納する例文コーパス記憶部11と大規模コーパス記憶部
12を想定していた。しかし、各々のコーパスのどちら
も大規模コーパスに置きかえることは可能である。同様
に、両コーパスを少数の例文を格納する記憶部とするこ
とも可能である。また、第1のコーパスに類似した文を
複数のコーパスから選択してくることも、前記複数コー
パスを順に第2コーパスと入れ替えることで実現可能で
ある。
In the present embodiment, the example sentence corpus storage unit 11 and the large-scale corpus storage unit 12 which store a relatively small number of sentence examples are assumed. However, it is possible to replace both of each corpus with a large corpus. Similarly, both corpus can be used as a storage unit for storing a small number of example sentences. It is also possible to select a sentence similar to the first corpus from the plurality of corpora by sequentially replacing the plurality of corpora with the second corpus.

【0044】また、大規模コーパスとしてユーザのメー
ルやユーザの作った文書ファイルあるいは過去に見たホ
ームページなどを利用することも可能である。これによ
り、ユーザが発声する表現や内容に言語モデルの適応を
行うことも可能である。
It is also possible to use a user's mail, a user-created document file, or a home page viewed in the past as a large-scale corpus. As a result, it is possible to adapt the language model to the expressions and contents uttered by the user.

【0045】なお、本発明における類似度計算におい
て、Correの値とAccの値を統合し、以下のように新しい
類似度尺度Sを利用することも出来る。
In the similarity calculation according to the present invention, the value of Corre and the value of Acc can be integrated and a new similarity scale S can be used as follows.

【0046】[0046]

【数2】 [Equation 2]

【0047】ここでαは、統合重みで、CorreとAccのど
ちらの重みを、類似度とするかのコントロールを行うこ
とが出来る。つまり、再現率を優先するか適合率を優先
するかの制御が行える。一度、パラメタを決定すれば、
類似度の判定がパラメタ一つで行うことも可能である。
Here, α is an integrated weight, and it is possible to control which of Corre and Acc is used as the similarity. That is, it is possible to control whether the recall rate or the matching rate is prioritized. Once you have determined the parameters,
It is also possible to judge the similarity with one parameter.

【0048】[0048]

【発明の効果】本発明の方法を利用することで、例文な
どを認識対象とする音声認識にとって効率的な言語情報
を大規模コーパスから選択し利用することで、音声認識
の性能向上を実現可能な言語モデルの作成が可能とな
る。
By using the method of the present invention, it is possible to improve the performance of speech recognition by selecting and using from the large-scale corpus the linguistic information that is efficient for speech recognition in which example sentences and the like are recognized. It is possible to create various language models.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施の形態1における言語モデル作成
装置を備えた音声認識装置のブロック図
FIG. 1 is a block diagram of a voice recognition device including a language model creation device according to a first embodiment of the present invention.

【図2】文間の対応関係を示す図FIG. 2 is a diagram showing correspondence between sentences.

【図3】テキスト選択のフローチャートFIG. 3 Flowchart for text selection

【図4】従来の技術の音声認識装置の構成図FIG. 4 is a block diagram of a conventional speech recognition apparatus.

【符号の説明】[Explanation of symbols]

11 例文コーパス記憶部 12 大規模コーパス記憶部 13 テキスト選択部 14 選択コーパス記憶部 15 言語モデル学習部 16 音声認識部 17 音声入力部 18 データ出力部 11 Example sentence corpus storage 12 Large-scale corpus storage 13 Text selection section 14 Selected corpus storage unit 15 Language model learning department 16 Speech recognition unit 17 Voice input section 18 Data output section

───────────────────────────────────────────────────── フロントページの続き (72)発明者 遠藤 充 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 Fターム(参考) 5D015 GG01 HH00    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Mitsuru Endo             1006 Kadoma, Kadoma-shi, Osaka Matsushita Electric             Sangyo Co., Ltd. F term (reference) 5D015 GG01 HH00

Claims (14)

【特許請求の範囲】[Claims] 【請求項1】 2種類のコーパスを用意し、第1のコー
パスをもとに第2のコーパスから第1のコーパスに関連
する文を選択するテキスト選択方法において、第1のコ
ーパス内の文と類似した文を第2のコーパスから選択
し、前記選択によって得られた選択コーパスあるいは適
切な重みで組みあわされた第1のコーパスと選択コーパ
スによって言語モデルを作成することを特徴とする言語
モデル作成方法。
1. A text selection method for preparing two types of corpora and selecting a sentence related to the first corpus from a second corpus based on the first corpus, wherein a sentence in the first corpus A language model creating method characterized by selecting similar sentences from a second corpus and creating a language model from the selected corpus obtained by the selection or the first corpus and the selected corpus combined with appropriate weights. .
【請求項2】 請求項1の言語モデル作成方法におい
て、人手により付与された類似度を用いることを特徴と
する言語モデル作成方法。
2. The language model creating method according to claim 1, wherein the degree of similarity given by hand is used.
【請求項3】 請求項1の言語モデル作成方法におい
て、類似性の判定を行う対象文を形態素に相当する単位
に分割し、表記上の対応関係を求めた上、前記第1のコ
ーパスに属する文が第2のコーパスに属する文にどれだ
け再現されているかという尺度と、どれだけ正確に再現
されているかという尺度を類似度として利用することを
特徴とする言語モデル作成方法。
3. The language model creating method according to claim 1, wherein the target sentence for which similarity is to be determined is divided into units corresponding to morphemes, and a notational correspondence is obtained, and the sentence belongs to the first corpus. A method for creating a language model, characterized in that a measure of how much a sentence is reproduced in a sentence belonging to the second corpus and a measure of how accurately it is reproduced are used as the degree of similarity.
【請求項4】 請求項1の言語モデル作成方法におい
て、類似性の判定を行う対象文を形態素に相当する単位
に分割し、対応関係を求めた上、前記第1のコーパスに
属する文が第2のコーパスに属する文にどれだけ再現さ
れているかという尺度と、どれだけ正確に再現されてい
るかという尺度を適切な重みで組み合わせ類似度として
利用することを特徴とする言語モデル作成方法。
4. The language model creating method according to claim 1, wherein the target sentence for which similarity is to be determined is divided into units corresponding to morphemes, the correspondence is obtained, and the sentence belonging to the first corpus is first divided. A method for creating a language model, characterized in that a measure of how much is reproduced in a sentence belonging to the corpus 2 and a measure of how accurately it is reproduced are combined with appropriate weights and used as similarity.
【請求項5】 前記請求項3または請求項4の言語モデ
ル作成方法において、形態素に相当する単位毎に重みを
つけて類似度の計算を行うことを特徴とする言語モデル
作成方法。
5. The language model creating method according to claim 3 or 4, wherein the similarity is calculated by weighting each unit corresponding to a morpheme.
【請求項6】 請求項5の言語モデル作成方法におい
て、名詞や動詞といった自立語のみに基づいて類似度の
計算を行うことを特徴とする言語モデル作成方法。
6. The language model creating method according to claim 5, wherein the similarity is calculated only based on independent words such as nouns and verbs.
【請求項7】 前記請求項1乃至6のいずれかに記載の
言語モデル作成方法において、第2のコーパスとしてユ
ーザの書いたメールや文章を利用することを特徴とする
言語モデル作成方法。
7. The language model creating method according to claim 1, wherein a mail or a sentence written by a user is used as the second corpus.
【請求項8】 前記請求項1乃至7のいずれかに記載の
言語モデル作成方法において、第1コーパスをもとに複
数のコーパスから文を選択することを特徴とする言語モ
デル作成方法。
8. The language model creating method according to claim 1, wherein a sentence is selected from a plurality of corpora based on the first corpus.
【請求項9】 前記請求項1乃至8のいずれかに記載の
言語モデル作成方法に基づき作成された言語モデルを利
用し、音声認識を行うことを特徴とする音声認識方法。
9. A speech recognition method, wherein speech recognition is performed using a language model created based on the language model creation method according to any one of claims 1 to 8.
【請求項10】 例文を予め格納する例文コーパス記憶
部と、大規模コーパスを格納する大規模コーパス記憶部
と、前記例文コーパス記憶部に格納される例文に類似し
た文を前記大規模コーパス記憶部の大規模コーパスから
選択し、テキストを抽出するテキスト選択部と、前記選
択されたコーパスと前記例文コーパスを利用して言語モ
デルの学習を行う言語モデル学習部とを具備することを
特徴とする言語モデル作成装置。
10. An example sentence corpus storage unit for storing example sentences in advance, a large scale corpus storage unit for storing a large scale corpus, and a sentence similar to the example sentence stored in the example sentence corpus storage unit for the large scale corpus storage unit. Language selection unit for selecting a text from the large-scale corpus and extracting a text, and a language model learning unit for learning a language model using the selected corpus and the example sentence corpus. Model creation device.
【請求項11】 前記テキスト選択部は、類似性の判定
を行う対象文を形態素に相当する単位に分割し、表記上
の対応関係を求めた上、前記第1のコーパスに属する文
が第2のコーパスに属する文にどれだけ再現されている
かという尺度と、どれだけ正確に再現されているかとい
う尺度を類似度として利用することを特徴とする請求項
10記載の言語モデル作成装置。
11. The text selection unit divides a target sentence for which similarity is to be determined into units corresponding to morphemes, obtains a notational correspondence, and determines that a sentence belonging to the first corpus is a second sentence. 11. The language model creating device according to claim 10, wherein a scale of how much the sentence belonging to the corpus is reproduced and a scale of how accurately the sentence is reproduced are used as the similarity.
【請求項12】 前記テキスト選択部は、類似性の判定
を行う対象文を形態素に相当する単位に分割し、対応関
係を求めた上、前記第1のコーパスに属する文が第2の
コーパスに属する文にどれだけ再現されているかという
尺度と、どれだけ正確に再現されているかという尺度を
適切な重みで組み合わせ類似度として利用することを特
徴とする請求項10記載の言語モデル作成装置。
12. The text selecting unit divides a target sentence whose similarity is to be determined into units corresponding to morphemes, obtains correspondences, and a sentence belonging to the first corpus becomes a second corpus. 11. The language model creating apparatus according to claim 10, wherein a scale of how much the sentence is reproduced and a scale of how accurately the sentence are reproduced are combined and used with appropriate weights as the similarity.
【請求項13】 形態素に相当する単位毎に重みをつけ
て、類似度の計算を行うことを特徴とする請求項11ま
たは請求項12記載の言語モデル作成装置。
13. The language model creating apparatus according to claim 11, wherein the similarity is calculated by weighting each unit corresponding to a morpheme.
【請求項14】 前記請求項10乃至13のいずれかに
記載の言語モデル作成装置により作成された言語モデル
を利用して音声認識を行うことを特徴とする音声認識装
置。
14. A voice recognition device, which performs voice recognition using a language model created by the language model creation device according to any one of claims 10 to 13.
JP2001376804A 2001-12-11 2001-12-11 Language model creation device and speech recognition device using the same Withdrawn JP2003177786A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001376804A JP2003177786A (en) 2001-12-11 2001-12-11 Language model creation device and speech recognition device using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001376804A JP2003177786A (en) 2001-12-11 2001-12-11 Language model creation device and speech recognition device using the same

Publications (2)

Publication Number Publication Date
JP2003177786A true JP2003177786A (en) 2003-06-27
JP2003177786A5 JP2003177786A5 (en) 2005-06-16

Family

ID=19184925

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001376804A Withdrawn JP2003177786A (en) 2001-12-11 2001-12-11 Language model creation device and speech recognition device using the same

Country Status (1)

Country Link
JP (1) JP2003177786A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008226104A (en) * 2007-03-15 2008-09-25 National Institute Of Information & Communication Technology Information processing apparatus, information processing method, and program
JP2012078647A (en) * 2010-10-04 2012-04-19 National Institute Of Information & Communication Technology Language model learning device and computer program
JP2019095606A (en) * 2017-11-22 2019-06-20 クラリオン株式会社 Method for generating learning data, learning data generation program, and server

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08335222A (en) * 1995-06-08 1996-12-17 Fuji Electric Co Ltd Computer device with similar sentence and document search function
JPH10222521A (en) * 1997-01-31 1998-08-21 Toshiba Corp Information sharing support system
WO1999050830A1 (en) * 1998-03-30 1999-10-07 Microsoft Corporation Information retrieval and speech recognition based on language models
JP2001155020A (en) * 1999-11-25 2001-06-08 Toshiba Corp Similar document search device, similar document search method, and recording medium
JP2001243245A (en) * 2000-03-01 2001-09-07 Nippon Telegr & Teleph Corp <Ntt> Similar sentence search method and apparatus, and recording medium storing similar sentence search program
JP2001296886A (en) * 2000-03-24 2001-10-26 Koninkl Philips Electronics Nv Generating method for language and acoustic models for voice recognition system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08335222A (en) * 1995-06-08 1996-12-17 Fuji Electric Co Ltd Computer device with similar sentence and document search function
JPH10222521A (en) * 1997-01-31 1998-08-21 Toshiba Corp Information sharing support system
WO1999050830A1 (en) * 1998-03-30 1999-10-07 Microsoft Corporation Information retrieval and speech recognition based on language models
JP2002510076A (en) * 1998-03-30 2002-04-02 マイクロソフト コーポレイション Information retrieval and speech recognition based on language model
JP2001155020A (en) * 1999-11-25 2001-06-08 Toshiba Corp Similar document search device, similar document search method, and recording medium
JP2001243245A (en) * 2000-03-01 2001-09-07 Nippon Telegr & Teleph Corp <Ntt> Similar sentence search method and apparatus, and recording medium storing similar sentence search program
JP2001296886A (en) * 2000-03-24 2001-10-26 Koninkl Philips Electronics Nv Generating method for language and acoustic models for voice recognition system

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
永田昌明: ""未知語の確率モデルと単語の出現頻度の期待値に基づくテキストからの語彙獲得"", 情報処理学会論文誌, vol. Vol.40,No.9(1999-09), CSNG200100272004, pages 3373 - 3386, ISSN: 0000763529 *
藤井敦他: ""音声入力型文書検索システムの開発とテストコレクションの構築"", 情報学基礎, vol. No.2001-FI-63(2001-07), CSNG200300268009, pages 65 - 72, ISSN: 0000763528 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008226104A (en) * 2007-03-15 2008-09-25 National Institute Of Information & Communication Technology Information processing apparatus, information processing method, and program
JP2012078647A (en) * 2010-10-04 2012-04-19 National Institute Of Information & Communication Technology Language model learning device and computer program
JP2019095606A (en) * 2017-11-22 2019-06-20 クラリオン株式会社 Method for generating learning data, learning data generation program, and server

Similar Documents

Publication Publication Date Title
CN108447486B (en) Voice translation method and device
KR100563365B1 (en) Hierarchical language model
US20080183468A1 (en) Augmentation and calibration of output from non-deterministic text generators by modeling its characteristics in specific environments
JP6815899B2 (en) Output statement generator, output statement generator and output statement generator
CN101158947A (en) Method and apparatus for machine translation
CN112216267B (en) Prosody prediction method, device, equipment and storage medium
Neubig et al. Bayesian learning of a language model from continuous speech
KR101677859B1 (en) Method for generating system response using knowledgy base and apparatus for performing the method
CN115116428B (en) Prosodic boundary labeling method, device, equipment, medium and program product
US11615787B2 (en) Dialogue system and method of controlling the same
US20020087317A1 (en) Computer-implemented dynamic pronunciation method and system
CN108932233B (en) Translation document generation method, translation document generation device, and translation document generation program
CN108231066A (en) Speech recognition system and method thereof and vocabulary establishing method
CN114003700A (en) Method and system for processing session information, electronic device and storage medium
KR101097186B1 (en) System and method for synthesizing voice of multi-language
Lin et al. Hierarchical prosody modeling for Mandarin spontaneous speech
CN111489742B (en) Acoustic model training method, voice recognition device and electronic equipment
WO2015099418A1 (en) Chatting data learning and service method and system therefor
KR102333029B1 (en) Method for pronunciation assessment and device for pronunciation assessment using the same
CN113591441B (en) Voice editing method and device, storage medium and electronic device
CN107943299B (en) Emotion presenting method and device, computer equipment and computer readable storage medium
JP2003177786A (en) Language model creation device and speech recognition device using the same
KR102072708B1 (en) A method and computer program for inferring genre of a text contents
JP2005284209A (en) Speech recognition method
CN114239565A (en) Deep learning-based emotion reason identification method and system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040914

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040914

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20050704

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060822

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20060920