JP7331933B2 - Language estimation device, language estimation method, and program - Google Patents
Language estimation device, language estimation method, and program Download PDFInfo
- Publication number
- JP7331933B2 JP7331933B2 JP2021545514A JP2021545514A JP7331933B2 JP 7331933 B2 JP7331933 B2 JP 7331933B2 JP 2021545514 A JP2021545514 A JP 2021545514A JP 2021545514 A JP2021545514 A JP 2021545514A JP 7331933 B2 JP7331933 B2 JP 7331933B2
- Authority
- JP
- Japan
- Prior art keywords
- language
- speaker
- country
- language estimation
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/263—Language identification
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/005—Language recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
Description
本発明は、言語推定装置、言語推定方法、およびプログラムに関する。 The present invention relates to a language estimation device, a language estimation method, and a program.
近年、外国人移住者や外国人旅行者の増加に伴い、翻訳器や通訳者を介したコミュニケーションの需要が増加している。
特許文献1には、個別識別番号が書き込まれたIDカードを挿入すると、IDカードの所有者専用端末として音声を出入力する音声通信装置が記載されている。IDカードには所有者の音声または母国語の特定語録を記憶している。所有者専用端末はIDカードが挿入された状態で音声を照合すると制御できる。In recent years, with the increase in the number of foreign immigrants and foreign tourists, the demand for communication via translators and interpreters is increasing.
Patent Literature 1 describes a voice communication device that outputs and inputs voice as a dedicated terminal for the owner of the ID card when an ID card with an individual identification number written therein is inserted. The ID card stores the owner's voice or a specific phrase in his or her native language. The owner-only terminal can be controlled by verifying the voice with the ID card inserted.
特許文献2には、免税店において、商品購入時に輸出免税物品購入記録票を作成する装置が記載されている。この装置では、国別コードに複数の言語別報知情報が関連付けられて記憶されており、記録媒体から国別コードを読み取ると、国別コードに関連付けられている言語別報知情報を取得し、この言語別報知情報を用いて報知すべき情報を印字出力する。 Patent Literature 2 describes a device for creating an export duty-free article purchase record slip when purchasing an article at a duty-free shop. In this device, a plurality of language-specific announcement information are associated with a country code and stored, and when the country code is read from the recording medium, the language-specific announcement information associated with the country code is obtained, The information to be notified is printed out using the language-specific notification information.
特許文献3には、認識対象者の国籍を示す属性データをパスポートから読み出し、読み出した国籍に応じた言語にメッセージを翻訳することで、当該国籍に応じた言語のガイダンスを取得することが記載されている。 Patent Document 3 describes obtaining guidance in a language corresponding to the nationality by reading attribute data indicating the nationality of a recognition target person from a passport and translating a message into a language corresponding to the read nationality. ing.
国際化が進む中で、来訪する外国人も多様化している。このため、翻訳が必要な言語の数が増加し、外国人話者が話す言語の特定に時間を要していた。 As internationalization progresses, the number of foreigners visiting Japan is also diversifying. As a result, the number of languages requiring translation increased, and it took time to identify the languages spoken by foreign speakers.
本発明は上記事情に鑑みてなされたものであり、その目的とするところは、言語推定を効率よくかつ精度よく行う技術を提供することにある。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a technique for performing language estimation efficiently and accurately.
本発明の各側面では、上述した課題を解決するために、それぞれ以下の構成を採用する。 Each aspect of the present invention employs the following configurations in order to solve the above-described problems.
第一の側面は、言語推定装置に関する。
第一の側面に係る第1の言語推定装置は、
国籍情報を取得する取得手段と、
取得した前記国籍情報を用いて、言語推定エンジンを選択する選択手段と、
選択した前記言語推定エンジンを用いて、話者の音声情報を解析して前記話者が用いる言語を特定する特定手段と、を有する。
第一の側面に係る第2の言語推定装置は、
国籍情報を取得する取得手段と、
取得した前記国籍情報を用いて、言語推定対象の言語の候補を選択する選択手段と、
言語推定エンジンを用いて、話者の音声情報を解析して前記話者が用いる言語を選択した前記候補から特定する特定手段と、を有する。A first aspect relates to a language estimation device.
A first language estimation device according to a first aspect includes:
Acquisition means for acquiring nationality information;
selection means for selecting a language estimation engine using the obtained nationality information;
and identifying means for analyzing speech information of a speaker using the selected language estimation engine to identify the language used by the speaker.
A second language estimation device according to the first aspect includes:
Acquisition means for acquiring nationality information;
selection means for selecting a language candidate for language estimation using the acquired nationality information;
and identifying means for analyzing speech information of a speaker using a language estimation engine and identifying the language used by the speaker from the selected candidates.
第二の側面は、少なくとも1つのコンピュータにより実行される言語推定方法に関する。
第二の側面に係る第1の言語推定方法は、
言語推定装置が、
国籍情報を取得し、
取得した前記国籍情報を用いて、言語推定エンジンを選択し、
選択した前記言語推定エンジンを用いて、話者の音声情報を解析して前記話者が用いる言語を特定する、ことを含む。
第二の側面に係る第2の言語推定方法は、
言語推定装置が、
国籍情報を取得し、
取得した前記国籍情報を用いて、言語推定対象の言語の候補を選択し、
言語推定エンジンを用いて、話者の音声情報を解析して前記話者が用いる言語を選択した前記候補から特定する、ことを含む。A second aspect relates to at least one computer-implemented language estimation method.
A first language estimation method according to the second aspect includes:
A language estimation device
Get nationality information,
Selecting a language estimation engine using the acquired nationality information,
Using the selected language estimation engine, analyzing a speaker's voice information to identify the language spoken by the speaker.
A second language estimation method according to the second aspect includes:
A language estimation device
Get nationality information,
Selecting a language candidate for language estimation using the acquired nationality information,
using a language estimation engine to analyze speech information of a speaker to identify a language used by the speaker from the selected candidates;
なお、本発明の他の側面としては、上記第二の側面の方法を少なくとも1つのコンピュータに実行させるプログラムであってもよいし、このようなプログラムを記録したコンピュータが読み取り可能な記録媒体であってもよい。この記録媒体は、非一時的な有形の媒体を含む。
このコンピュータプログラムは、コンピュータにより実行されたとき、コンピュータに、言語推定装置上で、その言語推定方法を実施させるコンピュータプログラムコードを含む。As another aspect of the present invention, it may be a program that causes at least one computer to execute the method of the second aspect, or a computer-readable recording medium recording such a program. may This recording medium includes a non-transitory tangible medium.
The computer program includes computer program code which, when executed by a computer, causes the computer to implement the language estimation method on the language estimation device.
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。 Any combination of the above constituent elements, and conversion of expressions of the present invention into methods, devices, systems, recording media, computer programs, etc. are also effective as aspects of the present invention.
また、本発明の各種の構成要素は、必ずしも個々に独立した存在である必要はなく、複数の構成要素が一個の部材として形成されていること、一つの構成要素が複数の部材で形成されていること、ある構成要素が他の構成要素の一部であること、ある構成要素の一部と他の構成要素の一部とが重複していること、等でもよい。 In addition, the various constituent elements of the present invention do not necessarily have to exist independently of each other. A component may be part of another component, a part of a component may overlap a part of another component, and the like.
また、本発明の方法およびコンピュータプログラムには複数の手順を順番に記載してあるが、その記載の順番は複数の手順を実行する順番を限定するものではない。このため、本発明の方法およびコンピュータプログラムを実施するときには、その複数の手順の順番は内容的に支障のない範囲で変更することができる。 In addition, although the method and computer program of the present invention describe multiple procedures in order, the order of description does not limit the order in which the multiple procedures are performed. Therefore, when implementing the method and computer program of the present invention, the order of the plurality of procedures can be changed within a range that does not interfere with the content.
さらに、本発明の方法およびコンピュータプログラムの複数の手順は個々に相違するタイミングで実行されることに限定されない。このため、ある手順の実行中に他の手順が発生すること、ある手順の実行タイミングと他の手順の実行タイミングとの一部ないし全部が重複していること、等でもよい。 Furthermore, the multiple steps of the method and computer program of the present invention are not limited to being performed at different times. Therefore, the occurrence of another procedure during the execution of a certain procedure, or the overlap of some or all of the execution timing of one procedure with the execution timing of another procedure, and the like are acceptable.
上記各側面によれば、言語推定を効率よくかつ精度よく行う技術を提供することができる。 According to each of the aspects described above, it is possible to provide a technique for performing language estimation efficiently and accurately.
以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。以下の各図において、本発明の本質に関わらない部分の構成については省略してあり、図示されていない。 BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings. In addition, in all the drawings, the same constituent elements are denoted by the same reference numerals, and the description thereof will be omitted as appropriate. In the following figures, the configurations of parts that are not related to the essence of the present invention are omitted and not shown.
実施形態において「取得」とは、自装置が他の装置や記憶媒体に格納されているデータまたは情報を取りに行くこと(能動的な取得)、および、自装置に他の装置から出力されるデータまたは情報を入力すること(受動的な取得)の少なくとも一方を含む。能動的な取得の例は、他の装置にリクエストまたは問い合わせしてその返信を受信すること、及び、他の装置や記憶媒体にアクセスして読み出すこと等がある。また、受動的な取得の例は、配信(または、送信、プッシュ通知等)される情報を受信すること等がある。さらに、「取得」とは、受信したデータまたは情報の中から選択して取得すること、または、配信されたデータまたは情報を選択して受信することであってもよい。 In the embodiment, "acquisition" means that the own device goes to get data or information stored in another device or storage medium (active acquisition), and that the device is output from another device Including at least one of entering data or information (passive acquisition). Examples of active acquisition include requesting or interrogating other devices and receiving their replies, and accessing and reading other devices or storage media. Also, examples of passive acquisition include receiving information that is distributed (or sent, pushed, etc.). Furthermore, "acquisition" may be to select and acquire received data or information, or to select and receive distributed data or information.
(第1の実施の形態)
<システム概要>
図1は、本発明の実施の形態に係る多言語対応コミュニケーションシステム1の概念的な構成例を示すブロック図である。多言語対応コミュニケーションシステム1は、言語推定装置100と、翻訳装置10と、を備える。言語推定装置100と翻訳装置10はと一体、すなわち物理的に同一のハードウェアであってもよい。(First embodiment)
<System overview>
FIG. 1 is a block diagram showing a conceptual configuration example of a multilingual communication system 1 according to an embodiment of the present invention. A multilingual communication system 1 includes a
多言語対応コミュニケーションシステム1は、例えば、国際空港の税関、入国審査、検疫などの窓口での手続きを行う際に、来訪者(第1の話者Ua)が用いている第1言語を、言語推定装置100を用いて推定する。そして、翻訳装置10は、特定された話者Uaの第1言語Laと、窓口の係員等の対話者(第2の話者Ub)が用いている第2言語Lbとの相互翻訳を行う。
For example, the multilingual communication system 1 converts the first language used by the visitor (first speaker Ua) into language Estimate using the
翻訳装置10は、第1の話者Uaと第2の話者Ubの発話音声をマイクロフォン4などの音声入力装置を介して入力する。図1では、両者にそれぞれマイクロフォン4を設けた構成としているが、これに限定されない。少なくとも2方向の指向性を有する1つのマイクロフォン4であってもよい。また、図1では、スピーカ6などの音声出力装置も両者にそれぞれ設けた構成としているが、少なくとも1つあればよいし、2つ以上のスピーカ6を有してもよい。さらなる他の例では、携帯端末を用いて、当該音声入出力装置(マイクロフォン4とスピーカ6)の替わりとしてもよい。
The
そして、翻訳装置10は、マイクロフォン4を介して入力された第1の話者Uaの発話音声が第1言語Laであることを認識した後、この発話音声が示す内容を第1言語Laの音声認識処理を用いて特定し、さらにその内容を第2の話者Ubの第2言語Lbに翻訳し、スピーカ6を介して音声出力する(図中、破線の矢印で示される流れ)。翻訳装置10は、マイクロフォン4を介して入力された第2の話者Ubの発話音声を第2言語Lbで認識した後、第1の話者Uaの第1言語Laに翻訳し、スピーカ6を介して音声出力する(図中、一点鎖線の矢印で示される流れ)。
Then, after recognizing that the uttered voice of the first speaker Ua input via the
ただし、言語間の翻訳は、双方向に限定されず、一方向であってもよい。また、翻訳装置10を使わず、推定された言語を話せる通訳者が通訳してもよい。
さらに、言語推定装置100は、話者の言語だけでなく、話者の居住場所の方言や訛りを推定してもよい。However, translation between languages is not limited to bidirectional, and may be unidirectional. Alternatively, an interpreter who can speak the estimated language may interpret without using the
Furthermore, the
<機能構成例>
図2は、本発明の実施の形態に係る言語推定装置100の構成を論理的に示す機能ブロック図である。言語推定装置100は、取得部102と、選択部104と、特定部106と、を備える。
取得部102は、国籍情報を取得する。
選択部104は、取得した国籍情報を用いて、言語推定エンジン110を選択する。
特定部106は、選択した言語推定エンジン110を用いて、話者の音声情報30を解析して話者が用いる言語を特定する。<Example of functional configuration>
FIG. 2 is a functional block diagram logically showing the configuration of
The
The specifying
取得部102は、例えば、旅客が所持している旅券20から国籍情報を取得する。一例として、取得部102は、旅券20に埋め込まれているIC(Integrated Circuit)チップに記録されている国籍情報をICリーダ(不図示)を介して読み取る。他の例では、取得部102は、旅券20に記載されている国籍の標記を含む画像を取得し、この画像をOCR(Optical Character Recognition)で処理することにより文字を読み取る。また、旅券20に国籍の表記を含まない場合であっても、パスポートに記載された国籍情報を含むシリアルナンバーを読み取ることで、国籍情報を取得してもいい。他の例では、旅券20に記載されている国籍情報が記録された2次元コードをバーコードリーダで読み取る。
The obtaining
さらに、他の例では、旅券20の表紙等のデザイン(各国毎に異なる)を撮影した画像を取得することで、国籍情報を特定する。具体的には、言語推定装置100は、予め各国の旅券20のデザインの特徴量を図3のストレージデバイス1040に登録しておき(あるいは、外部のデータベースを参照してもよい)、取得部102は、旅券20の撮像画像を画像処理により特徴量のマッチング処理を行い国を特定し、国籍情報として取得する。
Furthermore, in another example, the nationality information is specified by acquiring an image of a design such as the cover of the passport 20 (different for each country). Specifically, the
さらに、言語推定装置100は、例えば、空港の搭乗手続きカウンタ、手荷物預かりカウンタ、あるいは、空港や鉄道等の案内所、各種窓口の係員、あるいは、機内、客室、客車で乗務員などが、乗客、顧客の言語または方言や訛りなどを推定するのにも適用できる。
Furthermore, the
取得部102は、例えば、第1の話者Uaが所持している航空チケットに記載されている出発空港名、鉄道等の乗り物の乗車券の乗車駅名等の記載を含む画像を取得し、この画像をOCRで処理することにより文字を読み取ってもよい。出発空港名や乗車駅名から国名や、都道府県名を検索して取得してもよい。方言や訛りを推定する例では、言語推定エンジン110は、都道府県名毎に特化したものが準備される。
For example, the
言語推定エンジン110は、話者の発話音声を用いることで、その発話音声の言語が何であるかを推定する。本実施形態では、言語推定エンジン110は、国別に準備され、国別に使用される複数の言語に特化して学習されている。
The
<ハードウェア構成例>
図3は、図2に示す言語推定装置100を実現するコンピュータ1000のハードウェア構成を例示するブロック図である。コンピュータ1000は、バス1010、プロセッサ1020、メモリ1030、ストレージデバイス1040、入出力インタフェース1050、およびネットワークインタフェース1060を有する。<Hardware configuration example>
FIG. 3 is a block diagram illustrating the hardware configuration of
バス1010は、プロセッサ1020、メモリ1030、ストレージデバイス1040、入出力インタフェース1050、およびネットワークインタフェース1060が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1020などを互いに接続する方法は、バス接続に限定されない。
プロセッサ1020は、CPU(Central Processing Unit) やGPU(Graphics Processing Unit)などで実現されるプロセッサである。
The
メモリ1030は、RAM(Random Access Memory)などで実現される主記憶装置である。
The
ストレージデバイス1040は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、又はROM(Read Only Memory)などで実現される補助記憶装置である。ストレージデバイス1040はコンピュータ1000の各機能を実現するプログラムモジュールを記憶している。プロセッサ1020がこれら各プログラムモジュールをメモリ1030上に読み込んで実行することで、そのプログラムモジュールに対応する各機能が実現される。また、ストレージデバイス1040は言語推定エンジン110も記憶している。
The
プログラムモジュールは、記録媒体に記録されてもよい。プログラムモジュールを記録する記録媒体は、非一時的な有形のコンピュータ1000が使用可能な媒体を含み、その媒体に、コンピュータ1000(プロセッサ1020)が読み取り可能なプログラムコードが埋め込まれてよい。
The program module may be recorded on a recording medium. The recording medium for recording the program module includes a non-transitory tangible medium usable by the
入出力インタフェース1050は、コンピュータ1000と各種入出力機器とを接続するためのインタフェースである。
The input/
ネットワークインタフェース1060は、コンピュータ1000を通信ネットワークに接続するためのインタフェースである。この通信ネットワークは、例えばLAN(Local Area Network)やWAN(Wide Area Network)である。ネットワークインタフェース1060が通信ネットワークに接続する方法は、無線接続であってもよいし、有線接続であってもよい。
そして、コンピュータ1000は、入出力インタフェース1050またはネットワークインタフェース1060を介して、必要な機器(例えば、マイクロフォン4、およびスピーカ6)に接続する。
The
言語推定装置100を実現するコンピュータ1000は、例えば、パーソナルコンピュータ、スマートフォン、タブレット端末などである。あるいは、言語推定装置100を実現するコンピュータ1000は、専用の端末装置であってもよい。上記したように、言語推定装置100は、翻訳装置10と物理的に一体のコンピュータ1000により実現されてもよい。例えば、言語推定装置100は、コンピュータ1000に、当該言語推定装置100を実現するためのアプリケーションプログラムをインストールして起動することで実現される。
A
他の例では、コンピュータ1000は、ウェブサーバであり、ユーザはパーソナルコンピュータ、スマートフォン、タブレット端末などのユーザ端末でブラウザを起動し、インターネットなどのネットワークを介して言語推定装置100のサービスを提供するウェブページにアクセスすることで、言語推定装置100の機能を利用できてもよい。
In another example, the
さらなる他の例では、コンピュータ1000は、言語推定装置100のサービスを提供するSaaS(Software as a Service)などシステムのサーバ装置であってもよい。ユーザはパーソナルコンピュータ、スマートフォン、タブレット端末などのユーザ端末からインターネットなどのネットワークを介してサーバ装置にアクセスし、サーバ装置上で動作するプログラムにより言語推定装置100が実現されてもよい。
In yet another example,
<動作例>
図4は、本実施形態の言語推定装置100の動作の一例を示すフローチャートである。
まず、取得部102は、第1の話者Uaの旅券20から国籍情報を取得する(ステップS101)。<Operation example>
FIG. 4 is a flow chart showing an example of the operation of the
First, the acquiring
図5は、国別言語推定エンジンテーブル112のデータ構造の一例を示す図である。国別言語推定エンジンテーブル112は、国毎に特化した言語推定エンジンを関連付けて記憶している。なお、図5では理解しやすいように「アメリカ」、「A」、「英語」等が国別言語推定エンジンテーブル112に記憶されているように記載されている。実際には、国別言語推定エンジンテーブル112には、国を示す情報、例えば、国を識別する情報と、言語推定エンジンを識別する情報とが関連付けられて記憶されている。さらに、各言語推定エンジンが推定対象とする言語については、当該国別言語推定エンジンテーブル112に記憶されている訳ではない。図5では、当該言語推定エンジンが、どの言語を推定対象として特化されたものかを説明のために示している。 FIG. 5 is a diagram showing an example of the data structure of the country-specific language estimation engine table 112. As shown in FIG. The country-specific language estimation engine table 112 associates and stores language estimation engines specialized for each country. It should be noted that in FIG. 5, "America", "A", "English", etc. are described as being stored in the country-specific language estimation engine table 112 for easy understanding. Actually, the country-by-country language estimation engine table 112 stores information indicating a country, for example, information identifying a country and information identifying a language estimation engine in association with each other. Furthermore, the language to be estimated by each language estimation engine is not stored in the country-specific language estimation engine table 112 . FIG. 5 shows, for the sake of explanation, which language the language estimation engine is specialized for as an estimation target.
例えば、アメリカには英語とスペイン語など複数の言語に特化した言語推定エンジンAが関連付けられている。スイスには、フランス語、イタリア語、ドイツ語、ロマンシュ語の4つの言語に特化した言語推定エンジンBが関連付けられている。 For example, USA is associated with a language estimation engine A that specializes in multiple languages such as English and Spanish. Switzerland is associated with a language estimation engine B that specializes in four languages: French, Italian, German and Romansh.
そして、選択部104は、国別言語推定エンジンテーブル112を参照し、ステップS101で取得した国籍情報が示す国に関連付けられている言語推定エンジン110を読み出し、特定部106が用いるべき言語推定エンジン110を選択する(ステップS103)。一例として、ステップS101で取得した国籍情報が示す国がアメリカである場合には、予め国別言語推定エンジンテーブル112に記憶されている複数の言語推定エンジンの中から、アメリカという国を示す情報に関連付く言語推定エンジンAが選択される。
Then, the selecting
そして、特定部106は、第1の話者Uaの発話音声をマイクロフォン4から取得し、当該発話音声の音声情報30を、ステップS103で選択した言語推定エンジンAを用いて解析して第1の話者Uaが用いる第1言語Laを、英語およびスペイン語などの複数の言語の中から特定する(ステップS105)。ここでは、第1の話者Uaの発話音声の音声情報30を解析してスペイン語であることが特定されたものとする。このように、国別に特化された言語推定エンジンを用いるので、音声情報30の解析対象となる言語の数を絞り込むことができる。
Then, the specifying
以上説明したように、本実施形態によれば、旅券20などから取得した国籍情報を用いて、国別に学習された言語推定エンジン110を用いて、解析対象となる言語の数を絞り込んで言語推定されるので、言語推定処理を効率よく、かつ、精度よく行うことができる。
As described above, according to the present embodiment, the
(第2の実施の形態)
本実施形態の言語推定装置100は、複数の国を対象にした言語推定エンジン110を用いて言語を推定する構成を有する点で上記実施形態と相違する。(Second embodiment)
The
<機能構成例>
図6は、本実施形態の言語推定装置100の論理的な構成例を示す機能ブロック図である。取得部102は、図2の上記実施形態と同じである。
選択部104は、取得部102が取得した国籍情報を用いて、言語推定対象の言語の候補を選択する。特定部106は、複数の国を対象にした1つの言語推定エンジン110を用いて、話者の音声情報を解析して前記話者が用いる言語を選択した候補から特定する。<Example of functional configuration>
FIG. 6 is a functional block diagram showing a logical configuration example of the
The
<動作例>
図7は、本実施形態の言語推定装置100の動作の一例を示すフローチャートである。
図7のフローチャートは、図4の上記実施形態のフローチャートと同じステップS101を含むとともに、さらに、ステップS113とステップS115とを含む。<Operation example>
FIG. 7 is a flow chart showing an example of the operation of the
The flowchart of FIG. 7 includes the same step S101 as the flowchart of the above embodiment of FIG. 4, and further includes steps S113 and S115.
選択部104は、ステップS101で取得した国籍情報を用いて、言語推定対象の言語の候補を選択する(ステップS113)。
The
本実施形態の言語推定エンジン110は、ディープラーニングにより、対象となる全ての国(例えば、百数十カ国)に対応する全ての言語(例えば、50言語)のニューラルネットワークを構築しておく。このニューラルネットワークの入力は音声データであり、出力が言語である。
The
言い換えると、選択部104は、この言語推定エンジン110のニューラルネットワークの出力の言語を国によってマスクすることで候補を絞り込む。例えば、予め国別に出力の言語を関連付けて記憶しておき、国に関連付けられた出力の言語とニューラルネットワークの出力の言語との論理積をとることで言語の候補を絞り込む。
In other words, the
そして、特定部106は、このようにして言語の候補が絞りこまれた言語推定エンジン110を用いて、話者の音声情報を解析して話者が用いる言語を特定する(ステップS115)。
Then, using the
本実施形態によれば、上記実施形態と同様な効果を奏する。 According to this embodiment, the same effects as those of the above embodiment can be obtained.
(第3の実施の形態)
図8は、本実施形態の言語推定装置100の論理的な構成例を示す機能ブロック図である。本実施形態の言語推定装置100は、上記実施形態とは、推定した言語をユーザに提示する構成を有している点以外は、上記実施形態のいずれかと同じである。(Third Embodiment)
FIG. 8 is a functional block diagram showing a logical configuration example of the
<機能構成例>
図8の言語推定装置100は、図2または図6の上記実施形態の言語推定装置100と同じ取得部102と、選択部104と、特定部106と、言語推定エンジン110と、を備えるとともに、さらに、出力部120を備える。<Example of functional configuration>
The
出力部120は、話者の音声情報を用いた言語推定結果の信頼度を示すスコアが第1の基準値以下の場合、特定した前記言語を用いた音声または文字を出力する。ここで、言語推定結果の信頼度を示すスコアは、例えば、話者の音声情報を音声認識処理した結果に含まれる尤度などであってもよい。言語推定結果の信頼度を示すスコアが第1の基準値より低い場合、推定結果が間違いである可能性を考慮して言語を用いた音声または文字を出力し、話者または応対者に選択させることができる。スコアを用いた判定は、特定部106が行ってもよい。また、スコアが第1の基準値を超える場合、特定部106は、最もスコアが高い言語に決定してよい。
The
第1の基準値は、言語推定の結果が信頼できるか否かを判定する基準であり、第1の基準値以下の場合は、言語推定の結果の信頼度が低いことを示し、第1の基準値を超える場合は、言語推定の結果が信頼できることを示す。 The first reference value is a reference for determining whether or not the result of language estimation is reliable. Exceeding the reference value indicates that the result of language estimation is reliable.
出力部120は、スピーカ6に音声、または表示装置122に文字を出力する。「貴方が話す言語はヒンディー語ですか?」などの質問文を特定された言語を用いて出力してもよい。
The
出力部120は、スコア順に特定された前記言語を用いた音声または文字を出力する。
図9は、出力部120が表示する画面300の一例を示す図である。画面300は、特定部106により特定された複数の言語をスコア順に操作ボタン302として表示するとともに、言語の選択をユーザに促すメッセージ304を表示する。画面300を表示するとともに、メッセージを音声で出力してもよい。ここで、複数の言語は、スコアが高い順並べて表示されるのが好ましい。The
FIG. 9 is a diagram showing an example of a
なお、図9では、説明の簡略化のために日本語で操作ボタン302とメッセージ304が標記されているが、実際には、特定された言語でそれぞれ標記される。操作ボタン302を押下して言語を選択した後、OKボタン306を押下して言語選択を確定することができる。また、操作ボタン302で言語が選択される度に、メッセージ304が選択された言語に標記が変更されてもよい。
In FIG. 9, the
図9の例では、GUI(Graphical User Interface)として操作ボタンを用いているが、他の例では、チェックボタン、ラジオボタン、プルダウンメニュー、ドラムロールなどであってもよい。あるいは、ユーザの選択操作を受け付けるUIは用いず、単に複数の言語と、ユーザへの質問メッセージを表示するだけでもよい。 In the example of FIG. 9, operation buttons are used as a GUI (Graphical User Interface), but check buttons, radio buttons, pull-down menus, drum rolls, etc. may be used in other examples. Alternatively, a UI for accepting a user's selection operation may simply be displayed in multiple languages and a question message for the user.
さらに、出力部120は、スコアが第2の基準値以下の言語を用いた音声または文字は出力しない。第2の基準値は第1の基準値よりさらに低い値であり、信頼性がほとんどないと思われる範囲を規定する値である。これにより、ある程度の信頼度が確保されている言語をユーザに提示できる。
Furthermore, the
さらに、出力部120は、候補間のスコアの差分が第3の基準値以下の場合、当該候補の言語を用いて、言い換えると、言語推定結果の確度が拮抗している候補を用いて、音声または言語を出力してもよい。この判定処理も特定部106が行ってもよい。また、差分が第3の基準値を超える場合、特定部106は、スコアが最も高い言語に決定してもよい。
Furthermore, when the score difference between the candidates is equal to or less than the third reference value, the
出力部120は、第1の基準値、第2の基準値、および第3の基準値を用いた判定処理の少なくともいずれか一つを、または少なくともいずれか2つを組み合わせて行い、その判定結果に基づいて、音声または言語の出力を行うか否かを決めることができる。
The
<動作例>
図10は、本実施形態の言語推定装置100の動作例を示すフローチャートである。図10のフローは、図4のステップS105の後、または図7のステップS115の後に開始する。出力部120は、ステップS103で選択された複数の言語を用いて話者の音声情報を解析する際の音声認識結果の信頼度を示すスコアが第1の基準値以下か否かを判定する(ステップS201)。スコアが第1の基準値以下でない場合(ステップS201のYES)、ステップS203をバイパスして本フローを終了する。<Operation example>
FIG. 10 is a flowchart showing an operation example of the
一方、スコアが第1の基準値以下の場合(ステップS201のNO)、出力部120は、当該言語を用いた音声をスピーカ6から出力、または当該言語を用いた文字を表示装置122に表示する(ステップS203)。
On the other hand, if the score is equal to or less than the first reference value (NO in step S201), the
本実施形態によれば、言語推定エンジン110による話者の音声認識結果の信頼度を記すスコアが第1の基準値より低い場合に、その言語を用いた音声または文字を出力する。これにより、本実施形態の言語推定装置100は、上記実施形態と同様な効果を奏するとともに、さらに、推定結果の信頼度が低い場合に、話者または応対者に、音声または文字で確認させ、適切な言語の選択を受け付けることができる。
According to this embodiment, when the score describing the reliability of the speech recognition result of the speaker by the
以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。
たとえば、取得部102が取得した国籍情報が予め定められた国を示している場合は、選択部104は、言語推定エンジン110の選択を行わず、特定部106は、国に予め関連付けられている言語を特定する。Although the embodiments of the present invention have been described above with reference to the drawings, these are examples of the present invention, and various configurations other than those described above can also be adopted.
For example, when the nationality information acquired by the
ここで、日本など日本語のみの単一言語の国については、予め国別言語対応テーブルに国と言語を関連付けて記憶しておく。そして、選択部104は、まず、当該国別言語対応テーブルを参照し、取得部102が取得した国籍情報が示す国を、国別言語対応テーブル内で検索し、国が見つかったら、当該国に関連付けられている言語を取得し出力する。
Here, for countries such as Japan where only Japanese is spoken as a single language, the country and the language are stored in advance in the country-by-country language correspondence table in association with each other. Then, the
この構成によれば、単一言語の国については、言語推定エンジン110を用いた言語推定処理を省略できるので、コンピュータ1000の負荷を低減でき、さらに精度が向上し、かつ効率もよい。
According to this configuration, the language estimation process using the
また、言語推定装置100は、さらに、特定部106が特定した言語に対応する翻訳エンジンを選択する第2の選択部(不図示)を備えてもよい。第2の選択部は、選択した翻訳エンジンの情報を図1の多言語対応コミュニケーションシステム1の翻訳装置10に通知する。翻訳装置10は、通知された翻訳エンジンを用いて、第1の話者Uaの第1言語Laと、第2の話者Ubの第2言語Lbとの相互翻訳を行うことができる。
Moreover,
以上、実施形態および実施例を参照して本願発明を説明したが、本願発明は上記実施形態および実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
なお、本発明において利用者に関する情報を取得、利用する場合は、これを適法に行うものとする。Although the present invention has been described with reference to the embodiments and examples, the present invention is not limited to the above embodiments and examples. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention.
In the present invention, acquisition and use of information relating to users shall be done legally.
上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下に限られない。
以下、参考形態の例を付記する。
1. 国籍情報を取得する取得手段と、
取得した前記国籍情報を用いて、言語推定エンジンを選択する選択手段と、
選択した前記言語推定エンジンを用いて、話者の音声情報を解析して前記話者が用いる言語を特定する特定手段と、を備える、言語推定装置。
2. 国籍情報を取得する取得手段と、
取得した前記国籍情報を用いて、言語推定対象の言語の候補を選択する選択手段と、
言語推定エンジンを用いて、話者の音声情報を解析して前記話者が用いる言語を選択した前記候補から特定する特定手段と、を備える言語推定装置。
3. 前記取得手段は、旅券から前記国籍情報を取得する、
1.または2.に記載の言語推定装置。
4. 前記話者の前記音声情報を用いた言語推定結果の信頼度を示すスコアが第1の基準値以下の場合、前記特定手段が特定した前記言語を用いた音声または文字を出力する出力手段をさらに備える、
1.から3.のいずれか一つに記載の言語推定装置。
5. 前記出力手段は、前記スコア順に前記音声または前記文字を出力する、
4.に記載の言語推定装置。
6. 前記出力手段は、さらに、前記スコアが第2の基準値以下の前記言語を用いた前記音声または前記文字は出力しない、
4.または5.に記載の言語推定装置。
7. 前記特定手段が特定した前記言語に対応する翻訳エンジンを選択する第2の選択手段をさらに備える、
1.から6.のいずれか一つに記載の言語推定装置。
8. 前記取得手段が取得した前記国籍情報が予め定められた国を示している場合は、前記選択手段は、言語推定エンジンの選択を行わず、前記特定手段は、前記国に予め関連付けられている言語を特定する、
1.から7.のいずれか一つに記載の言語推定装置。Some or all of the above embodiments can also be described as the following additional remarks, but are not limited to the following.
Examples of reference forms are added below.
1. Acquisition means for acquiring nationality information;
selection means for selecting a language estimation engine using the obtained nationality information;
and identifying means for analyzing speech information of a speaker and identifying a language used by the speaker using the selected language estimation engine.
2. Acquisition means for acquiring nationality information;
selection means for selecting a language candidate for language estimation using the acquired nationality information;
A language estimating apparatus comprising: a specifying means for specifying a language used by the speaker from the selected candidates by analyzing voice information of the speaker using a language estimating engine.
3. the acquiring means acquires the nationality information from a passport;
1. or 2. The language estimation device according to .
4. output means for outputting voice or characters using the language specified by the specifying means when a score indicating reliability of the language estimation result using the voice information of the speaker is equal to or lower than a first reference value; prepare
1. to 3. The language estimation device according to any one of .
5. The output means outputs the voice or the characters in the order of the scores.
4. The language estimation device according to .
6. The output means further does not output the voice or the characters using the language for which the score is equal to or lower than a second reference value.
4. or 5. The language estimation device according to .
7. further comprising second selection means for selecting a translation engine corresponding to the language identified by the identification means;
1. to 6. The language estimation device according to any one of .
8. When the nationality information acquired by the acquiring means indicates a predetermined country, the selecting means does not select a language estimation engine, and the identifying means selects a language pre-associated with the country. identify the
1. to 7. The language estimation device according to any one of .
9. 言語推定装置が、
国籍情報を取得し、
取得した前記国籍情報を用いて、言語推定エンジンを選択し、
選択した前記言語推定エンジンを用いて、話者の音声情報を解析して前記話者が用いる言語を特定する、言語推定方法。
10. 言語推定装置が、
国籍情報を取得し、
取得した前記国籍情報を用いて、言語推定対象の言語の候補を選択し、
言語推定エンジンを用いて、話者の音声情報を解析して前記話者が用いる言語を選択した前記候補から特定する、言語推定方法。
11. 前記言語推定装置が、旅券から前記国籍情報を取得する、
9.または10.に記載の言語推定方法。
12. 前記言語推定装置が、さらに、
前記話者の前記音声情報を用いた言語推定結果の信頼度を示すスコアが第1の基準値以下の場合、特定した前記言語を用いた音声または文字を出力する、
9.から11.のいずれか一つに記載の言語推定方法。
13. 前記言語推定装置が、さらに、
前記スコア順に前記音声または前記文字を出力する、
12.に記載の言語推定方法。
14. 前記言語推定装置が、さらに、
前記スコアが第2の基準値以下の前記言語を用いた前記音声または前記文字は出力しない、
12.または13.に記載の言語推定方法。
15. 前記言語推定装置が、さらに、
特定した前記言語に対応する翻訳エンジンを選択する、
9.から14.のいずれか一つに記載の言語推定方法。
16. 前記言語推定装置が、さらに、
取得した前記国籍情報が予め定められた国を示している場合は、言語推定エンジンの選択を行わず、前記国に予め関連付けられている言語を特定する、
9.から15.のいずれか一つに記載の言語推定方法。9. A language estimation device
Get nationality information,
Selecting a language estimation engine using the obtained nationality information,
A language estimation method, wherein the selected language estimation engine is used to analyze speech information of a speaker to identify the language used by the speaker.
10. A language estimation device
Get nationality information,
Selecting a language candidate for language estimation using the acquired nationality information,
A language estimation method, wherein a language estimation engine is used to analyze speech information of a speaker and specify a language used by the speaker from the selected candidates.
11. the language estimation device obtains the nationality information from a passport;
9. or 10. The language estimation method described in .
12. The language estimation device further
outputting voice or text using the identified language when a score indicating the reliability of the language estimation result using the voice information of the speaker is equal to or lower than a first reference value;
9. to 11. The language estimation method according to any one of.
13. The language estimation device further
outputting the voice or the text in order of the score;
12. The language estimation method described in .
14. The language estimation device further
Do not output the voice or the text using the language whose score is equal to or lower than a second reference value;
12. or 13. The language estimation method described in .
15. The language estimation device further
selecting a translation engine corresponding to the identified language;
9. to 14. The language estimation method according to any one of.
16. The language estimation device further
If the acquired nationality information indicates a predetermined country, specifying a language pre-associated with the country without selecting a language estimation engine;
9. to 15. The language estimation method according to any one of.
17. コンピュータに、
国籍情報を取得する手順、
取得した前記国籍情報を用いて、言語推定エンジンを選択する手順、
選択した前記言語推定エンジンを用いて、話者の音声情報を解析して前記話者が用いる言語を特定する手順、を実行させるためのプログラム。
18. コンピュータに、
国籍情報を取得する手順、
取得した前記国籍情報を用いて、言語推定対象の言語の候補を選択する手順、
言語推定エンジンを用いて、話者の音声情報を解析して前記話者が用いる言語を選択した前記候補から特定する手順、を実行させるためのプログラム。
19. 旅券から前記国籍情報を取得する手順、をコンピュータにさらに実行させるための、
17.または18.に記載のプログラム。
20. 前記話者の前記音声情報を用いた言語推定結果の信頼度を示すスコアが第1の基準値以下の場合、特定した前記言語を用いた音声または文字を出力する手順、をコンピュータにさらに実行させるための、
17.から19.のいずれか一つに記載のプログラム。
21. 前記スコア順に前記音声または前記文字を出力する手順、をコンピュータにさらに実行させるための、
20.に記載のプログラム。
22. 前記スコアが第2の基準値以下の前記言語を用いた前記音声または前記文字は出力しない手順、をコンピュータにさらに実行させるための、
20.または21.に記載のプログラム。
23. 特定した前記言語に対応する翻訳エンジンを選択する手順、をコンピュータにさらに実行させるための、
17.から22.のいずれか一つに記載のプログラム。
24. 取得した前記国籍情報が予め定められた国を示している場合は、言語推定エンジンの選択を行わず、前記国に予め関連付けられている言語を特定する手順、をコンピュータにさらに実行させるための、
17.から23.のいずれか一つに記載のプログラム。17. to the computer,
Procedures for obtaining nationality information,
a procedure for selecting a language estimation engine using the acquired nationality information;
A program for executing a procedure of analyzing speech information of a speaker and identifying the language used by the speaker, using the selected language estimation engine.
18. to the computer,
Procedures for obtaining nationality information,
a procedure of selecting a language candidate for language estimation using the acquired nationality information;
A program for using a language estimation engine to analyze voice information of a speaker and identify the language used by the speaker from the selected candidates.
19. for causing the computer to further execute a procedure for obtaining said nationality information from a passport;
17. or 18. program described in .
20. If the score indicating the reliability of the language estimation result using the voice information of the speaker is equal to or less than a first reference value, causing the computer to further execute a step of outputting voice or characters using the specified language. for,
17. to 19. A program according to any one of
21. for causing a computer to further execute a step of outputting the voice or the character in order of the scores;
20. program described in .
22. causing the computer to further execute a procedure of not outputting the voice or the text using the language whose score is equal to or less than a second reference value;
20. or 21. program described in .
23. for further causing the computer to perform a step of selecting a translation engine corresponding to the identified language;
17. to 22. A program according to any one of
24. causing the computer to further execute a procedure of specifying a language pre-associated with the country without selecting a language estimation engine if the obtained nationality information indicates a predetermined country;
17. to 23. The program according to any one of
この出願は、2019年9月10日に出願された日本出願特願2019-164404号を基礎とする優先権を主張し、その開示の全てをここに取り込む。 This application claims priority based on Japanese Patent Application No. 2019-164404 filed on September 10, 2019, and the entire disclosure thereof is incorporated herein.
1 多言語対応コミュニケーションシステム
4 マイクロフォン
6 スピーカ
10 翻訳装置
20 旅券
30 音声情報
100 言語推定装置
102 取得部
104 選択部
106 特定部
110 言語推定エンジン
112 国別言語推定エンジンテーブル
120 出力部
122 表示装置
300 画面
302 操作ボタン
304 メッセージ
306 OKボタン
1000 コンピュータ
1010 バス
1020 プロセッサ
1030 メモリ
1040 ストレージデバイス
1050 入出力インタフェース
1060 ネットワークインタフェース
La 第1言語
Lb 第2言語
Ua 第1の話者
Ub 第2の話者1
Claims (10)
取得した前記国籍情報を用いて、言語推定エンジンを選択する選択手段と、
選択した前記言語推定エンジンを用いて、話者の音声情報を解析して前記話者が用いる言語を特定する特定手段と、を備え、
前記言語推定エンジンは、国別に設けられ、各国別の言語推定エンジンは、当該国で使用される複数の言語の中から前記話者が用いる言語を推定し、
前記選択手段は、前記国籍情報が示す国に対応する前記言語推定エンジンを選択する、言語推定装置。 Acquisition means for acquiring nationality information;
selection means for selecting a language estimation engine using the acquired nationality information;
identifying means for identifying the language used by the speaker by analyzing the speech information of the speaker using the selected language estimation engine;
The language estimation engine is provided for each country, and the language estimation engine for each country estimates the language used by the speaker from among a plurality of languages used in the country,
The language estimation device, wherein the selection means selects the language estimation engine corresponding to the country indicated by the nationality information.
取得した前記国籍情報を用いて、言語推定対象の言語の候補を選択する選択手段と、
言語推定エンジンを用いて、話者の音声情報を解析して前記話者が用いる言語を選択した前記候補から特定する特定手段と、を備え、
前記言語推定エンジンは、ディープラーニングにより、対象国全てに対応する全ての言語について構築されるニューラルネットワークであり、
前記国籍情報が示す国別に、前記ニューラルネットワークから出力される言語が関連付けて記憶されており、
前記選択手段は、前記国籍情報が示す前記話者の国に対応する言語で、前記言語推定エンジンの前記ニューラルネットワークから出力される言語をマスクすることで、前記候補を絞り込み、
前記特定手段は、当該マスクされた言語推定エンジンを用いて、前記話者の言語を特定する、言語推定装置。 Acquisition means for acquiring nationality information;
selection means for selecting a language candidate for language estimation using the acquired nationality information;
using a language estimation engine, identifying means for analyzing speech information of a speaker and identifying the language used by the speaker from the selected candidates ;
The language estimation engine is a neural network constructed for all languages corresponding to all target countries by deep learning,
a language output from the neural network is stored in association with each country indicated by the nationality information;
The selection means narrows down the candidates by masking the language output from the neural network of the language estimation engine with a language corresponding to the country of the speaker indicated by the nationality information,
The language estimation device, wherein the identifying means identifies the language of the speaker using the masked language estimation engine .
請求項1または2に記載の言語推定装置。 the acquiring means acquires the nationality information from a passport;
3. The language estimation device according to claim 1 or 2.
請求項1から3のいずれか一項に記載の言語推定装置。 output means for outputting voice or characters using the language specified by the specifying means when a score indicating reliability of the language estimation result using the voice information of the speaker is equal to or lower than a first reference value; prepare
A language estimation device according to any one of claims 1 to 3.
請求項4に記載の言語推定装置。 The output means outputs the voice or the characters in the order of the scores.
The language estimation device according to claim 4.
請求項4または5に記載の言語推定装置。 The output means further does not output the voice or the characters using the language for which the score is equal to or lower than a second reference value.
A language estimation device according to claim 4 or 5.
請求項1から6のいずれか一項に記載の言語推定装置。 further comprising second selection means for selecting a translation engine corresponding to the language identified by the identification means;
A language estimation device according to any one of claims 1 to 6.
請求項1から7のいずれか一項に記載の言語推定装置。 When the nationality information acquired by the acquiring means indicates a predetermined country, the selecting means does not select a language estimation engine, and the identifying means selects a language pre-associated with the country. identify the
A language estimation device according to any one of claims 1 to 7.
国籍情報を取得し、
取得した前記国籍情報を用いて、言語推定エンジンを選択し、
選択した前記言語推定エンジンを用いて、話者の音声情報を解析して前記話者が用いる言語を特定し、
前記言語推定エンジンは、国別に設けられ、各国別の言語推定エンジンは、当該国で使用される複数の言語の中から前記話者が用いる言語を推定し、
前記言語推定装置が、
前記国籍情報が示す国に対応する前記言語推定エンジンを選択する、言語推定方法。 A language estimation device
Get nationality information,
Selecting a language estimation engine using the obtained nationality information,
using the selected language estimation engine to analyze the speech information of the speaker and identify the language used by the speaker ;
The language estimation engine is provided for each country, and the language estimation engine for each country estimates the language used by the speaker from among a plurality of languages used in the country,
the language estimation device,
A language estimation method, wherein the language estimation engine corresponding to the country indicated by the nationality information is selected .
国籍情報を取得する手順、
取得した前記国籍情報を用いて、言語推定エンジンを選択する手順、
選択した前記言語推定エンジンを用いて、話者の音声情報を解析して前記話者が用いる言語を特定する手順、を実行させ、
前記言語推定エンジンは、国別に設けられ、各国別の言語推定エンジンは、当該国で使用される複数の言語の中から前記話者が用いる言語を推定し、
前記国籍情報が示す国に対応する前記言語推定エンジンを選択する手順をさらに前記コンピュータに実行させるためのプログラム。 to the computer,
Procedures for obtaining nationality information,
a procedure for selecting a language estimation engine using the acquired nationality information;
using the selected language estimation engine to analyze speech information of a speaker and identify the language used by the speaker ;
The language estimation engine is provided for each country, and the language estimation engine for each country estimates the language used by the speaker from among a plurality of languages used in the country,
A program for causing the computer to further execute a procedure for selecting the language estimation engine corresponding to the country indicated by the nationality information .
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019164404 | 2019-09-10 | ||
| JP2019164404 | 2019-09-10 | ||
| PCT/JP2020/033723 WO2021049445A1 (en) | 2019-09-10 | 2020-09-07 | Language inference device, language inference method, and program |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JPWO2021049445A1 JPWO2021049445A1 (en) | 2021-03-18 |
| JPWO2021049445A5 JPWO2021049445A5 (en) | 2022-05-24 |
| JP7331933B2 true JP7331933B2 (en) | 2023-08-23 |
Family
ID=74866600
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021545514A Active JP7331933B2 (en) | 2019-09-10 | 2020-09-07 | Language estimation device, language estimation method, and program |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US20220319512A1 (en) |
| JP (1) | JP7331933B2 (en) |
| WO (1) | WO2021049445A1 (en) |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002304392A (en) | 2001-04-04 | 2002-10-18 | Atr Onsei Gengo Tsushin Kenkyusho:Kk | Speech translation system |
| US20130238336A1 (en) | 2012-03-08 | 2013-09-12 | Google Inc. | Recognizing speech in multiple languages |
| JP2014137430A (en) | 2013-01-16 | 2014-07-28 | Sharp Corp | Electronic apparatus and cleaner |
| JP2017041120A (en) | 2015-08-20 | 2017-02-23 | カシオ計算機株式会社 | Information processing device, information processing system, information processing method and program |
| JP2019040642A (en) | 2015-09-09 | 2019-03-14 | 日本電気株式会社 | Face authentication apparatus, face authentication method, and program |
| JP2019113520A (en) | 2017-12-22 | 2019-07-11 | 株式会社デンソー | Onboard information display device and used language estimating device |
Family Cites Families (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0728899A (en) * | 1993-07-09 | 1995-01-31 | Hitachi Ltd | Foreigner interface in various certificate issuing machines |
| AU2017328161B2 (en) * | 2016-09-13 | 2022-02-17 | Magic Leap, Inc. | Sensory eyewear |
| DK201770439A1 (en) * | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
-
2020
- 2020-09-07 JP JP2021545514A patent/JP7331933B2/en active Active
- 2020-09-07 US US17/639,976 patent/US20220319512A1/en active Pending
- 2020-09-07 WO PCT/JP2020/033723 patent/WO2021049445A1/en not_active Ceased
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002304392A (en) | 2001-04-04 | 2002-10-18 | Atr Onsei Gengo Tsushin Kenkyusho:Kk | Speech translation system |
| US20130238336A1 (en) | 2012-03-08 | 2013-09-12 | Google Inc. | Recognizing speech in multiple languages |
| JP2014137430A (en) | 2013-01-16 | 2014-07-28 | Sharp Corp | Electronic apparatus and cleaner |
| JP2017041120A (en) | 2015-08-20 | 2017-02-23 | カシオ計算機株式会社 | Information processing device, information processing system, information processing method and program |
| JP2019040642A (en) | 2015-09-09 | 2019-03-14 | 日本電気株式会社 | Face authentication apparatus, face authentication method, and program |
| JP2019113520A (en) | 2017-12-22 | 2019-07-11 | 株式会社デンソー | Onboard information display device and used language estimating device |
Also Published As
| Publication number | Publication date |
|---|---|
| JPWO2021049445A1 (en) | 2021-03-18 |
| US20220319512A1 (en) | 2022-10-06 |
| WO2021049445A1 (en) | 2021-03-18 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10847147B2 (en) | Hyperarticulation detection in repetitive voice queries using pairwise comparison for improved speech recognition | |
| EP3866160B1 (en) | Electronic device and control method thereof | |
| JP4559946B2 (en) | Input device, input method, and input program | |
| US20190172444A1 (en) | Spoken dialog device, spoken dialog method, and recording medium | |
| US11545140B2 (en) | System and method for language-based service hailing | |
| CN111986675B (en) | Voice dialogue method, device and computer readable storage medium | |
| KR20080086791A (en) | Speech based emotion recognition system | |
| CN109448704A (en) | Construction method, device, server and the storage medium of tone decoding figure | |
| KR101988165B1 (en) | Method and system for improving the accuracy of speech recognition technology based on text data analysis for deaf students | |
| JP5180116B2 (en) | Nationality determination device, method and program | |
| CN113051384A (en) | User portrait extraction method based on conversation and related device | |
| KR102041617B1 (en) | Method and apparatus for servicing a response of variable style using artificial intelligent | |
| JP7331933B2 (en) | Language estimation device, language estimation method, and program | |
| JP6922178B2 (en) | Speech recognition system, information processing device, program | |
| KR101440887B1 (en) | Method and apparatus of recognizing business card using image and voice information | |
| JP2014102280A (en) | Function execution command system, function execution command method, and function execution command program | |
| KR102110393B1 (en) | Emotion recognition method and computer program for excuting the method, emotion recognizer generation method and computer program for excuting the method | |
| JP2010054897A (en) | Voice recognition device, voice recognition program, reception device and reception program | |
| US20200243092A1 (en) | Information processing device, information processing system, and computer program product | |
| KR102755985B1 (en) | System and method for providing communication service through language pattern analysis based on artificial intelligence | |
| KR20210016739A (en) | Electronic device and input method of the same | |
| JP2022533948A (en) | Communication server device, communication device, and method of operation thereof | |
| CN114067362A (en) | Sign language recognition method, device, equipment and medium based on neural network model | |
| NS et al. | Smart reader for visually impaired | |
| US9122312B2 (en) | System and method for interacting with a computing device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220309 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220309 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230117 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230315 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230711 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230724 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 7331933 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |