KR102191425B1 - Apparatus and method for learning foreign language based on interactive character - Google Patents
Apparatus and method for learning foreign language based on interactive character Download PDFInfo
- Publication number
- KR102191425B1 KR102191425B1 KR1020130089650A KR20130089650A KR102191425B1 KR 102191425 B1 KR102191425 B1 KR 102191425B1 KR 1020130089650 A KR1020130089650 A KR 1020130089650A KR 20130089650 A KR20130089650 A KR 20130089650A KR 102191425 B1 KR102191425 B1 KR 102191425B1
- Authority
- KR
- South Korea
- Prior art keywords
- language
- speech recognition
- text
- recognition result
- error
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B7/00—Electrically-operated teaching apparatus or devices working with questions and answers
- G09B7/02—Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
- G09B19/06—Foreign languages
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Educational Technology (AREA)
- Educational Administration (AREA)
- Tourism & Hospitality (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Entrepreneurship & Innovation (AREA)
- Computational Linguistics (AREA)
- Economics (AREA)
- Multimedia (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Electrically Operated Instructional Devices (AREA)
- Machine Translation (AREA)
Abstract
인터랙티브 캐릭터 기반 외국어 학습 장치 및 방법을 공개한다. 본 발명은 학습자가 평상시에 사용하는 언어로 기설정된 생활 언어 및 학습 대상 언어 중 하나로 학습자가 발화하는 음성 입력을 수신하고, 합성음 및 학습 평가 결과 중 적어도 하나를 출력하는 입출력부, 음성 입력을 인가받아 음성 인식을 수행하여 음성 인식 결과 텍스트를 출력하는 음성 인식부, 음성 인식 결과 텍스트를 수신하여 음성 인식 결과 텍스트의 오류를 교정하고 유사 문장을 생성하는 문장 분석 및 교정부, 문장 분석 및 교정부에서 오류가 교정된 음성 인식 결과 텍스트의 언어와 출력 언어가 서로 상이한 경우, 음성 인식 결과 텍스트를 출력 언어에 대응하여 자동 번역하여 자동 번역 텍스트를 생성하는 다국어 자동 번역 모듈, 오류 교정된 음성 인식 결과 텍스트 및 자동 번역 텍스트 중 적어도 하나를 수신하고, 수신된 텍스트에 대응하는 음성을 기설정된 인터랙티브 캐릭터의 특성에 따라 합성하여 합성음을 입출력부로 출력하는 다국어 음성 합성 모듈 및 학습자의 언어 사용 능력을 평가하고, 평가 결과를 입출력부로 출력하는 학습 평가부를 포함한다.An interactive character-based foreign language learning device and method will be disclosed. The present invention receives a speech input uttered by a learner in one of a living language and a language to be learned as a language that the learner uses in everyday life, an input/output unit for outputting at least one of a synthesized sound and a learning evaluation result, and receiving a speech input. A speech recognition unit that performs speech recognition and outputs the speech recognition result text, a sentence analysis and correction unit that corrects errors in the speech recognition result text by receiving the speech recognition result text and generates similar sentences, and an error in the sentence analysis and correction unit When the language of the corrected speech recognition result text and the output language are different from each other, a multilingual automatic translation module that automatically translates the speech recognition result text in response to the output language to generate an automatic translation text, error-corrected speech recognition result text and automatic A multilingual speech synthesis module that receives at least one of the translated texts, synthesizes the voice corresponding to the received text according to the characteristics of a preset interactive character, and outputs the synthesized sound to the input/output unit, and evaluates the learner's ability to use language, and evaluates the evaluation result. It includes a learning evaluation unit that is output to the input/output unit.
Description
본 발명은 외국어 학습 장치 및 방법에 관한 것으로, 특히 인터랙티브 캐릭터를 통해 사용자의 모국어 발화를 음성 인식하여 번역하여 외국어 발성음을 출력할 뿐만 아니라, 사용자의 외국어 발화를 음성 인식하여 오류 교정 및 발음/언어 평가를 사용자에게 피드백할 수 있는 인터랙티브 캐릭터 기반 외국어 학습 장치 및 방법에 관한 것이다.
The present invention relates to a foreign language learning apparatus and method, and in particular, speech recognition of a user's native language utterance through an interactive character and translation to output a foreign language utterance, as well as error correction and pronunciation/language by voice recognition of the user's foreign language utterance. It relates to an interactive character-based foreign language learning apparatus and method that can feedback evaluation to a user.
현대 사회에서 외국어 활용 능력은 매우 중요하다. 기존의 외국어 학습은 주로 읽기, 쓰기에 치중되었으나, 현재는 듣기 및 말하기가 외국어 학습에서 큰 비중을 차지하고 있다.The ability to use foreign languages is very important in modern society. Existing foreign language learning was mainly focused on reading and writing, but now listening and speaking occupy a large portion of foreign language learning.
특히 말하기는 일반적으로 학습자가 외국어를 학습할 때, 가장 어려워하는 부분으로, 대부분의 학습자들은 외국어 말하기 학습 초반에 발화를 주저하는 단계인 무성 기간(silent period)과 학습언어의 규칙을 습득해 가면서 외국어 발화를 수행하는 실험적 생성 기간(production period)을 갖는다. 외국어 말하기 학습에서 무성 기간과 실험적 생성 기간은 학습자들이 가장 힘들어하는 기간으로 이 기간에 말하기 학습을 원활하게 수행할 수 있다면, 학습자의 외국어 말하기 능력은 단기간에 크게 성장할 수 있게 된다.In particular, speaking is the most difficult part for learners to learn a foreign language in general, and most learners learn to speak a foreign language as they learn the rules of the language and the silent period, which is the stage of hesitation from speaking. It has an experimental production period to perform the utterance. In foreign language speaking learning, the silent period and the experimental generation period are the most difficult periods for learners, and if they can perform speech learning smoothly during this period, the learner's foreign language speaking ability can grow significantly in a short period of time.
이에 학습자가 거부감 없이 쉽고 익숙한 방식으로 무성 기간과 실험적 생성 기간에 외국어 학습을 수행할 수 있는 외국어 학습 장치 및 외국어 학습 방법이 요구되고 있다.
Accordingly, there is a need for a foreign language learning device and a foreign language learning method that enable learners to learn foreign languages during silent periods and experimental generation periods in an easy and familiar manner without feeling rejected.
본 발명의 목적은 사용자의 모국어 및 외국어 발화를 음성인식하여 번역된 음성을 출력하거나, 오류나 발음을 교정하여 학습자에게 피드백할 수 있는 인터랙티브 캐릭터 기반 외국어 학습 장치를 제공하는데 있다.An object of the present invention is to provide an interactive character-based foreign language learning apparatus capable of recognizing a user's utterance in a native language and a foreign language and outputting a translated voice, or correcting an error or pronunciation and giving feedback to a learner.
본 발명의 다른 방법은 인터랙티브 캐릭터 기반 외국어 학습 방법을 제공하는데 있다.
Another method of the present invention is to provide an interactive character-based foreign language learning method.
상기 목적을 달성하기 위한 본 발명의 일 예에 따른 외국어 학습 장치는 학습자가 평상시에 사용하는 언어로 기설정된 생활 언어 및 학습 대상 언어 중 하나로 상기 학습자가 발화하는 음성 입력을 수신하고, 합성음 및 학습 평가 결과 중 적어도 하나를 출력하는 입출력부; 상기 음성 입력을 인가받아 음성 인식을 수행하여 음성 인식 결과 텍스트를 출력하는 음성 인식부; 상기 음성 인식 결과 텍스트를 수신하여 상기 음성 인식 결과 텍스트의 오류를 교정하고 유사 문장을 생성하는 문장 분석 및 교정부; 문장 분석 및 교정부에서 오류가 교정된 상기 음성 인식 결과 텍스트의 언어와 출력 언어가 서로 상이한 경우, 상기 음성 인식 결과 텍스트를 상기 출력 언어에 대응하여 자동 번역하여 자동 번역 텍스트를 생성하는 다국어 자동 번역 모듈; 오류 교정된 상기 음성 인식 결과 텍스트 및 상기 자동 번역 텍스트 중 적어도 하나를 수신하고, 수신된 상기 텍스트에 대응하는 음성을 기설정된 인터랙티브 캐릭터의 특성에 따라 합성하여 합성음을 상기 입출력부로 출력하는 다국어 음성 합성 모듈; 및 상기 학습자의 언어 사용 능력을 평가하고, 평가 결과를 상기 입출력부로 출력하는 학습 평가부; 를 포함한다.A foreign language learning apparatus according to an embodiment of the present invention for achieving the above object receives a voice input uttered by the learner in one of a living language and a language to be learned, which is preset as a language used by the learner, and evaluates synthesized sound and learning. An input/output unit outputting at least one of the results; A voice recognition unit configured to receive the voice input, perform voice recognition, and output a text as a result of voice recognition; A sentence analysis and correction unit for receiving the speech recognition result text, correcting errors in the speech recognition result text, and generating a similar sentence; A multilingual automatic translation module for generating an automatic translation text by automatically translating the speech recognition result text in response to the output language when the language and the output language of the speech recognition result text corrected for errors in the sentence analysis and correction unit are different from each other ; Multilingual speech synthesis module for receiving at least one of the error-corrected speech recognition result text and the automatic translation text, synthesizing a speech corresponding to the received text according to characteristics of a preset interactive character, and outputting a synthesized sound to the input/output unit ; And a learning evaluation unit that evaluates the learner's ability to use language and outputs an evaluation result to the input/output unit. Includes.
상기 음성 인식부는 상기 학습자가 평상시에 사용하는 생활 언어를 사용하는 사람들의 L3 음향 모델과 상기 학습자와 동일 생활 언어를 사용 사람들의 동일한 상기 학습 대상 언어에 대한 L2 음향 모델 및 상기 학습 대상 언어가 생활 언어인 사람들의 L1 음향 모델을 포함하는 L123 사용자 음향 모델을 저장하는 L123 사용자 음향 모델 데이터베이스; 상기 학습자와 동일한 생활 언어를 사용하는 사람들의 L3 언어 모델과 상기 학습자와 동일 생활 언어를 사용 사람들의 동일한 상기 학습 대상 언어에 대한 L2 음향 모델 및 상기 학습 대상 언어가 생활 언어인 사람들의 L1 음향 모델을 포함하는 L123 사용자 음향 모델을 저장하는 L123 사용자 언어 모델 데이터베이스; 및 상기 음성 입력을 L123 사용자 음향 모델 및 L123 사용자 언어 모델을 이용하여 상기 음성 인식 결과 텍스트로 변환하는 다국어 음성 인식 모듈; 을 포함하는 것을 특징으로 한다.The speech recognition unit includes an L3 acoustic model of people who use the living language that the learner normally uses, and the L2 acoustic model of the same language to be learned by those who use the same living language as the learner, and the learning target language is a living language. An L123 user acoustic model database that stores an L123 user acoustic model including the L1 acoustic model of humans; An L3 language model of people who use the same living language as the learner, an L2 acoustic model for the same learning target language of people who use the same living language as the learner, and an L1 acoustic model of people whose learning target language is a living language. An L123 user language model database for storing the L123 user acoustic model including; And a multilingual speech recognition module that converts the speech input into text as a result of the speech recognition using the L123 user acoustic model and the L123 user language model. It characterized in that it comprises a.
상기 L123 사용자 음향 모델 데이터베이스는 상기 L1 음향 모델과 L2 음향 모델이 결합된 형태인 L1 + L2 음향 모델을 저장하고, 상기 L123 사용자 언어 모델 데이터베이스는 L1 언어 모델과 L2 언어 모델이 결합된 형태인 L1 + L2 언어 모델을 저장하는 것을 특징으로 한다.The L123 user acoustic model database stores an L1 + L2 acoustic model in which the L1 acoustic model and the L2 acoustic model are combined, and the L123 user language model database is L1 + in a form in which the L1 language model and the L2 language model are combined. It is characterized by storing the L2 language model.
상기 다국어 음성 인식 모듈은 상기 음성 입력이 상기 학습자의 생활 언어인 경우에는 상기 L3 음향 모델 및 상기 L3 언어 모델을 이용하여 음성 인식을 수행하고, 상기 음성 입력이 상기 학습 대상 언어인 경우에는 상기 L1 + L2 음향 모델과 상기 L1 + L2 언어 모델을 이용하여 음성 인식을 수행하는 것을 특징으로 한다.The multilingual speech recognition module performs speech recognition using the L3 acoustic model and the L3 language model when the speech input is the learner's life language, and the L1 + when the speech input is the learning target language. It is characterized in that speech recognition is performed using the L2 acoustic model and the L1 + L2 language model.
상기 문장 분석 및 교정부는 상기 생활 언어 및 상기 학습 대상 언어에 대해 기존의 음성 인식 결과 텍스트에서 발생하는 오류들과 이에 대한 교정 정보들을 누적한 오류 패턴을 저장하는 오류 교정 데이터베이스; 상기 음성 인식 결과 텍스트의 오류를 상기 오류 패턴에서 검색하여 오류를 교정하는 문장 오류 교정 모듈; 상기 생활 언어 및 상기 학습 대상 언어에서 의미적으로 유사한 다수의 유사 문장을 포함하는 유사 문장 패턴을 저장하는 유사 문장 데이터베이스; 및 상기 음성 인식 결과 텍스트와 의미적으로 유사한 문장을 상기 유사 문장 패턴을 검색하여 획득하는 유사 문장 생성 모듈; 을 포함하는 것을 특징으로 한다.The sentence analysis and correction unit includes an error correction database for storing errors occurring in the text as a result of speech recognition for the living language and the language to be learned and an error pattern in which correction information is accumulated; A sentence error correction module for correcting an error by searching for an error in the text as a result of the speech recognition from the error pattern; A similar sentence database storing a similar sentence pattern including a plurality of similar sentences that are semantically similar in the living language and the language to be learned; And a similar sentence generation module for obtaining a sentence semantically similar to the text as a result of the speech recognition by searching for the similar sentence pattern. It characterized in that it comprises a.
상기 문장 오류 교정 모듈은 상기 음성 인식 결과 텍스트를 n-gram 의 형태로 변환하고, 변환된 상기n-gram을 키워드로 하여 상기 오류 교정 데이터베이스의 상기 오류 패턴을 검색하고, 검색된 상기 오류 패턴으로부터 오류에 대한 교정 정보를 획득하고, 획득된 교정 정보를 검색 키워드의 상기 n-gram으로 대체함으로써 오류를 교정하는 것을 특징으로 한다.The sentence error correction module converts the speech recognition result text into an n-gram format, searches for the error pattern of the error correction database by using the converted n-gram as a keyword, and corrects the error from the searched error pattern. It is characterized in that the error is corrected by acquiring correction information for and replacing the obtained correction information with the n-gram of the search keyword.
상기 문장 오류 교정 모듈은 상기 음성 인식 결과 텍스트에서 기설정된 방식으로 중요 어휘를 추출하고, 상기 중요 어휘를 키워드로 하여 상기 유사 문장 데이터베이스의 유사 문장 패턴을 검색하며, 상기 유사 문장 패턴에서 검색된 유사 문장 후보들 중 상기 음성 인식 결과 텍스트와 문자열 구성이 가장 유사한 기설정된 개수의 상기 유사 문장 후보를 상기 유사 문장으로 선택하는 것을 특징으로 한다.The sentence error correction module extracts an important vocabulary from the speech recognition result text in a predetermined manner, searches for a similar sentence pattern in the similar sentence database using the important vocabulary as a keyword, and similar sentence candidates retrieved from the similar sentence pattern Among them, a predetermined number of the similar sentence candidates having the most similar text and character string configurations are selected as the similar sentence.
상기 학습 평가부는 상기 L1 음향 모델을 저장하는 L1 사용자 음향 모델 데이터베이스; L1 언어 모델을 저장하는 L1 사용자 언어 모델 데이터베이스; 및 상기 음성 입력과 상기 L1 음향 모델과 비교하여 음향 유사도를 계산하고, 상기 음성 인식 결과 텍스트와 상기 L1 언어 모델과 비교하여 언어 유사도를 계산하며, 상기 음성 인식 결과 텍스트와 상기 문장 분석 및 교정부에서 오류 교정된 상기 음성 인식 결과 텍스트를 비교하여 오류 유사도를 계산하고, 상기 음향 유사도와 상기 언어 유사도 및 상기 오류 유사도를 통합하여 기설정된 방식으로 수치화하여 상기 평가 결과를 생성하는 학습자 평가 모듈; 을 포함하는 것을 특징으로 한다.The learning evaluation unit L1 user acoustic model database for storing the L1 acoustic model; An L1 user language model database that stores the L1 language model; And calculating an acoustic similarity by comparing the voice input and the L1 acoustic model, calculating a language similarity by comparing the speech recognition result text with the L1 language model, and in the speech recognition result text and the sentence analysis and correction unit. A learner evaluation module that compares the error-corrected speech recognition result text to calculate an error similarity, integrates the sound similarity, the language similarity, and the error similarity to digitize in a predetermined manner to generate the evaluation result; It characterized in that it comprises a.
상기 외국어 학습 장치는 오류 교정된 상기 음성 인식 결과 텍스트 또는 자동 번역 텍스트 중 적어도 하나를 수신하고, 기설정된 상기 인터랙티브 캐릭터의 특성 및 기저장된 상기 학습자의 음성 인식 결과 텍스트들을 이용하여, 음성 인식 결과 텍스트 또는 자동 번역 텍스트를 확장하여 확장 문장을 생성하는 패러프레이징 처리 모듈; 을 더 포함하는 것을 특징으로 한다.The foreign language learning apparatus receives at least one of the error-corrected speech recognition result text or the automatic translation text, and uses the preset characteristics of the interactive character and the previously stored speech recognition result texts of the learner, the speech recognition result text or A paraphrase processing module that expands the automatic translation text to generate an expanded sentence; It characterized in that it further comprises.
상기 패러프레이징 처리 모듈은 오류 교정된 상기 음성 인식 결과 텍스트 및 상기 자동 번역 텍스트 중 적어도 하나를 수신하고, 수신된 상기 텍스트를 확장하기 위해 상기 텍스트의 구문 및 의미를 분석하여 특성 키워드를 추출하는 텍스트 분석 모듈; 상기 외국어 학습 장치에서 제공하는 상기 인터랙티브 캐릭터들의 특성 정보를 저장하는 캐릭터 특성 데이터베이스; 상기 텍스트 분석 모듈에서 분석된 상기 음성 인식 결과 텍스트의 키워드를 상기 캐릭터 특성 데이터베이스의 키워드 값들과 매칭하여, 상기 음성 인식 결과 텍스트의 문장을 확장하는 캐릭터 특성 관리 모듈; 상기 학습자가 이전에 발화하여 상기 음성 입력으로 입력하고, 음성 인식된 음성 인식 결과 텍스트들을 저장하는 세션 히스토리 데이터베이스; 및 상기 세션 히스토리 데이터베이스에 저장된 상기 음성 인식 결과 텍스트를 현재 학습자가 발성하여 음성 인식된 상기 음성 인식 결과 텍스트와 결합하여 문장을 확장하는 세션 히스토리 관리 모듈; 을 포함하는 것을 특징으로 한다.The paraphrase processing module receives at least one of the error-corrected speech recognition result text and the automatic translation text, and analyzes the syntax and meaning of the text to expand the received text to extract characteristic keywords. module; A character characteristic database for storing characteristic information of the interactive characters provided by the foreign language learning device; A character characteristic management module that matches a keyword of the speech recognition result text analyzed by the text analysis module with keyword values of the character characteristic database to expand the sentence of the speech recognition result text; A session history database for storing speech recognition result texts, which the learner has previously spoken and input through the speech input; And a session history management module configured to expand a sentence by combining the speech recognition result text stored in the session history database with the speech recognition result text that is voice-recognized by the current learner. It characterized in that it comprises a.
상기 다른 목적을 달성하기 위한 본 발명의 일 예에 따른 외국어 학습 지원 방법은 입출력부, 음성 인식부, 문장 분석 및 교정부, 학습 평가부, 다국어 자동 번역 모듈, 패러프레이징 처리 모듈 및 다국어 음성 합성 모듈을 포함하는 외국어 학습 장치가 수행하는 외국어 학습 지원 방법으로서, 상기 입출력부가 설정 명령을 수신하여 음성 입력 언어 및 출력 언어에 대한 언어 설정과 인터랙티브 캐릭터 설정을 포함하는 학습 설정을 수행하는 단계; 상기 음성 입력이 수신되면, 상기 음성 인식부가 음성 인식을 수행하여 음성 인식 결과 텍스트를 생성하는 단계; 상기 문장 분석 및 교정부가 상기 음성 인식 결과 텍스트의 오류를 교정하는 단계; 상기 다국어 자동 번역 모듈이 상기 오류가 교정된 음성 인식 결과 텍스트가 상기 학습 설정에서 설정된 상기 출력 언어와 동일한지 판별하는 단계; 상기 오류가 교정된 음성 인식 결과 텍스트와 상기 출력 언어가 동일하지 않으면, 상기 오류가 교정된 음성 인식 결과 텍스트를 상기 출력 언어에 따라 자동 번역하여 자동 번역 텍스트를 생성하는 단계; 상기 패러프레이징 처리 모듈이 상기 오류가 교정된 음성 인식 결과 텍스트 및 상기 자동 번역 텍스트 중 적어도 하나를 수신하고, 수신된 상기 텍스트를 기설정된 상기 인터랙티브 캐릭터의 특성 및 기저장된 상기 학습자의 음성 인식 결과 텍스트들을 이용하여, 확장 문장을 생성하는 단계; 상기 다국어 음성 합성 모듈이 상기 오류 교정된 음성 인식 결과 텍스트, 상기 자동 번역 텍스트 및 상기 확장 문장 중 적어도 하나를 수신하여 이에 대응하는 음성을 기설정된 인터랙티브 캐릭터의 특성에 따라 합성하여 합성음을 생성하는 단계; 상기 학습 평가부가 상기 학습자의 언어 사용 능력을 평가하여, 평가 결과를 생성하는 단계; 및 상기 입출력부가 상기 합성음과 상기 평가 결과를 출력하는 단계; 를 포함한다.A foreign language learning support method according to an embodiment of the present invention for achieving the above other object is an input/output unit, a speech recognition unit, a sentence analysis and correction unit, a learning evaluation unit, a multilingual automatic translation module, a paraphrase processing module, and a multilingual speech synthesis module. A foreign language learning support method performed by a foreign language learning apparatus comprising the steps of: receiving a setting command by the input/output unit and performing learning setting including language setting and interactive character setting for a voice input language and an output language; When the voice input is received, the voice recognition unit performs voice recognition to generate a voice recognition result text; Correcting an error in the text as a result of the speech recognition by the sentence analysis and correction unit; Determining, by the multilingual automatic translation module, whether the speech recognition result text in which the error is corrected is the same as the output language set in the learning setting; If the error-corrected speech recognition result text and the output language are not the same, generating an automatic translation text by automatically translating the error-corrected speech recognition result text according to the output language; The paraphrase processing module receives at least one of the error-corrected speech recognition result text and the automatic translation text, and uses the received text as a preset characteristic of the interactive character and the previously stored speech recognition result texts of the learner. By using, generating an extended sentence; Receiving, by the multilingual speech synthesis module, at least one of the error-corrected speech recognition result text, the automatic translation text, and the expanded sentence, and synthesizing the corresponding speech according to characteristics of a preset interactive character to generate a synthesized sound; Generating an evaluation result by evaluating the learner's language use ability by the learning evaluation unit; And outputting the synthesized sound and the evaluation result by the input/output unit. Includes.
따라서, 본 발명의 인터랙티브 캐릭터 기반 외국어 학습 장치 및 학습 지원 방법은 학습자가 인터랙티브 캐릭터를 이용한 인터페이스를 통해 게임처럼 쉽고 익숙한 접근 방법으로 경직된 외국어 학습 과정을 쉽고 흥미롭게 수행할 수 있다. 더불어 학습자의 모국어 발화에 대한 번역된 외국어의 발성음을 합성하여 출력하여 학습자가 외국어 발성음을 따라 할 수 있도록 할 수 있다. 뿐만 아니라, 무성 기간과 실험적 생성 기간의 숙달되지 않은 학습자의 외국어 발화의 오류, 발음 교정 및 언어 평가를 학습자에게 친숙한 캐릭터가 피드백함으로써 학습자의 언어 학습의 스트레스를 감소시킬 수 있다. 그리고 유사 문장을 확장하여 제공함으로써 학습자가 다양한 표현의 외국어를 학습할 수 있도록 한다.Accordingly, the interactive character-based foreign language learning apparatus and learning support method of the present invention enable a learner to easily and interestingly perform a rigid foreign language learning process with an easy and familiar approach like a game through an interface using an interactive character. In addition, by synthesizing and outputting the utterances of the translated foreign language for utterances in the learner's native language, the learner can replicate the utterances in the foreign language. In addition, it is possible to reduce the stress of language learning of learners by providing feedback from characters familiar to learners about errors in foreign language speech, pronunciation correction, and language evaluation of learners who are not mastered during the silent period and the experimental generation period. In addition, by expanding and providing similar sentences, learners can learn foreign languages with various expressions.
도1 은 본 발명의 일 실시예에 따른 인터랙티브 캐릭터 기반 외국어 학습 장치의 구성을 나타낸다.
도2 는 본 발명의 일 실시예에 따른 인터랙티브 캐릭터 기반 외국어 학습 방법을 나타낸다.1 shows the configuration of an interactive character-based foreign language learning apparatus according to an embodiment of the present invention.
2 shows a foreign language learning method based on an interactive character according to an embodiment of the present invention.
본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시예를 예시하는 첨부 도면 및 첨부 도면에 기재된 내용을 참조하여야만 한다. In order to fully understand the present invention, the operational advantages of the present invention, and the objects achieved by the implementation of the present invention, reference should be made to the accompanying drawings illustrating preferred embodiments of the present invention and the contents described in the accompanying drawings.
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시예를 설명함으로써, 본 발명을 상세히 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 설명하는 실시예에 한정되는 것이 아니다. 그리고, 본 발명을 명확하게 설명하기 위하여 설명과 관계없는 부분은 생략되며, 도면의 동일한 참조부호는 동일한 부재임을 나타낸다. Hereinafter, the present invention will be described in detail by describing a preferred embodiment of the present invention with reference to the accompanying drawings. However, the present invention may be implemented in various different forms, and is not limited to the described embodiments. In addition, in order to clearly describe the present invention, parts irrelevant to the description are omitted, and the same reference numerals in the drawings indicate the same members.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라, 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "...부", "...기", "모듈", "블록" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.
Throughout the specification, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components unless specifically stated to the contrary. In addition, terms such as "... unit", "... group", "module", and "block" described in the specification mean units that process at least one function or operation, which is hardware, software, or hardware. And software.
도1 은 본 발명의 일 실시예에 따른 인터랙티브 캐릭터 기반 외국어 학습 장치의 구성을 나타낸다.1 shows the configuration of an interactive character-based foreign language learning apparatus according to an embodiment of the present invention.
도1 을 참조하면, 본 발명의 인터랙티브 캐릭터 기반 외국어 학습 장치(10)는 크게 입출력부(100), 음성 인식부(200), 문장 분석 및 교정부(300), 학습 평가부(400), 다국어 자동 번역 모듈(500), 패러프레이징 처리 모듈(600), 문장 응용부(700) 및 다국어 음성 합성 모듈(800)을 포함한다.Referring to Figure 1, the interactive character-based foreign language learning apparatus 10 of the present invention is largely an input/
먼저 입출력부(100)는 학습자의 음성을 감지하여 생성되는 음성 입력을 음성 인식부(200)으로 전송하고, 다국어 음성 합성 모듈(800)로부터 합성음을 수신하여 출력하거나, 학습 평가부(400)로부터 학습자의 학습 평가 결과를 수신하여 학습자에게 표시한다.First, the input/
음성 인식부(200)는 입출력부(100)를 통해 음성 입력을 수신하고, 수신된 음성 입력을 음성 인식하여, 음성 인식 결과 텍스트로 변환한다. 여기서 음성 인식부(200)는 학습자가 일상에서 사용하는 생활 언어를 음성 인식 할 수 있을 뿐만 아니라 학습자가 발화한 학습 대상 언어 또한 음성 인식 할 수 있다. 음성 인식부(200)는 L123 사용자 음향 모델 데이터베이스(210), L123 사용자 언어 모델 데이터베이스(220) 및 다국어 음성 인식 모듈(230)을 포함한다.The
L123 사용자 음향 모델 데이터베이스(210)는 학습자가 평상시에 사용하는 생활 언어(일반적으로는 모국어)를 사용하는 사람들의 음향 모델(여기서는 L3 음향 모델이라 함)과 학습자와 동일 생활 언어를 사용 사람들의 동일한 학습 대상 언어에 대한 음향 모델(여기서는 L2 음향 모델이라 함) 및 학습 대상 언어가 생활 언어인 사람들의 음향 모델(여기서는 L1 음향 모델이라 함)을 포함하는 L123 사용자 음향 모델을 저장한다. 여기서 L123 사용자 음향 모델 데이터베이스(210)는 L1 음향 모델과 L2 음향 모델이 결합된 형태인 L1 + L2 음향 모델을 저장할 수 있다.The L123 user
유사하게 L123 사용자 언어 모델 데이터베이스(220)는 학습자와 동일한 생활 언어를 사용하는 사람들의 언어 모델(여기서는 L3 언어 모델이라 함)과 학습자와 동일한 생활 언어를 사용하는 사람들의 동일한 학습 대상 언어에 대한 언어 모델(여기서는 L2 언어 모델이라 함) 및 학습 대상 언어가 생활 언어인 사람들의 언어 모델(여기서는 L1 언어 모델이라 함)을 포함하는 L123 사용자 언어 모델을 저장한다. 여기서 L123 사용자 언어 모델 데이터베이스(220)는 L1 언어 모델과 L2 언어 모델은 결합된 형태인 L1 + L2 언어 모델로 저장할 수 있다.Similarly, the L123 user
상기한 바와 같이 본 발명에서는 설명의 편의를 위하여 학습자가 학습하고자 하는 대상이 되는 언어를 L1 언어라 하고, 학습자가 일상에서 사용하는 생활 언어를 L3 언어라 한다. L2 언어는 L3 언어의 사용자들이 L1 언어를 사용하는 경우를 의미한다.As described above, in the present invention, for convenience of explanation, the language that the learner intends to learn is referred to as the L1 language, and the living language used by the learner in daily life is referred to as the L3 language. L2 language refers to the case where L3 language users speak L1 language.
다국어 음성 인식 모듈(230)은 입출력부(100)를 통해 인가되는 학습자의 음성 입력을 수신하고, 수신된 학습자의 음성 입력을 L123 사용자 음향 모델 데이터베이스(210)에 저장된 L123 사용자 음향 모델 및 L123 사용자 언어 모델 데이터베이스(220)에 저장된 L123 사용자 언어 모델을 이용하여 음성 인식을 수행하고, 음성 인식된 음성 입력을 음성 인식 결과 텍스트로 변환하여 문장 분석 및 교정부(300)로 출력한다. 다국어 음성 인식 모듈(230)은 음성 입력이 학습자의 생활 언어이거나 학습 대상 언어거나 무관하게 음성 인식을 수행할 수 있다. 즉 음성 입력이 학습자의 생활 언어인 경우에는 L3 음향 모델 및 L3 언어 모델을 이용하여 음성 인식을 수행한다. 그리고 음성 입력이 학습 대상 언어인 경우에는 L1 및 L2 음향 모델과 L1 및 L2 언어 모델을 이용하여 음성 인식을 수행하거나, L1 + L2 음향 모델과 L1 + L2 언어 모델을 이용하여 음성 인식을 수행한다. 이때 다국어 음성 인식 모듈(230)은 음성 입력을 L3 음향 모델과 비교하여 학습자가 발화한 음성 입력이 생활 언어인지 학습 대상 언어인지 판별하여 음성인식을 수행할 수 있다. 그러나 학습자가 발화할 언어 및 학습 대상 언어를 미리 설정하여 음성 입력할 수도 있다. 즉 다국어 음성 인식 모듈(230)은 입출력부(100)를 통해 언어 설정 정보를 미리 수신하여 설정하는 것이 정확한 음성 인식을 위해 바람직하다.The multilingual
학습 대상 언어에 대해 숙달되지 않은 학습자의 학습 대상 언어에 대한 발화는 오류를 포함하고 있을 가능성이 매우 크다. 이에 기존의 음성 인식 기술을 적용하는 경우에, 음성 인식을 정상적으로 수행하지 못하는 경우가 빈번하게 발생하게 된다. 이는 외국어 학습 장치가 학습 언어에 숙달되지 않은 학습자에게 발화 시 어떠한 오류가 발생하였는지를 알려주지 않은 채 반복적으로 음성을 입력할 것을 요구하게 되어 학습자의 스트레스를 유발한다. 그리고 이러한 학습자의 스트레스는 외국어 학습을 기피하게 하는 현상을 낳는 문제를 야기한다. 특히 학습 대상 언어가 생활 언어인 사람들과 외국어인 학습 대상 언어를 학습하고자 하는 사람들 사이에는 발화하는 음성에 차이가 있더라도 학습자가 이를 인지하지 못하는 경우가 많으므로, 외국어 학습 장치의 음성 인식은 음성 입력에 오류가 포함되어 있더라도 정확하게 음성을 인식할 수 있는 기술이 요구된다.It is very likely that the utterances of the language to be learned by a learner who is not proficient in the language to be studied contain errors. Accordingly, when the existing speech recognition technology is applied, a case in which speech recognition cannot be normally performed frequently occurs. This causes the learner's stress by requiring the foreign language learning device to repeatedly input the voice without notifying the learner who is not proficient in the learning language what kind of error occurred when speaking. And this learner's stress causes a problem that leads to a phenomenon that avoids learning a foreign language. In particular, even if there is a difference in the spoken voice between people whose learning target language is a living language and those who want to learn a foreign language learning target language, the learner does not recognize it in many cases. Even if an error is included, a technology capable of accurately recognizing speech is required.
이에 본 발명의 음성 인식부(200)는 학습 대상 언어가 생활 언어인 사람들에 대한 음향 모델 및 언어 모델뿐만 아니라 학습자와 동일 생활 언어를 가진 사람들의 동일한 학습 대상 언어에 대한 음향 모델 및 언어 모델이 결합된 L1 + L2 사용자 음향 모델 및 L1 + L2 사용자 언어 모델을 이용하여 학습 대상 언어에 대한 음성 인식을 수행하므로 음성 입력을 음성 인식하여 학습언어 텍스트 생성 시에 오류에 강인한 음성인식 기능을 제공할 수 있다.Accordingly, the
문장 분석 및 교정부(300)는 음성 인식부(200)에서 음성 인식 결과 텍스트를 수신하고, 음성 인식 결과 텍스트의 오류를 교정하고 유사 문장을 생성한다. 문장 분석 및 교정부(300)는 오류 교정 데이터베이스(310), 문장 오류 교정 모듈(320), 유사 문장 데이터베이스(330) 및 유사 문장 생성 모듈(340)을 포함한다.The sentence analysis and
오류 교정 데이터베이스(310)는 생활 언어 및 학습 대상 언어에 대한 오류 패턴을 저장한다. 오류 패턴은 기존 음성 인식 결과 텍스트에서 발생하는 오류들과 이에 대한 교정 정보들을 누적한 정보이다.The
문장 오류 교정 모듈(320)은 수신된 음성 인식 결과 텍스트의 오류 패턴을 오류 교정 데이터베이스(310)에서 검색하여 수정하여 오류를 교정한다. 본 발명에서 문장 오류 교정 모듈(320)은 문장 오류를 교정하기 위해 먼저 음성 인식 결과 텍스트를 n-gram 의 형태로 변환한다. n-gram은 대표적인 확률적 언어 모델의 하나로서, 단어열을 확률적으로 취급하는 언어 모델이다. n-gram은 확률적 언어 모델의 대표적인 것으로서, n개 단어의 연쇄를 확률적으로 표현해 두면 실제로 발성된 문장의 기록을 계산하는 기술이다.The sentence
문장 오류 교정 모듈(320)은 음성 인식 결과 텍스트가 n-gram 형태로 변환되면, 변환된 n-gram을 키워드로 하여 오류 교정 데이터베이스(310)의 오류 패턴을 검색한다. 검색된 오류 패턴으로부터 오류에 대한 교정 정보를 획득하고, 획득된 교정 정보를 검색 키워드의 n-gram으로 대체함으로써 오류를 교정한다.When the text as a result of speech recognition is converted into an n-gram format, the sentence
한편 유사 문장 데이터베이스(330)는 생활 언어 및 학습 대상 언어에서 의미적으로 유사한 다수의 유사 문장을 포함하는 유사 문장 패턴을 저장한다. 일반적으로 사용되는 언어에서 유사 문장의 개수는 입력 가능한 대상 문장이 한정되지 않으므로 무한하다고 할 수 있으나, 외국어 학습은 대부분 한정된 문장을 활용하여 수행되므로, 유사 문장 데이터베이스(330)는 외국어 학습에 사용되는 문장으로 입력 대상 문장을 한정함으로써 대응하는 유사 문장을 저장할 수 있다.Meanwhile, the
유사 문장 생성 모듈(340)은 음성 인식 결과 텍스트를 수신되면, 음성 인식 결과 텍스트와 의미적으로 유사한 문장을 유사 문장 데이터베이스(330)의 유사 문장 패턴을 검색하여 유사 문장을 획득한다. 유사 문장 생성 모듈(340)는 유사 문장을 획득하기 위해 우선 음성 인식 결과 텍스트에서 기설정된 방식으로 중요 어휘를 추출한다. 그리고 추출된 중요 어휘를 키워드로 하여 유사 문장 데이터베이스(330)의 유사 문장 패턴을 검색한다. 다수의 유사 문장 후보들이 검색되면, 검색된 유사 문장 후보들 중 음성 인식 결과 텍스트와 문자열 구성이 가장 유사한 기설정된 개수의 유사 문장 후보를 유사 문장으로 결정한다.When the speech recognition result text is received, the similar
학습 평가부(400)는 L1 사용자 음향 모델 데이터베이스(410), L1 사용자 언어 모델 데이터베이스(420) 및 학습자 평가 모듈(430)을 포함하여, 학습자의 언어 사용 능력을 평가하고, 평가 결과를 입출력부(100)로 전송한다.The learning
L1 사용자 음향 모델 데이터베이스(410)는 학습 대상 언어가 생활 언어인 사람들에 대한 L1 음향 모델을 저장하고, L1 사용자 언어 모델 데이터베이스(420)는 L1 언어 모델을 저장한다.The L1 user
학습자 평가 모듈(430)은 음성 인식부(200)의 다국어 음성 인식 모듈(230)로부터 음성 입력을 수신하여 L1 사용자 음향 모델 데이터베이스(410)의 L1 음향 모델과 비교하여 음향 유사도를 계산하고, 음성 인식 결과 텍스트를 L1 사용자 음향 모델 데이터베이스(420)의 L1 언어 모델과 비교하여 언어 유사도를 계산한다. 그리고 음성 인식 결과 텍스트와 문장 분석 및 교정부(300)의 문장 오류 교정 모듈(320)에서 오류 교정된 음성 인식 결과 텍스트를 수신하고 비교하여 오류 유사도를 계산한다. 마지막으로 음향 유사도와 언어 유사도 및 오류 유사도를 통합하여 기설정된 방식으로 수치화하여 평가 결과를 생성한다.The
상기에서는 학습 평가부(400)가 L1 사용자 음향 모델 데이터베이스(410) 및 L1 사용자 언어 모델 데이터베이스(420)를 구비하는 것으로 설명하였으나, L1 사용자 음향 모델 데이터베이스(410)와 L1 사용자 언어 모델 데이터베이스(420)는 각각 L123 사용자 음향 모델(210) 및 L123 사용자 언어 모델에 포함되어 구현될 수 있다. 또한 상기에서는 학습자 평가 모듈(430)이 음향 유사도, 언어 유사도 및 오류 유사도를 직접 계산하는 것으로 설명하였으나, 음향 유사도, 언어 유사도는 음성 인식부(200)의 다국어 음성 인식 모듈(230)이 계산하여 학습 평가부(400)로 전송할 수 있으며, 오류 유사도는 문장 오류 교정 모듈(320)이 계산하여 학습 평가부(400)로 전송할 수 있다. 이 경우, 학습 평가부는 단순히 음향 유사도와 언어 유사도 및 오류 유사도를 통합하여 기설정된 방식으로 수치화하여 평가 결과만을 생성하여 출력할 수 있다. 또한 학습자 평가 모듈(430)은 음향 유사도와 언어 유사도 및 오류 유사도 각각을 시각적 또는 청각적 방식으로 출력하여 학습자의 학습 대상 언어에 대한 발화의 어떠한 부분에서 오류가 있는지를 직관적으로 인지할 수 있도록 한다. 예를 들면, 오류가 기설정된 수준보다 큰 어휘들만을 별도로 표시하거나 발성음을 별도로 다시 들려줄 수 있다. 이때, 학습 평가부(400)는 단순히 평가 결과와 오류 부분을 지적하는 방식으로 학습자에게 표시하는 것이 아니라 인터랙티브 캐릭터를 이용하여 표시함으로써 학습자에게 친숙한 방식으로 오류를 교정 할 수 있도록 한다.In the above, it has been described that the learning
다국어 자동 번역 모듈(500)은 문장 분석 및 교정부(300)에서 오류가 교정된 음성 인식 결과 텍스트를 수신하고, 음성 인식 결과 텍스트의 언어와 출력할 음성합성 언어가 서로 상이한 경우에 오류가 교정된 음성 인식 결과 텍스트를 학습 대상 언어로 자동으로 번역하여 자동 번역 텍스트를 출력한다. 즉 음성 인식 결과 텍스트가 학습자의 생활 언어이고, 출력해야 할 합성음이 학습 대상 언어인 경우에, 생활 언어인 음성 인식 결과 텍스트를 학습 대상 언어로 번역한다. 자동 번역 수행 여부는 음성 인식부(200)에서 입력 음성이 생활 언어인지 학습 대상 언어인지를 미리 판별하였으므로, 이를 이용하여 자동 번역 수행 여부를 결정할 수 있다. 예를 들면, 음성 인식부의 다국어 음성 인식 모듈(230)가 다국어 자동 번역 모듈(500)로 언어 설정 정보에 따른 번역 신호를 전송함으로써 자동 번역을 수행할 수 있다.The multilingual
패러프레이징(Paraphrasing) 처리 모듈(600)은 오류 교정된 음성 인식 결과 텍스트 또는 자동 번역 텍스트를 수신하고, 음성 인식 결과 텍스트 또는 자동 번역 텍스트를 문장 응용부(700)를 통해 확장한다. 즉 인터랙티브 캐릭터가 발화하는 문장의 수를 확장한다.The paraphrasing
문장 응용부(700)는 텍스트 분석 모듈(710), 캐릭터 특성 데이터베이스(720), 캐릭터 특성 관리 모듈(730), 세션 히스토리 데이터베이스(740) 및 세션 히스토리 관리 모듈(750)을 포함하여 패러프레이징 처리 모듈(600)에서 확장 요청되는 텍스트를 확장한다.The
텍스트 분석 모듈(710)은 패러프레이징 처리 모듈(600)에서 확장 요청하여 전송되는 텍스트의 구문 및 의미를 분석하여 특성 키워드를 추출한다. The
캐릭터 특성 데이터베이스(720)는 외국어 학습 장치에서 제공하는 인터랙티브 캐릭터들의 특성 정보를 저장한다. 여기서 저장되는 캐릭터들의 특성 정보에는 캐릭터 이름, 형상, 종류 및 캐릭터에 대응하는 음성 데이터 등이 포함될 수 있다.The character
캐릭터 특성 관리 모듈(730)은 텍스트 분석 모듈(720)에서 분석된 텍스트의 키워드를 캐릭터 특성 데이터베이스(720)의 키워드 값들과 매칭하여 해당 값을 적용한 문장을 생성한다. 예를 들면 인터렉티브 캐릭터가 고양이 캐릭터이고, 확장 요청되는 문장이 "나는 홍길동이다"인 경우에, 캐릭터 특성 관리 모듈(730)은 "나는 고양이이다"라고 확장 문장을 생성하여 패러프레이징 처리 모듈(600)로 전송한다.The character
세션 히스토리 데이터베이스(740)는 학습자가 이전에 발화하여 음성 입력으로 입력하고 음성 인식된 음성 인식 결과 텍스트들을 저장한다.The session history database 740 stores the speech recognition result texts that were previously spoken by a learner and inputted as a voice input.
세션 히스토리 관리 모듈(750)은 이전에 학습자가 발성하여 음성 인식된 음성 인식 결과 텍스트를 현재 학습자가 발성하여 음성 인식된 음성 인식 결과 텍스트와 결합하여 문장을 확장한다. 예를 들면 학습자가 "나는 사람이다", "나는 배고프다"를 한 세션에서 발화하여 음성 인식 된 경우, 세션 히스토리 고나리 모듈(750)은 "나는 사람이어서 배고프다", "나는 사람이니까 배고프다" 등으로 문장을 결합하여 확장 문장을 생성한다.The session
문장 응용부(700)에서 확장되어 생성되는 문장들은 인터랙티브 캐릭터와 함께 학습자에게 출력될 문장으로, 문장 응용부(700)는 곧 인터렉티브 캐릭터 관리부로 볼 수 있다. 또한 상기에서는 문장 응용부(700)를 별도로 도시하였으나, 문장 응용부(700)은 패러프레이징 처리 모듈(600)에 포함되어 구성될 수 있다.Sentences that are expanded and generated by the
다국어 음성 합성 모듈(800)은 패러프레이징 처리 모듈(600)로부터 오류 교정된 음성 인식 결과 텍스트, 자동 번역 텍스트 및 확장 텍스트 중 적어도 하나를 수신하고, 수신된 텍스트에 대응하는 음성을 합성하여 합성음을 입출력부(100)로 출력한다.The multilingual
그러므로 외국어 학습 장치(10)는 학습자의 생활 언어 발화를 음성 입력으로 수신하여, 번역하여 학습 대상 언어의 합성음을 인터랙티브 캐릭터와 함께 출력할 수 있을 뿐만 아니라, 인터랙티브 캐릭터의 특성이나 학습자의 이전 음성 입력을 바탕으로 학습 대상 언어를 확장하여 출력할 수 있다. 뿐만 아니라, 학습자의 학습 대상 언어 발화를 음성 입력으로 수신하여, 학습자의 학습 대상 언어 발화의 오류를 분석 및 교정하고, 인터랙티브 캐릭터를 통해 오류가 발생한 부분을 학습자가 인식할 수 있도록 함으로서, 학습자가 잦은 오류에도 스트레스를 받지 않고 오류를 수정할 수 있도록 한다.Therefore, the foreign language learning device 10 can receive and translate the speech of the learner's life language as a voice input, and output the synthesized sound of the language to be learned together with the interactive character, as well as the characteristics of the interactive character or the learner's previous voice input. Based on this, the language to be studied can be expanded and output. In addition, by receiving the learner's utterance of the target language as a voice input, analyzing and correcting errors in the learner's utterance of the target language, and allowing the learner to recognize the part where the error has occurred through interactive characters, It makes it possible to correct errors without stressing them.
도1 의 외국어 학습 장치(10)는 스마트 폰이나 스마트 패드와 같은 스마트 기기를 포함하는 모바일 기기 및 PC와 같은 정보 처리 기기의 형태로 구현될 수 있다. 이 경우 입출력부(100)는 정보 처리 기기의 사용자 인터페이스로 구현될 수도 있다.The foreign language learning apparatus 10 of FIG. 1 may be implemented in the form of a mobile device including a smart device such as a smart phone or a smart pad, and an information processing device such as a PC. In this case, the input/
또한 외국어 학습 장치(10)의 구성 요소들은 어플리케이션 소프트웨어 모듈의 형태로 구현될 수 있다. 외국어 학습 장치(10)의 구성 요소들이 어플리케이션 소프트웨어 모듈의 형태로 구현되는 경우에, 입출력부(100)는 정보 처리 기기의 운영체제(Operation System)와 같은 어플리케이션과 입출력 관련 통신을 수행하는 통신 모듈로 구현될 수 있다.Also, the components of the foreign language learning apparatus 10 may be implemented in the form of an application software module. When the components of the foreign language learning device 10 are implemented in the form of an application software module, the input/
또한 상기에서는 입출력부(100)를 통해 인가되는 입력 음성의 언어나 출력될 합성음의 언어에 대한 설정을 개별 구성이 직접 수신하여 처리하는 것으로 설명하였으나, 별도의 학습 설정부(미도시)를 추가로 구비하여 학습 설정을 저장할 수도 있다. 학습 설정에는 입력 음성의 언어나 출력될 합성음의 언어에 대한 설정 뿐만 아니라 사용자 정보나 캐릭터 설정 등이 포함될 수 있다.
In addition, in the above, it has been described that the setting for the language of the input voice applied through the input/
도2 는 본 발명의 일 실시예에 따른 인터랙티브 캐릭터 기반 외국어 학습 방법을 나타낸다.2 shows a foreign language learning method based on an interactive character according to an embodiment of the present invention.
도1 을 참조하여, 도2 의 인터랙티브 캐릭터 기반 외국어 학습 방법을 설명하면, 우선 외국어 학습 장치(10)는 입출력부(100)를 통해 설정 명령을 수신하여 학습 설정을 수행한다(S10). 학습 설정은 음성 입력 언어 및 출력 언어에 대한 언어 설정과 캐릭터 설정 등이 포함된다. 음성 입력 언어는 학습자의 생활 언어 및 학습 대상 언어가 모두 포함되어 설정될 있으며, 출력 언어는 학습 대상 언어가 설정될 수 있다. 경우에 따라서는 출력 언어가 학습 대상 언어뿐만 아니라 생활 언어가 포함될 수도 있다. 이는 인터랙티브 캐릭터가 학습자의 생활 언어로 학습자와 대화하는 것처럼 학습자에게 느끼게끔 하여 학습자의 외국어 학습에 스트레스를 줄여주기 위함이다.Referring to FIG. 1, the interactive character-based foreign language learning method of FIG. 2 will be described. First, the foreign language learning apparatus 10 receives a setting command through the input/
학습 설정이 수행되면 음성 인식부(200)는 입출력부(100)를 통해 음성 입력이 수신되는지 판별한다(S20). 만일 음성 입력이 수신되면, 음성 인식을 수행하여 음성 인식 결과 텍스트를 생성한다(S30). 이때 입력되는 음성은 학습자의 생활 언어로 입력될 수도 있으며, 학습 대상 언어로 입력 될 수 있다. 음성 인식부(200)는 음성 입력이 학습자의 생활 언어이든 학습 대상 언어이든 무관하게 음성인식을 수행한다. 여기서 음성 인식부(200)는 음성 입력이 학습자의 생활 언어이면, L3 사용자 음향 모델 및 L3 사용자 언어 모델을 이용하여 음성인식을 수행한다. 그러나 음성 입력이 학습 대상 언어이면, L1 및 L2 사용자 음향 모델과 L1 및 L2 사용자 언어 모델을 이용하여 음성 인식을 수행한다. 본 발명의 음성 인식부(200)는 학습 대상 언어에 대한 음성 입력을 학습 대상 언어가 생활 언어인 사용자들의 L1 사용자 음향 모델과 L1 사용자 언어 모델만을 이용하여 음성 인식을 수행하는 것이 아니라, 학습자와 동일한 생활 언어를 사용하는 사람들의 학습 대상 언어에 대한 L2 음향 모델 및 L2 언어 모델을 함께 사용함으로써, 음성 인식률을 크게 높일 수 있다. 또한 음성 입력이 학습 대상 언어인 경우에, L1 및 L2 사용자 음향 모델을 결합한 L1 + L2 사용자 음향 모델과 L1 및 L2 사용자 언어 모델을 결합한 L1 + L2 사용자 언어 모델을 이용하여 음성 인식을 수행할 수도 있다.When the learning setting is performed, the
음성 입력에 대한 음성 인식이 수행되어 음성 인식 결과 텍스트가 생성되면, 문장 분석 및 교정부(300)에서 음성 인식 결과 텍스트의 오류를 교정하여 정문으로 변환한다(S40). 이때 문장 분석 및 교정부(300)는 오류를 교정하기 위해 음성 인식 결과 텍스트를 n-gram 의 형태로 변환하고, 변환된 n-gram을 키워드로 하여 오류 교정 데이터베이스(310)의 오류 패턴을 검색함으로써, 오류를 교정한다. When the speech recognition for the speech input is performed to generate the speech recognition result text, the sentence analysis and
오류가 교정된 음성 인식 결과 텍스트가 학습 설정에서 출력되어야 하는 언어와 동일한지 판별한다(S50). 즉 음성 입력 언어와 출력 언어가 동일한지 판별한다. 만일 음성 입력 언어와 출력 언어가 동일하지 않다면, 다국어 자동 번역 모듈(500)이 음성 인식 결과 텍스트를 출력 언어에 따라 자동 번역을 수행한다(S60). 만일 음성 입력 언어와 출력 언어가 동일하다면, 자동 번역을 수행하지 않는다.It is determined whether the error-corrected speech recognition result text is the same as the language to be output in the learning setting (S50). That is, it is determined whether the voice input language and the output language are the same. If the speech input language and the output language are not the same, the multilingual
그리고 음성 인식 결과 텍스트가 자동 번역되거나, 또는 번역되지 않은 학습 대상 언어 텍스트를 패러프레이징 처리 모듈(600)에서 확장한다. 패러프레이징 처리 모듈(600)은 우선 학습 대상 언어 텍스트를 분석하여 학습 설정에 의해 설정된 캐릭터의 특성에 따라 출력할 문장 후보를 추출하여 출력 문장을 확장한다(S70). 캐릭터 특성에 따라 출력 문장을 확장하고 나면, 학습자가 이전에 학습자가 이전에 발화하여 음성 입력으로 입력하고 음성 인식된 음성 인식 결과 텍스트를 결합하여 출력할 문장 후보를 생성하여 출력 문장을 확장한다(S80). 출력 문장이 확장되면, 확장된 출력 문장 중에서 합성음으로 출력할 문장을 선택하고, 선택된 출력 문장을 음성 합성한다(S90).In addition, the speech recognition result text is automatically translated or the non-translated learning target language text is expanded in the paraphrase
한편 학습자 평가부(400)는 음성 입력을 L1 음향 모델과 비교하여 음향 유사도를 계산하고, 음성 인식 결과 텍스트를 L1 언어 모델과 비교하여 언어 유사도를 계산하며, 음성 인식 결과 텍스트와 문장 분석 및 교정부(300)에서 오류 교정된 음성 인식 결과 텍스트를 비교하여 오류 유사도를 계산하여 학습자의 학습 성취도를 평가한다(S100).Meanwhile, the
그리고 음성 합성된 합성음과 학습 평가 결과를 인터랙티브 캐릭터의 애니메이션과 음성의 형태로 출력하여, 학습자에게 피드백한다(S110). 여기서 캐릭터 애니메이션은 음성 인식 평가 결과, 문장 의미 평가 결과 등으로 세부적으로 표시할 수 있으며, 학습자의 발화에서 오류가 발생한 부분을 지적하고 올바른 발음을 함께 출력할 수 도 있다.
Then, the synthesized speech synthesized by the speech and the learning evaluation result are output in the form of an interactive character animation and speech, and are fed back to the learner (S110). Here, the character animation can be displayed in detail as a result of speech recognition evaluation, sentence meaning evaluation, etc., and it is also possible to point out an error in the learner's speech and output the correct pronunciation together.
본 발명에 따른 방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 포함된다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The method according to the present invention can be implemented as computer-readable codes on a computer-readable recording medium. The computer-readable recording medium includes all types of recording devices that store data that can be read by a computer system. Examples of the recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like. In addition, the computer-readable recording medium can be distributed over a computer system connected through a network to store and execute computer-readable codes in a distributed manner.
본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. The present invention has been described with reference to the embodiments shown in the drawings, but these are merely exemplary, and those of ordinary skill in the art will appreciate that various modifications and other equivalent embodiments are possible therefrom.
따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.Therefore, the true technical protection scope of the present invention should be determined by the technical idea of the attached registration claims.
Claims (20)
상기 음성 입력을 인가받아 음성 인식을 수행하여 음성 인식 결과 텍스트를 출력하는 음성 인식부;
상기 음성 인식 결과 텍스트를 수신하여 상기 음성 인식 결과 텍스트의 오류를 교정하고 유사 문장을 생성하는 문장 분석 및 교정부;
문장 분석 및 교정부에서 오류가 교정된 상기 음성 인식 결과 텍스트의 언어와 출력 언어가 서로 상이한 경우, 상기 음성 인식 결과 텍스트를 상기 출력 언어에 대응하여 자동 번역하여 자동 번역 텍스트를 생성하는 다국어 자동 번역 모듈;
오류 교정된 상기 음성 인식 결과 텍스트 및 상기 자동 번역 텍스트 중 적어도 하나를 수신하고, 수신된 상기 텍스트에 대응하는 음성을 기설정된 인터랙티브 캐릭터의 특성에 따라 합성하여 합성음을 상기 입출력부로 출력하는 다국어 음성 합성 모듈; 및
상기 학습자의 언어 사용 능력을 평가하고, 평가 결과를 상기 입출력부로 출력하는 학습 평가부; 를 포함하는 외국어 학습 장치.
An input/output unit configured to receive a voice input spoken by the learner in one of a living language and a language to be learned as a language that the learner normally uses, and output at least one of a synthesized sound and a learning evaluation result;
A voice recognition unit configured to receive the voice input, perform voice recognition, and output a text as a result of voice recognition;
A sentence analysis and correction unit for receiving the speech recognition result text, correcting errors in the speech recognition result text, and generating a similar sentence;
A multilingual automatic translation module for generating an automatic translation text by automatically translating the speech recognition result text in response to the output language when the language and the output language of the speech recognition result text corrected for errors in the sentence analysis and correction unit are different from each other ;
Multilingual speech synthesis module for receiving at least one of the error-corrected speech recognition result text and the automatic translation text, synthesizing a speech corresponding to the received text according to characteristics of a preset interactive character, and outputting a synthesized sound to the input/output unit ; And
A learning evaluation unit that evaluates the learner's ability to use language and outputs an evaluation result to the input/output unit; A foreign language learning device comprising a.
상기 학습자가 평상시에 사용하는 생활 언어를 사용하는 사람들의 L3 음향 모델과 상기 학습자와 동일 생활 언어를 사용 사람들의 동일한 상기 학습 대상 언어에 대한 L2 음향 모델 및 상기 학습 대상 언어가 생활 언어인 사람들의 L1 음향 모델을 포함하는 L123 사용자 음향 모델을 저장하는 L123 사용자 음향 모델 데이터베이스;
상기 학습자와 동일한 생활 언어를 사용하는 사람들의 L3 언어 모델과 상기 학습자와 동일 생활 언어를 사용 사람들의 동일한 상기 학습 대상 언어에 대한 L2 음향 모델 및 상기 학습 대상 언어가 생활 언어인 사람들의 L1 음향 모델을 포함하는 L123 사용자 음향 모델을 저장하는 L123 사용자 언어 모델 데이터베이스; 및
상기 음성 입력을 L123 사용자 음향 모델 및 L123 사용자 언어 모델을 이용하여 상기 음성 인식 결과 텍스트로 변환하는 다국어 음성 인식 모듈; 을 포함하는 것을 특징으로 하는 외국어 학습 장치.
The method of claim 1, wherein the speech recognition unit
The L3 acoustic model of the people who use the living language that the learner normally uses, the L2 acoustic model of the people who use the same living language as the learner, and the L1 of the people whose learning target language is a living language An L123 user acoustic model database for storing an L123 user acoustic model including an acoustic model;
An L3 language model of people who use the same living language as the learner, an L2 acoustic model for the same learning target language of people who use the same living language as the learner, and an L1 acoustic model of people whose learning target language is a living language. An L123 user language model database for storing the L123 user acoustic model including; And
A multilingual speech recognition module that converts the speech input into text as a result of the speech recognition using the L123 user acoustic model and the L123 user language model; Foreign language learning apparatus comprising a.
상기 L1 음향 모델과 L2 음향 모델이 결합된 형태인 L1 + L2 음향 모델을 저장하고,
상기 L123 사용자 언어 모델 데이터베이스는
L1 언어 모델과 L2 언어 모델이 결합된 형태인 L1 + L2 언어 모델을 저장하는 것을 특징으로 하는 외국어 학습 장치.
The method of claim 2, wherein the L123 user acoustic model database
Store the L1 + L2 acoustic model in which the L1 acoustic model and the L2 acoustic model are combined,
The L123 user language model database
A foreign language learning apparatus comprising storing an L1 + L2 language model in which an L1 language model and an L2 language model are combined.
상기 음성 입력이 상기 학습자의 생활 언어인 경우에는 상기 L3 음향 모델 및 상기 L3 언어 모델을 이용하여 음성 인식을 수행하고,
상기 음성 입력이 상기 학습 대상 언어인 경우에는 상기 L1 + L2 음향 모델과 상기 L1 + L2 언어 모델을 이용하여 음성 인식을 수행하는 것을 특징으로 하는 외국어 학습 장치.
The method of claim 3, wherein the multilingual speech recognition module
When the voice input is the learner's living language, speech recognition is performed using the L3 acoustic model and the L3 language model,
When the speech input is the language to be learned, speech recognition is performed using the L1 + L2 acoustic model and the L1 + L2 language model.
상기 생활 언어 및 상기 학습 대상 언어에 대해 기존의 음성 인식 결과 텍스트에서 발생하는 오류들과 이에 대한 교정 정보들을 누적한 오류 패턴을 저장하는 오류 교정 데이터베이스;
상기 음성 인식 결과 텍스트의 오류를 상기 오류 패턴에서 검색하여 오류를 교정하는 문장 오류 교정 모듈;
상기 생활 언어 및 상기 학습 대상 언어에서 의미적으로 유사한 다수의 유사 문장을 포함하는 유사 문장 패턴을 저장하는 유사 문장 데이터베이스; 및
상기 음성 인식 결과 텍스트와 의미적으로 유사한 문장을 상기 유사 문장 패턴을 검색하여 획득하는 유사 문장 생성 모듈; 을 포함하는 것을 특징으로 하는 외국어 학습 장치.
The method of claim 2, wherein the sentence analysis and correction unit
An error correction database storing errors occurring in the text as a result of existing speech recognition for the living language and the language to be learned and an error pattern in which correction information is accumulated;
A sentence error correction module for correcting an error by searching for an error in the text as a result of the speech recognition from the error pattern;
A similar sentence database storing a similar sentence pattern including a plurality of similar sentences that are semantically similar in the living language and the language to be learned; And
A similar sentence generation module for obtaining a sentence semantically similar to the text as a result of the speech recognition by searching for the similar sentence pattern; Foreign language learning apparatus comprising a.
상기 음성 인식 결과 텍스트를 n-gram 의 형태로 변환하고, 변환된 상기n-gram을 키워드로 하여 상기 오류 교정 데이터베이스의 상기 오류 패턴을 검색하고, 검색된 상기 오류 패턴으로부터 오류에 대한 교정 정보를 획득하고, 획득된 교정 정보를 검색 키워드의 상기 n-gram으로 대체함으로써 오류를 교정하는 것을 특징으로 하는 외국어 학습 장치.
The method of claim 5, wherein the sentence error correction module
Converting the speech recognition result text into an n-gram form, searching for the error pattern of the error correction database using the converted n-gram as a keyword, obtaining correction information for an error from the searched error pattern, and And correcting errors by replacing the obtained correction information with the n-gram of the search keyword.
상기 음성 인식 결과 텍스트에서 기설정된 방식으로 중요 어휘를 추출하고, 상기 중요 어휘를 키워드로 하여 상기 유사 문장 데이터베이스의 유사 문장 패턴을 검색하며, 상기 유사 문장 패턴에서 검색된 유사 문장 후보들 중 상기 음성 인식 결과 텍스트와 문자열 구성이 가장 유사한 기설정된 개수의 상기 유사 문장 후보를 상기 유사 문장으로 선택하는 것을 특징으로 하는 외국어 학습 장치.
The method of claim 5, wherein the sentence error correction module
An important vocabulary is extracted from the speech recognition result text in a predetermined manner, a similar sentence pattern of the similar sentence database is searched using the important vocabulary as a keyword, and the voice recognition result text among similar sentence candidates retrieved from the similar sentence pattern And a predetermined number of the similar sentence candidates having the most similar character string configurations as the similar sentences.
상기 L1 음향 모델을 저장하는 L1 사용자 음향 모델 데이터베이스;
L1 언어 모델을 저장하는 L1 사용자 언어 모델 데이터베이스; 및
상기 음성 입력과 상기 L1 음향 모델과 비교하여 음향 유사도를 계산하고, 상기 음성 인식 결과 텍스트와 상기 L1 언어 모델과 비교하여 언어 유사도를 계산하며, 상기 음성 인식 결과 텍스트와 상기 문장 분석 및 교정부에서 오류 교정된 상기 음성 인식 결과 텍스트를 비교하여 오류 유사도를 계산하고, 상기 음향 유사도와 상기 언어 유사도 및 상기 오류 유사도를 통합하여 기설정된 방식으로 수치화하여 상기 평가 결과를 생성하는 학습자 평가 모듈; 을 포함하는 것을 특징으로 하는 외국어 학습 장치.
The method of claim 5, wherein the learning evaluation unit
An L1 user acoustic model database storing the L1 acoustic model;
An L1 user language model database that stores the L1 language model; And
The speech input and the L1 acoustic model are compared to calculate the acoustic similarity, the speech recognition result text and the L1 language model are compared to calculate the language similarity, and the speech recognition result text and the sentence analysis and correction unit A learner evaluation module that compares the corrected speech recognition result text to calculate an error similarity, integrates the sound similarity, the language similarity, and the error similarity to digitize in a preset manner to generate the evaluation result; Foreign language learning apparatus comprising a.
상기 L123 사용자 음향 모델 데이터베이스 및 상기 L123 사용자 언어 모델 데이터베이스에 포함되어 구현되는 것을 특징으로 하는 외국어 학습 장치.
The method of claim 8, wherein each of the L1 user acoustic model database and the L1 user language model database
A foreign language learning apparatus comprising and implemented in the L123 user acoustic model database and the L123 user language model database.
오류 교정된 상기 음성 인식 결과 텍스트 또는 자동 번역 텍스트 중 적어도 하나를 수신하고, 기설정된 상기 인터랙티브 캐릭터의 특성 및 기저장된 상기 학습자의 음성 인식 결과 텍스트들을 이용하여, 음성 인식 결과 텍스트 또는 자동 번역 텍스트를 확장하여 확장 문장을 생성하는 패러프레이징 처리 모듈; 을 더 포함하는 것을 특징으로 하는 외국어 학습 장치.
The method of claim 1, wherein the foreign language learning device
Receives at least one of the error-corrected speech recognition result text or automatic translation text, and expands the speech recognition result text or automatic translation text by using the preset characteristics of the interactive character and the previously stored speech recognition result texts of the learner. A paraphrase processing module configured to generate an extended sentence; A foreign language learning device, characterized in that it further comprises.
오류 교정된 상기 음성 인식 결과 텍스트 및 상기 자동 번역 텍스트 중 적어도 하나를 수신하고, 수신된 상기 텍스트를 확장하기 위해 상기 텍스트의 구문 및 의미를 분석하여 특성 키워드를 추출하는 텍스트 분석 모듈;
상기 외국어 학습 장치에서 제공하는 상기 인터랙티브 캐릭터들의 특성 정보를 저장하는 캐릭터 특성 데이터베이스;
상기 텍스트 분석 모듈에서 분석된 상기 음성 인식 결과 텍스트의 키워드를 상기 캐릭터 특성 데이터베이스의 키워드 값들과 매칭하여, 상기 음성 인식 결과 텍스트의 문장을 확장하는 캐릭터 특성 관리 모듈;
상기 학습자가 이전에 발화하여 상기 음성 입력으로 입력하고, 음성 인식된 음성 인식 결과 텍스트들을 저장하는 세션 히스토리 데이터베이스; 및
상기 세션 히스토리 데이터베이스에 저장된 상기 음성 인식 결과 텍스트를 현재 학습자가 발성하여 음성 인식된 상기 음성 인식 결과 텍스트와 결합하여 문장을 확장하는 세션 히스토리 관리 모듈; 을 포함하는 것을 특징으로 하는 외국어 학습 장치.
The method of claim 10, wherein the paraphrase processing module
A text analysis module that receives at least one of the error-corrected speech recognition result text and the automatic translation text, and extracts a characteristic keyword by analyzing the syntax and meaning of the text in order to expand the received text;
A character characteristic database for storing characteristic information of the interactive characters provided by the foreign language learning device;
A character characteristic management module that matches a keyword of the speech recognition result text analyzed by the text analysis module with keyword values of the character characteristic database to expand the sentence of the speech recognition result text;
A session history database for storing speech recognition result texts, which the learner has previously spoken and input as the voice input; And
A session history management module configured to expand a sentence by combining the speech recognition result text stored in the session history database with the speech recognition result text uttered by a current learner; Foreign language learning apparatus comprising a.
오류 교정된 상기 음성 인식 결과 텍스트, 상기 자동 번역 텍스트 및 상기 확장 문장 중 적어도 하나를 수신하여 상기 합성음을 생성하는 것을 특징으로 하는 외국어 학습 장치.
The method of claim 11, wherein the multilingual speech synthesis module
And generating the synthesized sound by receiving at least one of the error-corrected speech recognition result text, the automatic translation text, and the expanded sentence.
정보 처리 기기와 입출력 관련 통신을 수행하는 통신 모듈로 구현되는 것을 특징으로 하는 외국어 학습 장치.
The method of claim 1, wherein the input/output unit
A foreign language learning device, characterized in that it is implemented as a communication module that performs input/output-related communication with an information processing device.
상기 입출력부가 설정 명령을 수신하여 음성 입력 언어 및 출력 언어에 대한 언어 설정과 인터랙티브 캐릭터 설정을 포함하는 학습 설정을 수행하는 단계;
상기 음성 입력이 수신되면, 상기 음성 인식부가 음성 인식을 수행하여 음성 인식 결과 텍스트를 생성하는 단계;
상기 문장 분석 및 교정부가 상기 음성 인식 결과 텍스트의 오류를 교정하는 단계;
상기 다국어 자동 번역 모듈이 상기 오류가 교정된 음성 인식 결과 텍스트가 상기 학습 설정에서 설정된 상기 출력 언어와 동일한지 판별하는 단계;
상기 오류가 교정된 음성 인식 결과 텍스트와 상기 출력 언어가 동일하지 않으면, 상기 오류가 교정된 음성 인식 결과 텍스트를 상기 출력 언어에 따라 자동 번역하여 자동 번역 텍스트를 생성하는 단계;
상기 패러프레이징 처리 모듈이 상기 오류가 교정된 음성 인식 결과 텍스트 및 상기 자동 번역 텍스트 중 적어도 하나를 수신하고, 수신된 상기 텍스트를 기설정된 상기 인터랙티브 캐릭터의 특성 및 기저장된 학습자의 음성 인식 결과 텍스트들을 이용하여, 확장 문장을 생성하는 단계;
상기 다국어 음성 합성 모듈이 상기 오류 교정된 음성 인식 결과 텍스트, 상기 자동 번역 텍스트 및 상기 확장 문장 중 적어도 하나를 수신하여 이에 대응하는 음성을 기설정된 인터랙티브 캐릭터의 특성에 따라 합성하여 합성음을 생성하는 단계;
상기 학습 평가부가 상기 학습자의 언어 사용 능력을 평가하여, 평가 결과를 생성하는 단계; 및
상기 입출력부가 상기 합성음과 상기 평가 결과를 출력하는 단계; 를 포함하는 외국어 학습 지원 방법.
In a foreign language learning support method performed by a foreign language learning apparatus including an input/output unit, a speech recognition unit, a sentence analysis and correction unit, a learning evaluation unit, a multilingual automatic translation module, a paraphrase processing module, and a multilingual speech synthesis module,
Receiving a setting command by the input/output unit and performing learning setting including language setting for a voice input language and an output language and interactive character setting;
When the voice input is received, the voice recognition unit performs voice recognition to generate a voice recognition result text;
Correcting an error in the text as a result of the speech recognition by the sentence analysis and correction unit;
Determining, by the multilingual automatic translation module, whether the speech recognition result text in which the error is corrected is the same as the output language set in the learning setting;
If the error-corrected speech recognition result text and the output language are not the same, generating an automatic translation text by automatically translating the error-corrected speech recognition result text according to the output language;
The paraphrase processing module receives at least one of the speech recognition result text and the automatic translation text in which the error has been corrected, and uses the received text using preset characteristics of the interactive character and the previously stored texts of the speech recognition result of the learner. Thus, generating an extended sentence;
Receiving, by the multilingual speech synthesis module, at least one of the error-corrected speech recognition result text, the automatic translation text, and the expanded sentence, and synthesizing the corresponding speech according to characteristics of a preset interactive character to generate a synthesized sound;
Generating an evaluation result by evaluating the learner's language use ability by the learning evaluation unit; And
Outputting the synthesized sound and the evaluation result by the input/output unit; Foreign language learning support method, including.
상기 음성 입력이 상기 학습자의 생활 언어인 경우에는 상기 학습자가 평상시에 사용하는 생활 언어를 사용하는 사람들의 L3 음향 모델과 L3 언어 모델을 이용하여 상기 음성 입력을 상기 음성 인식 결과 텍스트로 변환하는 단계; 및
상기 음성 입력이 학습 대상 언어인 경우에는 상기 학습자와 동일 생활 언어를 사용 사람들의 동일한 상기 학습 대상 언어에 대한 L2 음향 모델 및 상기 학습 대상 언어가 생활 언어인 사람들의 L1 음향 모델이 결합된 L1 + L2 음향 모델과 상기 학습자와 동일 생활 언어를 사용 사람들의 동일한 상기 학습 대상 언어에 대한 L2 언어 모델 및 상기 학습 대상 언어가 생활 언어인 사람들의 L1 언어 모델이 결합된 L1 + L2 언어 모델을 이용하여 상기 음성 인식 결과 텍스트로 변환하는 것을 특징으로 하는 외국어 학습 지원 방법.
The method of claim 14, wherein generating the speech recognition result text comprises:
If the voice input is the learner's living language, converting the voice input into the voice recognition result text using an L3 acoustic model and an L3 language model of people who use the everyday life language used by the learner; And
When the voice input is a learning target language, L2 acoustic models for the same learning target language of people who use the same living language as the learner and L1 sound models of people whose learning target languages are living languages are combined L1 + L2 The speech using an L1 + L2 language model in which an acoustic model and an L2 language model for the same language to be learned by people who use the same living language as the learner and an L1 language model for people whose language to be learned is a living language are combined A foreign language learning support method, characterized in that the recognition result is converted into text.
상기 음성 인식 결과 텍스트의 오류를 상기 생활 언어 및 상기 학습 대상 언어에 대해 기존의 음성 인식 결과 텍스트에서 발생하는 오류들과 이에 대한 교정 정보들이 누적되어 저장된 오류 패턴에서 검색하여 상기 오류를 교정하는 것을 특징으로 하는 외국어 학습 지원 방법.
The method of claim 15, wherein correcting the error
The error is corrected by searching for the error of the speech recognition result text from the error pattern stored by accumulating errors occurring in the existing speech recognition result text and correction information for the living language and the language to be learned. How to apply for foreign language study
상기 음성 인식 결과 텍스트를 n-gram 의 형태로 변환하는 단계;
변환된 상기 n-gram을 키워드로 하여 상기 오류 패턴을 검색하는 단계; 및
상기 오류 패턴에 설정된 교정 정보를 획득하여 오류를 교정하는 단계; 를 포함하는 것을 특징으로 하는 외국어 학습 지원 방법.
The method of claim 16, wherein correcting the error
Converting the speech recognition result text into an n-gram format;
Searching for the error pattern using the converted n-gram as a keyword; And
Acquiring correction information set in the error pattern to correct an error; Foreign language learning support method comprising a.
오류 교정된 상기 음성 인식 결과 텍스트 및 상기 자동 번역 텍스트 중 적어도 하나의 구문 및 의미를 분석하여 특성 키워드를 추출하는 단계;
분석된 상기 음성 인식 결과 텍스트의 키워드를 기저장된 상기 인터랙티브 캐릭터들의 특성 정보와 매칭하여 문장을 확장하는 단계; 및
분석된 상기 음성 인식 결과 텍스트를 상기 학습자가 이전에 발화하여 기저장된 상기 음성 인식 결과 텍스트와 결합하여 문장을 확장하는 단계; 를 포함하는 것을 특징으로 하는 외국어 학습 지원 방법.
The method of claim 15, wherein generating the extended sentence comprises:
Analyzing at least one phrase and meaning of the error-corrected speech recognition result text and the automatic translation text to extract a characteristic keyword;
Expanding a sentence by matching a keyword of the analyzed speech recognition result text with pre-stored characteristic information of the interactive characters; And
Expanding a sentence by combining the analyzed speech recognition result text with the previously stored speech recognition result text by the learner; Foreign language learning support method comprising a.
상기 음성 입력과 상기 L1 음향 모델과 비교하여 음향 유사도를 계산하는 단계;
상기 음성 인식 결과 텍스트와 상기 L1 언어 모델과 비교하여 언어 유사도를 계산하는 단계;
상기 음성 인식 결과 텍스트와 오류 교정된 상기 음성 인식 결과 텍스트를 비교하여 오류 유사도를 계산하는 단계; 및
상기 음향 유사도와 상기 언어 유사도 및 상기 오류 유사도를 통합하여 기설정된 방식으로 수치화하여 상기 평가 결과를 생성하는 단계; 를 포함하는 것을 특징으로 하는 외국어 학습 지원 방법.
The method of claim 15, wherein generating the evaluation result
Calculating an acoustic similarity by comparing the voice input and the L1 acoustic model;
Calculating a language similarity by comparing the speech recognition result text with the L1 language model;
Calculating an error similarity by comparing the speech recognition result text with the error-corrected speech recognition result text; And
Generating the evaluation result by integrating the sound similarity, the language similarity, and the error similarity to quantify in a preset manner; Foreign language learning support method comprising a.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020130089650A KR102191425B1 (en) | 2013-07-29 | 2013-07-29 | Apparatus and method for learning foreign language based on interactive character |
| JP2014064369A JP2015026057A (en) | 2013-07-29 | 2014-03-26 | Interactive character based foreign language learning device and method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020130089650A KR102191425B1 (en) | 2013-07-29 | 2013-07-29 | Apparatus and method for learning foreign language based on interactive character |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20150014236A KR20150014236A (en) | 2015-02-06 |
| KR102191425B1 true KR102191425B1 (en) | 2020-12-15 |
Family
ID=52490726
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020130089650A Active KR102191425B1 (en) | 2013-07-29 | 2013-07-29 | Apparatus and method for learning foreign language based on interactive character |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JP2015026057A (en) |
| KR (1) | KR102191425B1 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2022203123A1 (en) * | 2021-03-26 | 2022-09-29 | 주식회사 트랜스버스 | Video education content providing method and device on basis of artificially intelligent natural language processing using character |
Families Citing this family (26)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101666129B1 (en) * | 2015-03-03 | 2016-10-13 | 주식회사 심포디 | Method for providing multi language learning service |
| KR101740636B1 (en) * | 2015-03-05 | 2017-05-26 | 한국전자통신연구원 | Method and apparatus for evaluating pronunciation based on speech recognition |
| KR101635144B1 (en) * | 2015-10-05 | 2016-06-30 | 주식회사 이르테크 | Language learning system using corpus and text-to-image technique |
| KR102195627B1 (en) | 2015-11-17 | 2020-12-28 | 삼성전자주식회사 | Apparatus and method for generating translation model, apparatus and method for automatic translation |
| KR102158744B1 (en) * | 2016-03-18 | 2020-09-22 | 한국전자통신연구원 | Apparatus and method for language learning using interactive mistake correction feedback |
| JP2018031828A (en) * | 2016-08-23 | 2018-03-01 | Kddi株式会社 | Program, apparatus, and method for automatically scoring from learner's oral speech |
| KR102589638B1 (en) | 2016-10-31 | 2023-10-16 | 삼성전자주식회사 | Apparatus and method for generating a sentence |
| KR102509821B1 (en) * | 2017-09-18 | 2023-03-14 | 삼성전자주식회사 | Method and apparatus for generating oos(out-of-service) sentence |
| CN107657842A (en) * | 2017-11-02 | 2018-02-02 | 北京中智高新技术研究院 | A kind of artificial intelligence mandarin exerciser, method and application |
| CN110164445B (en) * | 2018-02-13 | 2023-06-16 | 阿里巴巴集团控股有限公司 | Speech recognition method, device, equipment and computer storage medium |
| KR102261199B1 (en) * | 2018-09-19 | 2021-06-07 | 주식회사 포티투마루 | Method, system and computer program for artificial intelligence answer |
| KR102128549B1 (en) | 2018-09-19 | 2020-07-08 | 주식회사 포티투마루 | Method, system and computer program for artificial intelligence answer |
| CN111198936B (en) * | 2018-11-20 | 2023-09-15 | 北京嘀嘀无限科技发展有限公司 | Voice search method and device, electronic equipment and storage medium |
| KR102372069B1 (en) * | 2018-12-27 | 2022-03-10 | 한국전자통신연구원 | Free dialogue system and method for language learning |
| CN110032740A (en) * | 2019-04-20 | 2019-07-19 | 卢劲松 | It customizes individual character semanteme and learns application method |
| KR20210091945A (en) * | 2020-01-15 | 2021-07-23 | 주식회사 더플랜지 | Apparatus and method for providing user interface for educating character of language learning contents |
| KR102267276B1 (en) * | 2020-03-06 | 2021-06-21 | 주식회사 예스피치 | Speech to text system with learning data expansion and post processing refinement, and method thereof |
| CN111681659A (en) * | 2020-06-08 | 2020-09-18 | 北京高因科技有限公司 | Automatic voice recognition system applied to portable equipment and working method thereof |
| CN112329429B (en) * | 2020-11-30 | 2024-04-26 | 北京百度网讯科技有限公司 | Text similarity learning method, device, equipment and storage medium |
| CN112818707B (en) * | 2021-01-19 | 2024-02-27 | 传神语联网网络科技股份有限公司 | Reverse text consensus-based multi-turn engine collaborative speech translation system and method |
| CN112818706B (en) * | 2021-01-19 | 2024-02-27 | 传神语联网网络科技股份有限公司 | Voice translation real-time dispute recording system and method based on reverse result stability |
| CN112466279B (en) * | 2021-02-02 | 2021-05-18 | 深圳市阿卡索资讯股份有限公司 | Automatic correction method and device for spoken English pronunciation |
| CN114596880A (en) * | 2021-12-30 | 2022-06-07 | 苏州清睿智能科技股份有限公司 | A pronunciation correction method, device, computer equipment and storage medium |
| CN115132207B (en) * | 2022-06-28 | 2025-08-15 | 维沃移动通信有限公司 | Voice message processing method and device and electronic equipment |
| CN116612742A (en) * | 2023-04-28 | 2023-08-18 | 科大讯飞股份有限公司 | Speech synthesis method, device, equipment and storage medium |
| CN118861210A (en) * | 2024-09-18 | 2024-10-29 | 山东联安信息科技有限责任公司 | Web application content learning and interaction system based on large language model |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002351305A (en) | 2001-05-23 | 2002-12-06 | Apollo Seiko Ltd | Robot for language training |
| JP5020593B2 (en) | 2006-10-16 | 2012-09-05 | 株式会社日立ソリューションズ | Foreign language learning communication system |
| JP2013512461A (en) | 2009-12-16 | 2013-04-11 | 浦項工科大學校 産學協力團 | Foreign language learning apparatus and dialogue system |
Family Cites Families (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP5025759B2 (en) * | 1997-11-17 | 2012-09-12 | ニュアンス コミュニケーションズ,インコーポレイテッド | Pronunciation correction device, pronunciation correction method, and recording medium |
| JP2001014314A (en) * | 1999-06-28 | 2001-01-19 | Sony Corp | Simultaneous translation system |
| US7149690B2 (en) * | 1999-09-09 | 2006-12-12 | Lucent Technologies Inc. | Method and apparatus for interactive language instruction |
| JP2001325202A (en) * | 2000-05-12 | 2001-11-22 | Sega Corp | Virtual space conversation method and system |
| JP3903841B2 (en) * | 2002-05-14 | 2007-04-11 | 日本電気株式会社 | Automatic interpretation device and program for automatic interpretation |
| JP2004347906A (en) * | 2003-05-23 | 2004-12-09 | Matsushita Electric Ind Co Ltd | Education system and voice input / output device |
| JP2005031150A (en) * | 2003-07-07 | 2005-02-03 | Canon Inc | Audio processing apparatus and method |
| JP4791984B2 (en) * | 2007-02-27 | 2011-10-12 | 株式会社東芝 | Apparatus, method and program for processing input voice |
| JP4852448B2 (en) * | 2007-02-28 | 2012-01-11 | 日本放送協会 | Error tendency learning speech recognition apparatus and computer program |
| JP2008243080A (en) * | 2007-03-28 | 2008-10-09 | Toshiba Corp | Apparatus, method and program for translating speech |
| KR100919225B1 (en) * | 2007-09-19 | 2009-09-28 | 한국전자통신연구원 | The method and apparatus for post-processing conversation error using multilevel check in voice conversation system |
| JP5336805B2 (en) * | 2008-09-26 | 2013-11-06 | 株式会社東芝 | Speech translation apparatus, method, and program |
| JP4977116B2 (en) * | 2008-12-03 | 2012-07-18 | 株式会社東芝 | Speech recognition apparatus, method, and program |
| JP2010230948A (en) * | 2009-03-27 | 2010-10-14 | Hitachi East Japan Solutions Ltd | Content distribution system and text display method |
| JP5222264B2 (en) * | 2009-10-05 | 2013-06-26 | 株式会社エヌ・ティ・ティ・ドコモ | Information processing apparatus, information processing method, and information processing system |
| KR20120048140A (en) * | 2010-11-05 | 2012-05-15 | 한국전자통신연구원 | Automatic translation device and method thereof |
| KR20130068598A (en) * | 2011-12-15 | 2013-06-26 | 한국전자통신연구원 | Apparatus and method for evaluating pronunciation of foreign language learner |
-
2013
- 2013-07-29 KR KR1020130089650A patent/KR102191425B1/en active Active
-
2014
- 2014-03-26 JP JP2014064369A patent/JP2015026057A/en active Pending
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002351305A (en) | 2001-05-23 | 2002-12-06 | Apollo Seiko Ltd | Robot for language training |
| JP5020593B2 (en) | 2006-10-16 | 2012-09-05 | 株式会社日立ソリューションズ | Foreign language learning communication system |
| JP2013512461A (en) | 2009-12-16 | 2013-04-11 | 浦項工科大學校 産學協力團 | Foreign language learning apparatus and dialogue system |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2022203123A1 (en) * | 2021-03-26 | 2022-09-29 | 주식회사 트랜스버스 | Video education content providing method and device on basis of artificially intelligent natural language processing using character |
Also Published As
| Publication number | Publication date |
|---|---|
| KR20150014236A (en) | 2015-02-06 |
| JP2015026057A (en) | 2015-02-05 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR102191425B1 (en) | Apparatus and method for learning foreign language based on interactive character | |
| US11848001B2 (en) | Systems and methods for providing non-lexical cues in synthesized speech | |
| US11043213B2 (en) | System and method for detection and correction of incorrectly pronounced words | |
| CN107016994B (en) | Voice recognition method and device | |
| JP6251958B2 (en) | Utterance analysis device, voice dialogue control device, method, and program | |
| US6910012B2 (en) | Method and system for speech recognition using phonetically similar word alternatives | |
| KR101590724B1 (en) | Method for modifying error of speech recognition and apparatus for performing the method | |
| US7996209B2 (en) | Method and system of generating and detecting confusing phones of pronunciation | |
| KR20170034227A (en) | Apparatus and method for speech recognition, apparatus and method for learning transformation parameter | |
| US20140358544A1 (en) | Systems and methods for adaptive proper name entity recognition and understanding | |
| JP2017058673A (en) | Dialog processing apparatus and method, and intelligent dialog processing system | |
| US20090138266A1 (en) | Apparatus, method, and computer program product for recognizing speech | |
| US9984689B1 (en) | Apparatus and method for correcting pronunciation by contextual recognition | |
| CN112580340A (en) | Word-by-word lyric generating method and device, storage medium and electronic equipment | |
| CN110675866A (en) | Method, apparatus and computer-readable recording medium for improving at least one semantic unit set | |
| JP2008243080A (en) | Apparatus, method and program for translating speech | |
| KR20130126570A (en) | Apparatus for discriminative training acoustic model considering error of phonemes in keyword and computer recordable medium storing the method thereof | |
| CN113112996A (en) | System and method for speech-based audio and text alignment | |
| EP3005152A1 (en) | Systems and methods for adaptive proper name entity recognition and understanding | |
| JP5160594B2 (en) | Speech recognition apparatus and speech recognition method | |
| KR102069697B1 (en) | Apparatus and method for automatic interpretation | |
| KR20230000175A (en) | Method for evaluating pronunciation based on AI, method for providing study content for coaching pronunciation, and computing system performing the same | |
| JP2017198790A (en) | Voice rating device, voice rating method, teacher change information production method, and program | |
| CN113096667A (en) | Wrongly-written character recognition detection method and system | |
| Dodiya et al. | Speech Recognition System for Medical Domain |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| R17-X000 | Change to representative recorded |
St.27 status event code: A-3-3-R10-R17-oth-X000 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-3-3-R10-R13-asn-PN2301 St.27 status event code: A-3-3-R10-R11-asn-PN2301 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| R17-X000 | Change to representative recorded |
St.27 status event code: A-3-3-R10-R17-oth-X000 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-2-2-P10-P22-nap-X000 |
|
| A201 | Request for examination | ||
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-2-2-P10-P22-nap-X000 |
|
| D13-X000 | Search requested |
St.27 status event code: A-1-2-D10-D13-srh-X000 |
|
| D14-X000 | Search report completed |
St.27 status event code: A-1-2-D10-D14-srh-X000 |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 4 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 5 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 6 |