KR100773832B1 - Production and Editing Method of Narrator Multimedia Local Data Using 3D Module and TTS Module and Its System - Google Patents
Production and Editing Method of Narrator Multimedia Local Data Using 3D Module and TTS Module and Its System Download PDFInfo
- Publication number
- KR100773832B1 KR100773832B1 KR1020050037522A KR20050037522A KR100773832B1 KR 100773832 B1 KR100773832 B1 KR 100773832B1 KR 1020050037522 A KR1020050037522 A KR 1020050037522A KR 20050037522 A KR20050037522 A KR 20050037522A KR 100773832 B1 KR100773832 B1 KR 100773832B1
- Authority
- KR
- South Korea
- Prior art keywords
- module
- data
- tts
- presentation
- narrator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/103—Formatting, i.e. changing of presentation of documents
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Processing Or Creating Images (AREA)
Abstract
본 발명은 프리젠테이션 자료 제작용 시스템에 관한 것으로 특히, 특정 양식을 갖는 임의의 발표 자료를 로딩하는 제 1과정과; 상기 제 1과정에서 로딩되어진 발표 자료에 대한 나레이션 대본을 설정한 후 이를 육성에 따른 음향데이터로 변환하는 제 2과정과; 상기 제 1과정에서 로딩되어진 발표 자료에 대한 쓰리디(3D) 아바타 나레이터를 형성하기 위해 머리와 입술 및 몸 부분별로 기 설정된 데이터를 임의의 시점별로 선택하여 쓰리디(3D) 애니메이션을 제작하는 제 3과정과; 상기 제 1과정에서 로딩되어진 발표 자료에 대응하여 상기 제 2과정에서 변환되어진 음향데이터 및 상기 제 3과정에서 제작되어진 쓰리디(3D) 애니메이션에 대한 표출시점을 사용자 임의로 선택하는 제 4과정과; 상기 제 1과정 내지 제 4과정을 통해 수행되어진 결과가 하나의 나레이터 멀티미디어 자료로 취합되는 제 5과정; 및 상기 제 5과정을 통해 취합되어진 나레이터 멀티미디어 자료의 표출시 상기 발표 자료의 메인 디스플레이 중에 상기 쓰리디(3D) 애니메이션과 음향데이터가 상기 제 4과정에서 선택되어진 시점을 기준으로 외부로 표출되는 제 6과정을 포함하는 것을 특징으로 하는 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작 편집 방법 및 그에 따른 시스템을 제공하면, 발표 자료의 슬라이드 방식에 따른 디스플레이와 함께 3차원 아바타를 임의의 가상공간에 배치하여 발표자 역할을 수행하도록 할 수 있으며, 동시에 음성 및 음향(배경음악 포함)을 제작자 임의로 동기화 시키며 발표 자료와 각종 주변 환경을 필요에 따라 편집할 수 있게 된다.The present invention relates to a system for producing presentation materials, and in particular, a first step of loading any presentation material having a specific format; A second step of setting a narration script for the presentation material loaded in the first step and converting the narration script into sound data according to the development; A third step of producing a 3D animation by selecting predetermined data for each head, lips, and body part at an arbitrary time point to form a 3D avatar narrator for the presentation material loaded in the first process; Process; A fourth step of arbitrarily selecting a presentation time point for the sound data converted in the second step and the three-dimensional (3D) animation produced in the third step in response to the presentation data loaded in the first step; A fifth process of collecting the results performed through the first to fourth processes into one narrator multimedia data; And a sixth display of the three-dimensional (3D) animation and sound data to the outside on the basis of the time point when the three-dimensional (3D) animation and sound data are selected during the presentation of the narrator multimedia data collected through the fifth process. Providing a method for editing and producing a narrator multimedia local material using a 3D module and a TTS module, including a process, and a system therefor, the display according to the slide method of the presentation material 3 The dimensional avatar can be placed in an arbitrary virtual space to act as a presenter, and at the same time, the voice and sound (including background music) can be synchronized with the producer at random, and the presentation material and various surrounding environments can be edited as needed.
따라서 발표자가 숙달되지 않았다 하더라도 발표 내용을 임의의 대상에게 정확하게 전달할 수 있으며, 단조로운 발표가 아니기 때문에 해당 대상의 호기심등을 자극하여 발표내용의 전달에 효과를 얻는다. Therefore, even if the presenter is not mastered, the contents of the presentation can be delivered accurately to any subject, and because it is not a monotonous presentation, the curiosity of the subject is stimulated, and thus the presentation contents are delivered.
또한, 쓰리디(3D) 아바타의 수화동작을 구현하기 위한 구성을 추가함에 따라 청각장애인들에게도 발표의 내용을 충분히 숙지시킬 수 있다는 효과는 얻는다.In addition, by adding a configuration for implementing a sign language operation of a 3D avatar, the hearing impaired person can fully understand the contents of the presentation.
쓰리디(3D) 엔진, 티티에스(TTS), 가상공간, 프리젠테이션, 아바타 3D Engine, TTS, Virtual Space, Presentation, Avatar
Description
도 1은 본 발명에 따른 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작편집 시스템의 구성 예시도1 is an exemplary configuration of a system for producing and editing a narrator multimedia local material using a 3D module and a TTS module according to the present invention.
도 2는 본 발명에 따른 쓰리디(3D) 아바타 생성을 위한 쓰리디(3D)엔진모듈의 구성예시도2 is an exemplary configuration diagram of a 3D (3D) engine module for generating a 3D (3D) avatar according to the present invention.
도 3은 본 발명에 따른 쓰리디(3D)엔진모듈을 이용한 아바타의 생성과정을 설명하기 위한 예시도3 is an exemplary diagram for explaining a process of generating an avatar using a 3D engine module according to the present invention.
도 4는 본 발명에 따른 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작편집 시스템의 작동에 따라 화면에 디스플레이되는 각 영역별 특성 예시도Figure 4 is an exemplary view of the characteristics of each area displayed on the screen according to the operation of the production editing system of the narrator multimedia local material using the 3D (3D) module and TTS module according to the present invention
도 5는 본 발명에 따른 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작편집 시스템의 작동에 따라 티티에스(TTS)모듈의 구동을 위한 텍스트 소스를 제공하기 위한 과정을 설명하기 위한 예시도5 is to provide a text source for driving a TTS module according to an operation of a production editing system for narrator multimedia local material using a 3D module and a TTS module according to the present invention. Illustrated diagram to illustrate the process
도 6은 본 발명에 따른 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레 이터 멀티미디어 로컬 자료의 제작편집 시스템의 작동에 따라 각 모듈간의 동기를 매칭시키기 위한 과정을 설명하기 위한 예시도FIG. 6 is an exemplary view for explaining a process for matching synchronization between modules according to the operation of a system for producing and editing a multimedia data local material using a 3D module and a TTS module according to the present invention.
도 7과 도 8은 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 자료의 로컬 제작편집 시스템을 이용한 최종적인 사용 예를 설명하기 위한 예시도7 and 8 are exemplary diagrams for explaining the final use example using the local production and editing system of the narrator multimedia data using the 3D (3D) module and TTS module.
도 9는 본 발명에 따른 청각장애인용 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작편집 시스템의 구성 예시도9 is an exemplary configuration diagram of a system for producing and editing a narrator multimedia local material using a 3D module for hearing-impaired people and a TTS module according to the present invention.
도 10은 도 9에서 청각장애인을 위한 수화동작엔진모듈의 구성예시도
* 도면의 주요 부분에 대한 부호의 설명
100 : 발표자료 로딩 모듈
200 : 음원 로딩 모듈
300 : 쓰리디(3D)엔진모듈
400 : 티티에스(TTS) 모듈
500 : 데이터베이스(DB)
600 : 제어모듈
700 : 제작편집모듈
800 : 결과물생성과 로딩모듈 FIG. 10 is an exemplary configuration diagram of a sign language operation engine module for a hearing impaired person in FIG. 9.
* Explanation of symbols for the main parts of the drawings
100: loading material loading module
200: sound source loading module
300: 3D (3D) engine module
400: TTS module
500: Database
600: control module
700: Production Editing Module
800: result generation and loading module
본 발명은 프리젠테이션 자료 제작용 시스템에 관한 것으로 특히, 발표 자료의 슬라이드 방식에 따른 디스플레이와 함께 3차원 아바타를 임의의 가상공간에 배치하여 발표자 역할을 수행하도록 함과 동시에 음성 및 음향(배경음악 포함)을 제작자 임의로 동기화 시키며 발표 자료와 각종 주변 환경을 필요에 따라 편집할 수 있도록 하기 위한 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티 미디어 로컬 자료의 제작 편집 방법 및 이에 따른 시스템에 관한 것이다.The present invention relates to a system for producing presentation materials. In particular, a 3D avatar is placed in an arbitrary virtual space with a display according to a slide method of the presentation material, and at the same time, voice and sound (including background music) are performed. And editing system of Narrator multimedia local material using 3D module and TTS module to synchronize the author's discretion and to edit the presentation materials and various surrounding environments as needed. It is about.
또한, 본 발명은 가상공간에 발표자로써 배치되는 3차원 아바타가 수화(手話)를 표현함으로써 청각장애인들에게 발표 자료의 내용을 전달하도록 하여 수화에 익숙하지 않은 발표자가 사용가능하도록 하는 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작 편집 방법 및 이에 따른 시스템에 관한 것이다.In addition, the present invention is a three-dimensional (3D) that allows a speaker unfamiliar with sign language to be used by a 3D avatar that is placed as a presenter in a virtual space to express the sign language, thereby delivering the contents of the presentation material to the hearing impaired. The present invention relates to a method for producing and editing a narrator multimedia local data using a module and a TTS module, and a system thereof.
일반적으로, 인터넷으로 지식 정보를 전달하는 수단으로 문자로 작성한 문서와, 정지 화상 이미지 및 오디오와 비디오를 합성한 동영상이 사용되고 있다. BACKGROUND ART In general, a document composed of text, a still image image, and a moving picture obtained by synthesizing audio and video are used as means for transmitting knowledge information to the Internet.
문자 위주의 문서를 변형 없이 전달하는 방법의 하나로 미국 어도비(Adobe)사의 피디에프(PDF) 문서가 사용된다. 읽기 전용의 피디에프(PDF) 문서를 인터넷으로 전송하면 수신자는 전용 문서창을 자신의 컴퓨터 화면에 띄워서 보는 방법이 사용되고 있다. 정지 화상 이미지는 에치티엠엘(HTML) 문서에 포함되어 인터넷으로 전송하면 수신자는 웹 브라우저를 사용하여 보는 방법이나 전자 메일에 첨부하여 송수신하는 방법이 사용되고 있다.Adobe's PDF document is used as a method of delivering text-oriented documents without modification. When a read-only PDF document is transmitted to the Internet, the recipient uses a method of displaying a dedicated document window on his or her computer screen. When still image images are included in an HTML document and transmitted to the Internet, recipients view them using a web browser or attach and receive e-mails.
디지털 동영상 정보를 전달하기 위해서는 동영상을 스트리밍 방식으로 전송하며 일반적으로 수신자는 마이크로소프트사의 윈도우 미디어 플레이어 창을 컴퓨터 화면에 띄워서 보도록 하는 방법이 일반적으로 사용되고 있다.In order to transmit digital video information, a video is transmitted in a streaming manner. In general, a receiver generally displays a Microsoft Windows Media Player window on a computer screen.
그러나 이와 같은 지식 정보의 전달 방법은 각 정보를 분리하여 송수신하게 되어, 일반적으로 읽기만 한 것의 10%, 들은 것의 20%, 보기만 한 것의 30%, 보고 들은 것의 50%를 기억한다는 연구 결과에서 볼 수 있듯이 다양한 멀티미디어 요소를 통합할 경우의 지식 정보 전달 효과 보다는 낮을 수밖에 없다.However, this method of transmitting knowledge information separates and transmits each information, and the research results show that in general, 10% of reading, 20% of hearing, 30% of hearing, and 50% of hearing and hearing are remembered. As can be seen, integrating various multimedia elements is inevitably lower than the knowledge transfer effect.
그러므로 연구 내용의 발표, 계획서나 사업 설명서 등의 발표, 세미나에서의 발표 등을 총칭하는 프리젠테이션의 경우 임의의 정보를 전달하려는 목적을 보다 효과적으로 달성하기 위해서는 시각적 요소와 청각적 요소를 가급적 적절히 겸하고자 한다.Therefore, in the case of presentations that collectively include the presentation of research contents, the presentation of plans or project descriptions, and the presentations in seminars, the visual and auditory elements should be combined as appropriate to achieve the purpose of conveying arbitrary information more effectively. do.
이를 위해 다수를 대상으로 혹은 소수의 특정인들을 대상으로 진행하는 프리젠테이션이라 할지라도 통상적으로 발표자와 발표도우미의 2인 1조를 이루는 것이 보편적인데, 그 이유는 정보의 전달과정에서 발표자가 정보 발표 이외에 사용 장비의 조작과 같은 동작 등을 하는 경우 정보전달의 효율이 덜어지기 때문이다.For this purpose, even if the presentation is to a large number or to a few specific persons, it is common to make a pair of presenters and presentation assistants. This is because the efficiency of information transmission decreases when operations such as manipulation of used equipment are performed.
그러나 이와 같이 2인 1조가 진행하는 프리젠테이션이라 할지라도, 발표자의 진행에 따라 발표 화면이 바뀌어야 하는데, 두 사람이 진행을 함에 따라 발표자와 도우미 간에는 눈짓이나 수신호 등으로 이러한 동기를 맞출 노력이 필요한 불편함 이 있었다.However, even if the presentation is conducted by a pair of two people, the presentation screen should change according to the presenter's progress. As the two people proceed, the presenter and the helper need to make efforts to match these motivations with glances or hand signals. There was a ham.
이러한 문제점을 해소하기 위하여 제안되어진 기술들이 프리젠테이션을 하여야할 발표 내용을 하나의 동영상화시키는 방식들이 제안되었다.In order to solve this problem, the proposed techniques have been proposed in which a presentation of the presentation contents to be presented is made into a moving picture.
이러한 방식들의 특징은 발표내용이 영화와 같이 정해진 시간동안 동영상으로 제공되기 때문에 숙달되어진 발표자가 굳이 필요 없으며, 발표시간동안 청중들은 발표 내용에 집중시킬 수 있다는 것이다.The distinctive feature of these methods is that the presentation is provided in a movie-like time frame, so that a skilled presenter is not required, and the audience can focus on the presentation during the presentation.
그러니 이와 같은 방식의 단점은 프리젠테이션을 위한 발표내용의 수정이나 변경이 발생시 현재 만들어진 동영상자료는 폐기되고, 처음부터 새로이 만들어져야 한다는 것이다.Therefore, the disadvantage of this method is that when the presentation changes or changes to the presentation occur, the current video material is discarded and must be made from scratch.
또한, 발표도중 돌발적으로 발생되는 상황에 적절히 대응할 수 없으며, 일반 사용자는 그 제작 과정에 어려움이 많기 때문에 직접 자신의 취향이나 발표내용의 특징에 맞게 제작 툴(Tool)로써 사용하기 어렵다는 문제점을 내포하고 있다.In addition, it cannot respond appropriately to the situation that occurs suddenly during the presentation, and because the general user has a lot of difficulties in the production process, it is difficult to use it directly as a production tool according to the taste or characteristics of the presentation. have.
상술한 문제점을 해소하기 위한 본 발명의 목적은 프리젠테이션 자료 제작용 시스템에 관한 것으로 특히, 발표 자료의 슬라이드 방식에 따른 디스플레이와 함께 3차원 아바타를 임의의 가상공간에 배치하여 발표자 역할을 수행하도록 함과 동시에 음성 및 음향(배경음악 포함)을 제작자 임의로 동기화 시키며 발표 자료와 각종 주변 환경을 필요에 따라 편집할 수 있도록 하기 위한 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작 편집 방법 및 이에 따 른 시스템을 제공하는데 있다.SUMMARY OF THE INVENTION An object of the present invention for solving the above problems relates to a system for producing presentation materials, and in particular, to arrange a 3D avatar in an arbitrary virtual space together with a display according to a slide method of the presentation material to serve as a presenter. At the same time, Narrator multimedia local material using 3D module and TTS module to synchronize voices and sounds (including background music) to the producers and to edit the presentation materials and various surrounding environments as needed. To provide a production editing method and system accordingly.
상술한 본 발명의 목적을 달성하기 위한 본 발명의 선행적인 목적은, 가상공간에 발표자로써 배치되는 3차원 아바타의 동작을 제작자 임의로 편집 및 설정하도록 하는 나레이터 멀티미디어 로컬 자료의 제작 편집을 위한 제작자 편의용 3차원 엔진 모듈을 제공하는 데 있다.A prior art object of the present invention for achieving the above object of the present invention, the producer convenience for the production editing of narrator multimedia local material that allows the producer to arbitrarily edit and set the operation of the three-dimensional avatar disposed in the virtual space as the presenter To provide a three-dimensional engine module.
또한, 상술한 본 발명의 목적을 달성하기 위한 본 발명의 다른 선행적인 목적은, 발표 자료의 슬라이드 방식에 따른 디스플레이 동작과정 중에 발표 자료를 설명하는 음성의 표출을 위해 해당 발표 자료의 설명을 제작자 임의로 편집 및 설정한 주석 등의 텍스트를 음성으로 변환 출력하도록 하는 나레이터 멀티미디어 로컬 자료의 제작편집을 위한 제작자 편의용 티티에스(TTS)(Text-To-Speech) 연동 모듈을 제공하는 데 있다.In addition, another prior object of the present invention for achieving the above object of the present invention, the display of the presentation material for the presentation of the speech to explain the presentation material during the display operation process according to the slide method of the presentation material by the producer arbitrarily The present invention provides a text-to-speech (TTS) interworking module for the producer's convenience for producing and editing narrator multimedia local materials for converting and outputting text such as edited and set annotations into voice.
또한, 상술한 본 발명의 목적을 달성하기 위한 본 발명의 선행적인 목적의 부가적인 목적은, 발표 자료의 효과를 높이기 위한 음향(배경 음악 포함)을 포함하여 3차원 엔진 모듈과 티티에스(TTS)(Text-To-Speech) 연동 모듈 및 각종 음원을 제작자 임의로 편집가능하며 각각이 하나의 동기에 의해 실행되도록 하는 나레이터 멀티미디어 로컬 자료의 제작편집을 위한 제작자 편의용 동기화모듈을 제공하는 데 있다.In addition, an additional object of the prior art object of the present invention for achieving the above object of the present invention is a three-dimensional engine module and TTS including sound (including background music) for enhancing the effect of the presentation material. (Text-To-Speech) It is to provide a producer-friendly synchronization module for the production and editing of narrator multimedia local material that can be arbitrarily edited by the producer and various sound sources, and each is executed by one synchronization.
또한, 본 발명의 다른 목적은 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작편집 방법 및 이에 따른 시스템을 이용하여 가상공간에 발표자로써 배치되는 3차원 아바타가 수화(手話)를 표현함으로써 청각 장애인들에게 발표 자료의 내용을 전달하도록 함으로써, 수화에 익숙하지 않은 발표자가 사용가능하도록 하는 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작편집 방법 및 이에 따른 시스템을 제공하는데 있다.In addition, another object of the present invention is to create and edit a narrator multimedia local data using the 3D (3D) module and TTS module and the system according to the three-dimensional avatar is placed in the virtual space as a presenter sign language Narrator multimedia local materials using the 3D module and TTS module, which can be used by presenters who are not familiar with sign language by delivering the contents of the presentation materials to the hearing impaired by expressing (手 話). To provide a production editing method and a system accordingly.
상기와 같은 목적을 달성하기 위한 본 발명에 따른 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작 편집 방법의 특징은, 특정 양식을 갖는 임의의 발표 자료를 로딩하는 제 1과정과; 상기 제 1과정에서 로딩되어진 발표 자료에 대한 나레이션 대본을 설정한 후 이를 육성에 따른 음향데이터로 변환하는 제 2과정과; 상기 제 1과정에서 로딩되어진 발표 자료에 대한 쓰리디(3D) 아바타 나레이터를 형성하기 위해 머리와 입술 및 몸 부분별로 기 설정된 데이터를 임의의 시점별로 선택하여 쓰리디(3D) 애니메이션을 제작하는 제 3과정과; 상기 제 1과정에서 로딩되어진 발표 자료에 대응하여 상기 제 2과정에서 변환되어진 음향데이터 및 상기 제 3과정에서 제작되어진 쓰리디(3D) 애니메이션에 대한 표출시점을 사용자 임의로 선택하는 제 4과정과; 상기 제 1과정 내지 제 4과정을 통해 수행되어진 결과가 하나의 나레이터 멀티미디어 자료로 취합되는 제 5과정; 및 상기 제 5과정을 통해 취합되어진 나레이터 멀티미디어 자료의 표출시 상기 발표 자료의 메인 디스플레이 중에 상기 쓰리디(3D) 애니메이션과 음향데이터가 상기 제 4과정에서 선택되어진 시점을 기준으로 외부로 표출되는 제 6과정을 포함하 는 데 있다.A feature of the method of producing and editing a Narrator multimedia local material using the 3D module and the TTS module according to the present invention for achieving the above object is to load any presentation material having a specific format. The first process; A second step of setting a narration script for the presentation material loaded in the first step and converting the narration script into sound data according to the development; A third step of producing a 3D animation by selecting predetermined data for each head, lips, and body part at an arbitrary time point to form a 3D avatar narrator for the presentation material loaded in the first process; Process; A fourth step of arbitrarily selecting a presentation time point for the sound data converted in the second step and the three-dimensional (3D) animation produced in the third step in response to the presentation data loaded in the first step; A fifth process of collecting the results performed through the first to fourth processes into one narrator multimedia data; And a sixth display of the three-dimensional (3D) animation and sound data to the outside on the basis of the time point when the three-dimensional (3D) animation and sound data are selected during the presentation of the narrator multimedia data collected through the fifth process. It involves the process.
상기와 같은 목적을 달성하기 위한 본 발명에 따른 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작 편집 방법의 부가적인 특징은, 상기 제 5과정에서 취합되어진 나레이터 멀티미디어 자료의 표출시 상기 쓰리디(3D) 애니메이션의 메인 디스플레이 중에 상기 발표 자료와 음향데이터가 상기 제 4과정에서 선택되어진 시점을 기준으로 외부로 표출되는 제 7과정을 더 포함하는 데 있다.An additional feature of the method for producing and editing the Narrator multimedia local material using the 3D module and the TTS module according to the present invention for achieving the above object is the Narrator multimedia collected in the fifth step. The method further includes a seventh process of presenting the presentation material and sound data to the outside based on the time point selected in the fourth process during the main display of the 3D animation when the material is displayed.
상기와 같은 목적을 달성하기 위한 본 발명에 따른 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작 편집 방법의 부가적인 다른 특징은, 상기 제 1과정에서 상기 제 5과정을 통해 취합되어진 나레이터 멀티미디어 자료를 로딩하는 경우 상기 제 2과정을 통해 나레이션 대본이 편집 가능한 데 있다.In order to achieve the above object, another additional feature of the method for producing and editing a narrator multimedia local material using the 3D module and the TTS module according to the present invention is the fifth step in the first process. In the case of loading the narrator multimedia data collected through the process, the narration script is editable through the second process.
상기와 같은 목적을 달성하기 위한 본 발명에 따른 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작 편집 방법의 부가적인 또 다른 특징은, 상기 제 1과정에서 상기 제 5과정을 통해 취합되어진 나레이터 멀티미디어 자료를 로딩하는 경우 상기 제 3과정을 통해 쓰리디(3D) 아바타 나레이터를 형성하기 위해 머리와 입술 및 몸 부분별로 기 설정된 데이터를 임의의 시점별로 재 선택 가능한 데 있다.An additional feature of the method for producing and editing a Narrator multimedia local material using the 3D module and the TTS module according to the present invention for achieving the above object is the first step. In the case of loading the narrator multimedia data collected through the fifth process, the predetermined data for each head, lips, and body parts can be reselected at an arbitrary time point in order to form a 3D avatar narrator through the third process. .
상기와 같은 목적을 달성하기 위한 본 발명에 따른 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작 편집 방법의 부가적 인 또 다른 특징으로, 상기 제 3과정은 인간형상의 기본적인 외형의 데이터를 설정하는 제 1단계와; 상기 제 1단계에서 설정되어진 인간형상의 성별과 각 성별에 대응하는 복수의 의복에 대한 데이터를 설정하는 제 2단계와; 상기 제 1단계에서 설정되어진 인간형상에 대하여 몸동작을 다수의 형태로 구분하고 이에 따른 데이터를 설정하는 제 3단계와; 상기 제 1단계에서 설정되어진 인간형상에 대하여 얼굴에서 입술과 입주변의 연관동작을 다수의 형태로 구분하고 이에 따른 데이터를 설정하는 제 4단계와; 상기 제 1단계에서 설정되어진 인간형상에 대하여 얼굴에서 입주변을 제외한 다른 부분의 움직임을 다수의 형태로 구분하고 이에 따른 데이터를 설정하는 제 5단계와; 아바타 생성 요청에 의해 상기 제 1단계와 제 2단계에서 설정되어 있는 인간형상의 성별과 의상이 설정되면 해당 데이터를 로딩하여 기준 아바타를 설정하는 제 6단계; 및 상기 제 6단계이후 아바타의 움직임 요청에 의해 상기 제 3단계 내지 제 5단계를 통해 기 설정되어진 각종의 동작에 대하여 작업자가 임의로 지정하면 상기 제 6단계를 통해 설정되어진 기준 아바타의 데이터에 상기 제 3단계 내지 제 5단계를 통해 기 설정되어진 각종의 동작이 링크되어 병합됨에 따라 작업자의 요청에 의한 실시간적인 아바타 움직임을 형성하는 제 7단계를 포함하는 데 있다.In another aspect of the present invention, a third method of producing and editing a narrator multimedia local material using a 3D module and a TTS module according to the present invention may be achieved. A first step of setting data of basic appearance of the shape; A second step of setting data of a gender of the human figure set in the first step and a plurality of clothes corresponding to each gender; A third step of dividing the body motion into a plurality of forms and setting data according to the human shape set in the first step; A fourth step of dividing the association operation between the lips and the mouth around the face into a plurality of forms and setting data according to the human shape set in the first step; A fifth step of dividing the movements of other parts of the face other than the mouth area into a plurality of forms and setting data according to the human shape set in the first step; A sixth step of loading a corresponding data and setting a reference avatar when a gender and costume of a human figure set in the first and second steps are set by an avatar generation request; And when the operator arbitrarily designates the various operations previously set through the third to fifth steps by the avatar's movement request after the sixth step, the first avatar data to the reference avatar data set through the sixth step. And a seventh step of forming a real-time avatar movement in response to a worker's request as various operations previously set through steps 3 to 5 are linked and merged.
상기와 같은 목적을 달성하기 위한 본 발명에 따른 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작 편집 방법의 부가적인 또 다른 특징으로, 상기 가상공간에 대하여 복수개의 임의 가상공간을 3차원적으로 구현하고 작업자에 의해 기 설정된 가상공간 중 임의의 가상공간을 설정하도 록 하는 가상공간 설정단계를 더 포함하는 데 있다.In another aspect of the present invention, a method of producing and editing a narrator multimedia local material using a 3D module and a TTS module according to the present invention is provided. The method further includes a virtual space setting step of implementing an arbitrary virtual space in three dimensions and setting an arbitrary virtual space among preset virtual spaces by an operator.
상기와 같은 목적을 달성하기 위한 본 발명에 따른 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작 편집 방법의 부가적인 또 다른 특징으로, 상기 가상공간 설정단계에서 설정되어진 임의의 가상공간에 상기 제 7단계를 통해 실시간적으로 움직이는 아바타를 존재시키며 상기 아바타가 상기 가상공간상에서의 움직임을 네비게이션할 수 있도록 하는 네비게이션 단계를 더 포함하는 데 있다.An additional feature of the method for producing and editing a narrator multimedia local material using the 3D module and the TTS module according to the present invention for achieving the above object is set in the virtual space setting step. And presenting an avatar moving in real time through the seventh step in any virtual space, and enabling the avatar to navigate the movement in the virtual space.
상기와 같은 목적을 달성하기 위한 본 발명에 따른 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작 편집 방법의 부가적인 또 다른 특징으로, 상기 제 3과정은 쓰리디(3D) MAX를 이용하여 각 부위별로 머리(Head), 입술(Lips) 및 몸(Body)부분을 각각 별도의 데이터 그물망인 메쉬(mesh)로 제작하고, 제작된 캐릭터는 인체 애니메이션에 적합한 바이패드 본(biped bone)을 이용해 앞서 제작되어진 메쉬(mesh)와 본(bone)을 링크하여 쓰리디(3D) 애니메이션을 제작하는 데 있다.In another aspect of the present invention, a third method of producing and editing a narrator multimedia local material using a 3D module and a TTS module according to the present invention, the third process is performed. (3D) MAX, Head, Lips and Body parts are made of separate data network meshes for each part, and the produced characters are Bipad bones suitable for human animation. It is to create a 3D animation by linking a previously created mesh and bone using a biped bone.
상기와 같은 목적을 달성하기 위한 본 발명에 따른 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작 편집 방법의 부가적인 또 다른 특징으로, 상기 제 2과정에서 변환되는 음향데이터는 성별 혹은 연령별로 구분되어지며 작업자에 의해 선택 가능하도록 하는 데 있다.As another additional feature of the method for producing and editing a narrator multimedia local material using the 3D module and the TTS module according to the present invention for achieving the above object, it is converted in the second process. Acoustic data are classified by gender or age and are selectable by an operator.
상기와 같은 목적을 달성하기 위한 본 발명에 따른 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작 편집 방법의 부가적 인 또 다른 특징으로, 상기 제 4과정은 임의의 시간적 길이를 갖는 타임 슬롯을 구비하는 제 1단계와; 상기 제 3과정을 통해 인간형상의 기본적인 외형의 데이터와 해당 인간형상의 성별과 각 성별에 대응하는 복수의 의복에 대한 데이터를 설정한 후, 인간형상에 대하여 몸동작과 머리동작 및 입술과 입주변의 연관동작을 상기 제 1단계에서 구비되어진 타임 슬롯의 임의의 위치에 배치하는 제 2단계와; 상기 제 2과정을 통해 육성 변환되어 표출하고자 하는 대본에 대응하는 텍스트를 상기 제 1단계에서 구비되어진 타임 슬롯의 임의의 위치에 배치하는 제 3단계; 및 상기 임의의 시간적 길이를 갖는 타임 슬롯을 통해 동일 위치에 존재하는 각종의 데이터는 관련 모듈의 동작과 연동되어 동시에 표출되도록 하는 제 4단계를 포함하는 데 있다.In order to achieve the above object, an additional feature of the method of producing and editing a narrator multimedia local material using the 3D module and the TTS module according to the present invention is described. A first step having a time slot having a temporal length of; Through the third process, data of basic appearance of the human figure, data of the gender of the human figure and a plurality of clothes corresponding to each gender are set, and then the association between the body motion, the head motion, the lips and the mouth around the human shape A second step of arranging the operation at an arbitrary position of the time slot provided in the first step; A third step of disposing text corresponding to a script to be fostered and converted through the second process at an arbitrary position of a time slot provided in the first step; And a fourth step of displaying various types of data existing at the same location through the time slot having the arbitrary temporal length simultaneously with the operation of the associated module.
상기와 같은 목적을 달성하기 위한 본 발명에 따른 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작 편집 방법의 부가적인 또 다른 특징으로, 임의의 음향데이터를 로딩하여 상기 제 1단계에서 구비되어진 타임 슬롯 의 임의의 위치에 배치하는 단계를 더 포함하는 데 있다.As another additional feature of the method for producing and editing a narrator multimedia local material using the 3D module and the TTS module according to the present invention for achieving the above object, by loading arbitrary sound data The method may further include disposing at an arbitrary position of the time slot provided in the first step.
상기와 같은 목적을 달성하기 위한 본 발명에 따른 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작 편집 시스템의 특징은, 프리젠테이션을 위해 각종의 툴을 이용해 생성되어진 발표자료를 로딩하여 임시 저장하는 발표자료 로딩 모듈과; 음원(음향 데이터, 배경음악 데이터)을 로딩하여 임시 저장하는 음원 로딩 모듈과; 가상공간을 형성하고 해당 가상공간에 아바타의 구현 및 해당 아바타의 동작에 따른 3차원 이미지를 생성하는 쓰리디(3D)엔진모 듈과; 임의로 제공되는 텍스트를 육성으로 변환하여 공급하는 티티에스(TTS) 모듈과; 상기 쓰리디(3D)엔진모듈과 티티에스(TTS) 모듈의 동작을 지원하기 위한 소스 데이터를 저장하고 있는 데이터베이스와; 외부 요청에 의해 상기 발표자료 로딩 모듈과 음원 로딩 모듈과 쓰리디(3D)엔진모듈 및 티티에스(TTS) 모듈에서 제공되는 소스를 병합 및 동기시킴으로써 자동으로 프리젠테이션을 수행하는 결과물을 예측하고 이를 편집 수정할 수 있도록 하는 제작편집모듈과; 상기 제작편집모듈을 통해 편집되는 프리젠테이션 자료를 하나의 독립된 결과물로 생성시키거나 기 생성된 결과물을 로딩하여 상기 제작편집모듈로 제공하기 위한 결과물생성 및 로딩모듈; 및 외부의 요청에 의해 상기 제작편집모듈을 임의로 제어할 수 있도록 하는 제어모듈을 포함하는 데 있다.In order to achieve the above object, a feature of the editing and editing system for narrator multimedia local material using the 3D module and the TTS module according to the present invention is generated using various tools for presentation. A presentation material loading module for loading presentation materials and temporarily storing the presentation materials; A sound source loading module for loading and temporarily storing sound sources (sound data, background music data); A 3D engine module for forming a virtual space and generating a three-dimensional image according to the implementation of the avatar and the operation of the avatar in the virtual space; A TTS module which converts and optionally provides texts into nurturing texts; A database storing source data for supporting the operation of the 3D engine module and the TTS module; By predicting and editing the results of the presentation by automatically merging and synchronizing the sources provided by the presentation loading module, the sound source loading module, the 3D engine module, and the TTS module by external request. A production editing module for modifying; A result generation and loading module for generating presentation data edited through the production editing module as one independent result or loading the generated result to the production editing module; And a control module for arbitrarily controlling the production editing module by an external request.
상기와 같은 목적을 달성하기 위한 본 발명에 따른 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작 편집 시스템의 부가적인 특징으로, 상기 제어모듈은 상기 제작편집모듈을 통해 제작 및 편집하고자 하는 발표자료 및 수정하고자 하는 자료를 상기 결과물생성 및 로딩모듈을 통해 억세스하며, 필요한 음원을 상기 음원 로딩 모듈을 통해 억세스하는 등의 과정을 통해 필요로 하는 자료를 모으고, 상기 제작편집모듈을 통해 편집되어진 최종본을 상기 결과물생성과 로딩모듈을 통해 결과물로 생성시키기 위한 제작편집제어모듈과; 상기 제작편집모듈을 통해 육성으로 표출되기를 희망하는 텍스트 데이터를 입력 및 변경하도록 하여 상기 티티에스(TTS)모듈의 동작을 위한 소스로 제공하는 티티에스(TTS) 변환 대본설정모듈과; 상기 제작편집모듈을 통해 상기 쓰리디(3D)엔진모듈에 서 제공될 수 있는 각종의 가상공간과 아바타를 선택하고 해당 아바타의 움직임과 표정 등을 임의의 시점마다 제작자 임의로 설정하도록 하기 위한 쓰리디(3D)아바타 설정모듈; 및 상기 제작편집모듈을 통해 상기 티티에스(TTS) 변환 대본설정모듈의 동작시점과 쓰리디(3D)아바타 설정모듈의 동작 시점을 제작자 임의로 설정하도록 하기 위한 동기시점 설정모듈로 구성되는 데 있다.In order to achieve the above object, an additional feature of a production editing system for narrator multimedia local material using a 3D module and a TTS module according to the present invention is provided. Access the presentation materials to be produced and edited and the materials to be modified through the result generation and loading module, collect the necessary materials through the process of accessing the necessary sound source through the sound source loading module, A production edit control module for generating a final product edited through an editing module as a result through the result generation and loading module; A TTS conversion script setting module for inputting and modifying text data desired to be expressed by the production editing module as a source for the operation of the TTS module; 3D for selecting various virtual spaces and avatars that can be provided by the 3D engine module through the production editing module, and setting the motions and facial expressions of the corresponding avatars at random times by the producer. 3D) Avatar setting module; And a synchronization point setting module for setting the operation point of the TTS conversion script setting module and the operation point of the 3D avatar setting module through the production editing module.
상기와 같은 목적을 달성하기 위한 본 발명에 따른 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작 편집 방법의 다른 특징은, 특정 양식을 갖는 임의의 발표 자료를 로딩하는 제 1과정과; 상기 제 1과정에서 로딩되어진 발표 자료에 대한 나레이션 대본을 설정한 후 이를 육성에 따른 음향데이터로 변환하는 제 2과정과; 상기 제 2과정을 통해 음향데이터로 변환되는 나레이션 대본을 인식하여 의사전달을 위한 손동작의 데이터를 생성하는 제 3과정과; 상기 제 1과정에서 로딩되어진 발표 자료에 대한 쓰리디(3D) 아바타 나레이터를 형성하기 위해 머리와 입술 및 몸 부분별로 기 설정된 데이터를 임의의 시점별로 선택하되 상기 제 3과정에서 생성되어진 손동작의 데이터를 병합하여 쓰리디(3D) 애니메이션을 제작하는 제 4과정과; 상기 제 1과정에서 로딩되어진 발표 자료에 대응하여 상기 제 2과정에서 변환되어진 음향데이터 및 상기 제 4과정에서 제작되어진 쓰리디(3D) 애니메이션에 대한 표출시점을 사용자 임의로 선택하는 제 5과정과; 상기 제 1과정 내지 제 5과정을 통해 수행되어진 결과가 하나의 나레이터 멀티미디어 자료로 취합되는 제 6과정; 및 상기 제 6과정을 통해 취합되어진 나레이터 멀티미디어 자료의 표출시 상기 발표 자료의 메인 디스플레이 중에 상기 쓰리디 (3D) 애니메이션과 음향데이터가 상기 제 5과정에서 선택되어진 시점을 기준으로 외부로 표출되는 제 7과정을 포함하는 데 있다.Another feature of the method for producing and editing a narrator multimedia local material using the 3D module and the TTS module according to the present invention for achieving the above object is to load any presentation material having a specific format. A first process of doing; A second step of setting a narration script for the presentation material loaded in the first step and converting the narration script into sound data according to the development; A third step of generating narration data for communication by recognizing a narration script converted into sound data through the second step; In order to form a three-dimensional (3D) avatar narrator for the presentation material loaded in the first process, predetermined data for each head, lips, and body are selected at an arbitrary time, and the data of the hand motion generated in the third process is selected. A fourth step of merging to create a three-dimensional (3D) animation; A fifth step of arbitrarily selecting a presentation time point for the sound data converted in the second step and the three-dimensional (3D) animation produced in the fourth step in response to the presentation data loaded in the first step; A sixth process of collecting the results performed through the first to fifth processes into one narrator multimedia data; And a seventh output of the narrator multimedia data collected through the sixth process to the outside on the basis of the point in time when the 3D animation and sound data are selected in the fifth process during the main display of the presentation material. To include the process.
상기와 같은 목적을 달성하기 위한 본 발명에 따른 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작 편집 방법의 부가적인 특징은, 상기 제 6과정에서 취합되어진 나레이터 멀티미디어 자료의 표출시 상기 쓰리디(3D) 애니메이션의 메인 디스플레이 중에 상기 발표 자료와 음향데이터가 상기 제 5과정에서 선택되어진 시점을 기준으로 외부로 표출되는 제 8과정을 더 포함하는 데 있다.An additional feature of the method for producing and editing a narrator multimedia local material using the 3D module and the TTS module according to the present invention for achieving the above object is the narrator multimedia collected in the sixth step. The method further includes an eighth process of presenting the presentation material and sound data to the outside based on a time point selected in the fifth process during the main display of the 3D animation when the material is displayed.
상기와 같은 목적을 달성하기 위한 본 발명에 따른 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작 편집 방법의 부가적인 다른 특징은, 상기 제 1과정에서 상기 제 6과정을 통해 취합되어진 나레이터 멀티미디어 자료를 로딩하는 경우 상기 제 2과정을 통해 나레이션 대본이 편집 가능한 데 있다.In order to achieve the above object, an additional feature of the method for producing and editing a Narrator multimedia local material using the 3D module and the TTS module according to the present invention is the sixth step. In the case of loading the narrator multimedia data collected through the process, the narration script is editable through the second process.
상기와 같은 목적을 달성하기 위한 본 발명에 따른 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작 편집 방법의 부가적인 또 다른 특징으로, 상기 제 3과정은 의사전달을 위한 손동작에 대한 데이터를 설정하는 제 1단계와; 상기 제 2과정을 통해 음향데이터로 변환되는 나레이션 대본을 인식하는 제 2단계; 및 상기 제 1단계를 통해 설정되어진 손동작에 대한 데이터에서 상기 제 2단계에서 인식되어진 나레이션 대본에 대응하는 데이터를 추출하는 제 3단계를 포함하는 데 있다.In another aspect of the present invention, a third method of producing and editing a narrator multimedia local material using a 3D module and a TTS module according to the present invention, the third process is to communicate. A first step of setting data about a hand gesture for the first step; A second step of recognizing a narration script converted into sound data through the second process; And a third step of extracting data corresponding to the narration script recognized in the second step from the data on the hand gesture set through the first step.
상기와 같은 목적을 달성하기 위한 본 발명에 따른 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작 편집 방법의 부가적인 또 다른 특징으로, 상기 제 1단계를 통해 설정되는 의사전달을 위한 손동작에 대한 데이터는 자음과 모음 및 숫자로 구분되는 손동작으로 이루어지는 데 있다.An additional feature of the method for producing and editing a narrator multimedia local material using the 3D module and the TTS module according to the present invention for achieving the above object is set through the first step. The data on hand gestures for communication is composed of hand gestures divided into consonants, vowels, and numbers.
상기와 같은 목적을 달성하기 위한 본 발명에 따른 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작 편집 방법의 부가적인 또 다른 특징으로, 상기 제 1단계를 통해 설정되는 의사전달을 위한 손동작에 대한 데이터는 단어와 조사로 구분되는 손동작으로 이루어지는 데 있다.An additional feature of the method for producing and editing a narrator multimedia local material using the 3D module and the TTS module according to the present invention for achieving the above object is set through the first step. Data on hand gestures for communication is composed of hand gestures divided into words and surveys.
상기와 같은 목적을 달성하기 위한 본 발명에 따른 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작 편집 방법의 부가적인 또 다른 특징으로, 상기 제 4과정은 인간형상의 기본적인 외형의 데이터를 설정하는 제 1단계와; 상기 제 1단계에서 설정되어진 인간형상의 성별과 각 성별에 대응하는 복수의 의복에 대한 데이터를 설정하는 제 2단계와; 상기 제 1단계에서 설정되어진 인간형상에 대하여 얼굴에서 입술과 입주변의 연관동작을 다수의 형태로 구분하고 이에 따른 데이터를 설정하는 제 3단계와; 상기 제 1 단계에서 설정되어진 인간형상에 대하여 얼굴에서 입주변을 제외한 다른 부분의 움직임을 다수의 형태로 구분하고 이에 따른 데이터를 설정하는 제 4단계와; 상기 제 1단계에서 설정되어진 인간형상에 대하여 의사전달을 위한 손동작을 다수의 형태로 구분하고 이에 따른 데이터를 설정하는 제 5단계와; 아바타 생성 요청에 의해 상기 제 1단계와 제 2단계에서 설정되어 있는 인간형상의 성별과 의상이 설정되면 해당 데이터를 로딩 하여 기준 아바타를 설정하는 제 6단계; 및 상기 제 6단계이후 아바타의 움직임 요청에 의해 상기 제 3단계와 제 4단계를 통해 기 설정되어진 각종의 동작에 대해서는 작업자가 임의로 지정하고 상기 제 3과정을 통해 생성되어진 손동작에 대한 데이터를 기준으로 상기 제 5단계를 통해 기 설정되어진 손동작은 자동으로 지정되어 상기 제 6단계를 통해 설정되어진 기준 아바타의 데이터에 상기 제 3단계 내지 제 5단계를 통해 기 설정되어진 각종의 동작이 링크되어 병합됨에 따라 작업자의 요청에 의한 실시간적인 아바타 움직임을 형성하는 제 7단계를 포함하는 데 있다.In another aspect of the present invention, a third method of producing and editing a narrator multimedia local material using a 3D module and a TTS module according to the present invention, the fourth process is a human figure. A first step of setting data of a basic appearance; A second step of setting data of a gender of the human figure set in the first step and a plurality of clothes corresponding to each gender; A third step of dividing the association operation between the lips and the mouth around the face into a plurality of forms and setting the data according to the human shape set in the first step; A fourth step of dividing the movements of other parts of the face other than the mouth around the human shape set in the first step into a plurality of forms and setting data accordingly; A fifth step of classifying hand gestures for communication in a plurality of forms and setting data according to the human shape set in the first step; A sixth step of loading a corresponding data and setting a reference avatar when the gender and clothes of the human figure set in the first and second steps are set by the avatar generation request; And after the sixth step, the operator arbitrarily designates a variety of motions previously set through the third and fourth steps by the avatar's movement request and based on the data on the hand motions generated through the third step. The hand gesture set in advance through the fifth step is automatically assigned, and various operations preset through the third through fifth steps are linked to and merged with data of the reference avatar set through the sixth step. And a seventh step of forming a real-time avatar movement at the request of the worker.
상기와 같은 목적을 달성하기 위한 본 발명에 따른 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작 편집 방법의 부가적인 또 다른 특징으로, 상기 가상공간에 대하여 복수개의 임의 가상공간을 3차원적으로 구현하고 작업자에 의해 기 설정된 가상공간 중 임의의 가상공간을 설정하도록 하는 가상공간 설정단계를 더 포함하는 데 있다.In another aspect of the present invention, a method of producing and editing a narrator multimedia local material using a 3D module and a TTS module according to the present invention is provided. The method may further include a virtual space setting step of implementing an arbitrary virtual space in three dimensions and setting an arbitrary virtual space among preset virtual spaces by an operator.
상기와 같은 목적을 달성하기 위한 본 발명에 따른 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작 편집 방법의 부가적인 또 다른 특징으로, 상기 제 2과정에서 변환되는 음향데이터는 성별 혹은 연령별로 구분되어지며 작업자에 의해 선택 가능하도록 하는 데 있다.As another additional feature of the method for producing and editing a narrator multimedia local material using the 3D module and the TTS module according to the present invention for achieving the above object, it is converted in the second process. Acoustic data are classified by gender or age and are selectable by an operator.
상기와 같은 목적을 달성하기 위한 본 발명에 따른 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작 편집 방법의 부가적인 또 다른 특징으로, 상기 제 5과정은 임의의 시간적 길이를 갖는 타임 슬롯을 구비하는 제 1단계와; 상기 제 4과정을 통해 인간형상의 기본적인 외형의 데이터와 해당 인간형상의 성별과 각 성별에 대응하는 복수의 의복에 대한 데이터를 설정한 후, 인간형상에 대하여 몸동작과 머리동작 및 입술과 입주변의 연관동작을 상기 제 1단계에서 구비되어진 타임 슬롯의 임의의 위치에 배치하는 제 2단계와; 상기 제 2과정을 통해 육성 변환되어 표출하고자 하는 대본에 대응하는 텍스트를 상기 제 1단계에서 구비되어진 타임 슬롯의 임의의 위치에 배치하는 제 3단계; 및 상기 임의의 시간적 길이를 갖는 타임 슬롯을 통해 동일 위치에 존재하는 각종의 데이터는 관련 모듈의 동작과 연동되어 동시에 표출되도록 하는 제 4단계를 포함하는 데 있다.In another aspect of the present invention, the third method of producing and editing a Narrator multimedia local material using the 3D module and the TTS module according to the present invention, the fifth process is optional. A first step having a time slot having a temporal length; Through the fourth process, data of basic appearance of the human figure, data of the gender of the human figure and a plurality of clothes corresponding to each gender are set, and then the association between the body motion, the head motion, the lips and the mouth around the human shape A second step of arranging the operation at an arbitrary position of the time slot provided in the first step; A third step of disposing text corresponding to a script to be fostered and converted through the second process at an arbitrary position of a time slot provided in the first step; And a fourth step of displaying various types of data existing at the same location through the time slot having the arbitrary temporal length simultaneously with the operation of the associated module.
상기와 같은 목적을 달성하기 위한 본 발명에 따른 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작 편집 방법의 부가적인 또 다른 특징으로, 임의의 음향데이터를 로딩하여 상기 제 1단계에서 구비되어진 타임 슬롯 의 임의의 위치에 배치하는 단계를 더 포함하는 데 있다.As another additional feature of the method for producing and editing a narrator multimedia local material using the 3D module and the TTS module according to the present invention for achieving the above object, by loading arbitrary sound data The method may further include disposing at an arbitrary position of the time slot provided in the first step.
상기와 같은 목적을 달성하기 위한 본 발명에 따른 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작 편집 시스템의 다른 특징은, 프리젠테이션을 위해 각종의 툴을 이용해 생성되어진 발표자료를 로딩하여 임시 저장하는 발표자료 로딩 모듈과; 음원(음향 데이터, 배경음악 데이터)을 로딩하여 임시 저장하는 음원 로딩 모듈과; 임의로 제공되는 텍스트를 육성으로 변환하여 공급하는 티티에스(TTS) 모듈과; 상기 티티에스(TTS) 모듈로 제공되는 텍스트에 대응하는 의사전달을 위한 손동작의 데이터를 생성하는 수화동작엔진모듈과; 가상공간을 형성하고 해당 가상공간에 아바타의 구현 및 해당 아바타의 동작에 따른 3 차원 이미지를 생성하되 손동작은 상기 수화동작엔진모듈에서 생성되어진 손동작을 수행하는 3차원 이미지를 생성하는 쓰리디(3D)엔진모듈과; 상기 쓰리디(3D)엔진모듈과 티티에스(TTS) 모듈 및 수화동작엔진모듈의 동작을 지원하기 위한 소스 데이터를 저장하고 있는 데이터베이스와; 외부 요청에 의해 상기 발표자료 로딩 모듈과 음원 로딩 모듈과 쓰리디(3D)엔진모듈 및 티티에스(TTS) 모듈에서 제공되는 소스를 병합 및 동기시킴으로써 자동으로 프리젠테이션을 수행하는 결과물을 예측하고 이를 편집 수정할 수 있도록 하는 제작편집모듈과; 상기 제작편집모듈을 통해 편집되는 프리젠테이션 자료를 하나의 독립된 결과물로 생성시키거나 기 생성된 결과물을 로딩하여 상기 제작편집모듈로 제공하기 위한 결과물생성 및 로딩모듈; 및 외부의 요청에 의해 상기 제작편집모듈을 임의로 제어할 수 있도록 하는 제어모듈을 포함하는 데 있다.Another feature of the system for producing and editing narrator multimedia local materials using the 3D module and the TTS module according to the present invention for achieving the above object is generated using various tools for presentation. A presentation material loading module for loading and temporarily storing the presentation data; A sound source loading module for loading and temporarily storing sound sources (sound data, background music data); A TTS module which converts and optionally provides texts into nurturing texts; A sign language operation engine module configured to generate data of a hand gesture for communication corresponding to text provided to the TTS module; Three-dimensional (3D) to form a virtual space and to create a three-dimensional image in accordance with the implementation of the avatar and the operation of the avatar in the virtual space, the hand gesture to perform the hand motion generated by the sign language engine module An engine module; A database storing source data for supporting operations of the 3D engine module, the TTS module, and the sign language operation engine module; By predicting and editing the results of the presentation by automatically merging and synchronizing the sources provided by the presentation loading module, the sound source loading module, the 3D engine module, and the TTS module by external request. A production editing module for modifying; A result generation and loading module for generating presentation data edited through the production editing module as one independent result or loading the generated result to the production editing module; And a control module for arbitrarily controlling the production editing module by an external request.
상기와 같은 목적을 달성하기 위한 본 발명에 따른 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작 편집 시스템의 부가적인 특징으로, 상기 제어모듈은 상기 제작편집모듈을 통해 제작 및 편집하고자 하는 발표자료 및 수정하고자 하는 자료를 상기 결과물생성 및 로딩모듈을 통해 억세스하며, 필요한 음원을 상기 음원 로딩 모듈을 통해 억세스하는 등의 과정을 통해 필요로 하는 자료를 모으고, 상기 제작편집모듈을 통해 편집되어진 최종본을 상기 결과물생성 및 로딩모듈을 통해 결과물로 생성시키기 위한 제작편집제어모듈과; 상기 제작편집모듈을 통해 육성으로 표출되기를 희망하는 텍스트 데이터를 입력 및 변경하도록 하여 상기 티티에스(TTS)모듈의 동작을 위한 소스로 제공하는 티티에스 (TTS) 변환 대본설정모듈과; 상기 제작편집모듈을 통해 상기 쓰리디(3D)엔진모듈에서 제공될 수 있는 각종의 가상공간과 아바타를 선택하고 해당 아바타의 움직임과 표정 등을 임의의 시점마다 제작자 임의로 설정하도록 하기 위한 쓰리디(3D)아바타 설정모듈; 및 상기 제작편집모듈을 통해 상기 티티에스(TTS) 변환 대본설정모듈의 동작시점과 쓰리디(3D)아바타 설정모듈의 동작 시점을 제작자 임의로 설정하도록 하기 위한 동기시점 설정모듈로 구성되는 데 있다.In order to achieve the above object, an additional feature of a production editing system for narrator multimedia local material using a 3D module and a TTS module according to the present invention is provided. Access the presentation materials to be produced and edited and the materials to be modified through the result generation and loading module, collect the necessary materials through the process of accessing the necessary sound source through the sound source loading module, A production edit control module for generating a final version edited through an editing module as a result through the result generation and loading module; A TTS conversion script setting module configured to input and change text data desired to be expressed by the production editing module as a source for the operation of the TTS module; 3D for selecting various virtual spaces and avatars that can be provided by the 3D engine module through the production editing module and for setting the movement and facial expression of the avatar at any time. Avatar setting module; And a synchronization point setting module for setting the operation point of the TTS conversion script setting module and the operation point of the 3D avatar setting module through the production editing module.
상기와 같은 목적을 달성하기 위한 본 발명에 따른 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작 편집 시스템의 부가적인 다른 특징으로, 상기 수화동작엔진모듈은 티티에스(TTS) 변환 대본 설정모듈을 통해 설정되어진 나레이션 대본이 티티에스(TTS)모듈측으로 전달되어질 때 이를 입력받아 인식하는 대본인식모듈과; 입력되는 요청신호에 따라 데이터베이스에서 단어 및 조사를 기준으로 하는 손짓에 따른 수화동작에 대한 데이터를 억세스하는 수화데이터로딩모듈과; 입력되는 요청신호에 따라 데이터베이스에서 자음과 모음을 기준으로 하는 손짓에 따른 지화동작에 대한 데이터를 억세스하는 지화데이터로딩모듈과; 제어신호에 따라 상기 수화데이터로딩모듈과 지화데이터로딩모듈에서 억세스되어진 손동작에 따른 데이터를 합성하여 상기 쓰리디(3D)엔진모듈측으로 전달하는 데이터합성모듈; 및 상기 대본인식모듈을 통해 인식되어진 대본을 기준으로 청각장애인에게 의사를 전달하는 손짓 중 수화를 하여야 하는지 혹은 지화를 하여야 하는가를 판단하여 그에 따른 데이터를 상기 수화데이터로딩모듈과 지화데이터로딩모듈에 요청하며 상기 데이터합성모듈을 통해 상기 수화데이터로딩모듈과 지화데이 터로딩모듈의 억세스 데이터를 조합하여 원 대본에 적합한 최종적 데이터를 생성할 수 있도록 제어하는 수화가능여부 판단제어모듈로 구성되는 데 있다.As another additional feature of the system for producing and editing a narrator multimedia local material using the 3D module and the TTS module according to the present invention for achieving the above object, the sign language operation engine module A script recognition module for receiving and recognizing a narration script set through a conversion script setting module (TTS) when it is transmitted to a TTS module; A sign language data loading module for accessing data on a sign language operation according to a gesture based on a word and a survey in a database according to an input request signal; A localization data loading module for accessing data on a localization operation according to a gesture based on consonants and vowels in a database according to an input request signal; A data synthesizing module for synthesizing data according to a hand gesture accessed from the sign language data loading module and the geosig data loading module according to a control signal, and transferring the data to the 3D engine module; And based on the script recognized through the script recognition module, whether the sign language should be performed in sign language or whether the speech should be made by hand gestures to the hearing impaired person and requests the sign language data loading module and the sign data data loading module accordingly. And a sign language determination control module for controlling the combination of access data of the sign language data loading module and the ground data loading module through the data synthesis module to generate final data suitable for the original script.
상기와 같은 목적을 달성하기 위한 본 발명에 따른 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작 편집 시스템의 부가적인 또 다른 특징은, 상기 동기시점 설정모듈을 통해 설정되어진 각종 데이터의 동기 중 티티에스(TTS) 모듈의 구동 동기에 맞추어 수화의 동작이 이루어지도록 상기 수화가능여부 판단제어모듈에 동기신호를 제공하기 위한 나레이션 동기화모듈이 더 구성되는 데 있다.An additional feature of the narration multimedia local material production and editing system using the 3D (3D) module and TTS module according to the present invention for achieving the above object is, through the synchronization time setting module The narration synchronization module is further configured to provide a synchronization signal to the sign language determination control module so that the sign language operation is performed in accordance with the driving synchronization of the TTS module.
본 발명의 상술한 목적과 여러 가지 장점은 이 기술 분야에 숙련된 사람들에 의해, 첨부된 도면을 참조하여 후술되는 본 발명의 바람직한 실시 예로부터 더욱 명확하게 될 것이다.The above object and various advantages of the present invention will become more apparent from the preferred embodiments of the present invention described below with reference to the accompanying drawings by those skilled in the art.
이하, 본 발명의 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
첨부한 도 1은 본 발명에 따른 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작편집 시스템의 간략 구성 예시도로서, 가상현실의 아바타가 육성 나레이션을 통해 임의의 발표 자료를 프리젠테이션하도록 하기 위한 구성으로 첨부한 도 1에 도시되어 있는 바와 같이, 프리젠테이션을 위해 각종의 툴을 이용해 생성되어진 발표자료(MS 파워포인트, HTML, PDF, 이미지파일 등)를 로딩하여 임시 저장하는 발표자료 로딩 모듈(100)과, 음원(음향 데이터, 배경음악 데이터)을 로딩하여 임시 저장하는 음원 로딩 모듈(200)과, 가상공간을 형 성하고 해당 가상공간에 아바타의 구현 및 해당 아바타의 동작에 따른 3차원 이미지를 생성하는 쓰리디(3D)엔진모듈(300)과, 임의로 제공되는 텍스트를 육성으로 변환하여 공급하는 티티에스(TTS) 모듈(400)과, 상기 쓰리디(3D)엔진모듈(300)과 티티에스(TTS) 모듈(400)의 동작을 지원하기 위한 소스 데이터를 저장하고 있는 데이터베이스(500)와, 제작자(사용자)의 요청에 의해 상기 발표자료 로딩 모듈(100)과 음원 로딩 모듈(200)과 쓰리디(3D)엔진모듈(300) 및 티티에스(TTS) 모듈(400)에서 제공되는 소스를 병합 및 동기시킴으로써 상기 제작자가 자동으로 프리젠테이션을 수행하는 결과물을 예측하고 이를 편집 수정할 수 있도록 하는 제작편집모듈(700)과, 상기 제작편집모듈(700)을 통해 편집되는 프리젠테이션 자료를 하나의 독립된 결과물로 생성시키거나 기 생성된 결과물을 로딩하여 상기 제작편집모듈(700)로 제공하기 위한 결과물생성과 로딩모듈(800), 및 상기 제작편집모듈(700)을 제작자가 임의로 제어할 수 있도록 하는 제어모듈(600)로 구성된다.Attached Figure 1 is a simplified configuration example of a system for editing and editing the narrator multimedia local material using the 3D (3D) module and TTS module according to the present invention, the avatar of virtual reality through any narration nurturing narration As shown in FIG. 1 attached as a configuration for presenting the presentation material, the presentation materials (MS PowerPoint, HTML, PDF, image files, etc.) generated using various tools for presentation are loaded and Presentation
상기 제어모듈(600)은 상기 제작편집모듈(700)을 통해 제작 및 편집하고자 하는 발표자료 및 수정하고자 하는 자료를 상기 결과물생성과 로딩모듈(800)을 통해 억세스하며 필요한 음원을 상기 음원 로딩 모듈(200)을 통해 억세스하는 등의 과정을 통해 필요로 하는 자료를 모으고 상기 제작편집모듈(700)을 통해 편집되어진 최종본을 상기 결과물생성과 로딩모듈(800)을 통해 결과물로 생성시키기 위한 제작편집제어모듈(610)과, 상기 제작편집모듈(700)을 통해 육성으로 표출되기를 희망하는 텍스트 데이터를 입력 및 변경하도록 하여 상기 티티에스(TTS)모듈(400)의 동작을 위한 소스로 제공하는 티티에스(TTS) 변환 대본설정모듈(630)과, 상기 제작 편집모듈(700)을 통해 상기 쓰리디(3D)엔진모듈(300)에서 제공될 수 있는 각종의 가상공간과 아바타를 선택하고 해당 아바타의 움직임과 표정 등을 임의의 시점마다 제작자 임의로 설정하도록 하기 위한 쓰리디(3D)아바타 설정모듈(640), 및 상기 제작편집모듈(700)을 통해 상기 티티에스(TTS) 변환 대본설정모듈(630)의 동작시점과 쓰리디(3D)아바타 설정모듈(640)의 동작 시점을 제작자 임의로 설정하도록 하기 위한 동기시점 설정모듈(620)로 구성된다.The
상기 구성 중 쓰리디(3D)엔진모듈(300)의 구성과 그 동작원리를 첨부한 도 2와 도 3을 참조하여 간략히 살펴보면, 첨부한 도 2는 본 발명에 따른 쓰리디(3D) 아바타 생성을 위한 쓰리디(3D)엔진모듈의 구성예시도이고, 도 3은 본 발명에 따른 쓰리디(3D)엔진모듈을 이용한 아바타의 생성과정을 설명하기 위한 예시도이다.Briefly referring to Figures 2 and 3 attached to the configuration and operation principle of the 3D (3D)
첨부한 도 2와 도 3에 도시되어 있는 바와 같이 본 발명에 따른 쓰리디(3D)엔진모듈은 다중 골격체 제어방식으로써, 쓰리디(3D) 아바타의 몸동작과 머리동작 및 입술의 움직임을 다수의 스펙으로 구분저장하고 있게 된다.As shown in FIG. 2 and FIG. 3, the 3D (3D) engine module according to the present invention is a multi-skeletal control method, and includes a plurality of body motions, head motions, and movements of the 3D avatars. It is stored in the specification.
예를 들어, 입술의 움직임은 "아", "야", "어", "요" 등의 발음에 따른 입술의 움직임과 "미소 짓기", "환한 웃음" 등의 표정에 따른 입술의 움직임에 대한 데이터를 개별적으로 구비하고 있다.For example, the movement of the lips is based on the movements of the lips according to the pronunciation of "ah", "ya", "uh", "yo", and the movements of the lips according to the expressions such as "smile" and "bright smile". Data for each individual.
또한, 머리의 움직임은 예를 들어"윙크하기", "눈 깜박이기", "머리 끄덕이기"등의 입술이외의 얼굴의 동작에 대한 데이터를 개별적으로 구비하고 있다. In addition, the movement of the head is separately provided with data on the motion of the face other than the lips such as "winking", "blinking eyes", "nodding the head", and the like.
또한, 몸동작은 "걷기", "인사하기", "오른손 들기", "왼손 들기"등등의 발표자로써의 자연스런 동작에 대한 데이터를 개별적으로 구비하고 있다.In addition, the body movement separately includes data on natural movements as a presenter such as "walking", "greeting", "right hand lifting", "left hand lifting", and the like.
따라서 작성자는 슬라이드로 진행되는 각 발표 자료의 내용에 적합한 쓰리디(3D)아바타의 동작을 가장 자연스럽게 나타낼 수 있도록 설정되어져 있는 각 부분별 데이터를 억세스하여 조합하도록 요청하면 쓰리디(3D)엔진모듈(300)에서 이를 조합하여 제작편집모듈(700)을 통해 작업자가 확인할 수 있도록 한다.Therefore, the author requests to access and combine the data of each part that is set to most naturally express the behavior of the 3D avatar that is suitable for the contents of each slide that is presented in the slide.The 3D engine module ( In 300) it is combined to enable the operator to check through the production editing module (700).
이를 통한 애니메이션 처리되어진 발표자의 동작에 따른 데이터는 동영상으로 처리되는 것이 아니라, 쓰리디(3D)엔진모듈(300) 내부의 쓰리디(3D) 캐릭터합성과 요청모듈에 의해 실시간 조합처리 되는 것이므로 그 데이터의 량을 쓰리디(3D) 애니메이션 동영상에 비하여 대폭 감소시킬 수 있다.The data according to the presenter's motion processed by the animation is not processed as a video, but is processed in real time by the 3D character synthesis and the request module in the
즉, 캐릭터는 쓰리디(3D) Max를 이용하여 각 부위별로 머리(Head), 입술(Lips) 및 몸(Body)부분을 각각 별도의 데이터 그물망인 메쉬(mesh)로 제작하고, 제작된 캐릭터는 인체 애니메이션에 적합한 바이패드 본(biped bone)을 이용해 앞서 제작되어진 메쉬(mesh)와 본(bone)을 링크하여 쓰리디(3D) 애니메이션을 제작하게 된다.In other words, the character uses 3D Max to create Head, Lips, and Body parts for each part as meshes, which are separate data networks. Using a biped bone suitable for human animation, a 3D animation is produced by linking a previously produced mesh and bone.
이후, 캐릭터와 애니메이션을 효율적으로 표현하기 위해 자체 제작한 추출기(Exporter)를 이용해 최적의 데이터를 추출하게 되며, 생성된 캐릭터는 각 부위를 이루고 있는 메쉬(mesh)들이 영향을 받는 본(bone)들의 정보를 같이 추출하게 된다.
상기 추출기에서는 쓰리디 캐릭터 모델링 작업, 투디 이미지 매핑작업, 바이패드로 피부/메쉬작업 및 쓰리디 캐릭터 모션(움직임 키프레임)을 수행하도록 되어 있다.Then, in order to efficiently represent characters and animations, the optimal data is extracted using self-made extractors, and the generated characters are made of bones that are affected by the meshes that form each part. Information will be extracted together.
The extractor is configured to perform a 3D character modeling operation, a 2D image mapping operation, a skin / mesh operation by bipad, and a 3D character motion (motion keyframe).
또한, 여러 개의 본(bone)에 영향을 받는 경우 각각의 가중치 정보도 추출하여 매끄러운 애니메이션이 추출된다. 각 부위별 애니메이션을 위해서 캐릭터의 애니메이션은 부위별로 각각 추출된다.In addition, when affected by multiple bones, each weight information is also extracted to extract a smooth animation. For the animation of each part, the animation of the character is extracted for each part.
따라서 애니메이션 데이터는 바이패드 본(biped bone)의 모든 본(bone)에 대해 지정된 샘플링 율(sampling rate)에 따라서 애니메이션 데이터가 추출되므로, 적은 용량으로도 최적의 애니메이션 데이터를 확보할 수 있으며, 같은 본(bone)을 사용하는 캐릭터일 경우 별도로 제작하지 않아도 애니메이션 데이터를 공유 할 수 있다.Therefore, the animation data is extracted according to the sampling rate specified for all the bones of the biped bone, so that the optimal animation data can be secured at a small capacity. In case of character using bone), animation data can be shared without special production.
기존 방식과의 본 발명에 따른 쓰리디(3D)엔진모듈(300)의 데이터 차이는 얼굴부위 정점(Vertex)의 개수가 500개이고, 입술부위의 정점(Vertex) 개수가 300개이며, 몸 부위의 정점(Vertex) 개수가 1200개이고, 쓰리디(3D) 아바타의 총 정점(Vertex)이 2000개라 1차 가정하였을 때, 각 정점(Vertex)의 데이터 크기를 32Kbyte이며, 동작수는 부위별로 50개이고, 키는 30프레임이라 2차 가정하면 아래의 표 1에 정리되어진 바와 같다.The data difference between the three-dimensional (3D)
상술한 바와 같은 구성을 갖는 본 발명에 따른 가상현실을 이용한 프리젠테이션 자료의 제작 및 편집 시스템의 작동에 따라 제작자의 화면에 디스플레이되는 제작편집화면(700A)의 예가 도 4에 도시되어져 있다.An example of the
첨부한 도 4에 도시되어 있는 바와 같이, 본 발명에 따른 가상현실을 이용한 프리젠테이션 자료의 제작 및 편집 시스템을 구동시키면 제작자의 컴퓨터 화면에는 제작편집화면(700A)이 도시되며, 상기 제작편집화면(700A)의 각 부분은 제어모듈(600)과 연관된 부분이 나타난다.As shown in FIG. 4, when the production and editing system of the presentation material using the virtual reality is driven, a
따라서 제작자는 제어모듈(600)과 연관된 부분(610A, 630A, 640A)을 제어하여 제작자의 제작의도에 따른 가상현실을 이용한 프리젠테이션 결과물을 생성할 수 있는데, 첨부한 도 4에서 참조번호 100A로 지칭된 영역은 제작자가 상기 제작편집제어모듈(610)의 제어에 따라 상기 발표자료 로딩 모듈(100)을 통해 억세스한 발표자료의 페이지별 목차 등이 표시되는 영역이다.Therefore, the producer may control the
또한, 첨부한 도 4에서 참조번호 640A로 지칭된 영역은 상기 쓰리디(3D)아바타 설정모듈(640)의 제어에 의해 작업자가 아바타의 성별을 선택하고, 해당 성별의 옷차림 및 해당 아바타가 동작하는 세부적인 몸동작, 입술동작 머리동작 등을 기 설정된 동작모드 중 필요한 동작을 선택하도록 하는 영역이다.In addition, in the accompanying FIG. 4, an area designated by
또한, 첨부한 도 4에서 참조번호 610A로 지칭된 영역은 작업자가 제작편집제어모듈(610)을 이용하기 위한 각종의 도구들을 표시하여 링크시키는 영역을 나타낸다.In addition, the area indicated by
또한, 첨부한 도 4에서 참조번호 620A로 지칭되는 영역은 작업자가 티티에스(TTS)모듈(400)을 통해 음성으로 표출되는 대본의 위치와 그에 따른 아바타의 움직인 설정 및 효과음(배경음악 포함)등의 동기를 사용자 편의로 조정하기 위한 동기시점 설정모듈(620)의 작업자 조작의 편의성을 제공하기 위해 각 정보의 표출위치를 시각적으로 인식시키기 위한 동기시점 설정을 선택하도록 하는 영역이다.In addition, in the accompanying FIG. 4, an area referred to by
상기와 같은 제작편집화면(700A)에서 제작자는 발표 자료를 티티에스(TTS) 모듈(400)을 이용하여 육성으로 설명하기 위해 우선적으로 발표 자료에 대하여 각 슬라이드 당 해당 슬라이드를 설명하는 문구(이하, 대본)를 작성 하게 되는데, 이를 대본편집이라 하며 첨부한 도 5에 도시되어 있는 바와 같이, 참조번호 630A의 영역에 대본을 작성하게 된다. In the
이때 상기 참조번호 630A의 영역은 티티에스(TTS)변환 대본 설정모듈(630)의 제어를 받는다.At this time, the area of the
또한, 첨부한 도 5에서는 첨부한 도 4와 동일한 기능을 수행하는 부분에 대해서는 동일한 참조번호를 부여하였다. 첨부한 도 5에서 참조번호 100B로 지칭되는 지역은 로딩되어진 발표 자료의 내용을 살펴보기 위한 뷰 바인더이며, 참조번호 100A에 도시되는 페이지를 클릭하면 해당 페이지의 기 작성된 발표 내용이 디스플레이되도록 하는 영역이다.In addition, in the accompanying FIG. 5, the same reference numerals are assigned to the parts performing the same functions as the attached FIG. In FIG. 5, a region referred to by
따라서 상기 티티에스(TTS)모듈(400)은 참조번호 630A의 영역에 작업자가 입력시킨 텍스트를 로딩하여 해당 텍스트에 대한 육성데이터를 표출하게 되며, 발표 자료의 특성상 슬라이딩 방식에 의한 페이지 전환이 이루어짐에 따라 해당 발표물의 각 페이지별로 해당 페이지를 설명하는 대본에 대해 불연속적으로 동작하게 된다.Therefore, the
즉, 페이지 전환이 이루어지지 않으면 해당 페이지의 티티에스(TTS) 변환만을 수행한다는 것이다.In other words, if the page is not converted, only the TTS conversion of the page is performed.
또한, 상기 티티에스(TTS)모듈(400)은 성별 연령대별로 육성데이터를 구분하고 있으므로 작업자의 설정 혹은 쓰리디(3D) 아바타 설정모듈(640)의 제어에 의해 설정되는 아바타의 성별 및 연령에 연동하여 설정되어 진다.In addition, since the
상술한 바와 같이 대본이 편집되어진 후 첨부한 도 4에 도시되어 있는 제작편집화면(700A)으로 복귀하면, 첨부한 도 6에 도시되어 있는 바와 같이 화면에 디스플레이되어 진다.After the script has been edited as described above, returning to the
첨부한 도 6에는 첨부한 도 4와 동일한 화면이므로 참조번호를 생략하였으나, 이하의 설명에서는 첨부한 도 4의 참조번호를 인용하여 동기화제어모듈의 동작을 설명한다.In FIG. 6, reference numerals are omitted since the same screen as in FIG. 4 is described. In the following description, the operation of the synchronization control module will be described by referring to the reference numerals of FIG. 4.
사용자는 참조번호 620A로 지칭되는 동기시점 설정모듈(630)에 관련된 영역에 영역별로 위치하는 동기화 소스(발표 자료의 효과를 높이기 위한 음향(배경 음악 포함)을 포함하여 3차원 아바타의 동작 및 대본 등)의 위치를 조정하게 된다.The user may operate the 3D avatar by including the synchronization source (the sound (including background music) for enhancing the effect of the presentation material) located in the area related to the synchronization
이때, 동기 시점을 조절하는 방식은 참조번호 620A로 지칭되는 영역에 표시되며 각 모듈과 링크되어 있는 자료를 드로잉 방식으로 컴퓨터의 마우스 등을 이용하여 위치를 이동시킴으로써 가능하도록 하였다.At this time, the method of adjusting the synchronization time point is displayed in an area referred to by
따라서 작업자가 동기시점을 첨부한 도 6에 도시되어진 바와 같이, "대본", "동작", "표정", "효과" 및 "효과음"에 따른 표출 내용과 시점을 설정하였다면 전체적인 동기화에 따른 진행은 동영상 타임라인과 같이 진행하게 되며, 참조번호 TA로 지칭되는 시점에서는 티티에스(TTS)모듈(400)과 쓰리디(3D)엔진모듈(300)은 동작하지 않는 상태에서 효과음으로 지정된 MP3(예로서는 어머나.MP3) 파일이 배경음으로 제공 된다.Therefore, as shown in FIG. 6 to which the operator attaches the synchronization point, if the operator has set the presentation contents and the time point according to the "script", "action", "expression", "effect", and "effect sound", the progress according to the overall synchronization is It proceeds with the video timeline, and at the time point referred to as TA, the
이후 시간이 흘러 참조번호 TB로 지칭되는 시점에서는 효과음으로 지정된 MP3(예로서는 어머나.MP3) 파일이 배경음으로 제공되는 가운데 티티에스(TTS)모듈(400)이 연동하여 대본으로 지정된 "이제부터 (주) Brain city를 소개합니다."를 육성으로 표출하는 가운데 특정 음절에 대한 육성 표출이 동시에 이루어진다.Afterwards, when the time is referred to as the reference TB, the MP3 (e.g., MP3) file designated as the sound effect is provided as the background sound, and the
이후 시간이 흘러 참조번호 TC로 지칭되는 시점에서는 쓰리디(3D)엔진모듈(300)만이 동작하는 데 사용자가 요청한 "인사하고 박수치기"의 동작의 수행과정 중 어느 한 시점이 된다.Thereafter, when time passes and is referred to as a reference number TC, only one of the
작업자는 이러한 과정을 반복적으로 수행하여 전체 발표 자료에 대해 발표자로써의 아바타동작과 발표내용 및 발표효과를 높이기 위한 각종의 음향을 설정완료한 후 최종적인 결과물을 생성하도록 제작편집 제어모듈(610)을 통해 요청하게 된다.The operator repeatedly performs such a process to complete the production of the avatar motion as a presenter, the presentation contents, and the various sounds for enhancing the presentation effect, and then to produce the final result. Will be requested.
이에 상기 제작편집 제어모듈(610)은 참조번호 700으로 지칭되는 제작편집모듈을 제어하여 현재까지 작업자가 설정한 내용을 하나의 통합 발표 자료로 생성하도록 요청한다.Accordingly, the production
이후 상기 제작편집모듈(700)에서 편집되어진 자료들은 그 링크정보와 함께 참조번호 800으로 지칭되는 결과물생성과 로딩모듈을 통해 실제적인 통합 발표 자료를 생성하게 된다.Then, the materials edited in the
상기 결과물생성과 로딩모듈(800)은 상술한 과정을 통해 기 작성되어진 통합 발표 자료를 수정하기 위해 읽어 들이는 역할도 수행하게 된다.The result generation and
상술한 과정을 통해 통합 발표 자료를 실행시키면 첨부한 도 7에 도시되어 있는 바와 같이 메인화면과 서브화면으로 구분되는 영역에 아바타 애니메이션과 발표 자료가 동시에 표출되며 여백의 공간에 목차나 대본(주석)등이 디스플레이 된다.When the integrated presentation data is executed through the above-described process, the avatar animation and the presentation data are simultaneously displayed in the area divided into the main screen and the sub screen as shown in FIG. 7 and the table of contents or the script (comment) in the space of the margin. Etc. are displayed.
역시 이때 스피커 등을 통해서는 동기화되어진 육성안내와 음향이 표출되어진다.In this case, synchronized guidance and sound are expressed through speakers.
또한, 첨부한 도 7에서는 메인화면에 발표 자료가 서브화면에 아바타 애니메이션이 디스플레이 되는 예를 도시하였으며, 첨부한 도 8은 사용자의 요청에 의해 나레이션 모드로 표시되는 형태를 보인 것으로 전체화면에 아바타 애니메이션이 PIP 방식에 의한 서브화면에 발표 자료가 디스플레이 되도록 한 예이다.In addition, FIG. 7 illustrates an example in which an avatar animation is displayed on a sub screen of a presentation material on the main screen, and FIG. 8 is a view in which a narration mode is displayed at the request of a user. This is an example in which the presentation data is displayed on the sub screen by the PIP method.
상술한 바와 같이 동작하는 본 발명에 따른 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작편집 시스템을 응용하는 예로써 나레이션을 위한 아바타가 수화의 동작을 함으로써 청각장애인에게도 발표내용을 숙지시킬 수 있을 것이다.As an example of applying the editing and editing system of the narrator multimedia local material using the 3D module and the TTS module according to the present invention operating as described above, the avatar for narration has a sign language operation. You will also be familiar with the presentation.
그 예가 첨부한 도 9에 도시되어져 있다.An example is shown in FIG. 9 attached.
도 9는 본 발명에 따른 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작편집 시스템의 구성의 다른 실시예시도로서, 첨부한 도 1의 구성에 수화동작엔진모듈(310)을 부가하여 청각장애인용으로 개발된 것이다.9 is another exemplary embodiment of the configuration of a system for producing and editing a narrator multimedia local material using a 3D module and a TTS module according to the present invention. It was developed for the hearing impaired by adding (310).
첨부한 도 9에 도시되어 있는 구성 및 동작은 기본적으로 도 1의 구성 및 동작과 크게 다르지 않으므로 전체적인 동작의 설명은 생략하고, 첨부한 도 10을 참조하여 수화동작엔진모듈(310)의 동작 및 특징을 살펴보기로 하겠다.Since the configuration and operation illustrated in FIG. 9 are not substantially different from those of FIG. 1, the description of the overall operation is omitted, and the operation and features of the sign language
도 10은 도 9에서 청각장애인을 위한 수화동작엔진모듈(310)의 구성예시도로서, 티티에스(TTS) 변환 대본 설정모듈(630)을 통해 설정되어진 나레이션 대본이 티티에스(TTS)모듈(400)측으로 전달되어질 때 이를 입력받아 인식하는 대본인식모듈(311)과, 입력되는 요청신호에 따라 데이터베이스(500)에서 단어 및 조사를 기준으로 하는 손짓에 따른 수화동작에 대한 데이터를 억세스하는 수화데이터로딩모듈(314)과, 입력되는 요청신호에 따라 데이터베이스(500)에서 자음과 모음을 기준으로 하는 손짓에 따른 지화동작에 대한 데이터를 억세스하는 지화데이터로딩모듈(313)과, 제어신호에 따라 상기 수화데이터로딩모듈(314)과 지화데이터로딩모듈(313)에서 억세스되어진 손동작에 따른 데이터를 합성하여 쓰리디(3D)엔진모듈(300A)측으로 전달하는 데이터합성모듈(315), 및 상기 대본인식모듈(311)을 통해 인식되어진 대본을 기준으로 청각장애인에게 의사를 전달하는 손짓 중 수화를 하여야 하는지 혹은 지화를 하여야 하는가를 판단하여 그에 따른 데이터를 상기 수화데이터로딩모듈(314)과 지화데이터로딩모듈(313)에 요청하며 상기 데이터합성모듈(315)을 통해 상기 수화데이터로딩모듈(314)과 지화데이터로딩모듈(313)의 억세스 데이터를 조합하여 원 대본에 적합한 최종적 데이터를 생성할 수 있도록 제어하는 수화가능여부 판단제어모듈(312)로 구성된다.FIG. 10 is an exemplary configuration diagram of a sign language
이때, 상기 쓰리디(3D)엔진모듈의 참조번호가 첨부한 도 9에서 300A로 지칭되는 이유는 사용자에 의해 수화동작엔진모듈(310)이 구동되는 경우 상기 쓰리디(3D)엔진모듈(300A)은 사용자가 상기 쓰리디(3D)아바타 설정모듈(640)을 통해 기 설정되었던 동작을 수행하는 것이 아니라 상기 수화동작엔진모듈(310)의 데이터합성모듈(315)에서 제공되는 손동작의 요청에 의해 동작하기 때문이다.In this case, the reason why the reference number of the 3D engine module is referred to as 300A in FIG. 9 is that the
또한, 첨부한 도 10에서 미 설명되어진 참조번호 316으로 지칭되는 나레이션 동기화모듈은 동기시점 설정모듈(620)을 통해 설정되어진 각종 데이터의 동기 중 티티에스(TTS) 모듈의 구동 동기에 맞추어 수화의 동작이 이루어지도록 상기 수화가능여부 판단제어모듈(312)에 동기신호를 제공하기 위한 구성으로, 필수적인 구성은 아니다.In addition, the narration synchronization module referred to by
따라서 상술한 구성을 중심으로 그 동작을 간략히 살펴보면, 상기 수화동작엔진모듈(310)은 평상시는 동작하지 않고 있으므로, 사용자는 상기 도 1 내지 도 8의 설명에 따라 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작 및 편집과정을 수행하게 되며, 이를 이용하여 청중에게 프리젠테이션을 수행하게 된다.Accordingly, the operation of the sign language
이때 청중 중에 청각장애자가 존재하는 경우, 사용자는 제작편집제어모듈(610)을 조작하여 상기 수화동작엔진모듈(310)을 구동시키게 된다.In this case, when the hearing impaired person is present in the audience, the user operates the production
따라서 쓰리디(3D)엔진모듈(300A)은 상기 쓰리디(3D)아바타 설정모듈(640)을 통해 기 설정되었던 동작수행을 중지하고, 수화를 표현하기 가장 자연스런 기 설정자세를 유지하게 된다.Therefore, the
이후 프리젠테이션 자료의 제작과정에서 티티에스(TTS) 변환 대본 설정모듈(630)을 통해 설정되어진 나레이션 대본이 티티에스(TTS)모듈(400)측으로 전달되어질 때 이를 입력받은 대본인식모듈(311)은 대본을 인식한 후 이를 수화가능여부 판단제어모듈(312)에 전달하게 된다.Subsequently, when the narration script set through the TTS conversion
상기 수화가능여부 판단제어모듈(312)은 청각장애인에게 의사를 전달하는 손짓 중 수화를 하여야 하는지 혹은 지화를 하여야 하는가를 판단하여 그에 따른 데이터를 수화데이터로딩모듈(314)과 지화데이터로딩모듈(313)에 우선적으로 요청하며, 데이터합성모듈(315)을 통해 상기 수화데이터로딩모듈(314)과 지화데이터로딩모듈(313)의 억세스 데이터를 조합하여 원 대본에 적합한 최종적 데이터를 생성할 수 있도록 제어하게 된다.The sign language
이때 수화와 지화의 선별기준은 상기 수화가능여부 판단제어모듈(312)이 데이터베이스에 저장되어 있는 수화동작에 대한 데이터목록을 구비하고 있으므로, 이를 기준으로 상기 대본인식모듈(311)에서 인식되어진 대본과 데이터목록을 비교하여 데이터목록에 있는 경우는 수화정보를 요청하고, 데이터목록에 없는 경우는 지화정보를 요청하는 것이다.At this time, the screening criteria for sign language and paper currency includes a list of data for sign language operation stored in the database by the sign language
이에 따라 상기 수화데이터로딩모듈(314)은 상기 수화가능여부 판단제어모듈(312)에서 요청하는 수화에 대응하는 손동작을 상기 데이터베이스(500)에서 억세스하여 순차적으로 출력하며, 상기 지화데이터로딩모듈(313) 역시 상기 수화가능여부 판단제어모듈(312)에서 요청하는 지화에 대응하는 손동작을 상기 데이터베이스(500)에서 억세스하여 순차적으로 출력하게 된다.Accordingly, the sign language
지화의 경우 자음과 모음을 기준으로 하는 손짓에 따른 데이터(숫자 포함)를 구비하기 때문에 그 데이터의 량이 작다는 장점을 갖는 반면에 수화에 비해 동일 의미를 전달하는데 많은 시간을 소요하는 단점을 가지며, 수화의 경우 단어 및 조사를 기준으로 하는 손짓에 따른 데이터를 구비하기 때문에 그 데이터의 량이 방대해 진다는 단점을 갖는 반면에 지화에 비해 동일 의미를 전달하는데 적은 시간을 소요하는 장점을 갖는다.In the case of localization, because it has data (including numbers) according to hand gestures based on consonants and vowels, the amount of data is small, while it takes a lot of time to convey the same meaning as compared to sign language. Sign language has the disadvantage of having a large amount of data because it has data according to hand gestures based on words and surveys, but it takes less time to convey the same meaning compared to paper.
따라서 본 발명에서는 바람직하게 수화와 지화를 혼용하는 예를 들어 설명하였으나, 이중 어느 하나를 선택하여도 무방하다.Therefore, the present invention has been described with reference to preferably mixing hydration and localization, but any one of them may be selected.
이후 상기 수화데이터로딩모듈(314)과 지화데이터로딩모듈(313)에서 억세스되는 손동작에 따른 데이터는 데이터합성모듈(315)측으로 전달되는데, 상기 데이터합성모듈(315)은 상기 수화가능여부 판단제어모듈(312)에서 제공하는 제어신호에 따라 임의의 시점에서 상기 수화데이터로딩모듈(314)과 지화데이터로딩모듈(313)에서 전달되는 데이터 중 어느 하나만을 받아들여 원 대본에 적합한 최종적인 손동작에 대한 데이터를 생성한 후 이를 상기 쓰리디(3D)엔진모듈(300A)측으로 전달하게 된다.Thereafter, the data according to the hand gesture accessed by the sign language
상기 쓰리디(3D)엔진모듈(300A)은 손동작의 데이터와 아바타의 모습을 합성하여 아바타가 수화를 하는 것처럼 쓰리디(3D) 에니메이션을 생성하고 이를 제작편집모듈(700)측으로 전달하게 된다.The
따라서 아바타의 수화동작에 의해 청각장애인들에게도 발표의 내용을 충분히 숙지시킬 수 있다는 효과는 얻는다.Therefore, the sign language action of the avatar is effective to fully understand the contents of the presentation even for the hearing impaired.
상술한 도 1 또는 도 2에 도시되어 있는 각 모듈 혹은 도 9 또는 도 10에 도시되어 있는 각 모듈과 도 4 내지 도 8에 도시되는 작업환경을 제공하는 모듈 즉, 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작편집 방법과 이에 따른 시스템은 임의의 불휘발성 기록매체에 저장되어 유통될 수 있다.Each module shown in FIG. 1 or FIG. 2 described above or each module shown in FIG. 9 or FIG. 10 and a module providing a working environment shown in FIGS. The method of producing and editing a narrator multimedia local data using the TTS module and a system thereof may be stored and distributed on an arbitrary nonvolatile recording medium.
이상의 설명에서 본 발명은 특정의 실시 예와 관련하여 도시 및 설명하였지만, 특허청구범위에 의해 나타난 발명의 사상 및 영역으로부터 벗어나지 않는 한도 내에서 다양한 개조 및 변화가 가능하다는 것을 당 업계에서 통상의 지식을 가진 자라면 누구나 쉽게 알 수 있을 것이다.While the invention has been shown and described in connection with specific embodiments thereof, it is well known in the art that various modifications and changes can be made without departing from the spirit and scope of the invention as indicated by the claims. Anyone who owns it can easily find out.
이상에서 설명한 바와 같은 본 발명에 따른 쓰리디(3D)모듈과 티티에스(TTS)모듈을 이용한 나레이터 멀티미디어 로컬 자료의 제작편집 방법과 이에 따른 시스템을 제공하면, 발표 자료의 슬라이드 방식에 따른 디스플레이와 함께 3차원 아바타를 임의의 가상공간에 배치하여 발표자 역할을 수행하도록 할 수 있으며, 동시에 음성 및 음향(배경음악 포함)을 제작자 임의로 동기화 시키며 발표 자료와 각종 주변 환경을 필요에 따라 편집할 수 있게 된다.As described above, if a method for producing and editing a narrator multimedia local material using a 3D module and a TTS module according to the present invention and a system according to the present invention are provided, together with a display according to a slide method of a presentation material The 3D avatar can be placed in a virtual space to play the role of a presenter. At the same time, the voice and sound (including background music) can be synchronized with the producer, and the presentation materials and various surrounding environments can be edited as needed.
따라서 발표자가 숙달되지 않았다 하더라도 발표 내용을 임의의 대상에게 정확하게 전달할 수 있으며, 단조로운 발표가 아니기 때문에 해당 대상의 호기심등을 자극하여 발표내용의 전달에 효과를 얻는다. Therefore, even if the presenter is not mastered, the contents of the presentation can be delivered accurately to any subject, and because it is not a monotonous presentation, the curiosity of the subject is stimulated, and thus the presentation contents are delivered.
또한, 쓰리디(3D) 아바타의 수화동작을 구현하기 위한 구성을 추가하면 청각장애인들에게도 발표의 내용을 충분히 숙지시킬 수 있다는 효과는 얻는다.In addition, adding a configuration for implementing a sign language operation of a 3D avatar enables the hearing impaired to fully understand the contents of the presentation.
Claims (30)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020050037522A KR100773832B1 (en) | 2005-05-04 | 2005-05-04 | Production and Editing Method of Narrator Multimedia Local Data Using 3D Module and TTS Module and Its System |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020050037522A KR100773832B1 (en) | 2005-05-04 | 2005-05-04 | Production and Editing Method of Narrator Multimedia Local Data Using 3D Module and TTS Module and Its System |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20060115163A KR20060115163A (en) | 2006-11-08 |
| KR100773832B1 true KR100773832B1 (en) | 2007-11-06 |
Family
ID=37652681
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020050037522A Expired - Fee Related KR100773832B1 (en) | 2005-05-04 | 2005-05-04 | Production and Editing Method of Narrator Multimedia Local Data Using 3D Module and TTS Module and Its System |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR100773832B1 (en) |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR100856786B1 (en) * | 2006-07-27 | 2008-09-05 | 주식회사 와이즌와이드 | Multimedia Narration Authoring System Using 3D Virtual Agent and Its Provision Method |
| KR102636708B1 (en) * | 2022-09-16 | 2024-02-14 | 주식회사 한글과컴퓨터 | Electronic terminal apparatus which is able to produce a sign language presentation video for a presentation document, and the operating method thereof |
| KR102753728B1 (en) * | 2024-01-23 | 2025-01-14 | (주)이스트소프트 | Method for provide an AI Human Image Generation Interface |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5640590A (en) | 1992-11-18 | 1997-06-17 | Canon Information Systems, Inc. | Method and apparatus for scripting a text-to-speech-based multimedia presentation |
| KR20010067612A (en) * | 2001-02-21 | 2001-07-13 | 변진우 | Method and system for virtual reality based on internet tele-lecturing |
| KR100454599B1 (en) | 2000-06-29 | 2004-11-03 | 신종식 | Method for distance lecturing using cyber-character |
| JP2005018635A (en) | 2003-06-27 | 2005-01-20 | Akira Kasai | Virtual guide display program, and web page display system using the same |
-
2005
- 2005-05-04 KR KR1020050037522A patent/KR100773832B1/en not_active Expired - Fee Related
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5640590A (en) | 1992-11-18 | 1997-06-17 | Canon Information Systems, Inc. | Method and apparatus for scripting a text-to-speech-based multimedia presentation |
| KR100454599B1 (en) | 2000-06-29 | 2004-11-03 | 신종식 | Method for distance lecturing using cyber-character |
| KR20010067612A (en) * | 2001-02-21 | 2001-07-13 | 변진우 | Method and system for virtual reality based on internet tele-lecturing |
| JP2005018635A (en) | 2003-06-27 | 2005-01-20 | Akira Kasai | Virtual guide display program, and web page display system using the same |
Also Published As
| Publication number | Publication date |
|---|---|
| KR20060115163A (en) | 2006-11-08 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR102503413B1 (en) | Animation interaction method, device, equipment and storage medium | |
| JP6783479B1 (en) | Video generation program, video generation device and video generation method | |
| Gibet et al. | Interactive editing in french sign language dedicated to virtual signers: Requirements and challenges | |
| US20120130717A1 (en) | Real-time Animation for an Expressive Avatar | |
| US20020007276A1 (en) | Virtual representatives for use as communications tools | |
| CN108492817A (en) | A kind of song data processing method and performance interactive system based on virtual idol | |
| US9898850B2 (en) | Support and complement device, support and complement method, and recording medium for specifying character motion or animation | |
| KR100856786B1 (en) | Multimedia Narration Authoring System Using 3D Virtual Agent and Its Provision Method | |
| He et al. | Llms meet multimodal generation and editing: A survey | |
| CN118379403A (en) | Emotion symbiotic communication system | |
| KR101089184B1 (en) | Character utterance and emotion expression system and method | |
| DeCarlo et al. | Making discourse visible: Coding and animating conversational facial displays | |
| DeCarlo et al. | Specifying and animating facial signals for discourse in embodied conversational agents | |
| CN115550744B (en) | Method and device for generating video by voice | |
| JP6222465B2 (en) | Animation generating apparatus, animation generating method and program | |
| Martin et al. | Levels of Representation in the Annotation of Emotion for the Specification of Expressivity in ECAs | |
| KR100773832B1 (en) | Production and Editing Method of Narrator Multimedia Local Data Using 3D Module and TTS Module and Its System | |
| Čereković et al. | Multimodal behavior realization for embodied conversational agents | |
| US20240303892A1 (en) | Content generation device, content generation method, and program | |
| Kolivand et al. | Realistic lip syncing for virtual character using common viseme set | |
| KR20060115162A (en) | Method and system for providing web solution using virtual reality on multimedia data of member company web page upon request of member company | |
| KR100628939B1 (en) | Web service provision system through production and editing of Narrator multimedia data using 3D module and TTS module | |
| Martin et al. | 3D audiovisual rendering and real-time interactive control of expressivity in a talking head | |
| Li et al. | A Survey of Talking-Head Generation Technology and Its Applications | |
| Basori et al. | Emotion expression of avatar through eye behaviors, lip synchronization and MPEG4 in virtual reality based on Xface toolkit: Present and future |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A201 | Request for examination | ||
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| D13-X000 | Search requested |
St.27 status event code: A-1-2-D10-D13-srh-X000 |
|
| D14-X000 | Search report completed |
St.27 status event code: A-1-2-D10-D14-srh-X000 |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| E13-X000 | Pre-grant limitation requested |
St.27 status event code: A-2-3-E10-E13-lim-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| E13-X000 | Pre-grant limitation requested |
St.27 status event code: A-2-3-E10-E13-lim-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-3-3-R10-R18-oth-X000 |
|
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R11-asn-PN2301 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| LAPS | Lapse due to unpaid annual fee | ||
| PC1903 | Unpaid annual fee |
St.27 status event code: A-4-4-U10-U13-oth-PC1903 Not in force date: 20101101 Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE |
|
| PC1903 | Unpaid annual fee |
St.27 status event code: N-4-6-H10-H13-oth-PC1903 Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE Not in force date: 20101101 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |