[go: up one dir, main page]

KR20240152204A - Xr content authoring method and system - Google Patents

Xr content authoring method and system Download PDF

Info

Publication number
KR20240152204A
KR20240152204A KR1020230161482A KR20230161482A KR20240152204A KR 20240152204 A KR20240152204 A KR 20240152204A KR 1020230161482 A KR1020230161482 A KR 1020230161482A KR 20230161482 A KR20230161482 A KR 20230161482A KR 20240152204 A KR20240152204 A KR 20240152204A
Authority
KR
South Korea
Prior art keywords
extended reality
content
authoring
reality content
common framework
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
KR1020230161482A
Other languages
Korean (ko)
Inventor
이정훈
이성희
신정훈
이호철
조금원
Original Assignee
한국과학기술정보연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술정보연구원 filed Critical 한국과학기술정보연구원
Priority to PCT/KR2024/005470 priority Critical patent/WO2025110372A1/en
Publication of KR20240152204A publication Critical patent/KR20240152204A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/103Workflow collaboration or project management
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Architecture (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은, 스튜디오 저작도구를 이용하여, 확장 현실(XR, eXtended Reality) 콘텐트에서 오브젝트와 장면(Scene)으로 구성된 유닛 콘텐트를 저작하고, 빌더를 이용하여, 기 설정된 디바이스에서 실행 가능한 프로그램으로 사전 컴파일되는 공통 프레임워크를 구축하며, 사전 컴파일된 공통 프레임워크의 실행에 기반하여, 유닛 콘텐트를 공통 프레임워크에 연결하는, 확장 현실 콘텐트 저작 방법을 제공한다.The present invention provides a method for authoring extended reality (XR) content, which comprises authoring unit content composed of objects and scenes in extended reality (XR) content using a studio authoring tool, constructing a common framework that is precompiled into a program executable on a preset device using a builder, and connecting the unit content to the common framework based on execution of the precompiled common framework.

Description

확장 현실 콘텐트 저작 방법 및 시스템{XR CONTENT AUTHORING METHOD AND SYSTEM}{XR CONTENT AUTHORING METHOD AND SYSTEM}

본 발명은 확장 현실 콘텐트 저작 방법 및 시스템에 관한 것이다.The present invention relates to an extended reality content authoring method and system.

최근, 가상 현실(VR, Virtual Reality), 증강 현실(AR, Augmented Reality) 및 혼합 현실(MR, Mixed Reality)을 포괄하는 확장 현실에 대한 관심이 증대되고 있으며, 이에 따라, 다양한 목적을 갖는 확장 현실 공간을 제공하는 콘텐트들이 개발되고 있다.Recently, interest in extended reality, which includes virtual reality (VR), augmented reality (AR), and mixed reality (MR), has been increasing, and accordingly, contents that provide extended reality spaces with various purposes are being developed.

이러한 확장 현실 콘텐트를 제공하기 위해서, 각종 확장 현실 구현 장치에 대한 렌더링 기법, 네트워크 및 서버 운영 기법, 사용자 간 혹은, 사용자와 객체 간의 상호작용 기법 등 확장 현실 콘텐트를 구현하기 위한 여러가지 사항들에 대한 솔루션이 요구된다.In order to provide such extended reality content, solutions are required for various matters related to implementing extended reality content, such as rendering techniques for various extended reality implementation devices, network and server operation techniques, and interaction techniques between users or between users and objects.

예를 들어, 특정한 확장 현실 구현 장치를 고려하여 개발된 확장 현실 콘텐트의 경우, 다른 확장 현실 구현 장치에서 실행이 불가능하기도 하며, 이러한 문제를 해결하기 위하여, 확장 현실 콘텐트의 개발 과정에서 다양한 확장 현실 구현 장치 각각에 대한 호환성을 고려해야 하는 실정이다.For example, in the case of extended reality content developed with a specific extended reality implementation device in mind, it may not be possible to run it on another extended reality implementation device, and to solve this problem, compatibility with each of the various extended reality implementation devices must be considered during the development process of the extended reality content.

본 발명은 사용자가 손쉽게 콘텐트의 생산자가 될 수 있는 효율적인 확장 현실 콘텐트 저작 방법 및 시스템에 관한 것이다. The present invention relates to an efficient extended reality content authoring method and system that allows users to easily become content producers.

또한, 본 발명은 공통 프레임워크와 유닛 콘텐트를 연결하여 확장 현실 콘텐트를 저작하는 확장 현실 콘텐트 저작 방법 및 시스템에 관한 것이다.In addition, the present invention relates to an extended reality content authoring method and system that author extended reality content by connecting a common framework and unit content.

위에서 살펴본 과제를 해결하기 위하여, 서로 다른 서비스에서 각각 사용될 수 있는 공통적인 기능 요소를 공통 프레임워크로 구축하고, 개별 서비스에 해당하는 유닛 콘텐트를 저작하는 확장 현실 콘텐트의 파이프라인을 구축한다.To solve the tasks discussed above, we build a common framework of common functional elements that can be used in each different service, and build an extended reality content pipeline that creates unit content corresponding to each service.

보다 구체적으로, 본 발명에 따른 확장 현실 콘텐트 저작 방법은, 스튜디오 저작도구를 이용하여, 확장 현실(XR, eXtended Reality) 콘텐트에서 오브젝트와 장면(Scene)으로 구성된 유닛 콘텐트를 저작하는 단계; 빌더를 이용하여, 기 설정된 디바이스에서 실행 가능한 프로그램으로 사전 컴파일되는 공통 프레임워크를 구축하는 단계; 및 상기 확장 현실 콘텐트를 저작하도록 상기 사전 컴파일된 공통 프레임워크의 실행에 기반하여, 상기 유닛 콘텐트를 상기 공통 프레임워크에 연결하는 단계를 포함할 수 있다.More specifically, the method for authoring extended reality content according to the present invention may include a step of authoring unit content composed of objects and scenes in extended reality (XR) content using a studio authoring tool; a step of constructing a common framework precompiled as a program executable on a preset device using a builder; and a step of connecting the unit content to the common framework based on execution of the precompiled common framework to author the extended reality content.

또한, 본 발명에 따른 컴퓨터로 판독될 수 있는 기록매체에 저장된 프로그램은, 전자기기에서 하나 이상의 프로세스에 의하여 실행되며, 컴퓨터로 판독될 수 있는 기록매체에 저장된 프로그램으로서, 상기 프로그램은, 스튜디오 저작도구를 이용하여, 확장 현실 콘텐트에서 오브젝트와 장면으로 구성된 유닛 콘텐트를 저작하는 단계; 빌더를 이용하여, 기 설정된 디바이스에서 실행 가능한 프로그램으로 사전 컴파일되는 공통 프레임워크를 구축하는 단계; 및 상기 확장 현실 콘텐트를 저작하도록 상기 사전 컴파일된 공통 프레임워크의 실행에 기반하여, 상기 유닛 콘텐트를 상기 공통 프레임워크에 연결하는 단계를 수행하도록 하는 명령어들을 포함할 수 있다.In addition, a program stored in a computer-readable recording medium according to the present invention is a program stored in a computer-readable recording medium, which is executed by one or more processes in an electronic device, and which may include instructions for performing the steps of: using a studio authoring tool to author unit content composed of objects and scenes in extended reality content; using a builder to construct a common framework that is precompiled into a program executable in a preset device; and connecting the unit content to the common framework based on the execution of the precompiled common framework to author the extended reality content.

본 발명의 다양한 실시예에 따르면, 확장 현실 콘텐트 저작 방법 및 시스템은 서로 다른 서비스에서 각각 사용될 수 있는 공통적인 기능 요소를 공통 프레임워크로 구축하고, 공통 프레임워크에 기반하여 개별 서비스에 해당하는 유닛 콘텐트를 저작함으로써, 사용자 단말을 통해 확장 현실 콘텐트를 구현하기 위한 개발 과정을 효과적으로 단축시킬 수 있고, 보다 다양한 개별 서비스를 용이하게 개발할 수 있다.According to various embodiments of the present invention, the method and system for authoring extended reality content can effectively shorten the development process for implementing extended reality content through a user terminal by constructing common functional elements that can be used in different services as a common framework, and authoring unit content corresponding to individual services based on the common framework, and can easily develop more diverse individual services.

또한, 본 발명의 다양한 실시예에 따르면, 확장 현실 콘텐트 저작 방법 및 시스템은 확장 현실 콘텐트가 구현되는 다양한 환경과 관련된 기능 요소를 공통 프레임워크로 저작함으로써, 다양한 실행 환경에서 실행 가능한 확장 현실 콘텐트를 저작할 수 있으며, 이를 통해, 확장 현실 콘텐트의 개발 난이도를 획기적으로 낮출 수 있다.In addition, according to various embodiments of the present invention, the extended reality content authoring method and system can author extended reality content that can be executed in various execution environments by authoring functional elements related to various environments in which extended reality content is implemented as a common framework, thereby drastically reducing the difficulty of developing extended reality content.

또한, 본 발명의 다양한 실시예에 따르면, 확장 현실 콘텐트 저작 방법 및 시스템은 공통 프레임워크와 유닛 콘텐트를 연결하여 확장 현실 콘텐트를 저작함으로써, 서로 다른 방식으로 저작된 유닛 콘텐트를 동일한 공통 프레임워크에 연결하기가 용이하며, 이를 통해, 다양한 스타일을 갖는 확장 현실 콘텐트를 쉽게 저작할 수 있다.In addition, according to various embodiments of the present invention, the extended reality content authoring method and system author the extended reality content by connecting a common framework and unit content, thereby making it easy to connect unit contents authored in different ways to the same common framework, and thereby making it easy to author extended reality contents having various styles.

도 1 내지 도 2는 본 발명에 따른 확장 현실 콘텐트의 일 실시예를 도시한다.
도 3은 본 발명에 따른 확장 현실 콘텐트 저작 시스템을 도시한다.
도 4는 본 발명에 따른 확장 현실 콘텐트 저작 방법의 순서도이다.
도 5 내지 도 8은 유닛 콘텐트의 일 실시예를 도시한다.
도 9는 공통 프레임워크에 포함되는 기능 요소의 일 실시예를 도시한다.
도 10 및 도 11은 공통 프레임워크와 유닛 콘텐트가 연결되는 일 실시예를 도시한다.
도 12는 확장 현실 콘텐트가 실행되는 프로세스의 일 실시예를 도시한다.
Figures 1 and 2 illustrate one embodiment of extended reality content according to the present invention.
Figure 3 illustrates an extended reality content authoring system according to the present invention.
Figure 4 is a flowchart of an extended reality content authoring method according to the present invention.
Figures 5 to 8 illustrate one embodiment of unit content.
Figure 9 illustrates one embodiment of functional elements included in the common framework.
Figures 10 and 11 illustrate one embodiment of linking a common framework and unit content.
Figure 12 illustrates one embodiment of a process in which extended reality content is executed.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소에는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, embodiments disclosed in this specification will be described in detail with reference to the attached drawings. Regardless of the drawing symbols, identical or similar components will be given the same reference numerals and redundant descriptions thereof will be omitted. The suffixes "module" and "part" used for components in the following description are assigned or used interchangeably only for the convenience of writing the specification, and do not have distinct meanings or roles in themselves. In addition, when describing embodiments disclosed in this specification, if it is determined that a specific description of a related known technology may obscure the gist of the embodiments disclosed in this specification, the detailed description thereof will be omitted. In addition, the attached drawings are only intended to facilitate easy understanding of the embodiments disclosed in this specification, and the technical ideas disclosed in this specification are not limited by the attached drawings, and should be understood to include all modifications, equivalents, and substitutes included in the spirit and technical scope of the present invention.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinal numbers, such as first, second, etc., may be used to describe various components, but the components are not limited by the terms. The terms are used only to distinguish one component from another.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When it is said that a component is "connected" or "connected" to another component, it should be understood that it may be directly connected or connected to that other component, but that there may be other components in between. On the other hand, when it is said that a component is "directly connected" or "directly connected" to another component, it should be understood that there are no other components in between.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.Singular expressions include plural expressions unless the context clearly indicates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, it should be understood that terms such as “comprises” or “have” are intended to specify the presence of a feature, number, step, operation, component, part or combination thereof described in the specification, but do not exclude in advance the possibility of the presence or addition of one or more other features, numbers, steps, operations, components, parts or combinations thereof.

도 1 내지 도 2는 본 발명에 따른 확장 현실 콘텐트의 일 실시예를 도시한다. 도 3은 본 발명에 따른 확장 현실 콘텐트 저작 시스템을 도시한다.Figures 1 and 2 illustrate an embodiment of extended reality content according to the present invention. Figure 3 illustrates an extended reality content authoring system according to the present invention.

도 1을 참조하면, 본 발명에 따른 확장 현실 콘텐트 저작 시스템은 빌더를 이용하여 기 설정된 디바이스에서 실행 가능한 프로그램으로 사전 컴파일되는 공통 프레임워크(Framework)(1)를 구축하고, 스튜디오 저작도구를 이용하여, 확장 현실(XR, eXtended Reality) 콘텐트에서 오브젝트(Object)와 장면(Scene)으로 구성된 유닛 콘텐트(Unit Content)를 저작할 수 있다.Referring to FIG. 1, the extended reality content authoring system according to the present invention constructs a common framework (Framework) (1) that is precompiled into an executable program on a preset device using a builder, and can author unit content consisting of objects and scenes in extended reality (XR) content using a studio authoring tool.

여기에서, 확장 현실 콘텐트는 확장 현실을 비롯한, 가상 현실(VR, Virtual Reality), 증강 현실(AR, Augmented Reality) 및 혼합 현실(MR, Mixed Reality)에 기반한 장면(예를 들면, 가상 공간) 및, 장면에 배치되는 하나 이상의 오브젝트들을 포함할 수 있다.Here, the extended reality content may include a scene (e.g., a virtual space) based on extended reality, virtual reality (VR), augmented reality (AR), and mixed reality (MR), and one or more objects placed in the scene.

따라서, 확장 현실 콘텐트는 사용자 단말을 통해 실행되어 장면 및 하나 이상의 오브젝트들을 렌더링하고, 오브젝트에 대한 사용자 입력에 근거하여 미리 정해진 상호작용이 수행되도록 구현될 수 있다.Accordingly, the extended reality content can be implemented to run through a user terminal to render a scene and one or more objects, and perform predetermined interactions based on user input for the objects.

예를 들어, 확장 현실 콘텐트는 복수의 사용자들 간의 커뮤니케이션을 수행하도록 구현되는 경우, 오브젝트로서, 장면 상에 사용자 단말을 통해 확장 현실 콘텐트에 접속한 사용자에 대한 아바타를 구현하고, 상호작용의 일 예로서, 다른 사용자의 아바타에 대한 사용자 입력에 근거하여, 상기 다른 사용자의 사용자 단말에 메시지를 전송하거나, 또는, 음성 통화 및 화상 통화를 수행하도록 구현될 수 있다.For example, if the extended reality content is implemented to perform communication between multiple users, it may be implemented as an object to implement an avatar for a user who has accessed the extended reality content through a user terminal in the scene, and as an example of interaction, it may be implemented to transmit a message to a user terminal of another user based on a user input for the avatar of the other user, or to perform a voice call or video call.

다른 예를 들어, 확장 현실 콘텐트는 사용자의 건강 상태를 보조하도록 구현되는 경우, 오브젝트로서, 장면 상에서 서로 다른 형상을 갖는 복수의 오브젝트들을 구현하고, 상호작용의 일 예로서, 복수의 오브젝트들 중 어느 하나에 대한 사용자 입력에 근거하여, 사용자의 건강 상태에 대한 점수를 산출하도록 구현될 수 있다.As another example, if the extended reality content is implemented to assist the user's health condition, as an object, it may be implemented to implement a plurality of objects having different shapes in the scene, and as an example of interaction, it may be implemented to calculate a score for the user's health condition based on a user input for any one of the plurality of objects.

또 다른 예를 들어, 확장 현실 콘텐트는 특정 사용자를 대상으로 교육을 수행하도록 구현되는 경우, 오브젝트로서, 장면 상에서 교육에 필요한 하나 이상의 오브젝트를 구현하고, 상호작용의 일 예로서, 하나 이상의 오브젝트에 대한 사용자 입력에 근거하여 미리 정해진 알고리즘에 따른 오브젝트의 형상 변환, 위치 이동 및 회전 등이 실행되도록 구현될 수 있다.As another example, if the extended reality content is implemented to perform education targeting a specific user, as an object, one or more objects necessary for education may be implemented in the scene, and as an example of interaction, shape transformation, position movement, and rotation of the object may be implemented according to a predetermined algorithm based on user input for one or more objects.

다른 예를 들어, 확장 현실 콘텐트는 미리 정해진 영역에 가구를 배치하도록 구현되는 경우, 오브젝트로서, 미리 정해진 영역에 배치할 하나 이상의 가구를 구현하고, 상호작용의 일 예로서, 가상 공간에서 미리 정해진 영역에 대한 사용자 입력에 근거하여 해당 영역에 대한 치수 등의 정보를 제공하고, 가구에 대한 사용자 입력에 근거하여 미리 정해진 영역에 해당 가구를 배치하도록 구현될 수 있다.As another example, if the extended reality content is implemented to place furniture in a predetermined area, it may be implemented as an object, to implement one or more pieces of furniture to be placed in the predetermined area, and as an example of interaction, to provide information such as dimensions for the predetermined area in virtual space based on user input for the area, and to place the furniture in the predetermined area based on user input for the furniture.

이러한, 확장 현실 콘텐트는 태블릿, 개인 컴퓨터, 스마트폰 및 웨어러블 장비 등의 사용자 단말을 통해 제공되도록 구현될 수 있으며, 예를 들어, 확장 현실 콘텐트는 어플리케이션(Application) 또는 소프트웨어(Software)의 형태로 제공되거나, 웹 페이지 상에서 제공될 수 있다.Such extended reality content may be implemented to be provided through user terminals such as tablets, personal computers, smartphones, and wearable devices, and for example, the extended reality content may be provided in the form of an application or software, or may be provided on a web page.

이때, 사용자 단말은 태블릿, 개인 컴퓨터, 스마트폰 및 웨어러블 장비 등으로 참조될 수 있으며, 가상 현실 공간, 증강 현실 공간, 혼합 현실 공간 또는 확장 현실 공간 등으로 구현된 장면을 출력 가능한 장치와 연결되어, 확장 현실 콘텐트에 따른 장면을 제공할 수 있다.At this time, the user terminal may be referred to as a tablet, a personal computer, a smartphone, a wearable device, etc., and may be connected to a device capable of outputting a scene implemented as a virtual reality space, an augmented reality space, a mixed reality space, or an extended reality space, etc., so as to provide a scene according to the extended reality content.

또한, 사용자 단말은 가상 현실, 증강 현실, 혼합 현실 또는 확장 현실을 제공하는 장치일 수도 있다. 예를 들어, 사용자 단말은 머리에 착용하는 디스플레이(HMD, Head Mounted Display)일 수 있으나, 이는 단지 예시일 뿐이며, 다른 형태의 장치도 가능할 수 있다.Additionally, the user terminal may be a device that provides virtual reality, augmented reality, mixed reality, or extended reality. For example, the user terminal may be a head-mounted display (HMD), but this is only an example, and other types of devices may also be possible.

한편, 공통 프레임워크는 서로 다른 서비스에서 각각 사용될 수 있는 공통 기능 요소를 프레임워크 앱으로 구현한 것일 수 있다. 이때, 기능 요소는 서비스 분야가 동일한 복수의 확장 현실 콘텐트에서 공통적으로 포함되는 요소일 수 있다.Meanwhile, a common framework may be implemented as a framework app with common functional elements that can be used in different services. In this case, the functional elements may be elements that are commonly included in multiple extended reality contents in the same service field.

즉, 기능 요소는 확장 현실 콘텐트에 대한 일종의 템플릿(Template)으로서, 실시예에 따라, 사용자 단말에 확장 현실 콘텐트를 렌더링하기 위한 정보, 확장 현실 콘텐트에서 사용자 입력을 인식하기 위한 정보, 확장 현실 콘텐트의 장면에 오브젝트를 배치하기 위한 정보 및 사용자 입력에 근거하여 오브젝트에 대한 상호작용을 실행하기 위한 정보가 포함될 수 있다.That is, the functional element is a kind of template for extended reality content, and according to an embodiment, may include information for rendering extended reality content to a user terminal, information for recognizing user input in the extended reality content, information for placing an object in a scene of the extended reality content, and information for executing interaction with an object based on user input.

따라서, 기능 요소는 특정 상호작용을 실행하거나, 특정 기능을 실행하는 함수의 형태로 구현되며, 텍스쳐, 문자열, 애니메이션 등의 리소스(Resource)들에 대한 속성 및, 공통적으로 이용되는 리소스가 저장되는 리소스 데이터베이스(Resource DB)를 포함할 수 있다.Accordingly, the functional elements are implemented in the form of functions that execute specific interactions or perform specific functions, and may include properties for resources such as textures, strings, and animations, and a resource database (Resource DB) in which commonly used resources are stored.

이 외에도, 기능 요소는 서로 다른 확장 현실 콘텐트를 구현하기 위해 요구되는 다양한 정보가 포함될 수 있다.In addition, the functional elements may contain various information required to implement different extended reality contents.

예를 들어, 기능 요소는 사용자 단말에서 지원하는 가상 현실 환경의 종류(3)(예를 들면, 가상 현실 환경, 증강 현실 환경, 혼합 현실 환경 및 확장 현실 환경)에 따라 확장 현실 콘텐트를 렌더링하기 위한 요소 및, 확장 현실 콘텐트의 접속 유형(4)에 따라 네트워크 및 데이터를 처리하기 위한 요소를 포함할 수 있다.For example, the functional element may include an element for rendering extended reality content according to the type (3) of the virtual reality environment supported by the user terminal (e.g., virtual reality environment, augmented reality environment, mixed reality environment, and extended reality environment), and an element for processing network and data according to the type (4) of connection to the extended reality content.

이때, 확장 현실 콘텐트의 접속 유형(4)에는, 화자와 수신자 관계의 1 대 1 핸드셰이킹(Handshoakind) 유형, 1 대 다 관계의 브로드캐스팅(Broadcasting) 유형 및 다 대 다 관계의 멀티캐스팅(Multicasting) 유형이 포함될 수 있다.At this time, the connection type (4) of the extended reality content may include a 1:1 handshaking type of a speaker-receiver relationship, a broadcasting type of a 1:many relationship, and a multicasting type of a many:many relationship.

다른 예를 들어, 기능 요소는 확장 현실 콘텐트가 복수의 사용자들 간의 커뮤니케이션을 수행하도록 구현되는 경우, 채팅룸 생성을 위한 기능 요소, 채팅룸에 참여한 사용자들 간에 음성 통화를 제공하기 위한 기능 요소 및 채팅룸에 참여한 사용자와 관련된 정보를 제공하기 위한 기능 요소를 포함할 수 있다.As another example, the functional element may include a functional element for creating a chat room, a functional element for providing voice calls between users participating in the chat room, and a functional element for providing information related to users participating in the chat room, if the extended reality content is implemented to perform communication between multiple users.

또 다른 예를 들면, 기능 요소는 확장 현실 콘텐트가 사용자의 건강 상태를 보조하도록 구현되는 경우, 사용자의 건강 상태와 관련된 점수를 결정하기 위한 기능 요소, 가상 공간에 구현되는 객체를 통해 사용자 입력을 인식하기 위한 기능 요소 및 사용자 입력에 근거하여 가상 공간에 구현된 객체의 형상 변환, 위치 이동 및 회전을 수행하기 위한 기능 요소를 포함할 수 있다.As another example, the functional element may include a functional element for determining a score related to the user's health condition when the extended reality content is implemented to assist the user's health condition, a functional element for recognizing user input through an object implemented in a virtual space, and a functional element for performing shape transformation, position movement, and rotation of an object implemented in a virtual space based on the user input.

다른 예를 들면, 기능 요소는 확장 현실 콘텐트가 특정 사용자를 대상으로 교육을 수행하도록 구현되는 경우, 사용자에게 가상 공간에 구현된 객체와 관련된 정보를 제공하기 위한 기능 요소, 미리 정해진 알고리즘에 따라 객체의 형상 변환, 위치 이동 및 회전 등을 수행하기 위한 기능 요소 및 가상 공간 상에서 객체의 상태 변화 속도를 조절하기 위한 기능 요소를 포함할 수 있다.As another example, the functional element may include a functional element for providing the user with information related to an object implemented in a virtual space, a functional element for performing shape transformation, position movement, and rotation of the object according to a predetermined algorithm, and a functional element for controlling the speed of state change of the object in the virtual space, when the extended reality content is implemented to perform education targeting a specific user.

또 다른 예를 들면, 기능 요소는 확장 현실 콘텐트가 미리 정해진 영역에 가구를 배치하도록 구현되는 경우, 가상 공간에 영역을 지정하기 위한 기능 요소, 미리 지정된 영역에 하나 이상의 가구를 배치하기 위한 기능 요소, 미리 지정된 영역에 배치 가능한 하나 이상의 가구를 표시하기 위한 기능 요소 및 가구의 형상, 위치 및 위상을 변형시키기 위한 기능 요소를 포함할 수 있다.As another example, the functional element may include a functional element for specifying an area in a virtual space, a functional element for placing one or more pieces of furniture in the pre-designated area, a functional element for displaying one or more pieces of furniture that can be placed in the pre-designated area, and a functional element for transforming the shape, position, and phase of the furniture, if the extended reality content is implemented to place furniture in a pre-designated area.

상기와 같은 기능 요소는, 사용자 단말에서 실행 가능한 공통 프레임워크(1)의 형태로 구현될 수 있다. 즉, 공통 프레임워크(1)는 기능 요소만이 포함된 확장 현실 콘텐트의 일종일 수 있다. 이를 통해, 사용자는 공통 프레임워크(1)에 포함된 기능 요소를 이용하여 확장 현실 기반의 장면을 구현할 수 있다.The above functional elements can be implemented in the form of a common framework (1) that can be executed on a user terminal. That is, the common framework (1) can be a type of extended reality content that includes only functional elements. Through this, a user can implement an extended reality-based scene by using the functional elements included in the common framework (1).

이와 관련하여, 빌더는 공통 프레임워크를 구축하도록 구현된 것일 수 있다. 즉, 빌더는 확장 현실 콘텐트로써 서로 다른 서비스에서 각각 사용될 수 있는 기능 요소를 저작하고, 기능 요소에 대한 사전 컴파일을 수행하여 공통 프레임워크를 구축할 수 있다.In this regard, the builder may be implemented to build a common framework. That is, the builder may author functional elements that can be used in different services as extended reality content, and may perform pre-compilation of the functional elements to build a common framework.

한편, 오브젝트는 공통 프레임워크(1)에 포함된 기능 요소에 기반하여 사용자가 인식할 수 있도록 구현되는 요소일 수 있다.Meanwhile, an object may be an element implemented so that the user can recognize it based on functional elements included in a common framework (1).

즉, 오브젝트는 기능 요소가 포함된 공통 프레임워크(1)를 이용하여 구현되는 요소로서, 실시예에 따라, 사용자 입력에 대응하여 실행되는 상호작용과 관련된 정보, 사용자 단말을 통해 표시되는 객체의 형상 및 위치와 관련된 정보, 가상 공간의 배경 이미지와 관련된 정보가 포함될 수 있다.That is, an object is an element implemented using a common framework (1) that includes functional elements, and, depending on the embodiment, may include information related to an interaction executed in response to a user input, information related to the shape and location of an object displayed through a user terminal, and information related to a background image of a virtual space.

따라서, 오브젝트는 공통 프레임워크(1)에 포함된 기능 요소를 호출하는 콜백(Callback) 함수의 형태로 구현되며, 텍스쳐, 문자열, 애니메이션 등의 외부 리소스를 정의하는 함수가 포함될 수 있다.Therefore, objects are implemented in the form of callback functions that call functional elements included in the common framework (1), and may include functions that define external resources such as textures, strings, and animations.

이 외에도, 오브젝트는 사용자 단말을 통해 사용자가 확장 현실 콘텐트를 경험하도록 구현되는 다양한 정보가 포함될 수 있다.In addition, the object may include various information implemented to enable the user to experience extended reality content through the user terminal.

예를 들어, 오브젝트는 확장 현실 콘텐트가 복수의 사용자들 간의 커뮤니케이션을 수행하도록 구현되는 경우, 다른 사용자에 의해 생성된 채팅룸을 구분하기 위한 요소, 채팅룸에 참여한 복수의 사용자들을 구분하기 위한 요소 및 사용자 단말을 통해 다른 사용자와 관련된 정보가 표시되는 위치와 관련된 요소를 포함할 수 있다.For example, if the object is implemented to perform communication between multiple users as extended reality content, it may include elements for distinguishing chat rooms created by other users, elements for distinguishing multiple users participating in the chat room, and elements related to the location where information related to other users is displayed through the user terminal.

다른 예를 들어, 오브젝트는 확장 현실 콘텐트가 사용자의 건강 상태를 보조하도록 구현되는 경우, 사용자의 건강 상태와 관련하여 산출된 점수가 표시되는 위치와 관련된 요소 및, 사용자 입력을 인식하기 위해 가상 공간에 구현된 객체의 형상 및 위치와 관련된 요소를 포함할 수 있다.As another example, if the object is implemented to assist the user's health condition with the extended reality content, the object may include elements related to the location where the score calculated in relation to the user's health condition is displayed, and elements related to the shape and location of the object implemented in the virtual space to recognize the user's input.

또 다른 예를 들어, 오브젝트는 확장 현실 콘텐트가 특정 사용자를 대상으로 교육을 수행하도록 구현되는 경우, 가상 공간에 구현된 객체의 초기 형상, 상태 및 위치와 관련된 요소, 사용자 입력에 근거하여 상호작용이 실행된 객체의 다음 형상, 상태 및 위치와 관련된 요소를 포함할 수 있다.As another example, if the extended reality content is implemented to perform training targeting a specific user, the object may include elements related to the initial shape, state, and position of the object implemented in the virtual space, and elements related to the next shape, state, and position of the object upon which interaction is executed based on user input.

다른 예를 들어, 오브젝트는 확장 현실 콘텐트가 미리 정해진 영역에 가구를 배치하도록 구현되는 경우, 가상 공간에 미리 지정된 영역을 표시하기 위한 요소, 미리 정해진 영역 중, 특정 가구의 배치가 가능한 영역을 표시하기 위한 요소, 미리 정해진 하나 이상의 가구의 형상과 관련된 요소를 포함할 수 있다.As another example, if the object is implemented to place furniture in a predetermined area of the extended reality content, the object may include elements for indicating a predetermined area in the virtual space, elements for indicating an area among the predetermined areas in which a specific piece of furniture can be placed, and elements related to the shape of one or more predetermined pieces of furniture.

상기와 같은 오브젝트는, 공통 프레임워크(1)에 기반한 유닛 콘텐트(2)의 형태로 구현될 수 있다. 즉, 유닛 콘텐트(2)는 확장 현실 콘텐트를 위한 하나 이상의 오브젝트와 관련된 정보를 포함하며, 서로 다른 서비스에 대하여, 각각의 개별 서비스에 해당하는 오브젝트 및 장면이 포함되도록 저작될 수 있다.The above objects can be implemented in the form of unit content (2) based on a common framework (1). That is, the unit content (2) includes information related to one or more objects for extended reality content, and can be authored to include objects and scenes corresponding to each individual service for different services.

이와 관련하여, 스튜디오 저작도구는 확장 현실 콘텐트에 구현되는 오브젝트 및 장면을 구성하여 유닛 콘텐트(2)를 저작하도록 구현된 것일 수 있다. 즉, 스튜디오 저작도구는 공통 프레임워크에 기반하여 확장 현실 콘텐츠에서의 오브젝트 및 장면을 생성함으로써, 유닛 콘텐트를 저작할 수 있다.In this regard, the studio authoring tool may be implemented to author unit content (2) by composing objects and scenes implemented in the extended reality content. That is, the studio authoring tool can author unit content by generating objects and scenes in the extended reality content based on a common framework.

이에 따라, 확장 현실 콘텐트 저작 시스템은 공통 프레임워크(1)에 유닛 콘텐트(2)를 탑재함으로써, 확장 현실 콘텐트를 저작할 수 있으며, 동일한 공통 프레임워크(1)에, 서로 다른 오브젝트가 포함된 각각의 유닛 콘텐트(2)를 탑재함으로써, 서로 다른 확장 현실 콘텐트를 손쉽게 구현할 수 있다.Accordingly, the extended reality content authoring system can author extended reality content by loading unit content (2) into a common framework (1), and can easily implement different extended reality content by loading each unit content (2) containing different objects into the same common framework (1).

이때, 확장 현실 콘텐트 저작 시스템에 의하여 저작되는 확장 현실 콘텐트는 공통 프레임워크(1) 및 유닛 콘텐트(2)로 구성되는 도메인 프레임워크(Domain framwork)로 명명될 수 있으며, 이러한 도메인 프레임워크는 특정 서비스 분야에서 공통적으로 적용될 수 있는 공통 기능 요소와, 서로 다른 유닛 콘텐트가 탑재되는 통합 프레임워크(Comprehensive Framework)로 확대될 수도 있다.At this time, the extended reality content authored by the extended reality content authoring system can be named a domain framework consisting of a common framework (1) and unit content (2), and this domain framework can be expanded into a comprehensive framework in which common functional elements that can be commonly applied in a specific service field and different unit content are loaded.

실시예에 따라, 확장 현실 콘텐트는 UI, Object, Space, Interaction 및 Device Control을 포함하는 경우, 기능 요소 및 오브젝트는, 상기 확장 현실 콘텐트에 포함된 구성 요소들 중 적어도 하나를 각각 포함할 수 있다.In an embodiment, when the extended reality content includes UI, Object, Space, Interaction and Device Control, the functional elements and objects may each include at least one of the components included in the extended reality content.

이러한, 기능 요소 및 오브젝트에 포함되는 구성 요소는, 확장 현실 콘텐트의 서비스 분야 또는, 서비스 목적에 따라 달라질 수 있다.The components included in these functional elements and objects may vary depending on the service field or service purpose of the extended reality content.

다른 일 실시예에서, 확장 현실 콘텐트의 기능 요소는 특정 기능을 수행하는 함수의 형태로 구현되고, 오브젝트는 공통 프레임워크에 포함된 기능 요소에 따른 함수를 호출하는 콜백 함수의 형태를 갖는 코드(Code)로 구현될 수 있다.In another embodiment, the functional elements of the extended reality content may be implemented in the form of functions that perform specific functions, and the objects may be implemented as code in the form of callback functions that call functions according to the functional elements included in the common framework.

따라서, 도 2의 (a)를 참조하면, 확장 현실 콘텐트 저작 시스템은 서비스 분야별로 구현된 서로 다른 공통 프레임워크(1a)에, 각 공통 프레임워크(1a)에 기반하여 구현된 유닛 콘텐트(2a)를 탑재함으로써, 확장 현실 콘텐트를 저작할 수 있다.Accordingly, referring to (a) of Fig. 2, the extended reality content authoring system can author extended reality content by loading unit content (2a) implemented based on each common framework (1a) into different common frameworks (1a) implemented for each service field.

이때, 각 공통 프레임워크(1a)는 사용자 단말에 설치된 운영체제(또는, Infrastructure(5a))에 기반하여 구현될 수 있다.At this time, each common framework (1a) can be implemented based on the operating system (or Infrastructure (5a)) installed on the user terminal.

또한, 도 2의 (b)를 참조하면, 확장 현실 콘텐트 저작 시스템은 동일한 공통 프레임워크(1b)에 기반하여 구현된 서로 다른 유닛 콘텐트(2b)를, 상기 공통 프레임워크(1b)에 각각 탑재함으로써, 하나의 공통 프레임워크(1b)에 기반한 서로 다른 확장 현실 콘텐트를 저작할 수도 있다.In addition, referring to (b) of Fig. 2, the extended reality content authoring system can author different extended reality contents based on one common framework (1b) by loading different unit contents (2b) implemented based on the same common framework (1b) onto the common framework (1b).

이때, 공통 프레임워크(1b)는 사용자 단말에 설치된 운영체제(또는, Infrastructure(5b))에 기반하여 구현될 수 있다.At this time, the common framework (1b) can be implemented based on the operating system (or Infrastructure (5b)) installed on the user terminal.

상기와 같은 구성들을 통해, 본 발명에 따른 확장 현실 콘텐트 저작 시스템은 확장 현실 콘텐트를 저작할 수 있도록 구현된 공통 프레임워크(1)에 기반하여 오브젝트를 저작하고, 저작된 오브젝트를 포함하는 유닛 콘텐트(2)를 프레임워크(1)에 탑재함으로써, 확장 현실 콘텐트를 저작할 수 있다.Through the above configurations, the extended reality content authoring system according to the present invention authorizes an object based on a common framework (1) implemented to author extended reality content, and loads unit content (2) including the authored object into the framework (1), thereby authoring extended reality content.

이를 위해, 본 발명에 따른 확장 현실 콘텐트 저작 시스템(100)은 통신부(110), 입력부(120), 제어부(130), 출력부(140) 및 저장부(150)를 포함할 수 있다.To this end, the extended reality content authoring system (100) according to the present invention may include a communication unit (110), an input unit (120), a control unit (130), an output unit (140), and a storage unit (150).

통신부(110)는 임의의 외부 장치와 유선 또는 무선 네트워크를 통해 연결될 수 있다. 따라서, 통신부(110)는 외부 장치(예를 들면, 관리 서버 등)로부터 공통 프레임워크를 수신할 수 있다.The communication unit (110) can be connected to any external device via a wired or wireless network. Accordingly, the communication unit (110) can receive a common framework from an external device (e.g., a management server, etc.).

또한, 통신부(110)는 외부 장치(예를 들면, 다른 사용자 단말)에 저작된 확장 현실 콘텐트를 송신하거나, 외부 장치에서 생성된 유닛 콘텐트(또는, 오브젝트)를 수신할 수도 있다.Additionally, the communication unit (110) may transmit authored extended reality content to an external device (e.g., another user terminal) or receive unit content (or object) generated from an external device.

입력부(120)는 확장 현실 콘텐트 저작 시스템(100)에 대한 사용자 입력을 인식할 수 있다. 예를 들어, 입력부(120)는 오브젝트(또는, 기능 요소)를 생성하기 위한 사용자 입력을 인식할 수 있다.The input unit (120) can recognize user input for the extended reality content authoring system (100). For example, the input unit (120) can recognize user input for creating an object (or, functional element).

저장부(130)는 본 발명에 따른 확장 현실 콘텐트 저작 시스템(100)의 동작에 요구되는 다양한 정보 및 명령어들이 저장될 수 있다. 예를 들어, 저장부(130)는 공통 프레임워크 및 유닛 콘텐트가 저장될 수 있다. 즉, 저장부(130)는 기능 요소 및 오브젝트가 저장될 수 있다.The storage unit (130) can store various information and commands required for the operation of the extended reality content authoring system (100) according to the present invention. For example, the storage unit (130) can store common frameworks and unit contents. That is, the storage unit (130) can store functional elements and objects.

제어부(140)는 본 발명에 따른 확장 현실 콘텐트 저작 시스템(100)의 전반적인 동작을 제어할 수 있다. 예를 들어, 제어부(140)는 사용자 입력에 근거하여 공통 프레임워크에 기반한 유닛 콘텐트(또는, 오브젝트)를 저작할 수 있다.The control unit (140) can control the overall operation of the extended reality content authoring system (100) according to the present invention. For example, the control unit (140) can author unit content (or object) based on a common framework based on user input.

또한, 제어부(140)는 공통 프레임워크에 유닛 콘텐트(또는, 오브젝트)를 탑재하여 확장 현실 콘텐트를 저작할 수 있다. 이를 위해, 제어부(140)는 공통 프레임워크에 기반하여 유닛 콘텐트를 컴파일할 수 있다.In addition, the control unit (140) can create extended reality content by loading unit content (or objects) into a common framework. To this end, the control unit (140) can compile unit content based on the common framework.

또한, 제어부(140)는 사용자 입력에 근거하여 기능 요소를 생성하고, 공통 프레임워크를 저작할 수도 있다.Additionally, the control unit (140) can generate functional elements based on user input and author a common framework.

출력부(150)는 사용자가 확인 가능하도록 확장 현실 콘텐트를 표시할 수 있다. 또한, 출력부(150)는 기능 요소 및 오브젝트 중 적어도 하나를 생성하는 과정에서 발생하는 정보를 표시할 수 있다.The output unit (150) can display extended reality content so that the user can check it. In addition, the output unit (150) can display information generated during the process of generating at least one of the functional elements and objects.

이상에서 살펴본 확장 현실 콘텐트 저작 시스템(100)의 구성에 근거하여, 아래에서는 확장 현실 콘텐트 저작 방법에 대해 보다 구체적으로 설명하도록 한다.Based on the configuration of the extended reality content authoring system (100) discussed above, the extended reality content authoring method will be described in more detail below.

도 4는 본 발명에 따른 확장 현실 콘텐트 저작 방법의 순서도이다. 도 5 내지 도 8은 유닛 콘텐트의 일 실시예를 도시한다. 도 9는 공통 프레임워크에 포함되는 기능 요소의 일 실시예를 도시한다. 도 10 및 도 11은 공통 프레임워크와 유닛 콘텐트가 연결되는 일 실시예를 도시한다. 도 12는 확장 현실 콘텐트가 실행되는 프로세스의 일 실시예를 도시한다.FIG. 4 is a flowchart of an extended reality content authoring method according to the present invention. FIGS. 5 to 8 illustrate one embodiment of unit content. FIG. 9 illustrates one embodiment of functional elements included in a common framework. FIGS. 10 and 11 illustrate one embodiment of a common framework and unit content being connected. FIG. 12 illustrates one embodiment of a process by which extended reality content is executed.

먼저, 도 4를 참조하여 본 발명에서 제시하는 확장 현실 콘텐트를 저작하는 새로운 파이프라인에 대하여 설명한다.First, a new pipeline for authoring extended reality content proposed in the present invention is described with reference to FIG. 4.

상기 파이프라인은, 서로 다른 서비스에서 각각 사용될 수 있는 공통적인 기능 요소를 공통 프레임워크로 구축하고, 개별 서비스에 해당하는 유닛 콘텐트를 저작하여, 상기 공통 프레임워크와 유닛 콘텐트를 연결하는 프로세스로 이루어진다.The above pipeline consists of a process of building common functional elements that can be used in each different service into a common framework, authoring unit content corresponding to each service, and connecting the common framework and the unit content.

이를 위해, 본 발명에 따른 확장 현실 콘텐트 저작 시스템(100)은 스튜디오 저작도구를 이용하여, 확장 현실 콘텐트에서 오브젝트와 장면으로 구성된 유닛 콘텐트를 저작할 수 있다(S100).To this end, the extended reality content authoring system (100) according to the present invention can author unit content consisting of objects and scenes in extended reality content using a studio authoring tool (S100).

구체적으로, 확장 현실 콘텐트 저작 시스템(100)은 스튜디오 저작도구의 실행에 근거하여, 스튜디오 저작도구에 오브젝트를 로딩하고, 사용자 입력에 근거하여 오브젝트를 장면에 배치할 수 있다.Specifically, the extended reality content authoring system (100) can load objects into the studio authoring tool based on the execution of the studio authoring tool and place the objects in a scene based on user input.

예를 들면, 확장 현실 콘텐트 저작 시스템(100)은 협업과 관련된 서비스를 제공하도록 구축되는 공통 프레임워크에 기반하여, 협업과 관련된 오브젝트의 속성이나 멀티모달을 지정하여 협업 컨텍스트(Context) 상호작용을 저작할 수 있다.For example, the extended reality content authoring system (100) can author a collaboration context interaction by specifying properties or multimodality of objects related to collaboration based on a common framework built to provide services related to collaboration.

이와 관련하여, 본 발명은 확장 현실에서의 협업 기능 요소와 대상 요소를 구분하여 효율적인 콘텐트 저작을 가능하게 하는 협업 서비스 목적 중심의 확장 현실 콘텐트 저작 모델로 활용될 수 있다.In this regard, the present invention can be utilized as an extended reality content authoring model centered on the purpose of collaborative service that enables efficient content authoring by distinguishing collaborative function elements and target elements in extended reality.

일례로, 협업 참가자가 협업에 사용되는 콘텐트를 직접 저작하는 경우에, 확장 현실 콘텐트 저작을 위해서는 많은 전문적인 지식과 기술이 요구되어 쉬운 저작 환경을 제공하기가 용이하지 않다.For example, in cases where collaborative participants directly author content used in collaboration, it is not easy to provide an easy authoring environment because authoring extended reality content requires a lot of specialized knowledge and skills.

그러나, 본 발명에 따른 저작 모델은 기능 요소(예를 들면, 공통 프레임워크)와 대상 요소(예를 들면, 유닛 콘텐트)를 분리하여, 복잡한 기능 요소가 포함된 확장 현실 협업 서비스에 대해서도 전문적인 콘텐트 저작 기술을 갖추지 않은 협업의 참여자들이 손쉽게 협업 콘텐트 생산자로서 참여할 수 있는 저작 환경을 가능하게 한다.However, the authoring model according to the present invention separates functional elements (e.g., common framework) and target elements (e.g., unit content), thereby enabling an authoring environment in which even collaboration participants without professional content authoring skills can easily participate as collaborative content producers, even for extended reality collaboration services that include complex functional elements.

한편, 멀티모달은 확장 현실 콘텐트에 대한 입력 방식 및 출력 방식 중 적어도 하나를 정의하는 것일 수 있다. 즉, 멀티모달은 다양한 방식의 입력 방식 및 출력 방식 중 적어도 하나가 참조되며, 실시예에 따라, 멀티모달은 마우스, 터치 패드 등이 이용되는 위치 입력 방식, 마이크 등이 이용되는 음성 입력 방식, 키보드 등이 이용되는 문자 입력 방식, 스피커 등이 이용되는 음성 출력 방식, 햅틱 장치 등이 이용되는 촉각 출력 방식, 모니터, TV 등이 이용되는 시각 출력 방식이 참조될 수 있다.Meanwhile, multimodal may define at least one of the input method and the output method for the extended reality content. That is, multimodal refers to at least one of various input methods and output methods, and according to an embodiment, multimodal may refer to a positional input method using a mouse, a touch pad, etc., a voice input method using a microphone, etc., a character input method using a keyboard, etc., a voice output method using a speaker, etc., a tactile output method using a haptic device, etc., and a visual output method using a monitor, a TV, etc.

또한, 확장 현실 콘텐트 저작 시스템(100)은 협업과 관련된 서비스 외에도, 건축과 관련된 서비스, 교육과 관련된 서비스, 인테리어와 관련된 서비스, 오락과 관련된 서비스 등, 다양한 서비스와 관련된 오브젝트의 속성이나 멀티모달을 지정하여 협업 컨텍스트 상호작용을 저작할 수 있다.In addition, the extended reality content authoring system (100) can author collaborative context interactions by specifying properties or multimodality of objects related to various services, such as architecture-related services, education-related services, interior-related services, and entertainment-related services, in addition to collaboration-related services.

도 5를 참조하여 다른 예를 들면, 확장 현실 콘텐트 저작 시스템(100)은 스튜디오 저작도구에 의하여 생성된 장면(60)에, 아바타(61), 예시 이미지(62) 및 블록(63)을 배치함으로써, 예시 이미지(62)에 따라 블록(63)을 쌓는 유닛 콘텐트를 저작할 수 있다.As another example with reference to FIG. 5, the extended reality content authoring system (100) can author unit content that stacks blocks (63) according to example images (62) by placing avatars (61), example images (62), and blocks (63) in a scene (60) created by a studio authoring tool.

이러한 경우에, 확장 현실 콘텐트 저작 시스템(100)은 공통 프레임워크에 기반하여, 아바타(61)에 대한 조작과 관련된 기능 요소와, 예시 이미지(62) 및 블록(63)에 대한 오브젝트 속성과 관련된 기능 요소를 이용할 수 있다.In such cases, the extended reality content authoring system (100) can utilize functional elements related to manipulation of an avatar (61) and functional elements related to object properties for example images (62) and blocks (63) based on a common framework.

또한, 확장 현실 콘텐트 저작 시스템(100)은 스튜디오 저작도구를 이용하여, 아바타(61)의 위치 및 형태를 지정하고, 예시 이미지(62)의 위치, 크기 및 이미지 파일을 지정하며, 블록(63)의 형태, 위치 및 상호작용 방식을 지정함으로써, 유닛 콘텐트를 저작할 수 있다.In addition, the extended reality content authoring system (100) can author unit content by using a studio authoring tool to specify the location and shape of an avatar (61), specify the location, size, and image file of an example image (62), and specify the shape, location, and interaction method of a block (63).

도 6을 참조하여 또 다른 예를 들면, 확장 현실 콘텐트 저작 시스템(100)은 스튜디오 저작도구에 의하여 생성된 장면(70)에, 아바타(71), 학습 오브젝트(72) 및 정보 확인창(73)을 배치함으로써, 정보 확인창(73)을 조작하여 학습 오브젝트(72)의 구성 및 기능에 대한 교육을 제공하는 유닛 콘텐트를 저작할 수 있다.As another example with reference to FIG. 6, the extended reality content authoring system (100) can author unit content that provides education on the configuration and function of the learning object (72) by manipulating the information confirmation window (73) by placing an avatar (71), a learning object (72), and an information confirmation window (73) in a scene (70) created by a studio authoring tool.

이러한 경우에, 확장 현실 콘텐트 저작 시스템(100)은 공통 프레임워크에 기반하여, 아바타(71)에 대한 조작과 관련된 기능 요소와, 학습 오브젝트(72) 및 정보 확인창(73)에 대한 오브젝트 속성과 관련된 기능 요소를 이용할 수 있다.In this case, the extended reality content authoring system (100) can utilize functional elements related to manipulation of an avatar (71) and functional elements related to object properties for a learning object (72) and an information confirmation window (73) based on a common framework.

또한, 확장 현실 콘텐트 저작 시스템(100)은 스튜디오 저작도구를 이용하여, 아바타(71)의 위치 및 형태를 지정하고, 학습 오브젝트(62)의 위치, 크기 및 애니메이션 동작을 지정하며, 정보 확인창(73)의 형태, 위치, 이미지, 문자열 및 상호작용 방식을 지정함으로써, 유닛 콘텐트를 저작할 수 있다.In addition, the extended reality content authoring system (100) can author unit content by using a studio authoring tool to specify the location and shape of an avatar (71), specify the location, size, and animation motion of a learning object (62), and specify the shape, location, image, string, and interaction method of an information confirmation window (73).

도 7을 참조하여 다른 예를 들면, 확장 현실 콘텐트 저작 시스템(100)은 스튜디오 저작도구에 의하여 생성된 장면(80)에, 문제 확인창(81), 답안 확인창(82), 상호작용 메뉴(83) 및 점수 확인창(84)을 배치함으로써, 상호작용 메뉴(83)을 조작하여 문제 확인창(81)에 표시된 이미지와 동일한 형태로 답안 확인창(82)의 이미지를 변경하는 유닛 콘텐트를 저작할 수 있다.Referring to FIG. 7, as another example, the extended reality content authoring system (100) can author unit content that changes the image of the answer confirmation window (82) to the same form as the image displayed in the problem confirmation window (81) by manipulating the interaction menu (83) by arranging a question confirmation window (81), an answer confirmation window (82), an interaction menu (83), and a score confirmation window (84) in a scene (80) generated by a studio authoring tool.

이러한 경우에, 확장 현실 콘텐트 저작 시스템(100)은 공통 프레임워크에 기반하여, 상호작용 메뉴(83)에 대한 조작과 관련된 기능 요소와, 문제 확인창(81), 답안 확인창(82), 상호작용 메뉴(83) 및 점수 확인창(84)에 대한 오브젝트 속성과 관련된 기능 요소를 이용할 수 있다.In this case, the extended reality content authoring system (100) can utilize functional elements related to the operation of the interaction menu (83) and functional elements related to object properties for the question confirmation window (81), the answer confirmation window (82), the interaction menu (83), and the score confirmation window (84) based on a common framework.

또한, 확장 현실 콘텐트 저작 시스템(100)은 스튜디오 저작도구를 이용하여, 문제 확인창(81)의 위치, 형태 및 이미지 파일을 지정하고, 답안 확인창(82)의 위치, 크기, 이미지 파일 및 애니메이션 동작을 지정하며, 상호작용 메뉴(83)의 형태, 위치, 문자열 및 상호작용 방식을 지정하고, 점수 확인창(84)의 위치, 크기, 이미지 파일 및 애니메이션 동작을 지정함으로써, 유닛 콘텐트를 저작할 수 있다.In addition, the extended reality content authoring system (100) can author unit content by using a studio authoring tool to specify the location, shape, and image file of a question confirmation window (81), specify the location, size, image file, and animation motion of an answer confirmation window (82), specify the shape, position, string, and interaction method of an interaction menu (83), and specify the location, size, image file, and animation motion of a score confirmation window (84).

나아가, 확장 현실 콘텐트 저작 시스템(100)은 복수의 장면에 대하여 오브젝트를 배치하고, 오브젝트가 각각 배치된 복수의 장면들 간의 관계를 지정하여 장면의 전환을 구성하는 스토리 콘텐트를 저작할 수 있다.Furthermore, the extended reality content authoring system (100) can author story content that configures scene transitions by placing objects in multiple scenes and specifying relationships between the multiple scenes in which the objects are respectively placed.

도 8을 참조하여 예를 들면, 확장 현실 콘텐트 저작 시스템(100)은 스튜디오 저작도구에 의하여 생성된 복수의 장면(90)에, 장면 이동 메뉴(91), 가구 오브젝트(92), 가구 정보창(93) 및 임무 확인창(94)을 배치함으로써, 복수의 장면(90) 각각에 미리 정해진 가구 오브젝트(92)를 배치하고, 배치된 가구 오브젝트(92)에 관련된 가구 정보창(93)을 제공하는 유닛 콘텐트를 저작할 수 있다.Referring to FIG. 8, for example, the extended reality content authoring system (100) can author unit content that places a scene movement menu (91), furniture objects (92), furniture information windows (93), and mission confirmation windows (94) in a plurality of scenes (90) created by a studio authoring tool, thereby placing predetermined furniture objects (92) in each of the plurality of scenes (90) and providing furniture information windows (93) related to the placed furniture objects (92).

이러한 경우에, 확장 현실 콘텐트 저작 시스템(100)은 공통 프레임워크에 기반하여, 장면 이동 메뉴(91)에 따른 복수의 장면(90)에 대한 전환과 관련된 기능 요소와, 장면 이동 메뉴(91), 가구 오브젝트(92), 가구 정보창(93) 및 임무 확인창(94)에 대한 조작과 관련된 기능 요소 및, 오브젝트 속성과 관련된 기능 요소를 이용할 수 있다.In this case, the extended reality content authoring system (100) can utilize functional elements related to transitions between multiple scenes (90) according to a scene movement menu (91), functional elements related to operations on a scene movement menu (91), a furniture object (92), a furniture information window (93), and a mission confirmation window (94), and functional elements related to object properties based on a common framework.

또한, 확장 현실 콘텐트 저작 시스템(100)은 스튜디오 저작도구를 이용하여, 장면 이동 메뉴(91)의 위치, 형태, 문자열 및 상호작용 방식을 지정하고, 가구 오브젝트(92)의 위치, 형태, 텍스처 이미지 및 상호작용 방식을 지정하며, 가구 정보창(93)의 위치, 형태, 문자열을 지정하고, 임무 확인창(94)의 위치, 형태 및 상호작용 방식을 지정함으로써, 유닛 콘텐트를 저작할 수 있다.In addition, the extended reality content authoring system (100) can author unit content by using a studio authoring tool to specify the location, shape, string, and interaction method of a scene movement menu (91), specify the location, shape, texture image, and interaction method of a furniture object (92), specify the location, shape, and string of a furniture information window (93), and specify the location, shape, and interaction method of a mission confirmation window (94).

나아가, 본 발명에 따른 확장 현실 콘텐트 저작 시스템(100)은 빌더를 이용하여, 기 설정된 디바이스에서 실행 가능한 프로그램으로 사전 컴파일되는 공통 프레임워크를 구축할 수 있다(S200).Furthermore, the extended reality content authoring system (100) according to the present invention can build a common framework that is precompiled into a program executable on a preset device using a builder (S200).

구체적으로, 확장 현실 콘텐트 저작 시스템(100)은 사용자 입력에 근거하여, 서로 다른 서비스에서 각각 사용될 수 있는 기능 요소가 저작될 수 있다.Specifically, the extended reality content authoring system (100) can author functional elements that can be used in different services based on user input.

예를 들어, 확장 현실 콘텐트 저작 시스템(100)은 빌더를 통하여 데이터 연동, 아바타 동기화 및 협업 공간의 동기화 중 적어도 하나와 관련된 기능 요소를 저작할 수 있다.For example, the extended reality content authoring system (100) can author functional elements related to at least one of data linkage, avatar synchronization, and collaboration space synchronization through a builder.

도 9를 참조하여 다른 예를 들면, 확장 현실 콘텐트 저작 시스템(100)은 빌더를 통하여 호스트 메뉴(51), 아바타 선택 메뉴(52) 및 객체 속성(53) 중 적어도 하나와 관련된 기능 요소를 저작할 수 있다.As another example with reference to FIG. 9, the extended reality content authoring system (100) can author functional elements related to at least one of a host menu (51), an avatar selection menu (52), and an object property (53) through a builder.

이때, 확장 현실 콘텐트 저작 시스템(100)은 빌더를 통해, 각 기능 요소와 관련된 하위 기능 요소(또는, 세부 기능 요소)를 저작할 수도 있다. 즉, 확장 현실 콘텐트 저작 시스템(100)은 호스트 메뉴(51)와 관련된 기능 요소에 대한 하위 기능 요소로서, 멤버 목록 확인, 공간 기준 재설정, 마이크 On/Off, 에셋 공유, 퇴장 중 적어도 하나와 관련된 기능 요소를 저작하고, 아바타 선택 메뉴(52)와 관련된 기능 요소에 대한 하위 기능 요소로서, 내보내기, 호스트 위임 중 적어도 하나와 관련된 기능 요소를 저작할 수 있다.At this time, the extended reality content authoring system (100) may author sub-function elements (or detailed function elements) related to each function element through the builder. That is, the extended reality content authoring system (100) may author a function element related to at least one of member list check, space reference reset, microphone On/Off, asset sharing, and exit as a sub-function element for the function element related to the host menu (51), and may author a function element related to at least one of export and host delegation as a sub-function element for the function element related to the avatar selection menu (52).

또한, 확장 현실 콘텐트 저작 시스템(100)은 멤버 목록 확인에 대한 하위 기능 요소인, 멤버 조회, 초대, 내보내기, 호스트 위임과 같이, 하위 기능 요소에 대하여 재차 하위 기능 요소를 저작할 수도 있다.In addition, the extended reality content authoring system (100) may author sub-function elements for sub-function elements, such as member search, invitation, export, and host delegation, which are sub-function elements for member list verification.

나아가, 확장 현실 콘텐트 저작 시스템(100)은 빌더를 이용하여, 앞서 저작된 기능 요소에 대한 사전 컴파일을 수행함으로써, 기 설정된 디바이스에서 실행 가능한 프로그램으로 공통 프레임워크를 구축할 수 있다.Furthermore, the extended reality content authoring system (100) can build a common framework as a program executable on a preset device by performing pre-compilation on previously authored functional elements using a builder.

본 발명에 따른 확장 현실 콘텐트 저작 시스템(100)은 확장 현실 콘텐트를 저작하도록 사전 컴파일된 공통 프레임워크의 실행에 기반하여, 유닛 콘텐트를 공통 프레임워크에 연결할 수 있다(S300).The extended reality content authoring system (100) according to the present invention can connect unit content to a common framework based on the execution of a pre-compiled common framework for authoring extended reality content (S300).

구체적으로, 확장 현실 콘텐트 저작 시스템(100)은 스튜디오 저작도구를 이용하여 유닛 콘텐트가 저작되고, 유닛 컴파일러를 통하여 유닛 콘텐트를 코드 및 리소스 부분으로 컴파일하여 공통 프레임워크에 연결할 수 있다.Specifically, the extended reality content authoring system (100) authores unit content using a studio authoring tool, and compiles the unit content into code and resource parts through a unit compiler to connect it to a common framework.

도 10을 참조하여 예를 들면, 확장 현실 콘텐트 저작 시스템(100)은 스튜디오 저작도구를 이용하여, 공통 프레임워크(26)의 기능 요소(27)와 연결가능한 콜백(Callback) 함수로 유닛 콘텐트(16)의 코드(17)를 구현하고, 유닛 콘텐트(16)에 대한 컴파일(30)을 통하여 유닛 콘텐트(16)의 코드(17)를 동적 프로그램 요소(31)(또는, 동적 기능 요소)로 변환할 수 있다.Referring to FIG. 10, for example, the extended reality content authoring system (100) implements the code (17) of the unit content (16) as a callback function that can be connected to the functional element (27) of the common framework (26) using a studio authoring tool, and converts the code (17) of the unit content (16) into a dynamic program element (31) (or, dynamic functional element) through compilation (30) of the unit content (16).

이때, 확장 현실 콘텐트 저작 시스템(100)은 유닛 콘텐트(16)의 리소스(18)를, 공통 프레임워크(26)의 리소스 데이터베이스(28)를 통하여 동적 참조가 가능한 오브젝트(32)로 변환할 수 있다.At this time, the extended reality content authoring system (100) can convert the resource (18) of the unit content (16) into an object (32) that can be dynamically referenced through the resource database (28) of the common framework (26).

도 11을 참조하여 다른 예를 들면, 확장 현실 콘텐트 저작 시스템(100)은 빌더(20)(예를 들면, UIIX Builder)를 이용하여 확장 현실 콘텐트와 관련된 기능 요소(22)가 포함된 공통 프레임워크(21)를 구축할 수 있다.As another example, referring to FIG. 11, the extended reality content authoring system (100) can build a common framework (21) including functional elements (22) related to extended reality content using a builder (20) (e.g., UIIX Builder).

또한, 확장 현실 콘텐트 저작 시스템(100)은 스튜디오 저작도구(10)(예를 들면, UIIX Studio)를 이용하여, 다양한 디지털 콘텐트 저작 툴(Digital Content Creation Tools)을 이용하여 저작된 장면 및 오브젝트(12) 중 적어도 하나를 로딩할 수 있다.In addition, the extended reality content authoring system (100) can load at least one of scenes and objects (12) authored using various digital content creation tools using a studio authoring tool (10) (e.g., UIIX Studio).

이를 위해, 장면 및 오브젝트(12) 중 적어도 하나는 공통 프레임워크(22)에 기반하여 저작되거나, 또는, 스튜디오 저작도구(10)를 통해 공통 프레임워크(22)와 호환되도록 변환될 수 있다.To this end, at least one of the scenes and objects (12) can be authored based on a common framework (22), or converted to be compatible with the common framework (22) through a studio authoring tool (10).

따라서, 확장 현실 콘텐트 저작 시스템(100)은 스튜디오 저작도구(10)를 통해 임의의 장면에 오브젝트(12)를 배치하여 유닛 콘텐트(11)(예를 들면, XR3C Unit)를 저작할 수 있다.Therefore, the extended reality content authoring system (100) can author unit content (11) (e.g., XR3C Unit) by placing an object (12) in an arbitrary scene through a studio authoring tool (10).

이어서, 확장 현실 콘텐트 저작 시스템(100)은 유닛 콘텐트(11)에 대한 컴파일을 통하여 공통 프레임워크(21)에 유닛 콘텐트(11)를 연결(또는, 탑재)할 수 있다. 이때, 확장 현실 콘텐트 저작 시스템(100)은 장면 및 오브젝트(12) 중 적어도 하나를, 공통 프레임워크(22)에 호환되도록 변환할 수 있다.Next, the extended reality content authoring system (100) can connect (or load) the unit content (11) to the common framework (21) through compilation of the unit content (11). At this time, the extended reality content authoring system (100) can convert at least one of the scenes and objects (12) to be compatible with the common framework (22).

나아가, 확장 현실 콘텐트 저작 시스템(100)은 컴파일을 통해 연결된 공통 프레임워크 및 유닛 콘텐트를 이용하여, 특정 디바이스에 탑재되어 확장 현실 콘텐트가 실행되는 확장 현실 어플리케이션을 생성할 수 있다.Furthermore, the extended reality content authoring system (100) can generate an extended reality application that is loaded on a specific device and executes the extended reality content by using a common framework and unit content linked through compilation.

예를 들어, 확장 현실 콘텐트 저작 시스템(100)은 빌더(또는, 스튜디오 저작도구)에서 특정 서비스에 해당하는 유닛 콘텐트를 공통 프레임워크에 연결하여 특정 서비스 별로 확장 현실 어플리케이션을 생성할 수 있다.For example, the extended reality content authoring system (100) can create an extended reality application for each specific service by connecting unit content corresponding to a specific service to a common framework in a builder (or studio authoring tool).

다른 예를 들어, 확장 현실 콘텐트 저작 시스템(100)은 빌더(또는, 스튜디오 저작도구)에서 공통 프레임워크를 공용 어플리케이션으로 생성하고, 특정 서비스에 해당하는 유닛 콘텐트가 공용 어플리케이션에 탑재됨에 따라, 해당 서비스를 제공하도록 확장 현실 어플리케이션을 생성할 수 있다.As another example, the extended reality content authoring system (100) can create a common framework as a common application in a builder (or studio authoring tool), and as unit content corresponding to a specific service is loaded into the common application, an extended reality application can be created to provide the corresponding service.

한편, 도 12를 참조하면, 협업 회의와 관련된 서비스를 제공하도록 저작된 확장 현실 콘텐트가 실행되는 프로세스의 일 실시예를 확인할 수 있다.Meanwhile, referring to FIG. 12, one embodiment of a process in which extended reality content authored to provide services related to a collaborative meeting is executed can be confirmed.

실시예에 따라, 확장 현실 콘텐트는 공통 프레임워크에 포함된 기능 요소 및, 유닛 콘텐트에 포함된 오브젝트 중 적어도 하나가 확장 현실 어플리케이션의 동작에 근거하여 로드(또는, 실행)될 수 있다.In some embodiments, the extended reality content may be loaded (or executed) based on the operation of the extended reality application, including at least one of the functional elements included in the common framework and the objects included in the unit content.

예를 들어, 확장 현실 어플리케이션의 실행(App Start), 종료(App End), 사용자 로그인(Login) 및 에셋(또는, 오브젝트) 로드(Load Assets) 등의 동작은 공통 프레임워크에 포함된 기능 요소에 의하여 실행될 수 있고, 호스트 위치 설정(Select Host Location) 및 호스트의 위치한 공간과 확장 현실 콘텐트의 가상 공간을 앵커링(Anchoring)하는 등의 동작은 유닛 콘텐트의 오브젝트에 의하여 특정 기능 요소를 호출하는 콜백 함수가 실행되도록 구현될 수 있다.For example, operations such as launching (App Start), terminating (App End), user logging in (Login), and loading assets (or objects) (Load Assets) of an extended reality application can be executed by functional elements included in a common framework, and operations such as setting a host location (Select Host Location) and anchoring the positioned space of the host and the virtual space of the extended reality content (Anchoring) can be implemented by executing a callback function that calls a specific functional element by an object of the unit content.

상기와 같은 구성들을 통해, 본 발명에 따른 확장 현실 콘텐트 저작 시스템(100)은 서로 다른 서비스에서 각각 사용될 수 있는 공통적인 기능 요소를 공통 프레임워크로 구축하고, 공통 프레임워크에 기반하여 개별 서비스에 해당하는 유닛 콘텐트를 저작함으로써, 사용자 단말을 통해 확장 현실 콘텐트를 구현하기 위한 개발 과정을 효과적으로 단축시킬 수 있고, 보다 다양한 개별 서비스를 용이하게 개발할 수 있다.Through the above configurations, the extended reality content authoring system (100) according to the present invention can effectively shorten the development process for implementing extended reality content through a user terminal by constructing common functional elements that can be used in different services as a common framework and authoring unit content corresponding to individual services based on the common framework, and can easily develop more diverse individual services.

특히, 본 발명에 따른 확장 현실 콘텐트 저작 시스템(100)은 확장 현실 콘텐트가 구현되는 다양한 환경과 관련된 기능 요소를 공통 프레임워크로 저작함으로써, 다양한 실행 환경에서 실행 가능한 확장 현실 콘텐트를 저작할 수 있으며, 이를 통해, 확장 현실 콘텐트의 개발 난이도를 획기적으로 낮출 수 있다.In particular, the extended reality content authoring system (100) according to the present invention authores extended reality content that can be executed in various execution environments by authoring functional elements related to various environments in which extended reality content is implemented into a common framework, thereby drastically reducing the difficulty of developing extended reality content.

또한, 본 발명에 따른 확장 현실 콘텐트 저작 시스템(100)은 공통 프레임워크와 유닛 콘텐트를 연결하여 확장 현실 콘텐트를 저작함으로써, 서로 다른 방식으로 저작된 유닛 콘텐트를 동일한 공통 프레임워크에 연결하기가 용이하며, 이를 통해, 다양한 스타일을 갖는 확장 현실 콘텐트를 쉽게 저작할 수 있다.In addition, the extended reality content authoring system (100) according to the present invention authores extended reality content by connecting a common framework and unit content, thereby making it easy to connect unit content authored in different ways to the same common framework, and thereby making it easy to author extended reality content having various styles.

보다 구체적인 실시예로써, 도 13을 참조하면, 확장 현실 콘텐트 저작 시스템(100)의 일 실시예에 따른 파이프라인을 확인할 수 있다.As a more specific example, referring to FIG. 13, a pipeline according to one embodiment of an extended reality content authoring system (100) can be confirmed.

이에 따르면, 확장 현실 콘텐트 저작 시스템(100)은 개발자에 의한 사용자 입력에 근거하여, 빌더에 기반한 공통 프레임워크를 구축할 수 있다.According to this, the extended reality content authoring system (100) can build a common framework based on a builder based on user input by a developer.

이때, 빌더는 공통 프레임워크가 구축되고, 구축된 공통 프레임워크를 클라이언트 앱으로 빌드할 수 있는 개발 환경을 제공하도록 구현될 수 있다. 즉, 빌더는 메뉴 UX(User eXperience)/UI(User Interface) 컴포넌트, 멀티 플랫폼 빌더 컴포넌트 및 멀티 플레이어 네트워킹 컴포넌트 등 각종 기능 요소가 포함된 공통 프레임워크를 구축하도록 구현될 수 있다.At this time, the builder can be implemented to provide a development environment in which a common framework is built and the built common framework can be built into a client app. That is, the builder can be implemented to build a common framework that includes various functional elements such as a menu UX (User eXperience)/UI (User Interface) component, a multi-platform builder component, and a multi-player networking component.

한편, 확장 현실 콘텐트 저작 시스템(100)은 콘텐트 저작자에 의한 사용자 입력에 근거하여, 스튜디오 저작도구에 기반한 유닛 콘텐트를 구축할 수 있다.Meanwhile, the extended reality content authoring system (100) can build unit content based on a studio authoring tool based on user input by a content author.

이때, 스튜디오 저작도구는 유닛 콘텐트를 생성하고, 생성된 유닛 콘텐트를 클라이언트 앱에 탑재할 수 있는 콘텐트 파일로 변환할 수 있는 저작 환경을 제공하도록 구현될 수 있다. 즉, 스튜디오 저작도구는 홈 화면, 장면 구성, 객체 및 에셋, 객체 및 에셋에 대응되는 속성, 애니메이션 및 이벤트 등 각종 대상 요소가 포함된 유닛 콘텐트를 저작하도록 구현될 수 있다.At this time, the studio authoring tool can be implemented to provide an authoring environment that can generate unit content and convert the generated unit content into a content file that can be loaded into a client app. That is, the studio authoring tool can be implemented to generate unit content that includes various target elements such as a home screen, scene composition, objects and assets, properties corresponding to objects and assets, animations, and events.

이와 관련하여, 확장 현실 콘텐트 저작 시스템()은 다양한 유닛 콘텐트로부터 변환된 콘텐트 파일의 공유가 가능한 플랫폼 서비스가 연계될 수 있다. 따라서, 확장 현실 콘텐트 저작 시스템()은 콘텐트 저작자에 의한 사용자 입력에 근거하여, 플랫폼 서비스에서 공유된 특정 프로젝트를, 대상 요소로서 유닛 콘텐트에 추가하거나, 저작된 유닛 콘텐트에 포함된 적어도 일부의 대상 요소를 플랫폼 서비스에 업로드하여 다른 콘텐트 저작자들과 공유할 수 있다.In this regard, the extended reality content authoring system () can be linked to a platform service that enables sharing of content files converted from various unit contents. Accordingly, the extended reality content authoring system () can add a specific project shared in the platform service as a target element to the unit contents based on user input by the content author, or can upload at least some of the target elements included in the authored unit contents to the platform service and share them with other content authors.

또한, 확장 현실 콘텐트 저작 시스템(100)은 유닛 콘텐트로부터 변환된 콘텐트 파일을 플랫폼 서비스에 업로드함으로써, 서비스 사용자가 다양한 콘텐트 유닛을 다운로드하고, 클라이언트 앱에 탑재시켜 실행하도록 구현될 수 있다.In addition, the extended reality content authoring system (100) can be implemented so that service users can download various content units and execute them by loading them into a client app by uploading content files converted from unit content to a platform service.

즉, 확장 현실 콘텐트 저작 시스템(100)은 서비스 사용자에 의한 사용자 입력에 근거하여 클라이언트 앱(또는, 공통 프레임워크)에, 플랫폼 서비스로부터 다운로드된 콘텐트 파일을 탑재하여 콘텐트를 실행할 수 있다.That is, the extended reality content authoring system (100) can execute content by loading a content file downloaded from a platform service into a client app (or common framework) based on user input by a service user.

이를 위해, 확장 현실 콘텐트 저작 시스템(100)은 클라이언트 앱(또는, 공통 프레임워크)을 통해 플랫폼 서비스에 접속하고, 사용자 입력에 근거하여 플랫폼 서비스에 업로드된 복수의 콘텐트 유닛 중 어느 하나를 선택하여, 해당 콘텐트 유닛을 다운로드하고, 클라이언트 앱에 탑재하여 실행할 수 있다.To this end, the extended reality content authoring system (100) accesses the platform service through a client app (or a common framework), selects one of a plurality of content units uploaded to the platform service based on user input, downloads the content unit, and loads and executes the content unit on the client app.

나아가, 위에서 살펴본 본 발명은, 전자기기에서 하나 이상의 프로세스에 의하여 실행되며, 컴퓨터로 판독될 수 있는 기록매체에 저장된 프로그램으로서 구현될 수 있다.Furthermore, the present invention discussed above can be implemented as a program executed by one or more processes in an electronic device and stored in a computer-readable recording medium.

따라서, 본 발명은 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드 또는 명령어로서 구현하는 것이 가능하다. 즉, 본 발명에 따른 다양한 제어방법은 통합된, 또는 개별적인 프로그램의 형태로 제공될 수 있다.Accordingly, the present invention can be implemented as a computer-readable code or command on a medium in which a program is recorded. That is, various control methods according to the present invention can be provided in the form of an integrated or individual program.

한편, 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽힐 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다.Meanwhile, computer-readable media include all types of recording devices that store data that can be read by a computer system. Examples of computer-readable media include hard disk drives (HDDs), solid state disks (SSDs), silicon disk drives (SDDs), ROMs, RAMs, CD-ROMs, magnetic tapes, floppy disks, and optical data storage devices.

나아가, 컴퓨터가 읽을 수 있는 매체는, 저장소를 포함하며 전자기기가 통신을 통하여 접근할 수 있는 서버 또는 클라우드 저장소일 수 있다. 이 경우, 컴퓨터는 유선 또는 무선 통신을 통하여, 서버 또는 클라우드 저장소로부터 본 발명에 따른 프로그램을 다운로드 받을 수 있다.Furthermore, the computer-readable medium may be a server or cloud storage that includes storage and that the electronic device can access through communication. In this case, the computer can download the program according to the present invention from the server or cloud storage through wired or wireless communication.

나아가, 본 발명에서는 위에서 설명한 컴퓨터는 프로세서, 즉 CPU(Central Processing Unit, 중앙처리장치)가 탑재된 전자기기로서, 그 종류에 대하여 특별한 한정을 두지 않는다.Furthermore, in the present invention, the computer described above is an electronic device equipped with a processor, i.e., a CPU (Central Processing Unit), and there is no particular limitation on its type.

한편, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.Meanwhile, the above detailed description should not be construed as restrictive in all respects but should be considered as illustrative. The scope of the present invention should be determined by a reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

Claims (10)

스튜디오 저작도구를 이용하여, 확장 현실(XR, eXtended Reality) 콘텐트에서 오브젝트와 장면(Scene)으로 구성된 유닛 콘텐트를 저작하는 단계;
빌더를 이용하여, 기 설정된 디바이스에서 실행 가능한 프로그램으로 사전 컴파일되는 공통 프레임워크를 구축하는 단계; 및
상기 확장 현실 콘텐트를 저작하도록 상기 사전 컴파일된 공통 프레임워크의 실행에 기반하여, 상기 유닛 콘텐트를 상기 공통 프레임워크에 연결하는 단계를 포함하는, 확장 현실 콘텐트 저작 방법.
A step for creating unit content consisting of objects and scenes in extended reality (XR) content using a studio authoring tool;
A step of building a common framework that is precompiled into an executable program on a preset device using a builder; and
A method for authoring extended reality content, comprising a step of linking the unit content to the common framework based on execution of the precompiled common framework to author the extended reality content.
제1 항에 있어서, 상기 유닛 콘텐트는,
상기 스튜디오 저작도구를 이용하여 저작되고, 유닛 컴파일러를 통하여 코드 및 리소스 부분으로 컴파일되어 상기 공통 프레임워크에 연결되는 것을 특징으로 하는, 확장 현실 콘텐트 저작 방법.
In the first paragraph, the unit content is,
A method for authoring extended reality content, characterized in that the content is authored using the above studio authoring tool, compiled into code and resource parts through a unit compiler, and linked to the common framework.
제2 항에 있어서,
상기 코드는, 상기 공통 프레임워크와 연결가능한 콜백(Callback) 함수로 구현되고, 상기 컴파일을 통하여 동적 프로그램 요소로 변환되며,
상기 리소스는, 상기 공통 프레임워크의 리소스 데이터베이스(Resource DB)를 통하여 동적 참조가 가능한 오브젝트로 변환되는 것을 특징으로 하는, 확장 현실 콘텐트 저작 방법.
In the second paragraph,
The above code is implemented as a callback function that can be linked to the common framework, and is converted into a dynamic program element through the compilation.
A method for authoring extended reality content, characterized in that the above resource is converted into an object that can be dynamically referenced through a resource database (Resource DB) of the common framework.
제1 항에 있어서, 상기 공통 프레임워크는,
서로 다른 서비스에서 각각 사용될 수 있는 공통 기능 요소를 프레임워크(Framework) 앱으로 구현한 것을 특징으로 하는, 확장 현실 콘텐트 저작 방법.
In the first paragraph, the common framework,
A method of authoring extended reality content, characterized by implementing common functional elements that can be used in different services as a framework app.
제4 항에 있어서, 상기 유닛 콘텐트는,
상기 서로 다른 서비스에 대하여, 각각의 개별 서비스에 해당하는 상기 오브젝트 및 상기 장면이 포함되도록 저작되는 것을 특징으로 하는, 확장 현실 콘텐트 저작 방법.
In the fourth paragraph, the unit content is,
An extended reality content authoring method characterized in that, for the different services described above, the objects and scenes corresponding to each individual service are authored to be included.
제1 항에 있어서, 상기 유닛 콘텐트를 저작하는 단계는,
상기 스튜디오 저작도구의 실행에 근거하여, 상기 스튜디오 저작도구에 상기 오브젝트를 로딩하는 단계;
상기 오브젝트를 상기 장면에 배치하고, 상기 장면의 전환을 구성하는 스토리 콘텐트를 저작하는 단계; 및
협업과 관련된 상기 오브젝트의 속성이나 멀티모달을 지정하여 협업 컨텍스트(Context) 상호작용을 저작하는 단계를 포함하는, 확장 현실 콘텐트 저작 방법.
In the first paragraph, the step of authoring the unit content is:
A step of loading the object into the studio authoring tool based on the execution of the studio authoring tool;
A step of placing the above object in the above scene and creating a story content that constitutes the transition of the above scene; and
A method for authoring extended reality content, comprising the step of authoring a collaborative context interaction by specifying properties or multimodality of the above objects related to collaboration.
제6 항에 있어서, 상기 공통 프레임워크를 구축하는 단계는,
상기 빌더를 통하여 데이터 연동, 아바타 동기화 및 협업 공간의 동기화 중 적어도 하나를 저작하는 것을 특징으로 하는, 확장 현실 콘텐트 저작 방법.
In the sixth paragraph, the step of constructing the common framework comprises:
A method for authoring extended reality content, characterized by authoring at least one of data linkage, avatar synchronization, and collaboration space synchronization through the above builder.
제1 항에 있어서,
상기 확장 현실 콘텐트가 실행되며, 상기 디바이스에 탑재되는 확장 현실 어플리케이션을 생성하는 단계를 더 포함하는, 확장 현실 콘텐트 저작 방법.
In the first paragraph,
A method for authoring extended reality content, further comprising the step of generating an extended reality application loaded on the device, wherein the extended reality content is executed.
제8 항에 있어서, 상기 확장 현실 어플리케이션은,
상기 빌더에서 특정 서비스에 해당하는 유닛 콘텐트를 상기 공통 프레임워크에 연결하여 상기 특정 서비스 별로 생성되거나, 또는
상기 빌더에서 공용 어플리케이션으로 생성되어, 상기 특정 서비스에 해당하는 유닛 콘텐트가 상기 공용 어플리케이션에 탑재됨에 따라, 상기 특정 서비스를 제공하는 것을 특징으로, 확장 현실 콘텐트 저작 방법.
In the 8th paragraph, the extended reality application,
In the above builder, unit content corresponding to a specific service is linked to the above common framework and created for each specific service, or
A method for authoring extended reality content, characterized in that the specific service is provided by generating a public application from the above builder and loading unit content corresponding to the specific service into the public application.
전자기기에서 하나 이상의 프로세스에 의하여 실행되며, 컴퓨터로 판독될 수 있는 기록매체에 저장된 프로그램으로서,
상기 프로그램은,
스튜디오 저작도구를 이용하여, 확장 현실 콘텐트에서 오브젝트와 장면으로 구성된 유닛 콘텐트를 저작하는 단계;
빌더를 이용하여, 기 설정된 디바이스에서 실행 가능한 프로그램으로 사전 컴파일되는 공통 프레임워크를 구축하는 단계; 및
상기 확장 현실 콘텐트를 저작하도록 상기 사전 컴파일된 공통 프레임워크의 실행에 기반하여, 상기 유닛 콘텐트를 상기 공통 프레임워크에 연결하는 단계를 수행하도록 하는 명령어들을 포함하는 것을 특징으로 하는 컴퓨터로 판독될 수 있는 기록매체에 저장된 프로그램.
A program that is executed by one or more processes on an electronic device and stored on a computer-readable recording medium.
The above program is,
A step of authoring unit content consisting of objects and scenes in extended reality content using a studio authoring tool;
A step of building a common framework that is precompiled into an executable program on a preset device using a builder; and
A program stored on a computer-readable recording medium, characterized in that it includes instructions for performing a step of linking the unit content to the common framework based on the execution of the precompiled common framework to author the extended reality content.
KR1020230161482A 2023-04-12 2023-11-20 Xr content authoring method and system Pending KR20240152204A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2024/005470 WO2025110372A1 (en) 2023-04-12 2024-04-23 Extended reality content creation method and system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20230048303 2023-04-12
KR1020230048303 2023-04-12

Publications (1)

Publication Number Publication Date
KR20240152204A true KR20240152204A (en) 2024-10-21

Family

ID=93287993

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230161482A Pending KR20240152204A (en) 2023-04-12 2023-11-20 Xr content authoring method and system

Country Status (2)

Country Link
KR (1) KR20240152204A (en)
WO (1) WO2025110372A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10575067B2 (en) * 2017-01-04 2020-02-25 Samsung Electronics Co., Ltd. Context based augmented advertisement
JP6340675B1 (en) * 2017-03-01 2018-06-13 株式会社Jストリーム Object extraction device, object recognition system, and metadata creation system
KR102268013B1 (en) * 2019-10-21 2021-06-21 서인호 Method, apparatus and computer readable recording medium of rroviding authoring platform for authoring augmented reality contents
KR102352225B1 (en) * 2021-05-27 2022-01-18 정주현 System for providing cloud based application making service
KR102546228B1 (en) * 2021-11-26 2023-06-22 주식회사 렛시 Augmented reality content authoring method of multi-scene structure by scene unitization, storage medium in which a program executing the same, and augmented reality content authoring system including the same

Also Published As

Publication number Publication date
WO2025110372A1 (en) 2025-05-30

Similar Documents

Publication Publication Date Title
Krauß et al. Elements of xr prototyping: Characterizing the role and use of prototypes in augmented and virtual reality design
Webb et al. Beginning kinect programming with the microsoft kinect SDK
US20190340832A1 (en) Seamless switching between an authoring view and a consumption view of a three-dimensional scene
US20170302709A1 (en) Virtual meeting participant response indication method and system
AU2018298474A1 (en) Virtual meeting participant response indication method and system
Yigitbas et al. Design and evaluation of a collaborative UML modeling environment in virtual reality
Baldauf et al. Your browser is the controller: advanced web-based smartphone remote controls for public screens
US20130117704A1 (en) Browser-Accessible 3D Immersive Virtual Events
US8645489B1 (en) Systems and methods for the developing content and applications in hosted and non-hosted development environments
Salimian et al. Imrce: A unity toolkit for virtual co-presence
KR102860506B1 (en) Ai-based interactive avatar-talk providing device and method
KR20240152204A (en) Xr content authoring method and system
Shurtz Application Sharing from Mobile Devices with a Collaborative Shared Display
Massidda et al. Designing Hybrid and XR narrative applications: a Framework to describe Authoring Tools in cultural domain
Vroegop Microsoft HoloLens Developer's Guide
KR20230160534A (en) Metaverse environment-based exhibition platform service providing method, device and system
Odom HoloLens Beginner's Guide
Newnham Microsoft HoloLens By Example
CN118764686B (en) Method and device for generating media file
US20230122666A1 (en) Cloud xr-based program virtualizing method
KR102826855B1 (en) Method and device for providing grouped virtual classroom object in a virtual tutorial world
Hestman The potential of utilizing bim models with the webgl technology for building virtual environments-a web-based prototype within the virtual hospital field
WO2024221336A1 (en) Computer-implemented virtual environment
Lourenço Augmented and Virtual Reality for Enhanced Presence in Cultural Institutions
Jusoh et al. VR First Aid: Step by Step Development Process

Legal Events

Date Code Title Description
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000