KR102741006B1 - Method and apparatus for providing live home shopping in metaverse - Google Patents
Method and apparatus for providing live home shopping in metaverse Download PDFInfo
- Publication number
- KR102741006B1 KR102741006B1 KR1020230083051A KR20230083051A KR102741006B1 KR 102741006 B1 KR102741006 B1 KR 102741006B1 KR 1020230083051 A KR1020230083051 A KR 1020230083051A KR 20230083051 A KR20230083051 A KR 20230083051A KR 102741006 B1 KR102741006 B1 KR 102741006B1
- Authority
- KR
- South Korea
- Prior art keywords
- content
- home shopping
- avatar
- user
- avatars
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
- 
        - G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0641—Electronic shopping [e-shopping] utilising user interfaces specially adapted for shopping
- G06Q30/0643—Electronic shopping [e-shopping] utilising user interfaces specially adapted for shopping graphically representing goods, e.g. 3D product representation
 
- 
        - G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
 
- 
        - G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0207—Discounts or incentives, e.g. coupons or rebates
 
- 
        - G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
 
- 
        - G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
 
- 
        - G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
 
- 
        - H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/2187—Live feed
 
- 
        - H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/254—Management at additional data server, e.g. shopping server, rights management server
- H04N21/2542—Management at additional data server, e.g. shopping server, rights management server for selling goods, e.g. TV shopping
 
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Finance (AREA)
- Accounting & Taxation (AREA)
- Strategic Management (AREA)
- Marketing (AREA)
- General Engineering & Computer Science (AREA)
- Economics (AREA)
- General Business, Economics & Management (AREA)
- Development Economics (AREA)
- Tourism & Hospitality (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Resources & Organizations (AREA)
- Computer Hardware Design (AREA)
- Primary Health Care (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- General Health & Medical Sciences (AREA)
- Computer Graphics (AREA)
- Entrepreneurship & Innovation (AREA)
- Health & Medical Sciences (AREA)
- Game Theory and Decision Science (AREA)
- Human Computer Interaction (AREA)
- Information Transfer Between Computers (AREA)
Abstract
본 발명에 따른 라이브홈쇼핑 제공방법은, 유저로부터 메타버스 내에 배치된 소정 오브젝트에 대한 사용 요청을 수신하는 단계, 소정 오브젝트에 대한 상기 유저의 사용권한을 판단하는 단계, 유저에게 사용권한이 있다고 판단되면, 상기 유저로부터 라이브홈쇼핑 콘텐츠를 실시간으로 수신하는 단계, 및 라이브홈쇼핑 콘텐츠를 상기 소정 오브젝트 상에 오버랩하여 디스플레이하는 단계를 포함한다. 본 발명에 따르면, 현실공간의 사용자에게 가상공간 내 소정 오브젝트에 대한 사용권을 부여하고, 사용자 콘텐츠를 가상공간의 오브젝트 상에 실시간으로 디스플레이함으로써, 새로운 수익 창출 환경 및 서비스 품질을 개선할 수 있다.A method for providing live home shopping according to the present invention includes the steps of receiving a request for use of a predetermined object placed in a metaverse from a user, the step of determining the user's usage right for the predetermined object, the step of receiving live home shopping content from the user in real time if it is determined that the user has the usage right, and the step of displaying the live home shopping content by overlapping it on the predetermined object. According to the present invention, by granting a user in a real space the usage right for a predetermined object in a virtual space and displaying user content on an object in the virtual space in real time, a new revenue-generating environment and service quality can be improved.
      
Description
본 발명은 메타버스와 같은 가상환경에서 라이브홈쇼핑을 제공하는 방법 및 장치에 관한 것이다.The present invention relates to a method and device for providing live home shopping in a virtual environment such as a metaverse.
최근, 컴퓨터 그래픽 기술을 응용한 가상현실(Virtual Reality), 증강현실(Augmented Reality) 및 혼합현실(Mixed Reality) 기술이 발달하고 있다.Recently, Virtual Reality, Augmented Reality, and Mixed Reality technologies that apply computer graphics technology are being developed.
여기서, 가상현실 기술은, 컴퓨터를 이용하여 현실 세계에 존재하지 않는 가상 공간을 구축한 후 그 가상 공간을 현실처럼 느끼게 하는 기술을 말하고, 증강현실 또는 혼합현실 기술은, 현실 세계 위에 컴퓨터에 의해 생성된 정보를 덧붙여 표현하는 기술, 즉 현실 세계와 가상 세계를 결합함으로써 실시간으로 사용자와 상호작용이 이루어지도록 하는 기술을 말한다.Here, virtual reality technology refers to a technology that uses a computer to create a virtual space that does not exist in the real world and then makes that virtual space feel real, while augmented reality or mixed reality technology refers to a technology that adds computer-generated information on top of the real world and expresses it, that is, a technology that allows real-time interaction with users by combining the real world and the virtual world.
이들 중 증강현실과 혼합현실 기술은, 다양한 분야의 기술(예컨대, 방송 기술, 의료 기술 및 게임 기술 등)들과 접목되어 활용되고 있다.Among these, augmented reality and mixed reality technologies are being utilized in conjunction with technologies in various fields (e.g., broadcasting technology, medical technology, and game technology).
TV에서 일기 예보를 하는 기상 캐스터 앞의 날씨 지도가 자연스럽게 바뀌는 경우나, 스포츠 중계에서 경기장에 존재하지 않는 광고 이미지를 경기장에 실제로 존재하는 것처럼 화면에 삽입하여 송출하는 경우가 방송 기술 분야에 증강현실 기술이 접목되어 활용된 대표적인 예이다.Representative examples of augmented reality technology being applied to broadcasting technology include cases where a weather map changes naturally in front of a weathercaster giving a weather forecast on TV, or where advertising images that do not exist in the stadium are inserted into the screen and broadcast as if they were actually in the stadium during a sports broadcast.
특히, 이러한 증강현실과 혼합현실 기술은, 스마트폰(Smart phone)의 등장과 함께 다양한 응용 서비스로 구현되어 제공되고 있다.In particular, these augmented reality and mixed reality technologies are being implemented and provided as various application services with the advent of smartphones.
증강현실 또는 혼합현실을 사용자에게 제공하는 대표적인 서비스로서, 메타버스(Meta-verse)가 있는데, 이 메타버스는, 가공, 추상을 의미하는 '메타(Meta)'와 현실세계를 의미하는 '유니버스(Universe)'의 합성어로 3차원 가상 세계를 의미한다.As a representative service that provides users with augmented reality or mixed reality, there is the Metaverse. The Metaverse is a compound word of 'Meta', meaning fiction or abstraction, and 'Universe', meaning the real world, and refers to a three-dimensional virtual world.
메타버스는, 기존의 가상현실 환경(Virtual reality environment)이라는 용어보다 진보된 개념으로서, 웹과 인터넷 등의 가상세계가 현실세계에 흡수된 증강 현실 환경을 제공한다.The metaverse is a more advanced concept than the existing virtual reality environment, and provides an augmented reality environment in which the virtual world, such as the web and the Internet, is absorbed into the real world.
하지만, 이러한 메타버스는, 현실공간에서 제작한 사용자 콘텐츠를 메타버스의 가상공간에서 실시간으로 재생시킬 수 있는 현실연동 콘텐츠 재생 서비스 기술이 개발되지 않아서 현실공간의 콘텐츠 제작자에게 새로운 수익을 창출할 수 있는 수익 창출 환경이 열악하고, 메타버스 내에서 다양한 콘텐츠 재생이 원할하지 않아서 서비스 품질이 저하되는 문제들이 잇었다.However, this metaverse has poor revenue-generating environments for content creators in the real world to generate new revenue because the technology for real-time content playback service that can play user content created in the real world in the virtual space of the metaverse has not been developed, and there have been problems such as poor service quality due to unsatisfactory playback of various content within the metaverse.
따라서, 향후, 현실공간의 사용자 콘텐츠를 메타버스 내 가상공간에서 실시간으로 재생하여 새로운 수익 창출 환경 및 서비스 품질을 개선할 수 있는 메타버스 내 현실연동 콘텐츠 제공 장치의 개발이 요구되고 있다.Therefore, in the future, there is a need to develop a reality-linked content provision device within the metaverse that can improve the new revenue-generating environment and service quality by playing real-time user content from the real space in the virtual space within the metaverse.
          
본 발명의 목적은, 현실공간의 사용자에게 가상공간 내 소정 오브젝트에 대한 사용권을 부여하고, 사용자 콘텐츠를 가상공간의 오브젝트 상에 실시간으로 디스플레이함으로써, 새로운 수익 창출 환경 및 서비스 품질을 개선할 수 있는 메타버스 내 라이브홈쇼핑 제공 장치, 방법 및 프로그램을 제공하는 것이다.The purpose of the present invention is to provide a device, method, and program for providing live home shopping in a metaverse, which can improve a new profit-generating environment and service quality by granting a user in a real space the right to use a certain object in a virtual space and displaying user content on an object in the virtual space in real time.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the description below.
상기 목적을 달성하기 위한 본 발명에 따른 라이브홈쇼핑 제공방법은, 유저로부터 메타버스 내에 배치된 소정 오브젝트에 대한 사용 요청을 수신하는 단계, 상기 소정 오브젝트에 대한 상기 유저의 사용권한을 판단하는 단계, 상기 유저에게 사용권한이 있다고 판단되면, 상기 유저로부터 라이브홈쇼핑 콘텐츠를 실시간으로 수신하는 단계, 및 상기 라이브홈쇼핑 콘텐츠를 상기 소정 오브젝트 상에 오버랩하여 디스플레이하는 단계를 포함한다.A method for providing live home shopping according to the present invention for achieving the above purpose includes the steps of receiving a request for use of a predetermined object placed in a metaverse from a user, determining the user's usage authority for the predetermined object, receiving live home shopping content from the user in real time if it is determined that the user has usage authority, and displaying the live home shopping content by overlapping it on the predetermined object.
그리고, 상기 소정 오브젝트는 편평한 면을 구비한 객체일 수 있다.And, the above-mentioned predetermined object may be an object having a flat surface.
또한, 상기 소정 오브젝트는 스크린, 건물외벽, 건물내벽, 담, 벽, 및 광고판 중 어느 하나일 수 있다.Additionally, the above-mentioned predetermined object may be any one of a screen, a building exterior wall, a building interior wall, a fence, a wall, and a billboard.
그리고, 상기 유저의 요청에 기초하여, 라이브홈쇼핑 콘텐츠 재생용 아이템을 제공하는 단계;를 더 포함하고, 상기 라이브홈쇼핑 콘텐츠 재생용 아이템의 소유 여부에 기초하여, 상기 사용권한의 유무를 판단할 수 있다.And, based on the request of the user, the step of providing an item for playing live home shopping content is further included; and based on whether the user owns the item for playing live home shopping content, the presence or absence of the usage right can be determined.
또한, 상기 소정 오브젝트에 인접한 아바타의 개수를 산정하는 단계; 및 상기 아바타의 개수에 기초하여, 상기 소정 오브젝트에 인접한 각각의 아바타에게 리워드를 제공하는 단계;를 더 포함할 수 있다.In addition, the method may further include: calculating the number of avatars adjacent to the predetermined object; and providing a reward to each avatar adjacent to the predetermined object based on the number of avatars.
그리고, 상기 아바타의 개수를 산정하는 단계는, 상기 소정 오브젝트를 중심으로 소정 반경 이내에 위치하는 아바타의 개수를 산정할 수 있다.And, the step of calculating the number of avatars can calculate the number of avatars located within a predetermined radius centered on the predetermined object.
또한, 상기 라이브홈쇼핑 콘텐츠에 대한 실질관람여부를 판단하는 단계;를 더 포함하고, 상기 아바타의 개수는, 상기 라이브홈쇼핑 콘텐츠를 실질적으로 관람하는 아바타만을 포함할 수 있다.In addition, the method further includes a step of determining whether the live home shopping content has actually been viewed; and the number of avatars may include only avatars that have actually viewed the live home shopping content.
그리고, 상기 실질관람여부를 판단하는 단계는, 상기 소정 오브젝트를 중심으로 소정 반경 이내에 위치하는 아바타의 시선을 추출하는 단계; 및 상기 시선 내에 상기 소정 오브젝트의 전부 또는 일부가 포함되는 아바타만을 카운팅하는 단계;를 포함할 수 있다.And, the step of determining whether or not the actual viewing has occurred may include a step of extracting the line of sight of an avatar located within a predetermined radius centered on the predetermined object; and a step of counting only avatars that include all or part of the predetermined object within the line of sight.
또한, 상기 리워드를 제공하는 단계는, 상기 아바타의 개수에 기초하여 결정된 리워드를 상기 소정 오브젝트에 인접한 각각의 아바타에게 제공할 수 있다.Additionally, the step of providing the reward may provide a reward determined based on the number of avatars to each avatar adjacent to the predetermined object.
그리고, 상기 소정 오브젝트에 인접한 아바타의 개수를 산정하는 단계; 및 상기 아바타의 개수에 기초하여, 상기 라이브홈쇼핑 콘텐츠를 전송한 상기 유저에게 리워드를 제공하는 단계;를 더 포함할 수 있다.And, the method may further include a step of calculating the number of avatars adjacent to the predetermined object; and a step of providing a reward to the user who transmitted the live home shopping content based on the number of avatars.
또한, 상기 소정 오브젝트에 인접한 제1 아바타로부터 제2 아바타의 소환요청을 수신하는 단계; 상기 소환요청 신호를 상기 제2 아바타에게 전달하는 단계; 및 상기 제2 아바타로부터 상기 소환요청 신호에 대한 수용 신호를 수신하면, 상기 제2 아바타를 상기 제1 아바타에 근접한 위치로 이동시키는 단계;를 더 포함할 수 있다.In addition, the method may further include: receiving a summoning request of a second avatar from a first avatar adjacent to the predetermined object; transmitting the summoning request signal to the second avatar; and moving the second avatar to a position close to the first avatar when receiving an acceptance signal for the summoning request signal from the second avatar.
또한, 상기 라이브홈쇼핑 콘텐츠에 포함된 상품의 상품 정보를 제공하는 단계; 및 실시간으로 산출되는 상기 아바타의 개수에 기초하여 상기 상품 정보를 실시간으로 변경하는 단계;를 더 포함할 수 있다.In addition, the method may further include a step of providing product information of a product included in the live home shopping content; and a step of changing the product information in real time based on the number of avatars calculated in real time.
그리고, 상기 상품 정보는 상기 상품의 가격, 할인율 및 사은품 정보 중 적어도 하나를 포함할 수 있다.In addition, the product information may include at least one of the product's price, discount rate, and gift information.
한편, 상기 목적을 달성하기 위한 본 발명에 따른 라이브홈쇼핑 제공장치는, 메타버스 공간 상에 영상 콘텐츠를 재생하기 위한 소정 오브젝트를 생성하는 메타버스 공간 생성부; 및 유저 요청에 기초하여 라이브홈쇼핑 콘텐츠를 상기 소정 오브젝트 상에 오버랩하여 디스플레이하는 현실연동 콘텐츠 제공부;를 포함하며, 상기 현실연동 콘텐츠 제공부는, 유저로부터 상기 소정 오브젝트에 대한 사용 요청을 수신하면 상기 소정 오브젝트에 대한 상기 유저의 사용권한을 판단하고, 상기 유저에게 상기 소정 오브젝트에 대한 사용권한이 있다고 판단되면, 상기 유저로부터 라이브홈쇼핑 콘텐츠를 실시간으로 수신하며, 수신된 상기 라이브홈쇼핑 콘텐츠를 실시간으로 디스플레이한다.Meanwhile, a live home shopping providing device according to the present invention for achieving the above object includes a metaverse space generating unit for generating a predetermined object for playing back video content in a metaverse space; and a reality-linked content providing unit for overlapping and displaying live home shopping content on the predetermined object based on a user request, wherein the reality-linked content providing unit determines whether the user has a usage right for the predetermined object when receiving a request for use of the predetermined object from a user, and if it is determined that the user has a usage right for the predetermined object, receives live home shopping content from the user in real time and displays the received live home shopping content in real time.
그리고, 상기 소정 오브젝트는 스크린, 건물외벽, 건물내벽, 담, 벽, 및 광고판 중 어느 하나일 수 있다.And, the above-mentioned predetermined object may be any one of a screen, a building exterior wall, a building interior wall, a fence, a wall, and a billboard.
또한, 상기 현실연동 콘텐츠 제공부는, 상기 유저의 요청에 기초하여 라이브홈쇼핑 콘텐츠 재생용 아이템을 제공하고, 상기 라이브홈쇼핑 콘텐츠 재생용 아이템의 소유 여부에 기초하여 상기 사용권한의 유무를 판단할 수 있다.In addition, the reality-linked content provider can provide an item for playing live home shopping content based on the user's request, and determine whether or not the user has the usage rights based on whether or not the user owns the item for playing live home shopping content.
그리고, 상기 소정 오브젝트에 인접한 아바타의 개수를 산정하고, 상기 아바타의 개수에 기초하여, 상기 소정 오브젝트에 인접한 각각의 아바타에게 리워드를 제공하는 리워드 제공부;를 더 포함할 수 있다.And, the method may further include a reward providing unit that calculates the number of avatars adjacent to the given object and provides a reward to each avatar adjacent to the given object based on the number of avatars.
또한, 상기 소정 오브젝트를 중심으로 소정 반경 이내에 위치하는 아바타의 시선을 추출하고, 상기 시선 내에 상기 소정 오브젝트의 전부 또는 일부가 포함되는지에 기초하여 실질관람 여부를 판단하는 실질관람 판단부;를 더 포함하고, 상기 아바타의 개수는 상기 실질관람 여부에 기초하여 산정될 수 있다.In addition, the method further includes an actual viewing judgment unit that extracts the line of sight of avatars located within a predetermined radius centered on the predetermined object and determines whether actual viewing has occurred based on whether all or part of the predetermined object is included within the line of sight; and the number of avatars can be calculated based on whether actual viewing has occurred.
그리고, 상기 리워드 제공부는, 상기 아바타의 개수에 기초하여, 상기 라이브홈쇼핑 콘텐츠를 전송한 상기 유저에게 리워드를 제공할 수 있다.In addition, the reward providing unit can provide a reward to the user who transmitted the live home shopping content based on the number of avatars.
또한, 상기 현실연동 콘텐츠 제공부는, 상기 라이브홈쇼핑 콘텐츠에 포함된 상품의 상품 정보를 제공하되, 실시간으로 산출되는 상기 아바타의 개수에 기초하여 상기 상품 정보를 실시간으로 변경하고, 상기 상품 정보는 상기 상품의 가격, 할인율 및 사은품 정보 중 적어도 하나를 포함할 수 있다.In addition, the reality-linked content providing unit provides product information of a product included in the live home shopping content, and changes the product information in real time based on the number of avatars calculated in real time, and the product information may include at least one of the price, discount rate, and gift information of the product.
본 발명에 따르면, 현실공간의 사용자에게 가상공간 내 소정 오브젝트에 대한 사용권을 부여하고, 사용자 콘텐츠를 가상공간의 오브젝트 상에 실시간으로 디스플레이함으로써, 새로운 수익 창출 환경 및 서비스 품질을 개선할 수 있다.According to the present invention, by granting a user in a real space the right to use a given object in a virtual space and displaying user content in real time on the object in the virtual space, a new profit-generating environment and service quality can be improved.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.
         도 1은 본 발명에 따른 장치(혹은 서버)를 설명하기 위한 개략도이다.
도 2는 도 1의 서버를 설명하기 위한 블럭 구성도이다.
도 3은 본 발명에 따른 메타버스 내 현실연동 콘텐츠의 디스플레이 과정을 설명하기 위한 도면이다.
도 4는 도 3의 콘텐츠 재생 아이템 구매 목록을 설명하기 위한 도면이다.
도 5 내지 8은 본 발명에 따른 메타버스 내 현실연동 콘텐츠의 관람에 따른 리워드 제공 과정을 설명하기 위한 도면이다.
도 9 내지 12는 본 발명에 따른 방법을 설명하기 위한 흐름도이다.
도 13은 본 발명에 따른 방법의 또 다른 실시예를 나타내는 흐름도이다.
도 14는 본 발명에 따른 방법 및 장치에 있어서 현실연동 콘텐츠에 대한 실질관람 여부를 판단하는 방법을 설명하기 위한 도면이다.
도 15는 본 발명에 따른 방법 및 장치에 있어서 실질관람 여부를 판단하기 위한 AI모델의 학습 방법을 설명하기 위한 도면이다.
도 16은 본 발명에 따른 방법 및 장치에 있어서, 시선정보나 유저 스테이터스 정보를 획득할 대상인 아바타를 선정하는 방법을 나타내는 개략도이다.
도 17은 본 발명에 따른 방법 및 장치에 있어서 아바타 시선 정보에 기초한 콘텐츠 관람여부 판단방식을 도시한 개략도이다.
도 18은 본 발명에 따른 방법 및 장치에 있어서 콘텐츠 관람시간 판단방식을 설명하기 위한 개략도이다.
도 19는 본 발명에 따른 방법 및 장치에 있어서 유저 디바이스의 화면정보에 기초한 콘텐츠 관람여부 판단방식을 설명하기 위한 도면이다.
도 20은 본 발명에 따른 방법 및 장치에 있어서 안구전도(EOG, electrooculogram)를 이용하여 추출된 유저 시선정보에 기초한 콘텐츠 관람여부 판단방식을 설명하기 위한 도면이다.
도 21은 본 발명에 따른 방법 및 장치에 있어서 유저 시선정보를 추출하기 위한 HMD 구조 및 유저 시선정보에 기초한 콘텐츠 관람여부 판단방식을 설명하기 위한 도면이다. 
도 22는 본 발명에 따른 장치(또는 서버)의 구성을 나타내는 블록도이다.Figure 1 is a schematic diagram for explaining a device (or server) according to the present invention.
 Figure 2 is a block diagram for explaining the server of Figure 1.
 Figure 3 is a drawing for explaining the display process of reality-linked content in the metaverse according to the present invention.
 Figure 4 is a drawing for explaining the purchase list of content playback items of Figure 3.
 Figures 5 to 8 are drawings for explaining the process of providing rewards for viewing reality-linked content in the metaverse according to the present invention.
 Figures 9 to 12 are flowcharts for explaining a method according to the present invention.
 Figure 13 is a flow chart showing another embodiment of a method according to the present invention.
 FIG. 14 is a drawing for explaining a method for determining whether or not actual viewing of reality-linked content has occurred in a method and device according to the present invention.
 FIG. 15 is a diagram for explaining a learning method of an AI model for determining whether or not actual viewing has occurred in a method and device according to the present invention.
 FIG. 16 is a schematic diagram showing a method for selecting an avatar as a target for acquiring gaze information or user status information in a method and device according to the present invention.
 FIG. 17 is a schematic diagram illustrating a method for determining whether to view content based on avatar gaze information in a method and device according to the present invention.
 Figure 18 is a schematic diagram for explaining a method for determining content viewing time in a method and device according to the present invention.
 FIG. 19 is a drawing for explaining a method for determining whether to view content based on screen information of a user device in a method and device according to the present invention.
 FIG. 20 is a drawing for explaining a method for determining whether to view content based on user gaze information extracted using electrooculogram (EOG) in a method and device according to the present invention.
 FIG. 21 is a drawing for explaining an HMD structure for extracting user gaze information and a method for determining whether to view content based on user gaze information in a method and device according to the present invention.
 Figure 22 is a block diagram showing the configuration of a device (or server) according to the present invention.
      
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 개시는, 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 개시가 완전하도록 하고, 본 개시가 속하는 기술 분야의 통상의 기술자에게 본 개시의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 개시는, 청구항의 범주에 의해 정의될 뿐이다.The advantages and features of the present invention, and the methods for achieving them, will become clearer with reference to the embodiments described in detail below together with the accompanying drawings. However, the present disclosure is not limited to the embodiments disclosed below, but may be implemented in various different forms, and these embodiments are provided only to make the present disclosure complete and to fully inform a person skilled in the art of the scope of the present disclosure, and the present disclosure is defined only by the scope of the claims.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 개시를 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 개시의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for the purpose of describing embodiments only and is not intended to limit the present disclosure. In the present disclosure, the singular also includes the plural unless the context clearly dictates otherwise. The terms “comprises” and/or “comprising” as used herein do not exclude the presence or addition of one or more other components in addition to the mentioned components. Like reference numerals refer to like components throughout the specification, and “and/or” includes each and every combination of one or more of the mentioned components. Although “first”, “second”, etc. are used to describe various components, these components are not limited by these terms. These terms are only used to distinguish one component from another. Therefore, it should be understood that a first component mentioned below may also be a second component within the technical spirit of the present disclosure.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 개시가 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used with the meaning commonly understood by those skilled in the art to which this disclosure belongs. In addition, terms defined in commonly used dictionaries shall not be ideally or excessively interpreted unless explicitly specifically defined.
이하, 첨부된 도면을 참조하여 본 개시의 실시예를 상세하게 설명한다.Hereinafter, embodiments of the present disclosure will be described in detail with reference to the attached drawings.
설명에 앞서 본 명세서에서 사용하는 용어의 의미를 간략히 설명한다. 그렇지만 용어의 설명은 본 명세서의 이해를 돕기 위한 것이므로, 명시적으로 본 개시를 한정하는 사항으로 기재하지 않은 경우에 본 개시의 기술적 사상을 한정하는 의미로 사용하는 것이 아님을 주의해야 한다.Before the explanation, the meaning of terms used in this specification is briefly explained. However, since the explanation of terms is intended to help the understanding of this specification, it should be noted that they are not used in a meaning that limits the technical idea of this disclosure unless explicitly stated to limit the disclosure.
도 1은 본 개시에 따른 메타버스 내 현실연동 콘텐츠 제공 장치를 설명하기 위한 개략도이고, 도 2는 도 1의 서버를 설명하기 위한 블럭 구성도이다.FIG. 1 is a schematic diagram for explaining a device for providing reality-linked content within a metaverse according to the present disclosure, and FIG. 2 is a block diagram for explaining the server of FIG. 1.
도 1에 도시된 바와 같이, 본 개시에 따른 메타버스 내 현실연동 콘텐츠 제공 장치는, 사용자 단말(100)에 네트워크를 통해 통신 연결되는 메타버스 서비스 플랫폼의 서버(200)와 데이터베이스(220)를 포함할 수 있다.As illustrated in FIG. 1, a device for providing reality-linked content within a metaverse according to the present disclosure may include a server (200) and a database (220) of a metaverse service platform that are connected to a user terminal (100) via a network.
여기서, 사용자 단말(100)은, PC(Personal Computer), 네트워크 TV(Network TV), HBBTV(Hybrid Broadcast Broadband TV), 스마트 TV(Smart TV), IPTV(Internet Protocol TV) 등과 같은 고정형 디바이스(standing device)와, 스마트 폰(Smart Phone), 태블릿 PC(Tablet PC), 노트북(Notebook), PDA(Personal Digital Assistant) 등과 같은 모바일 디바이스(mobile device or handheld device)가 모두 포함될 수 있다.Here, the user terminal (100) may include both a stationary device (standing device) such as a personal computer (PC), a network TV, a hybrid broadcast broadband TV (HBBTV), a smart TV, an Internet protocol TV (IPTV), and the like, and a mobile device (mobile device or handheld device) such as a smart phone, a tablet PC, a notebook, a personal digital assistant (PDA), and the like.
그리고, 사용자 단말(100)과 서버(200) 사이를 통신 연결하는 네트워크는, 유/무선 네트워크를 모두 포함하는데, 사용자 단말(100)과 서버(300) 사이에서 페어링 또는/및 데이터 송수신을 위해 다양한 통신 규격 내지 프로토콜을 지원하는 통신 네트워크를 통칭한다.And, the network that connects the user terminal (100) and the server (200) for communication includes both wired and wireless networks, and collectively refers to a communication network that supports various communication standards or protocols for pairing or/and data transmission and reception between the user terminal (100) and the server (300).
이러한 유/무선 네트워크는, 규격에 의해 현재 또는 향후 지원될 통신 네트워크를 모두 포함하며, 그를 위한 하나 또는 그 이상의 통신 프로토콜들을 모두 지원 가능하다.These wired/wireless networks include all current or future communication networks supported by the standards, and can support one or more communication protocols for them.
이러한 유/무선 네트워크에는 예컨대, USB(Universal Serial Bus), CVBS(Composite Video Banking Sync), 컴포넌트(Component), S-비디오(아날로그), DVI(Digital Visual Interface), HDMI(High Definition Multimedia Interface), RGB, D-SUB와 같은 유선 연결을 위한 네트워크와 그를 위한 통신 규격 내지 프로토콜과, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA: infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee), DLNA(Digital Living Network Alliance), WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), LTE/LTE-A(Long Term Evolution/LTE-Advanced), Wi-Fi 다이렉트(direct)와 같은 무선 연결을 위한 네트워크와 그를 위한 통신 규격 내지 프로토콜에 의하여 형성될 수 있다.These wired/wireless networks can be formed by networks for wired connections, such as USB (Universal Serial Bus), CVBS (Composite Video Banking Sync), Component, S-Video (analog), DVI (Digital Visual Interface), HDMI (High Definition Multimedia Interface), RGB, and D-SUB, and by communication standards or protocols therefor, and by networks for wireless connections, such as Bluetooth, RFID (Radio Frequency Identification), IrDA (infrared Data Association), UWB (Ultra Wideband), ZigBee, DLNA (Digital Living Network Alliance), WLAN (Wireless LAN) (Wi-Fi), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access), LTE/LTE-A (Long Term Evolution/LTE-Advanced), and Wi-Fi Direct, and by communication standards or protocols therefor.
그리고, 도 2에 도시된 바와 같이, 서버(200)는, 현실공간의 사용자 단말(100)에 통신 연결되는 통신부(210), 현실공간의 사용자 단말 정보 및 사용자 정보를 저장하는 데이터베이스(220), 그리고 메타버스의 가상공간 내 소정 오브젝트에 콘텐츠를 디스플레이하는 제어부(230)를 포함할 수 있다.And, as illustrated in FIG. 2, the server (200) may include a communication unit (210) that is connected to a user terminal (100) in a real space, a database (220) that stores user terminal information and user information in a real space, and a control unit (230) that displays content on a predetermined object in a virtual space of the metaverse.
여기서, 제어부(230)는, 사용자 단말(100)의 요청에 상응하여 콘텐츠 재생 아이템을 제공하고, 콘텐츠 재생 아이템을 소유한 사용자 단말(100)에 대해 메타버스의 가상공간 내 소정 오브젝트에 대한 사용권을 부여하며, 콘텐츠 재생 아이템을 소유한 사용자 단말(100)로부터 콘텐츠 영상이 수신되면 사용자 단말(100)에게 부여된 사용권에 상응하는 소정 오브젝트 상에 콘텐츠 영상을 디스플레이할 수 있다.Here, the control unit (230) provides a content playback item in response to a request from a user terminal (100), grants a user terminal (100) that owns the content playback item a usage right for a predetermined object in the virtual space of the metaverse, and when a content image is received from a user terminal (100) that owns the content playback item, the content image can be displayed on a predetermined object corresponding to the usage right granted to the user terminal (100).
또한, 제어부(230)는, 콘텐츠 재생 아이템을 제공하기 이전에, 메타버스의 가상공간 내에 위치하는 오브젝트들 중 콘텐츠 영상을 디스플레이할 수 있는 오브젝트들을 선정하고, 선정된 오브젝트들의 총 개수를 기반으로 콘텐츠 재생 아이템의 생성 개수를 산출하며, 산출한 생성 개수에 상응하는 콘텐츠 재생 아이템을 생성할 수 있다.In addition, the control unit (230) may, prior to providing content playback items, select objects capable of displaying content images among objects located within the virtual space of the metaverse, calculate the number of content playback items to be created based on the total number of selected objects, and generate content playback items corresponding to the calculated number of creations.
일 예로, 제어부(230)는, 콘텐츠 재생 아이템 생성 개수를, 기선정된 오브젝트들의 총 개수 이하로 산출할 수 있다.For example, the control unit (230) can calculate the number of content playback items to be created to be less than or equal to the total number of pre-selected objects.
그 이유는, 하나의 콘텐츠 재생 아이템에 하나의 오브젝트 또는 복수의 오브젝트에 대한 사용권을 부여하여 원할하고 균일하게 오브젝트를 사용하도록 하기 위함이다.The reason is to grant usage rights to one or more objects to one content playback item, thereby allowing for smooth and uniform use of the objects.
그리고, 콘텐츠 영상을 디스플레이할 수 있는 오브젝트들은, 가상공간 내에 위치하는 건물 벽면, 스크린, 광고판, 편평한 면을 갖는 고정물 등을 포함할 수 있는데, 이는 일 실시예일 뿐, 이에 한정되지 않는다.In addition, objects capable of displaying content images may include, but are not limited to, building walls, screens, billboards, and flat-surfaced fixtures located within a virtual space, but are merely examples.
다음, 제어부(230)는, 사용자 단말(100)로부터 콘텐츠 재생 아이템 획득 요청을 수신하면 데이터베이스(220)로부터 추출한 사용자 단말 정보 및 사용자 정보를 기반으로 인증을 수행하고, 인증이 완료되면 사용자 단말(100)로 콘텐츠 재생 아이템을 제공할 수 있다.Next, when the control unit (230) receives a request to acquire a content playback item from a user terminal (100), it performs authentication based on the user terminal information and user information extracted from the database (220), and when authentication is completed, it can provide the content playback item to the user terminal (100).
여기서, 제어부(230)는, 인증을 수행할 때, 데이터베이스(220) 내에 사용자 단말 정보 및 사용자 정보가 미존재하면 사용자 단말로 사용자 단말 정보 및 사용자 정보를 요청하고, 사용자 단말(100)로부터 사용자 단말 정보 및 사용자 정보를 수신하면 사용자 단말 정보 및 사용자 정보를 데이터베이스(220)에 저장하고 인증을 수행할 수 있다.Here, when performing authentication, the control unit (230) requests user terminal information and user information from the user terminal if the user terminal information and user information do not exist in the database (220), and when receiving user terminal information and user information from the user terminal (100), the control unit (230) can store the user terminal information and user information in the database (220) and perform authentication.
또한, 제어부(230)는, 인증이 완료되면 사용자 단말(100)로 제공하는 콘텐츠 재생 아이템에 식별 코드를 부여할 수도 있다.Additionally, the control unit (230) may assign an identification code to a content playback item provided to the user terminal (100) when authentication is completed.
일 예로, 식별 코드는, 숫자, 문자, 기호 및 이들의 조합 중 적어도 어느 하나를 이용하여 생성할 수 있는데, 이는 일 실시예일 뿐, 이에 한정되지 않는다.For example, the identification code may be generated using at least one of numbers, letters, symbols, and combinations thereof, but this is only an example and is not limited thereto.
다른 실시예로서, 제어부(230)는, 사용자 단말(100)로부터 콘텐츠 재생 아이템 구매 요청을 수신하면 데이터베이스(220)로부터 추출한 사용자 단말 정보 및 사용자 정보를 기반으로 인증을 수행하고, 인증이 완료되면 구매 가격이 서로 다른 콘텐츠 재생 아이템 목록을 사용자 단말(100)로 제공하며, 사용자 단말(100)이 구매 가격이 서로 다른 콘텐츠 재생 아이템 목록으로부터 어느 하나의 콘텐츠 재생 아이템을 선택하고 그에 상응하는 구매 가격을 지불하면 사용자 단말(100)로 구매 완료된 콘텐츠 재생 아이템을 제공할 수도 있다.As another embodiment, when the control unit (230) receives a content playback item purchase request from a user terminal (100), it performs authentication based on user terminal information and user information extracted from a database (220), and when authentication is completed, it provides a list of content playback items with different purchase prices to the user terminal (100), and when the user terminal (100) selects one content playback item from the list of content playback items with different purchase prices and pays the corresponding purchase price, it may provide the user terminal (100) with the completed content playback item.
여기서, 제어부(230)는, 콘텐츠 영상을 디스플레이할 수 있는 오브젝트의 사용권 레벨에 따라 콘텐츠 재생 아이템의 구매 가격을 다르게 설정할 수 있다.Here, the control unit (230) can set a different purchase price for the content playback item depending on the usage level of the object capable of displaying the content image.
일 예로, 오브젝트의 사용권 레벨은, 콘텐츠 영상을 디스플레이할 수 있는 오브젝트의 위치, 개수, 면적, 그리고 사용 기한 중 적어도 하나를 기반으로 설정될 수 있다.For example, the usage level of an object may be set based on at least one of the location, number, area, and usage period of the object that can display the content image.
즉, 사용권 레벨은, 오브젝트의 위치가 가상공간 중 아바타 수가 많은 영역일수록 높고, 오브젝트의 개수가 많을수록 높으며, 오브젝트의 면적이 클수록 높고, 오브젝트의 사용 기한이 길수록 높을 수 있다.In other words, the usage level can be higher the more the object is located in an area of virtual space with a large number of avatars, the higher the number of objects, the higher the area of the object, and the longer the usage period of the object.
이처럼, 제어부(230)는, 사용권 레벨이 높을수록 콘텐츠 재생 아이템의 구매 가격이 증가하는 콘텐츠 재생 아이템 목록을 제공할 수 있다.In this way, the control unit (230) can provide a list of content playback items in which the purchase price of the content playback item increases as the usage right level increases.
여기서, 콘텐츠 재생 아이템은, 콘텐츠 영상을 디스플레이할 수 있는 오브젝트의 위치, 개수, 면적, 그리고 사용 기한 중 적어도 하나를 포함하는 사용권 레벨을 가질 수 있다.Here, the content playback item may have a usage right level that includes at least one of the location, number, area, and usage period of an object capable of displaying the content image.
다음, 제어부(230)는, 사용권을 부여할 때, 콘텐츠 재생 아이템을 소유한 사용자 단말(100)의 사용자 레벨을 기반으로 메타버스의 가상공간 내 소정 오브젝트에 대한 사용권을 부여할 수 있다.Next, the control unit (230) may grant a usage right for a certain object within the virtual space of the metaverse based on the user level of the user terminal (100) that owns the content playback item when granting the usage right.
여기서, 제어부(230)는, 메타버스 방문 빈도 및 메타버스 이용 빈도를 기반으로 사용자 레벨을 설정하고, 설정한 사용자 레벨에 따라 서로 다른 레벨의 사용권을 부여할 수 있다.Here, the control unit (230) can set a user level based on the frequency of metaverse visits and metaverse usage, and grant different levels of usage rights according to the set user level.
이때, 제어부(230)는, 사용자 레벨이 증가할수록 사용권에 대한 레벨도 증가시킬 수 있다.At this time, the control unit (230) can increase the level of usage rights as the user level increases.
경우에 따라, 제어부(230)는, 사용자의 사회적 인지도, 선호도, 호감도, 그리고 신뢰도 중 적어도 어느 하나를 기반으로 사용자 레벨을 설정하고, 설정한 사용자 레벨에 따라 서로 다른 레벨의 사용권을 부여할 수도 있다.In some cases, the control unit (230) may set a user level based on at least one of the user's social awareness, preference, likability, and trustworthiness, and grant different levels of usage rights according to the set user level.
여기서, 제어부(230)는, 사용권을 부여할 때, 사용자 레벨에 따라 서로 다른 레벨의 사용권을 부여하고, 사용권 레벨은, 콘텐츠 영상을 디스플레이할 수 있는 오브젝트의 위치, 개수, 면적, 그리고 사용 기한 중 적어도 하나를 기반으로 설정될 수 있다.Here, the control unit (230) grants different levels of usage rights depending on the user level when granting usage rights, and the usage rights level can be set based on at least one of the location, number, area, and usage period of an object that can display content images.
또한, 제어부(230)는, 사용권을 부여할 때, 사용자 단말(100)이 구매한 콘텐츠 재생 아이템의 사용권 레벨을 기반으로 메타버스의 가상공간 내 소정 오브젝트에 대한 사용권을 부여할 수도 있다.In addition, when granting a usage right, the control unit (230) may grant a usage right for a certain object within the virtual space of the metaverse based on the usage right level of the content playback item purchased by the user terminal (100).
여기서, 사용자 단말(100)이 구매한 콘텐츠 재생 아이템의 사용권 레벨은, 콘텐츠 영상을 디스플레이할 수 있는 오브젝트의 위치, 개수, 면적, 그리고 사용 기한 중 적어도 하나를 기반으로 설정될 수 있다.Here, the usage right level of the content playback item purchased by the user terminal (100) can be set based on at least one of the location, number, area, and usage period of the object capable of displaying the content image.
이때, 사용권 레벨은, 오브젝트의 위치가 가상공간 중 아바타 수가 많은 영역일수록 높고, 오브젝트의 개수가 많을수록 높으며, 오브젝트의 면적이 클수록 높고, 오브젝트의 사용 기한이 길수록 높을 수 있다.At this time, the usage level may be higher the more the location of the object is in an area of virtual space with a large number of avatars, the higher the number of objects, the higher the area of the object, and the longer the usage period of the object.
이어, 제어부(230)는, 콘텐츠 영상을 디스플레이할 때, 사용자 단말(100)로부터 실시간으로 콘텐츠 영상을 수신하여 오브젝트 상에 콘텐츠 영상을 오버랩(overlap)하여 디스플레이할 수 있다.Next, the control unit (230) can receive the content image in real time from the user terminal (100) when displaying the content image and display it by overlapping the content image on the object.
그리고, 제어부(230)는, 오브젝트 상에 콘텐츠 영상이 디스플레이되면 콘텐츠 영상을 시청하는 아바타 수를 산정하고, 산정한 아바타 수를 기반으로 각 아바타에게 리워드(reward)를 제공할 수 있다.In addition, the control unit (230) can calculate the number of avatars watching the content video when the content video is displayed on the object, and provide a reward to each avatar based on the calculated number of avatars.
일 예로, 제어부(230)는, 아바타 수를 산정할 때, 콘텐츠 영상이 디스플레이되는 오브젝트 주변에 위치하는 각 아바타의 시선을 추적하고, 아바타의 시선 내에 상기 콘텐츠 영상의 전부 또는 일부가 포함되면 콘텐츠 영상을 시청하는 실질 관람 아바타로 인지하며, 실질 관람 아바타의 수를 카운팅하여 콘텐츠 영상을 시청하는 아바타 수를 산정할 수 있다.For example, when calculating the number of avatars, the control unit (230) can track the gaze of each avatar positioned around an object on which a content image is displayed, and if all or part of the content image is included within the gaze of the avatar, recognize the avatar as an actual viewer watching the content image, and calculate the number of avatars watching the content image by counting the number of actual viewer avatars.
다른 일 예로, 제어부(230)는, 아바타 수를 산정할 때, 콘텐츠 영상이 디스플레이되는 오브젝트 주변에 위치하는 각 아바타의 시선을 추적하고, 아바타의 시선 내에 콘텐츠 영상의 전부 또는 일부가 포함되면 콘텐츠 영상을 시청하는 실질 관람 아바타로 인지하며, 실질 관람 아바타의 수를 기반으로 콘텐츠 영상에 대한 리워드를 결정하고, 결정한 리워드를 콘텐츠 영상을 제공한 사용자 단말(100)로 전송할 수 있다.As another example, when calculating the number of avatars, the control unit (230) may track the gaze of each avatar positioned around an object on which a content image is displayed, recognize an avatar as an actual viewer watching the content image if all or part of the content image is included within the gaze of the avatar, determine a reward for the content image based on the number of actual viewer avatars, and transmit the determined reward to the user terminal (100) that provided the content image.
또한, 제어부(230)는, 오브젝트 상에 라이브 버스킹 관련 콘텐츠 영상이 디스플레이되면 라이브 버스킹 관련 콘텐츠 영상을 관람하는 아바타의 실시간 재화 기부를 유도하도록 오브젝트 주변에 팁 항아리(tip jar)를 배치할 수 있다. 라이브 버스킹 관련 콘텐츠를 관람하는 타 아바타가 팁 항아리에 근접하면, 팁 기부 여부를 문의하믄 팝업창을 타 아바타에 상응하는 유저 단말에 표시되고, 타 아바타로부터 팁이 기부되면, 해당 팁을 라이브 버스킹 관련 콘텐츠를 제공한 아바타에게 부여할 수 있다.In addition, the control unit (230) may place a tip jar around the object to induce real-time donation of goods by an avatar watching a live busking-related content video when the live busking-related content video is displayed on the object. When another avatar watching the live busking-related content approaches the tip jar, a pop-up window is displayed on the user terminal corresponding to the other avatar asking whether to donate a tip, and when a tip is donated by the other avatar, the tip may be given to the avatar that provided the live busking-related content.
또한, 제어부(230)는, 오브젝트 상에 라이브 홈쇼핑 관련 콘텐츠 영상이 디스플레이되면 라이브 홈쇼핑 관련 콘텐츠 영상을 관람하는 아바타의 수를 산정하고, 산정한 아바타의 수에 따라 리워드를 아바타 및 콘텐츠 영상 제공자인 사용자 단말 중 적어도 어느 하나로 제공할 수 있다.In addition, the control unit (230) may calculate the number of avatars watching the live home shopping related content video when the live home shopping related content video is displayed on the object, and provide a reward to at least one of the avatars and the user terminal that is the content video provider according to the calculated number of avatars.
또한, 제어부(230)는, 오브젝트 상에 콘텐츠 영상을 디스플레이할 때, 콘텐츠 영상을 시청하는 아바타를 모집하기 위한 아바타 초대 옵션을 생성하여 제공할 수 있다.Additionally, the control unit (230) may generate and provide an avatar invitation option for recruiting avatars to view the content video when displaying the content video on the object.
한편, 제어부(230)는, 하나 이상의 코어로 구성될 수 있으며, 컴퓨팅 장치의 중앙 처리 장치(CPU: central processing unit), 범용 그래픽 처리 장치 (GPGPU: general purpose graphics processing unit), 텐서 처리 장치(TPU: tensor processing unit) 등의 데이터 분석, 딥러닝을 위한 프로세서를 포함할 수 있다.Meanwhile, the control unit (230) may be composed of one or more cores and may include a processor for data analysis and deep learning, such as a central processing unit (CPU), a general purpose graphics processing unit (GPGPU), and a tensor processing unit (TPU) of a computing device.
또한, 통신부(210)는, 무선 인터넷 모듈, 근거리 통신 모듈, 위치 정보 모듈 등을 포함할 수 있다.Additionally, the communication unit (210) may include a wireless Internet module, a short-range communication module, a location information module, etc.
무선 인터넷 모듈은, 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 무선 인터넷 기술들에 따른 통신망에서 무선 신호를 송수신하도록 이루어진다.A wireless Internet module is a module for wireless Internet access, and is configured to transmit and receive wireless signals in a communication network according to wireless Internet technologies.
무선 인터넷 기술로는, 예를 들어 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등이 있으며, 상기 무선 인터넷 모듈은 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다.Examples of wireless Internet technologies include WLAN (Wireless LAN), Wi-Fi (Wireless-Fidelity), Wi-Fi (Wireless Fidelity) Direct, DLNA (Digital Living Network Alliance), WiBro (Wireless Broadband), WiMAX (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access), HSUPA (High Speed Uplink Packet Access), LTE (Long Term Evolution), and LTE-A (Long Term Evolution-Advanced), and the wireless Internet module transmits and receives data according to at least one wireless Internet technology, including Internet technologies not listed above.
WiBro, HSDPA, HSUPA, GSM, CDMA, WCDMA, LTE, LTE-A 등에 의한 무선인터넷 접속은 이동통신망을 통해 이루어진다는 관점에서 본다면, 이동통신망을 통해 무선인터넷 접속을 수행하는 무선 인터넷 모듈은 상기 이동통신 모듈의 일종으로 이해될 수도 있다.From the perspective that wireless Internet access through WiBro, HSDPA, HSUPA, GSM, CDMA, WCDMA, LTE, LTE-A, etc. is achieved through a mobile communication network, a wireless Internet module that performs wireless Internet access through a mobile communication network can be understood as a type of the above mobile communication module.
근거리 통신 모듈은, 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다. The short-range communication module is for short-range communication and can support short-range communication using at least one of Bluetooth™, RFID (Radio Frequency Identification), Infrared Data Association (IrDA), UWB (Ultra Wideband), ZigBee, NFC (Near Field Communication), Wi-Fi (Wireless-Fidelity), Wi-Fi Direct, and Wireless USB (Wireless Universal Serial Bus) technologies.
위치정보 모듈은, 서버의 위치(또는 현재 위치)를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Positioning System) 모듈 또는 WiFi(Wireless Fidelity) 모듈이 있다.The location information module is a module for obtaining the location (or current location) of the server, and representative examples include the GPS (Global Positioning System) module or the WiFi (Wireless Fidelity) module.
그리고, 데이터베이스(220)는, 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.And, the database (220) may include at least one type of storage medium among a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, an SD or XD memory, etc.), a random access memory (RAM), a static random access memory (SRAM), a read-only memory (ROM), an electrically erasable programmable read-only memory (EEPROM), a programmable read-only memory (PROM), a magnetic memory, a magnetic disk, and an optical disk.
본 개시의 서버(200)는, 인터넷(internet) 상에서 데이터베이스(120)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다. 전술한 데이터베이스에 대한 기재는 예시일 뿐, 이에 제한되지 않는다.The server (200) of the present disclosure may operate in connection with a web storage that performs a storage function of a database (120) on the Internet. The description of the database described above is only an example and is not limited thereto.
또한, 본 개시의 서버(200)는, 출력부 및 입력부를 더 포함할 수도 있다.Additionally, the server (200) of the present disclosure may further include an output unit and an input unit.
여기서, 출력부는, 메타버스의 가상 공간을 제공하기 위한 사용자 인터페이스(UI, user interface)를 표시할 수 있다. 출력부는, 제어부(230)가 생성하거나 결정한 임의의 형태의 정보 및 통신부(210)가 수신한 임의의 형태의 정보를 출력할 수 있다.Here, the output unit can display a user interface (UI) for providing a virtual space of the metaverse. The output unit can output any form of information generated or determined by the control unit (230) and any form of information received by the communication unit (210).
일 예로, 출력부는, 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. 이들 중 일부 디스플레이 모듈은, 그를 통해 외부를 볼 수 있도록 투명형 또는 광 투과형으로 구성될 수 있다. 이는 투명 디스플레이 모듈이라 지칭될 수 있는데, 투명 디스플레이 모듈의 대표적인 예로는 TOLED(Transparent OLED) 등이 있다.For example, the output unit may include at least one of a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), a flexible display, and a three-dimensional display (3D display). Some of these display modules may be configured as transparent or light-transmitting so that the outside may be viewed therethrough. This may be referred to as a transparent display module, and a representative example of a transparent display module is TOLED (Transparent OLED).
또한, 입력부는, 사용자 입력을 수신할 수 있다. 입력부는, 사용자 입력을 수신받기 위한 사용자 인터페이스 상의 키 및/또는 버튼들, 또는 물리적인 키 및/또는 버튼들을 구비할 수 있다. 입력부를 통한 사용자 입력에 따라 본 개시의 실시예들에 따른 컴퓨터 프로그램이 실행될 수 있다.Additionally, the input unit can receive user input. The input unit can have keys and/or buttons on a user interface for receiving user input, or physical keys and/or buttons. A computer program according to embodiments of the present disclosure can be executed according to user input through the input unit.
또한, 입력부는, 사용자의 버튼 조작 또는 터치 입력을 감지하여 신호를 수신하거나, 카메라 또는 마이크로폰을 통하여 사용자 등의 음성 또는 동작을 수신하여 이를 입력 신호로 변환할 수도 있다. 이를 위해 음성 인식(Speech Recognition) 기술 또는 동작 인식(Motion Recognition) 기술들이 사용될 수 있다.In addition, the input unit may receive a signal by detecting the user's button operation or touch input, or may receive the user's voice or motion through a camera or microphone and convert it into an input signal. For this purpose, speech recognition technology or motion recognition technology may be used.
또한, 입력부는, 서버(200)와 연결된 외부 입력 장비로서 구현될 수도 있다. 예를 들어, 입력 장비는 사용자 입력을 수신하기 위한 터치 패드, 터치 펜, 키보드 또는 마우스 중 적어도 하나일 수 있으나, 이는 예시일 뿐이며 이에 제한되는 것은 아니다.In addition, the input unit may be implemented as an external input device connected to the server (200). For example, the input device may be at least one of a touch pad, a touch pen, a keyboard, or a mouse for receiving user input, but this is only an example and is not limited thereto.
일 예로, 입력부는, 사용자 터치 입력을 인식할 수 있다. 경우에 따라, 입력부는, 출력부와 동일한 구성일 수도 있다. 입력부는, 사용자의 선택 입력을 수신하도록 구현되는 터치 스크린으로 구성될 수 있다. 터치 스크린은, 접촉식 정전용량 방식, 적외선 광 감지 방식, 표면 초음파(SAW) 방식, 압전 방식, 저항막 방식 중 어느 하나의 방식이 사용될 수 있다. 전술한 터치 스크린에 대한 자세한 기재는, 본 개시의 일 실시예에 따른 예시일 뿐이며, 다양한 터치 스크린 패널이 플랫폼 서버(100)에 채용될 수 있다. 터치 스크린으로 구성된 입력부는, 터치 센서를 포함할 수 있다. 터치 센서는, 입력부의 특정 부위에 가해진 압력 또는 입력부의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는, 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. 터치 센서에 대한 터치입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는, 그 신호(들)를 처리한 다음 대응하는 데이터를 프로세서로 전송할 수 있다. 이로써, 프로세서는 입력부의 어느 영역이 터치 되었는지 여부 등을 인식할 수 있게 된다.For example, the input unit can recognize a user touch input. In some cases, the input unit may have the same configuration as the output unit. The input unit may be configured with a touch screen implemented to receive a user's selection input. The touch screen may use any one of a contact-type electrostatic capacitance method, an infrared light detection method, a surface-acoustic (SAW) method, a piezoelectric method, and a resistive film method. The detailed description of the above-described touch screen is only an example according to one embodiment of the present disclosure, and various touch screen panels may be employed in the platform server (100). The input unit configured with a touch screen may include a touch sensor. The touch sensor may be configured to convert a change in pressure applied to a specific portion of the input unit or electrostatic capacitance generated in a specific portion of the input unit into an electrical input signal. The touch sensor may be configured to detect not only the position and area of the touch, but also the pressure at the time of the touch. When there is a touch input to the touch sensor, a corresponding signal(s) is sent to the touch controller. The touch controller can process the signal(s) and then transmit corresponding data to the processor, thereby enabling the processor to recognize which area of the input section has been touched, etc.
본 개시의 서버(200)는, 서버의 서버 환경을 수행하기 위한 다른 구성들이 포함될 수도 있다. 서버(200)는 임의의 형태의 장치는 모두 포함할 수 있다. 서버(200)는, 디지털 기기로서, 랩탑 컴퓨터, 노트북 컴퓨터, 데스크톱 컴퓨터, 웹 패드, 이동 전화기와 같이 프로세서를 탑재하고 메모리를 구비한 연산 능력을 갖춘 디지털 기기일 수 있다.The server (200) of the present disclosure may include other configurations for performing a server environment of the server. The server (200) may include any type of device. The server (200) may be a digital device having a processor, memory, and computing power, such as a laptop computer, a notebook computer, a desktop computer, a web pad, or a mobile phone.
본 개시의 서버(200)는, 본 개시의 실시예들에 따른 사용자 인터페이스를 생성할 수 있고, 사용자 단말에게 네트워크를 통해 정보를 제공하는 컴퓨팅 시스템일 수 있다. 서버(200)는, 메타버스 스페이스의 가상 공간을 사용자 단말로 전송할 수 있다. 이러한 경우, 사용 단말은, 서버(200)에 액세스할 수 있는 임의의 형태의 컴퓨팅 장치일 수 있다. 서버(200)의 제어부(230)는, 통신부(210)를 통해 사용자 단말기(100)로 사용자 인터페이스를 전송할 수 있다. 본 개시의 서버(200)는, 클라우드 서버일 수 있다. 서버(200)는, 서비스를 처리하는 웹 서버일 수 있다. 전술한 서버(200)의 종류는 예시일 뿐이며 이에 제한되지 않는다.The server (200) of the present disclosure may be a computing system that can generate a user interface according to embodiments of the present disclosure and provide information to a user terminal via a network. The server (200) may transmit a virtual space of a metaverse space to a user terminal. In this case, the user terminal may be any type of computing device that can access the server (200). The control unit (230) of the server (200) may transmit the user interface to the user terminal (100) via the communication unit (210). The server (200) of the present disclosure may be a cloud server. The server (200) may be a web server that processes a service. The types of the server (200) described above are merely examples and are not limited thereto.
이와 같이, 본 개시는, 현실공간의 사용자에게 가상공간 내 소정 오브젝트에 대한 사용권을 부여하고, 사용자 콘텐츠를 가상공간의 오브젝트 상에 실시간으로 디스플레이함으로써, 새로운 수익 창출 환경 및 서비스 품질을 개선할 수 있다.In this way, the present disclosure can improve a new revenue-generating environment and service quality by granting a user in a real space the right to use a certain object in a virtual space and displaying user content on the object in the virtual space in real time.
도 3은, 본 개시에 따른 메타버스 내 현실연동 콘텐츠의 디스플레이 과정을 설명하기 위한 도면이다.FIG. 3 is a diagram for explaining the display process of reality-linked content within the metaverse according to the present disclosure.
도 3에 도시된 바와 같이, 본 개시는, 콘텐츠 재생 아이템을 소유한 사용자 단말로부터 콘텐츠 영상(400)이 수신되면 사용자 단말에게 부여된 사용권에 상응하는 소정 오브젝트(500) 상에 콘텐츠 영상(400)을 디스플레이할 수 있다.As illustrated in FIG. 3, the present disclosure can display a content image (400) on a predetermined object (500) corresponding to a usage right granted to a user terminal when a content image (400) is received from a user terminal owning a content playback item.
여기서, 콘텐츠 영상(400)을 디스플레이할 수 있는 오브젝트(500)들은, 가상공간(300) 내에 위치하는 건물 벽면(510), 스크린, 광고판(520), 편평한 면을 갖는 고정물 등을 포함할 수 있는데, 이는 일 실시예일 뿐, 이에 한정되지 않는다.Here, objects (500) capable of displaying content images (400) may include building walls (510), screens, billboards (520), and flat-surfaced fixtures located within the virtual space (300), but this is only an example and is not limited thereto.
그리고, 본 개시는, 사용자 단말로부터 실시간으로 콘텐츠 영상을 수신하여 가상공간(300)의 오브젝트(500) 상에 콘텐츠 영상(400)을 오버랩(overlap)하여 디스플레이할 수 있다.In addition, the present disclosure can receive content images in real time from a user terminal and display the content images (400) by overlapping them on an object (500) in a virtual space (300).
여기서, 본 개시는, 오브젝트(500) 상에 콘텐츠 영상(400)이 디스플레이되면 콘텐츠 영상(400)을 시청하는 아바타(600) 수를 산정하고, 산정한 아바타(600) 수를 기반으로 각 아바타(600)에게 리워드(reward)를 제공할 수 있다.Here, the present disclosure calculates the number of avatars (600) watching the content image (400) when the content image (400) is displayed on the object (500), and provides a reward to each avatar (600) based on the calculated number of avatars (600).
또한, 본 개시는, 오브젝트(500)의 사용권 레벨에 따라 콘텐츠 재생 아이템의 구매 가격을 다르게 설정할 수 있다.In addition, the present disclosure can set different purchase prices for content playback items depending on the usage rights level of the object (500).
일 예로, 사용권 레벨은, 콘텐츠 영상(400)을 디스플레이할 수 있는 오브젝트(500)의 위치, 개수, 면적, 그리고 사용 기한 중 적어도 하나를 기반으로 설정될 수 있다.For example, the usage level may be set based on at least one of the location, number, area, and usage period of an object (500) that can display the content image (400).
즉, 사용권 레벨은, 오브젝트(500)의 위치가 가상공간(300) 중 아바타 수가 많은 영역일수록 높고, 오브젝트(500)의 개수가 많을수록 높으며, 오브젝트(500)의 면적이 클수록 높고, 오브젝트(500)의 사용 기한이 길수록 높을 수 있다.That is, the usage right level may be higher the more the location of the object (500) is in an area of the virtual space (300) with a large number of avatars, the higher the number of objects (500), the higher the area of the object (500), and the higher the usage right level may be the longer the usage period of the object (500).
도 4는, 도 3의 콘텐츠 재생 아이템 구매 목록을 설명하기 위한 도면이다.Figure 4 is a drawing for explaining the purchase list of content playback items of Figure 3.
도 4에 도시된 바와 같이, 본 개시는, 사용자 단말로부터 콘텐츠 재생 아이템 구매 요청을 수신하면 데이터베이스로부터 추출한 사용자 단말 정보 및 사용자 정보를 기반으로 인증을 수행하고, 인증이 완료되면 구매 가격이 서로 다른 콘텐츠 재생 아이템 목록을 사용자 단말로 제공하며, 사용자 단말이 구매 가격이 서로 다른 콘텐츠 재생 아이템 목록으로부터 어느 하나의 콘텐츠 재생 아이템을 선택하고 그에 상응하는 구매 가격을 지불하면 사용자 단말로 구매 완료된 콘텐츠 재생 아이템을 제공할 수도 있다.As illustrated in FIG. 4, the present disclosure performs authentication based on user terminal information and user information extracted from a database when receiving a content playback item purchase request from a user terminal, and upon completion of authentication, provides a list of content playback items with different purchase prices to the user terminal, and when the user terminal selects one content playback item from the list of content playback items with different purchase prices and pays the corresponding purchase price, provides the completed content playback item to the user terminal.
여기서, 오브젝트의 사용권 레벨에 따라 콘텐츠 재생 아이템의 구매 가격을 다르게 설정할 수 있다.Here, you can set different purchase prices for content playback items depending on the object's usage level.
일 예로, 사용권 레벨은, 콘텐츠 영상을 디스플레이할 수 있는 오브젝트의 위치, 개수, 면적, 그리고 사용 기한 중 적어도 하나를 기반으로 설정될 수 있다.For example, the usage level may be set based on at least one of the location, number, area, and usage period of objects that can display content images.
즉, 사용권 레벨은, 오브젝트의 위치가 가상공간 중 아바타 수가 많은 영역일수록 높고, 오브젝트의 개수가 많을수록 높으며, 오브젝트의 면적이 클수록 높고, 오브젝트의 사용 기한이 길수록 높을 수 있다.In other words, the usage level can be higher the more the object is located in an area of virtual space with a large number of avatars, the higher the number of objects, the higher the area of the object, and the longer the usage period of the object.
         도 4와 같이, 콘텐츠 재생 아이템 1은, 오브젝트의 사용권 레벨이 높기 때문에 구매 가격도 다른 콘텐츠 재생 아이템 2보다 더 높을 수 있다.As shown in Figure 4, the purchase price of 
         일 예로, 콘텐츠 재생 아이템 1의 경우, 오브젝트의 위치가 가상공간 중 아바타 수가 많은 영역인 광고판이고, 오브젝트의 개수가 2개이며, 오브젝트의 면적이 대형 크기이고, 오브젝트의 사용 기한이 2개월로 기설정되고, 콘텐츠 재생 아이템 2의 경우, 오브젝트의 위치가 가상공간 중 아바타 수가 적은 영역인 건물 벽면이고, 오브젝트의 개수가 2개이며, 오브젝트의 면적이 소형 크기이고, 오브젝트의 사용 기한이 1개월로 기설정된다면, 콘텐츠 재생 아이템 1은, 콘텐츠 재생 아이템 2에 비해 오브젝트의 사용권 레벨이 높을 수 있기 때문에 구매 가격도 콘텐츠 재생 아이템 2보다 더 높을 수 있다.For example, in the case of 
이처럼, 본 개시는, 사용권 레벨이 높을수록 콘텐츠 재생 아이템의 구매 가격이 증가하는 콘텐츠 재생 아이템 목록을 제공할 수 있다.In this way, the present disclosure can provide a list of content playback items in which the purchase price of the content playback item increases as the usage right level increases.
경우에 따라, 본 개시는, 콘텐츠 재생 아이템을 소유한 사용자 단말의 사용자 레벨을 기반으로 메타버스의 가상공간 내 소정 오브젝트에 대한 사용권을 부여할 수 있다.In some cases, the present disclosure may grant a right to use a certain object within a virtual space of the metaverse based on the user level of a user terminal owning a content playback item.
여기서, 본 개시는, 메타버스 방문 빈도 및 메타버스 이용 빈도를 기반으로 사용자 레벨을 설정하고, 설정한 사용자 레벨에 따라 서로 다른 레벨의 사용권을 부여할 수 있다.Here, the present disclosure can set a user level based on the frequency of metaverse visits and metaverse usage, and grant different levels of usage rights according to the set user level.
이때, 본 개시는, 사용자 레벨이 증가할수록 오브젝트의 사용권에 대한 레벨도 증가시킬 수 있다.At this time, the present disclosure can increase the level of usage rights of an object as the user level increases.
다른 경우로서, 본 개시는, 사용자의 사회적 인지도, 선호도, 호감도, 그리고 신뢰도 중 적어도 어느 하나를 기반으로 사용자 레벨을 설정하고, 설정한 사용자 레벨에 따라 서로 다른 레벨의 사용권을 부여할 수도 있다.In another case, the present disclosure may set a user level based on at least one of the user's social awareness, preference, likability, and trustworthiness, and grant different levels of usage rights according to the set user level.
그리고, 본 개시는, 사용자 단말이 구매한 콘텐츠 재생 아이템의 사용권 레벨을 기반으로 메타버스의 가상공간 내 소정 오브젝트에 대한 사용권을 부여할 수 있다.In addition, the present disclosure can grant a usage right for a certain object in a virtual space of the metaverse based on the usage right level of a content playback item purchased by a user terminal.
여기서, 사용자 단말이 구매한 콘텐츠 재생 아이템의 사용권 레벨은, 콘텐츠 영상을 디스플레이할 수 있는 오브젝트의 위치, 개수, 면적, 그리고 사용 기한 중 적어도 하나를 기반으로 설정될 수 있다.Here, the usage right level of the content playback item purchased by the user terminal can be set based on at least one of the location, number, area, and usage period of the object capable of displaying the content image.
이때, 사용권 레벨은, 오브젝트의 위치가 가상공간 중 아바타 수가 많은 영역일수록 높고, 오브젝트의 개수가 많을수록 높으며, 오브젝트의 면적이 클수록 높고, 오브젝트의 사용 기한이 길수록 높을 수 있다.At this time, the usage level may be higher the more the location of the object is in an area of virtual space with a large number of avatars, the higher the number of objects, the higher the area of the object, and the longer the usage period of the object.
도 5 내지 도 8은, 본 개시에 따른 메타버스 내 현실연동 콘텐츠의 시청에 따른 리워드 제공 과정을 설명하기 위한 도면이다.FIGS. 5 to 8 are diagrams for explaining a process of providing rewards for viewing reality-linked content within the metaverse according to the present disclosure.
도 5 내지 도 8에 도시된 바와 같이, 본 개시는, 사용자 단말로부터 실시간으로 콘텐츠 영상을 수신하여 오브젝트(500) 상에 콘텐츠 영상(400)을 오버랩(overlap)하여 디스플레이할 수 있다.As illustrated in FIGS. 5 to 8, the present disclosure can receive a content image in real time from a user terminal and display the content image (400) by overlapping it on an object (500).
그리고, 본 개시는, 오브젝트(500) 상에 콘텐츠 영상(400)이 디스플레이되면 콘텐츠 영상(400)을 시청하는 아바타(600) 수를 산정하고, 산정한 아바타(600) 수를 기반으로 각 아바타(600)에게 리워드(reward)를 제공할 수 있다.In addition, the present disclosure can calculate the number of avatars (600) watching the content image (400) when the content image (400) is displayed on the object (500), and provide a reward to each avatar (600) based on the calculated number of avatars (600).
여기서, 도 5 및 도 6과 같이, 본 개시는, 아바타(600) 주변에 리워드 정보(700)를 제공할 수 있다.Here, as shown in FIG. 5 and FIG. 6, the present disclosure can provide reward information (700) around an avatar (600).
리워드 정보(700)는, 아바타 닉네임, 시청한 광고수, 리워드 포인트 등의 정보를 포함할 수 있다.Reward information (700) may include information such as avatar nickname, number of advertisements viewed, and reward points.
일 예로, 도 5 및 도 6과 같이, 본 개시는, 아바타 수를 산정할 때, 콘텐츠 영상(400)이 디스플레이되는 오브젝트(500) 주변에 위치하는 각 아바타(600)의 시선을 추적하고, 아바타(600)의 시선 내에 콘텐츠 영상(400)의 전부 또는 일부가 포함되면 콘텐츠 영상(400)을 시청하는 실질 관람 아바타로 인지하며, 실질 관람 아바타의 수를 카운팅하여 콘텐츠 영상(400)을 시청하는 아바타(600) 수를 산정할 수 있다.For example, as shown in FIGS. 5 and 6, when calculating the number of avatars, the present disclosure tracks the gaze of each avatar (600) positioned around an object (500) on which a content image (400) is displayed, recognizes an avatar as an actual viewer watching the content image (400) if all or part of the content image (400) is included within the gaze of the avatar (600), and calculates the number of avatars (600) viewing the content image (400) by counting the number of actual viewer avatars.
또한, 본 개시는, 실질 관람 아바타의 수를 기반으로 콘텐츠 영상에 대한 리워드를 결정하고, 결정한 리워드를 콘텐츠 영상(400)을 제공한 사용자 단말로 전송할 수도 있다.In addition, the present disclosure may determine a reward for a content video based on the number of actual viewing avatars, and transmit the determined reward to a user terminal that provided the content video (400).
또한, 도 7과 같이, 본 개시는, 오브젝트 상에 라이브 버스킹 관련 콘텐츠 영상(400)이 디스플레이되면 라이브 버스킹 관련 콘텐츠 영상(400)을 관람하는 아바타(600)의 실시간 재화 기부를 유도하도록 오브젝트 주변에 팁 항아리(tip jar)(800)를 배치할 수 있다.In addition, as shown in FIG. 7, the present disclosure can place a tip jar (800) around an object to induce real-time donation of goods by an avatar (600) watching a live busking-related content video (400) when the live busking-related content video (400) is displayed on the object.
또한, 도 8과 같이, 본 개시는, 오브젝트 상에 라이브 홈쇼핑 관련 콘텐츠 영상(400)이 디스플레이되면 라이브 홈쇼핑 관련 콘텐츠 영상(400)을 관람하는 아바타(600)의 수를 산정하고, 산정한 아바타(600)의 수에 따라 리워드를 아바타 및 콘텐츠 영상 제공자인 사용자 단말 중 적어도 어느 하나로 제공할 수 있다.In addition, as shown in FIG. 8, the present disclosure calculates the number of avatars (600) watching the live home shopping related content video (400) when the live home shopping related content video (400) is displayed on an object, and provides a reward to at least one of the avatars and the user terminal that is the content video provider according to the calculated number of avatars (600).
여기서, 본 개시는, 오브젝트 상에 콘텐츠 영상(400)을 디스플레이할 때, 콘텐츠 영상(400)을 시청하는 아바타(600)를 모집하기 위한 아바타 초대 옵션 및 할인 쿠폰(900) 등을 생성하여 제공할 수 있다.Here, the present disclosure can generate and provide an avatar invitation option and a discount coupon (900) for recruiting an avatar (600) to watch the content image (400) when displaying the content image (400) on an object.
도 9 내지 도 12는, 본 발명에 따른 방법을 설명하기 위한 흐름도이다.Figures 9 to 12 are flowcharts for explaining a method according to the present invention.
도 9에 도시된 바와 같이, 본 개시는, 현실공간의 사용자 단말의 요청에 상응하여 콘텐츠 재생 아이템을 제공할 수 있다(S10).As illustrated in FIG. 9, the present disclosure can provide a content playback item corresponding to a request from a user terminal in a real space (S10).
여기서, 본 개시는, 콘텐츠 재생 아이템을 제공하기 이전에, 메타버스의 가상공간 내에 위치하는 오브젝트들 중 콘텐츠 영상을 디스플레이할 수 있는 오브젝트들을 선정하고, 선정된 오브젝트들의 총 개수를 기반으로 콘텐츠 재생 아이템의 생성 개수를 산출하며, 산출한 생성 개수에 상응하는 콘텐츠 재생 아이템을 생성할 수도 있는데, 이는 일 실시예일 뿐, 이에 한정되는 것은 아니다.Here, the present disclosure selects objects capable of displaying content images from among objects located within a virtual space of the metaverse before providing content playback items, calculates the number of content playback items to be generated based on the total number of selected objects, and generates content playback items corresponding to the calculated number of creations, but this is only one example and is not limited thereto.
일 예로, 콘텐츠 영상을 디스플레이할 수 있는 오브젝트들은, 가상공간 내에 위치하는 건물 벽면, 스크린, 광고판, 편평한 면을 갖는 고정물 등을 포함할 수 있는데, 이는 일 실시예일 뿐, 이에 한정되지 않는다.For example, objects capable of displaying content images may include, but are not limited to, building walls, screens, billboards, and flat fixtures located within a virtual space.
또한, 본 개시는, 사용자 단말로부터 콘텐츠 재생 아이템 획득 요청을 수신하면 데이터베이스로부터 추출한 사용자 단말 정보 및 사용자 정보를 기반으로 인증을 수행하고, 인증이 완료되면 사용자 단말로 콘텐츠 재생 아이템을 제공할 수 있다.In addition, the present disclosure can perform authentication based on user terminal information and user information extracted from a database when receiving a request to acquire a content playback item from a user terminal, and provide a content playback item to the user terminal when authentication is completed.
여기서, 본 개시는, 인증이 완료되면 사용자 단말로 제공하는 콘텐츠 재생 아이템에 식별 코드를 부여할 수도 있다.Here, the present disclosure may also assign an identification code to a content playback item provided to a user terminal when authentication is completed.
일 예로, 식별 코드는, 숫자, 문자, 기호 및 이들의 조합 중 적어도 어느 하나를 이용하여 생성할 수 있는데, 이는 일 실시예일 뿐, 이에 한정되지 않는다.For example, the identification code may be generated using at least one of numbers, letters, symbols, and combinations thereof, but this is only an example and is not limited thereto.
또한, 본 개시는, 사용자 단말로부터 콘텐츠 재생 아이템 구매 요청을 수신하면 데이터베이스로부터 추출한 사용자 단말 정보 및 사용자 정보를 기반으로 인증을 수행하고, 인증이 완료되면 구매 가격이 서로 다른 콘텐츠 재생 아이템 목록을 사용자 단말로 제공하며, 사용자 단말이 구매 가격이 서로 다른 콘텐츠 재생 아이템 목록으로부터 어느 하나의 콘텐츠 재생 아이템을 선택하고 그에 상응하는 구매 가격을 지불하면 사용자 단말로 구매 완료된 콘텐츠 재생 아이템을 제공할 수도 있다.In addition, the present disclosure performs authentication based on user terminal information and user information extracted from a database when receiving a content playback item purchase request from a user terminal, and when authentication is completed, provides a list of content playback items with different purchase prices to the user terminal, and when the user terminal selects one content playback item from the list of content playback items with different purchase prices and pays the corresponding purchase price, provides the user terminal with the completed content playback item.
여기서, 본 개시는, 콘텐츠 영상을 디스플레이할 수 있는 오브젝트의 사용권 레벨에 따라 콘텐츠 재생 아이템의 구매 가격을 다르게 설정할 수 있다.Here, the present disclosure can set a different purchase price for a content playback item depending on the usage level of an object capable of displaying a content image.
일 예로, 오브젝트의 사용권 레벨은, 콘텐츠 영상을 디스플레이할 수 있는 오브젝트의 위치, 개수, 면적, 그리고 사용 기한 중 적어도 하나를 기반으로 설정될 수 있다.For example, the usage level of an object may be set based on at least one of the location, number, area, and usage period of the object that can display the content image.
그리고, 본 개시는, 콘텐츠 재생 아이템을 소유한 사용자 단말에 대해 메타버스의 가상공간 내 소정 오브젝트에 대한 사용권을 부여할 수 있다(S20).In addition, the present disclosure can grant a user terminal owning a content playback item a right to use a predetermined object within a virtual space of the metaverse (S20).
여기서, 본 개시는, 콘텐츠 재생 아이템을 소유한 사용자 단말의 사용자 레벨을 기반으로 메타버스의 가상공간 내 소정 오브젝트에 대한 사용권을 부여할 수 있다.Here, the present disclosure can grant a right to use a certain object within a virtual space of the metaverse based on the user level of a user terminal owning a content playback item.
일 예로, 본 개시는, 메타버스 방문 빈도 및 메타버스 이용 빈도를 기반으로 사용자 레벨을 설정하고, 설정한 사용자 레벨에 따라 서로 다른 레벨의 사용권을 부여할 수 있다.For example, the present disclosure can set user levels based on the frequency of metaverse visits and metaverse usage, and grant different levels of usage rights according to the set user levels.
다른 일 예로, 본 개시는, 사용자의 사회적 인지도, 선호도, 호감도, 그리고 신뢰도 중 적어도 어느 하나를 기반으로 사용자 레벨을 설정하고, 설정한 사용자 레벨에 따라 서로 다른 레벨의 사용권을 부여할 수도 있다.As another example, the present disclosure may set a user level based on at least one of the user's social awareness, preference, likability, and trustworthiness, and grant different levels of usage rights according to the set user level.
또 다른 일 예로, 본 개시는, 사용자 단말이 구매한 콘텐츠 재생 아이템의 사용권 레벨을 기반으로 메타버스의 가상공간 내 소정 오브젝트에 대한 사용권을 부여할 수도 있다.As another example, the present disclosure may grant a usage right to a certain object within a virtual space of the metaverse based on the usage right level of a content playback item purchased by a user terminal.
여기서, 사용자 단말이 구매한 콘텐츠 재생 아이템의 사용권 레벨은, 콘텐츠 영상을 디스플레이할 수 있는 오브젝트의 위치, 개수, 면적, 그리고 사용 기한 중 적어도 하나를 기반으로 설정될 수 있다.Here, the usage right level of the content playback item purchased by the user terminal can be set based on at least one of the location, number, area, and usage period of the object capable of displaying the content image.
이어, 본 개시는, 콘텐츠 재생 아이템을 소유한 사용자 단말로부터 콘텐츠 영상을 수신할 수 있다(S30).Next, the present disclosure can receive a content video from a user terminal owning a content playback item (S30).
다음, 본 개시는, 콘텐츠 영상이 수신되면 사용자 단말에게 부여된 사용권에 상응하는 소정 오브젝트 상에 콘텐츠 영상을 디스플레이할 수 있다(S40).Next, the present disclosure can display the content image on a predetermined object corresponding to the usage right granted to the user terminal when the content image is received (S40).
여기서, 본 개시는, 사용자 단말로부터 실시간으로 콘텐츠 영상을 수신하여 오브젝트 상에 콘텐츠 영상을 오버랩(overlap)하여 디스플레이할 수 있다.Here, the present disclosure can receive a content image in real time from a user terminal and display the content image by overlapping it on an object.
그리고, 본 개시는, 도 10에 도시된 바와 같이, 오브젝트 상에 콘텐츠 영상이 디스플레이되면 콘텐츠 영상을 시청하는 아바타 수를 산정하고(S50), 산정한 아바타 수를 기반으로 각 아바타에게 리워드(reward)를 제공할 수 있다(S60).And, as illustrated in FIG. 10, the present disclosure can calculate the number of avatars watching the content image when the content image is displayed on the object (S50) and provide a reward to each avatar based on the calculated number of avatars (S60).
여기서, 본 개시는, 도 11에 도시된 바와 같이, 아바타 수를 산정할 때, 콘텐츠 영상이 디스플레이되는 오브젝트 주변에 위치하는 각 아바타의 시선을 추적하고(S51), 아바타의 시선 내에 콘텐츠 영상의 전부 또는 일부가 포함되는지를 확인하며(S52), 아바타의 시선 내에 콘텐츠 영상의 전부 또는 일부가 포함되면 콘텐츠 영상을 시청하는 실질 관람 아바타로 인지하여 실질 관람 아바타의 수를 카운팅하고(S53), 카운팅한 실질 관람 아바타의 수를 기반으로 콘텐츠 영상을 시청하는 아바타 수를 산정할 수 있다(S54). Here, the present disclosure, as illustrated in FIG. 11, when calculating the number of avatars, tracks the gaze of each avatar positioned around an object on which a content image is displayed (S51), confirms whether all or part of the content image is included within the gaze of the avatar (S52), and if all or part of the content image is included within the gaze of the avatar, recognizes the avatar as an actual viewing avatar viewing the content image and counts the number of actual viewing avatars (S53), and calculates the number of avatars viewing the content image based on the counted number of actual viewing avatars (S54).
경우에 따라, 본 개시는, 도 12에 도시된 바와 같이, 아바타 수를 산정할 때, 콘텐츠 영상이 디스플레이되는 오브젝트 주변에 위치하는 각 아바타의 시선을 추적하고(S51), 아바타의 시선 내에 콘텐츠 영상의 전부 또는 일부가 포함되는지를 확인하며(S52), 아바타의 시선 내에 콘텐츠 영상의 전부 또는 일부가 포함되면 콘텐츠 영상을 시청하는 실질 관람 아바타로 인지하여 실질 관람 아바타의 수를 카운팅하고(S53), 카운팅한 실질 관람 아바타의 수를 기반으로 콘텐츠 영상을 시청하는 아바타 수를 산정하며(S54), 아바타 수를 기반으로 콘텐츠 영상에 대한 리워드를 결정하고(S55), 결정한 리워드를 콘텐츠 영상을 제공한 사용자 단말로 전송할 수 있다(S56).In some cases, the present disclosure, as illustrated in FIG. 12, when calculating the number of avatars, tracks the gaze of each avatar positioned around an object on which a content image is displayed (S51), confirms whether all or part of the content image is included within the gaze of the avatar (S52), recognizes the avatar as an actual viewing avatar viewing the content image if all or part of the content image is included within the gaze of the avatar, counts the number of actual viewing avatars (S53), calculates the number of avatars viewing the content image based on the counted number of actual viewing avatars (S54), determines a reward for the content image based on the number of avatars (S55), and transmits the determined reward to a user terminal that provided the content image (S56).
이와 같이, 본 개시는, 현실공간의 사용자에게 가상공간 내 소정 오브젝트에 대한 사용권을 부여하고, 사용자 콘텐츠를 가상공간의 오브젝트 상에 실시간으로 디스플레이함으로써, 새로운 수익 창출 환경 및 서비스 품질을 개선할 수 있다.In this way, the present disclosure can improve a new revenue-generating environment and service quality by granting a user in a real space the right to use a certain object in a virtual space and displaying user content on the object in the virtual space in real time.
도 13은 본 발명에 따른 방법의 또 다른 실시예를 나타내는 흐름도이다. 이때, 현실연동 콘텐츠는 위에서 설명한 바와 같이, 라이브홈쇼핑, 라이브버스킹 등일 수 있지만, 이에 한정되지 않는다. 여기서는, 현실연동 콘텐츠를 라이브홈쇼핑 콘텐츠로 상정하여 설명한다. Figure 13 is a flow chart showing another embodiment of a method according to the present invention. At this time, the reality-linked content may be, as described above, live home shopping, live busking, etc., but is not limited thereto. Here, the reality-linked content is explained assuming live home shopping content.
먼저, 유저로부터 메타버스 내에 배치된 소정 오브젝트에 대한 사용 요청을 수신한다(S110). 이때, 소정 오브젝트는 편평한 면을 구비한 객체이고, 스크린, 건물외벽, 건물내벽, 담, 벽, 및 광고판 중 어느 하나일 수 있지만, 이에 한정되지 않는다. 즉, 소정 오브젝트는 미디어파사드의 형태로, 현실연동 콘텐츠를 디스플레이할 수 있는 메타버스 내 구조물일 수 있다. First, a request for use of a predetermined object placed in the metaverse is received from a user (S110). At this time, the predetermined object is an object having a flat surface, and may be any one of a screen, a building exterior wall, a building interior wall, a fence, a wall, and a billboard, but is not limited thereto. In other words, the predetermined object may be a structure in the metaverse capable of displaying reality-linked content in the form of a media façade.
이후, 소정 오브젝트에 대한 상기 유저의 사용권한을 판단한다(S120). 소정 오브젝트에 대한 유저의 사용권한은 메타버스 내에서 라이브홈쇼핑 콘텐츠를 제공할 수 있는 권한에 대응할 수 있다. 즉, 라이브버스킹 콘텐츠를 통해 소정의 수익을 얻으려는 유저나, 라이브홈쇼핑 콘텐츠를 통해 광고 효과를 얻으려는 유저는, 현실연동 콘텐츠를 메타버스 공간 내 아바타에게 제공하기 위하여, 소정의 대가를 지불해야 한다. Thereafter, the user's usage rights for the given object are determined (S120). The user's usage rights for the given object may correspond to the right to provide live home shopping content within the metaverse. In other words, a user who wants to earn a certain amount of revenue through live busking content or a user who wants to gain advertising effects through live home shopping content must pay a certain amount of compensation in order to provide reality-linked content to an avatar within the metaverse space.
이를 위하여, 도 13에 도시하지는 않았지만, 유저의 요청에 기초하여, 라이브홈쇼핑 콘텐츠 재생용 아이템을 제공하는 단계(미도시)를 더 포함할 수 있다. 즉, 유저는 라이브홈쇼핑 콘텐츠 재생용 아이템을 구매하고, 서버는 해당 유저에게 메타버스 내에서 라이브홈쇼핑 콘텐츠를 재생할 수 있는 권한을 부여한다. 즉, 라이브홈쇼핑 콘텐츠 재생용 아이템의 소유 여부에 기초하여, 사용권한의 유무가 판단될 수 있다.To this end, although not shown in Fig. 13, a step (not shown) of providing an item for playing live home shopping content based on a user's request may be further included. That is, the user purchases an item for playing live home shopping content, and the server grants the user the authority to play live home shopping content within the metaverse. That is, whether or not the user has the right to use the item can be determined based on whether or not the user owns the item for playing live home shopping content.
이후, 유저에게 사용권한이 있다고 판단되면, 유저로부터 라이브홈쇼핑 콘텐츠를 실시간으로 수신하고(S130), 벽이나 스크린 등의 소정 오브젝트 상에 해당 콘텐츠를 오버랩하여 미디어파사드의 형태로 디스플레이한다(S140).Thereafter, if it is determined that the user has the right to use it, live home shopping content is received from the user in real time (S130), and the content is overlapped on a predetermined object such as a wall or screen and displayed in the form of a media facade (S140).
한편, 본 발명에 따른 방법은 라이브홈쇼핑이나 라이브버스킹을 관람하는 아바타들에게 소정의 리워드를 제공할 수 있다. 리워드는 상품할인권, 상품쿠폰, 포인트, 가상화폐, 아이템 등일 수 있지만, 이에 한정되지 않는다. 따라서, 본 발명에 따른 방법은 라이브홈쇼핑이나 라이브버스킹을 실질적으로 관람하는지 여부를 판단한다.Meanwhile, the method according to the present invention can provide a certain reward to avatars who watch live home shopping or live busking. The reward may be a product discount coupon, product coupon, point, virtual currency, item, etc., but is not limited thereto. Accordingly, the method according to the present invention determines whether or not live home shopping or live busking is actually being watched.
도 14는 본 발명에 따른 방법 및 장치에 있어서 현실연동 콘텐츠에 대한 실질관람 여부를 판단하는 방법을 설명하기 위한 도면이다. 실질관람 여부는 아바타 시선정보나 유저 스테이터스 정보에 기초한 아바타시야와, 콘텐츠 송출영역의 대비를 통해 판단할 수 있다. 아바타의 자세, 모션, 위치는 사용자 조작에 기초하여 렌더링된다. 따라서, 렌더링된 아바타의 방향성에 기초하여 아바타의 시선정보가 획득될 수 있다. 다른 실시예에서, 아바타를 조작하는 유저가 HMD와 VR기어 등을 이용하는 경우, 아바타의 시선은 HMD를 통해 화면을 보고 있는 유저의 시선과 동일할 수 있다. 따라서, 유저시선정보, HMD의 화면정보 등을 통해 아바타 시선정보를 획득할 수도 있다. 또한, 일 실시예에서, 콘텐츠 실질관람 여부의 판단은 학습된 AI모델에 기초하여 자동적으로 이루어질 수 있다.FIG. 14 is a diagram for explaining a method for determining whether or not to actually view reality-linked content in a method and device according to the present invention. Whether or not to actually view content can be determined by comparing an avatar's field of view based on avatar gaze information or user status information with a content transmission area. The avatar's posture, motion, and position are rendered based on user manipulation. Accordingly, the avatar's gaze information can be obtained based on the directionality of the rendered avatar. In another embodiment, when a user manipulating the avatar uses an HMD and VR gear, etc., the avatar's gaze can be the same as the user's gaze viewing the screen through the HMD. Accordingly, the avatar's gaze information can also be obtained through the user's gaze information, the HMD's screen information, etc. In addition, in one embodiment, the determination of whether or not to actually view content can be automatically made based on a learned AI model.
도 15는 본 발명에 따른 방법 및 장치에 있어서 실질관람 여부를 판단하기 위한 AI모델의 학습 방법을 설명하기 위한 도면이다. 도 15에 도시된 딥 뉴럴 네트워크(DNN: deep neural network, 심층신경망)는 입력층과 출력층 외에 복수의 은닉층을 포함하는 신경망을 의미할 수 있다. 딥 뉴럴 네트워크를 이용하면 데이터의 잠재적인 구조(latent structures)를 파악할 수 있다. 딥 뉴럴 네트워크는 컨벌루셔널 뉴럴 네트워크(CNN: convolutional neural network), 리커런트 뉴럴 네트워크(RNN: recurrent neural network), GAN(Generative Adversarial Networks), 제한 볼츠만 머신(RBM: restricted boltzmann machine), 심층 신뢰 네트워크(DBN: deep belief network), Q 네트워크, U 네트워크, 샴 네트워크 등을 포함할 수 있지만, 이에 한정되지 않는다.FIG. 15 is a diagram for explaining a learning method of an AI model for determining whether or not actual viewing has occurred in a method and device according to the present invention. The deep neural network (DNN) illustrated in FIG. 15 may mean a neural network including a plurality of hidden layers in addition to an input layer and an output layer. By using a deep neural network, latent structures of data can be identified. The deep neural network may include, but is not limited to, a convolutional neural network (CNN), a recurrent neural network (RNN), a generative adversarial network (GAN), a restricted boltzmann machine (RBM), a deep belief network (DBN), a Q network, a U network, a Siamese network, etc.
뉴럴 네트워크는 교사 학습(supervised learning), 비교사 학습(unsupervised learning), 및 반교사학습(semi supervised learning) 중 적어도 하나의 방식으로 학습될 수 있다. 뉴럴 네트워크의 학습은 출력의 오류를 최소화하기 위한 것이다. 뉴럴 네트워크의 학습에서 반복적으로 학습 데이터를 뉴럴 네트워크에 입력시키고 학습 데이터에 대한 뉴럴 네트워크의 출력과 타겟의 에러를 계산하고, 에러를 줄이기 위한 방향으로 뉴럴 네트워크의 에러를 뉴럴 네트워크의 출력 레이어에서부터 입력 레이어 방향으로 역전파(backpropagation)하여 뉴럴 네트워크의 각 노드(Node)의 가중치(Weight)를 업데이트 하는 과정이다. 교사 학습의 경우 각각의 학습 데이터에 정답이 라벨링되어 있는 학습 데이터를 사용하며(즉, 라벨링된 학습 데이터), 비교사 학습의 경우는 각각의 학습 데이터에 정답이 라벨링되어 있지 않을 수 있다. 즉, 예를 들어 데이터 분류에 관한 교사 학습의 경우의 학습 데이터는 학습데이터 각각에 카테고리가 라벨링된 데이터 일 수 있다. 라벨링된 학습 데이터가 뉴럴 네트워크에 입력되고, 뉴럴 네트워크의 출력(카테고리)과 학습 데이터의 라벨을 비교함으로써 오류(error)가 계산될 수 있다. 다른 예로, 데이터 분류에 관한 비교사 학습의 경우 입력인 학습 데이터가 뉴럴 네트워크 출력과 비교됨으로써 오류가 계산될 수 있다. 계산된 오류는 뉴럴 네트워크에서 역방향(즉, 출력 레이어에서 입력 레이어 방향)으로 역전파 되며, 역전파에 따라 뉴럴 네트워크의 각 레이어의 각 노드들의 연결 가중치가 업데이트 될 수 있다. 업데이트 되는 각 노드의 연결 가중치는 학습률(learning rate)에 따라 변화량이 결정될 수 있다. 입력 데이터에 대한 뉴럴 네트워크의 계산과 에러의 역전파는 학습 사이클(epoch)을 구성할 수 있다. 학습률은 뉴럴 네트워크의 학습 사이클의 반복 횟수에 따라 상이하게 적용될 수 있다. 예를 들어, 뉴럴 네트워크의 학습 초기에는 높은 학습률을 사용하여 뉴럴 네트워크가 빠르게 일정 수준의 성능을 확보하도록 하여 효율성을 높이고, 학습 후기에는 낮은 학습률을 사용하여 정확도를 높일 수 있다.A neural network can be trained by at least one of supervised learning, unsupervised learning, and semi-supervised learning. The training of a neural network is to minimize the error of the output. In the training of a neural network, training data is repeatedly input into the neural network, the output of the neural network and the target error for the training data are calculated, and the error of the neural network is backpropagated from the output layer of the neural network to the input layer in the direction of reducing the error, thereby updating the weight of each node of the neural network. In the case of supervised learning, training data in which the correct answer is labeled for each training data is used (i.e., labeled training data), and in the case of unsupervised learning, the correct answer may not be labeled for each training data. That is, for example, in the case of supervised learning for data classification, the training data may be data in which each training data category is labeled. Labeled training data is input to the neural network, and an error can be calculated by comparing the output (category) of the neural network with the label of the training data. As another example, in the case of unsupervised learning for data classification, an error can be calculated by comparing the input training data with the output of the neural network. The calculated error is backpropagated in the neural network in the reverse direction (i.e., from the output layer to the input layer), and the connection weights of each node of each layer of the neural network can be updated according to the backpropagation. The amount of change in the connection weights of each node to be updated can be determined according to the learning rate. The calculation of the neural network for the input data and the backpropagation of the error can constitute a learning cycle (epoch). The learning rate can be applied differently depending on the number of repetitions of the learning cycle of the neural network. For example, a high learning rate can be used in the early stage of learning of the neural network to allow the neural network to quickly acquire a certain level of performance, thereby increasing efficiency, and a low learning rate can be used in the later stage of learning to increase accuracy.
신경망 내에서, 링크를 통해 연결된 하나 이상의 노드들은 상대적으로 입력 노드 및 출력 노드의 관계를 형성할 수 있다. 입력 노드 및 출력 노드의 개념은 상대적인 것으로서, 하나의 노드에 대하여 출력 노드 관계에 있는 임의의 노드는 다른 노드와의 관계에서 입력 노드 관계에 있을 수 있으며, 그 역도 성립할 수 있다. 전술한 바와 같이, 입력 노드 대 출력 노드 관계는 링크를 중심으로 생성될 수 있다. 하나의 입력 노드에 하나 이상의 출력 노드가 링크를 통해 연결될 수 있으며, 그 역도 성립할 수 있다. 하나의 링크를 통해 연결된 입력 노드 및 출력 노드 관계에서, 출력 노드는 입력 노드에 입력된 데이터에 기초하여 그 값이 결정될 수 있다. 여기서 입력 노드와 출력 노드를 상호연결하는 노드는 가중치(weight)를 가질 수 있다. 가중치는 가변적일 수 있으며, 신경망이 원하는 기능을 수행하기 위해, 사용자 또는 알고리즘에 의해 가변될 수 있다. 예를 들어, 하나의 출력 노드에 하나 이상의 입력 노드가 각각의 링크에 의해 상호 연결된 경우, 출력 노드는 상기 출력 노드와 연결된 입력 노드들에 입력된 값들 및 각각의 입력 노드들에 대응하는 링크에 설정된 가중치에 기초하여 출력 노드 값을 결정할 수 있다.In a neural network, one or more nodes connected through a link can form a relationship between input nodes and output nodes. The concept of input nodes and output nodes is relative, and any node in an output node relationship for one node can be in an input node relationship with another node, and vice versa. As described above, the input node-to-output node relationship can be created based on links. One or more output nodes can be connected to one input node through links, and vice versa. In the input node and output node relationship connected through one link, the value of the output node can be determined based on the data input to the input node. Here, the node interconnecting the input node and the output node can have a weight. The weight can be variable and can be varied by the user or the algorithm so that the neural network can perform a desired function. For example, when one or more input nodes are interconnected to one output node through each link, the output node can determine the output node value based on the values input to the input nodes connected to the output node and the weight set for the link corresponding to each input node.
신경망 내에서 노드들과 링크들의 개수 및 노드들과 링크들 사이의 연관관계, 링크들 각각에 부여된 가중치의 값에 따라, 신경망의 특성이 결정될 수 있다. 예를 들어, 동일한 개수의 노드 및 링크들이 존재하고, 링크들 사이의 가중치 값이 상이한 두 신경망이 존재하는 경우, 두 개의 신경망들은 서로 상이한 것으로 인식될 수 있다. 신경망을 구성하는 노드들 중 일부는, 최초 입력 노드로부터의 거리들에 기초하여, 하나의 층(layer)를 구성할 수 있다. 예를 들어, 최초 입력 노드로부터 거리가 n인 노드들의 집합은, n층을 구성할 수 있다. 최초 입력 노드로부터 거리는, 최초 입력 노드로부터 해당 노드까지 도달하기 위해 거쳐야 하는 링크들의 최소 개수에 의해 정의될 수 있다. 그러나, 이러한 층의 정의는 설명을 위한 임의적인 것으로서, 신경망 내에서 레이어의 차수는 전술한 것과 상이한 방법으로 정의될 수 있다. 예를 들어, 노드들의 레이어는 최종 출력 노드로부터 거리에 의해 정의될 수도 있다. 최초 입력 노드는 신경망 내의 노드들 중 다른 노드들과의 관계에서 링크를 거치지 않고 데이터가 직접 입력되는 하나 이상의 노드들을 의미할 수 있다. 또는, 신경망 네트워크 내에서, 링크를 기준으로 한 노드 간의 관계에 있어서, 링크로 연결된 다른 입력 노드들 가지지 않는 노드들을 의미할 수 있다. 이와 유사하게, 최종 출력 노드는 신경망 내의 노드들 중 다른 노드들과의 관계에서, 출력 노드를 가지지 않는 하나 이상의 노드들을 의미할 수 있다. 또한, 은닉 노드는 최초 입력 노드 및 최후 출력 노드가 아닌 신경망을 구성하는 노드들을 의미할 수 있다. 본 발명의 일 실시예에 따른 신경망은 입력층의 노드가 출력층에 가까운 은닉층의 노드보다 많을 수 있으며, 입력층에서 은닉층으로 진행됨에 따라 노드의 수가 감소하는 형태의 신경망일 수 있다. 신경망은 하나 이상의 은닉층을 포함할 수 있다. 은닉층의 은닉 노드는 이전의 층의 출력과 주변 은닉 노드의 출력을 입력으로 할 수 있다. 각 은닉층별 은닉 노드의 수는 동일할 수도 있고 상이할 수도 있다. 입력층의 노드의 수는 입력 데이터의 데이터 필드의 수에 기초하여 결정될 수 있으며 은닉 노드의 수와 동일할 수도 있고 상이할 수도 있다. 입력층에 입력된 입력 데이터는 은닉층의 은닉 노드에 의하여 연산될 수 있고 출력층인 완전 연결 레이어(FCL: fully connected layer)에 의해 출력될 수 있다.The characteristics of a neural network can be determined based on the number of nodes and links in the neural network, the relationship between the nodes and links, and the weight values assigned to each link. For example, if there are two neural networks with the same number of nodes and links and different weight values between the links, the two neural networks can be recognized as different from each other. Some of the nodes constituting the neural network can form a layer based on the distances from the initial input node. For example, a set of nodes whose distance is n from the initial input node can form an n layer. The distance from the initial input node can be defined by the minimum number of links that must be passed through to reach the node from the initial input node. However, this definition of a layer is arbitrary for explanation, and the order of a layer in the neural network can be defined in a different way than described above. For example, a layer of nodes can be defined by the distance from the final output node. An initial input node can mean one or more nodes into which data is directly input without passing through links in a relationship with other nodes in the neural network. Or, in a neural network, in a relationship between nodes based on a link, it may mean nodes that do not have other input nodes connected by a link. Similarly, a final output node may mean one or more nodes that do not have an output node in a relationship with other nodes among the nodes in the neural network. In addition, a hidden node may mean nodes that constitute a neural network other than the initial input node and the final output node. A neural network according to one embodiment of the present invention may be a neural network in which the number of nodes in an input layer may be greater than the number of nodes in a hidden layer close to the output layer, and the number of nodes decreases as it progresses from the input layer to the hidden layer. The neural network may include one or more hidden layers. A hidden node in a hidden layer may have as input the output of a previous layer and the output of a surrounding hidden node. The number of hidden nodes in each hidden layer may be the same or different. The number of nodes in the input layer may be determined based on the number of data fields of the input data, and may be the same as or different from the number of hidden nodes. The input data entered into the input layer can be operated on by the hidden nodes of the hidden layer and output by the fully connected layer (FCL), which is the output layer.
아바타 시선정보, 유저 스테이터스 정보 및 콘텐츠 송출영역은 데이터 전처리과정을 거쳐 딥러닝 모델에서 학습가능한 포맷의 데이터로 전처리될 수 있다. 전처리된 학습 데이터는 입력층으로 제공되고, 학습 단계를 거쳐 AI모델을 생성한다.Avatar gaze information, user status information, and content transmission area can be preprocessed into data in a format that can be learned by a deep learning model through a data preprocessing process. The preprocessed learning data is provided to the input layer and an AI model is created through a learning stage.
콘텐츠 송출영역은 메타버스 공간 구축 당시부터 기설정된 경우가 많기 때문에, 인접한 아바타들의 시선정보, 유저 스테이터스 정보 및/또는 그들에 기초하여 획득된 아바타시야만 판단되면, AI모델을 거쳐 현실연동 콘텐츠를 관람하고 있는 아바타인지, 관람하지 않는 아바타인지 빠르게 판단될 수 있다. Since the content transmission area is often set from the time the metaverse space is built, if only the gaze information of adjacent avatars, user status information, and/or avatar view acquired based on them are determined, it is possible to quickly determine whether an avatar is viewing reality-linked content or not through an AI model.
한편, 또 다른 실시예에서는, 아바타 시선정보 및/또는 유저 스테이터스 정보에 기초하여 실질관람 여부를 판단할 수 있다. 이를 위해서는, 먼저 시선정보나 유저 스테이터스 정보를 획득할 대상인 아바타를 선정해야 한다. 아바타 선정은, 소정 오브젝트(라이브홈쇼핑, 라이브버스킹 콘텐츠가 재생되는 오브젝트)에 인접한 아바타를 추출하는 것에 의하여 이루어질 수 있다. Meanwhile, in another embodiment, it is possible to determine whether or not actual viewing is taking place based on avatar gaze information and/or user status information. To do this, an avatar that is to obtain gaze information or user status information must first be selected. Avatar selection can be done by extracting an avatar adjacent to a given object (an object where live home shopping or live busking content is played).
도 16은 본 발명에 따른 방법 및 장치에 있어서, 시선정보나 유저 스테이터스 정보를 획득할 대상인 아바타를 선정하는 방법을 나타내는 개략도이다. 현실연동 콘텐츠 송출영역은 메타버스 공간 설계시에 지정될 수도 있지만, 플랫폼 관리자, 광고주 등에 의하여 다양한 위치에 설정될 수도 있다. 먼저, 현실연동 콘텐츠 송출영역을 판단한다. 현실연동 콘텐츠 송출영역은 메타버스 공간 내의 위치좌표와 콘텐츠 송출면적에 기초하여 판단할 수 있다. 이후, 콘텐츠 송출영역으로부터 소정 반경 이내의 영역을 아바타 선정영역으로 설정할 수 있다. 예를 들어, 콘텐츠 송출영역의 좌표가 {x1∼x2, y1∼y2, z1∼z2}인 경우, 메타버스 공간 바닥(길, 땅 등)에서 아바타가 활동하기 때문에, {(x1+x2)/2, (y1+y2)/2}를 중심점으로 해서 소정 반경(D)을 갖는 원의 영역을 아바타 선정영역(PA)으로 설정할 수 있다. 물론, 다른 실시예에서는 아바타 선정영역이 사각 영역일 수도 있고, 또 다른 실시예에서는 콘텐츠 송출영역과 아바타 사이의 직선거리가 소정 거리 이내인 경우, 콘텐츠 관람여부를 판단할 아바타로 선정할 수 있다.FIG. 16 is a schematic diagram showing a method for selecting an avatar as a target for acquiring gaze information or user status information in a method and device according to the present invention. The reality-linked content transmission area may be designated when designing a metaverse space, but may also be set in various locations by a platform manager, advertiser, etc. First, the reality-linked content transmission area is determined. The reality-linked content transmission area can be determined based on the location coordinates and the content transmission area within the metaverse space. Thereafter, an area within a predetermined radius from the content transmission area can be set as an avatar selection area. For example, if the coordinates of the content transmission area are {x1∼x2, y1∼y2, z1∼z2}, since the avatar is active on the floor of the metaverse space (road, ground, etc.), an area of a circle with a predetermined radius (D) centered at {(x1+x2)/2, (y1+y2)/2} can be set as an avatar selection area (PA). Of course, in other embodiments, the avatar selection area may be a rectangular area, and in still other embodiments, if the straight-line distance between the content transmission area and the avatar is within a predetermined distance, the avatar may be selected to determine whether to view the content.
이하, 실질관람 여부에 대한 방단 방식에 대해 설명한다. 도 17은 본 발명에 따른 방법 및 장치에 있어서 아바타 시선 정보에 기초한 콘텐츠 관람여부 판단방식을 도시한 개략도이다.Hereinafter, a method for determining whether or not content has been viewed will be described. FIG. 17 is a schematic diagram illustrating a method for determining whether or not content has been viewed based on avatar gaze information in a method and device according to the present invention.
본 발명에서는, 아바타의 시선을 추적하고, 상기 아바타의 시선에 기초한 아바타 시야 내에 콘텐츠 송출영역이 소정 비율 이상 포함되면, 유저가 광고 콘텐츠를 실질적으로 관람하는 것으로 판단한다. 그리고, 실질관람이 이루어진 시간을 카운팅하여 실질관람시간을 도출한다. In the present invention, the gaze of an avatar is tracked, and if a content transmission area is included within the avatar field of view based on the gaze of the avatar by a predetermined ratio or more, it is determined that the user is actually viewing the advertising content. Then, the actual viewing time is counted to derive the actual viewing time.
아바타 시선 정보에 기초한 콘텐츠 관람여부 판단은 먼저 아바타의 시선을 추적하는 것에서 시작한다. 예를 들어, HMD를 이용하여 아바타를 조작하는 경우, HMD의 전방에 구비된 카메라 시점에 기초하여 아바타의 시선 및 자세가 렌더링되며, 이를 통하여 아바타의 시선을 추적할 수 있다. 구체적으로, 도 17의 12시 방향을 기준점(기준방향)으로 상정하면, 렌더링된 아바타의 자세(방향성)에 기초하여 (a)의 아바타는 0°의 시선을 갖고 있고, (b)는 -60°의 시선을 갖고 있으며, (c)는 150°의 시선을 갖는다. 아바타 시선이 추적되면, 아바타 시선에 기초하여 시야가 설정될 수 있다. 아바타시야(θ)는 아바타 시선으로부터 ±α°의 범위를 가질 수 있다. α는 상수이고, 사용자에 의하여 기설정될 수 있으며, HMD의 디스플레이 화각, HMD와 유저 안구 사이의 거리 등에 기초하여 상이해질 수 있다. Judgment of whether to view content based on avatar gaze information first starts with tracking the avatar's gaze. For example, when operating an avatar using an HMD, the avatar's gaze and posture are rendered based on the viewpoint of a camera installed in front of the HMD, and the avatar's gaze can be tracked through this. Specifically, assuming the 12 o'clock direction in Fig. 17 as a reference point (reference direction), based on the posture (direction) of the rendered avatar, (a) has a gaze of 0°, (b) has a gaze of -60°, and (c) has a gaze of 150°. When the avatar's gaze is tracked, the field of view can be set based on the avatar's gaze. The avatar's field of view (θ) can have a range of ±α° from the avatar's gaze. α is a constant, can be preset by the user, and can vary based on the display angle of the HMD, the distance between the HMD and the user's eyes, etc.
그리고, 콘텐츠의 재생이 이루어지는 메타버스 공간 내 콘텐츠 송출영역(S)의 위치/면적과, 아바타시야(θ), 및 콘텐츠 송출영역(S)과 아바타(A) 사이의 거리에 기초하여, 오버랩 영역(V) 및/또는 오버랩 길이(L)가 추출될 수 있다. 오버랩 영역(V)은 아바타시야와 콘텐츠 송출영역이 오버랩된 면적을 의미하며, 오버랩 면적에 기초하여 아바타 시야와 콘텐츠 송출영역 간 오버랩 비율을 판단할 수 있다. 다른 실시예에서는 연산량을 최소화하기 위해, 오버랩 영역(V)의 일 지점에서의 오버랩 길이(L)만 산출하여, 아바타 시야와 콘텐츠 송출영역 사이의 오버랩 비율을 판단할 수도 있다.And, based on the location/area of the content transmission area (S) in the metaverse space where content is played, the avatar field of view (θ), and the distance between the content transmission area (S) and the avatar (A), the overlap area (V) and/or the overlap length (L) can be extracted. The overlap area (V) means the area where the avatar field of view and the content transmission area overlap, and the overlap ratio between the avatar field of view and the content transmission area can be determined based on the overlap area. In another embodiment, in order to minimize the amount of computation, only the overlap length (L) at one point of the overlap area (V) can be calculated to determine the overlap ratio between the avatar field of view and the content transmission area.
도 18은 본 발명에 따른 방법 및 장치에 있어서 콘텐츠 관람시간 판단방식을 설명하기 위한 개략도이다.Figure 18 is a schematic diagram for explaining a method for determining content viewing time in a method and device according to the present invention.
콘텐츠 관람여부 및 콘텐츠 관람시간에 대한 판단은 콘텐츠가 재생되는 동안 지속적으로 이루어질 수도 있고, 기설정된 주기마다 간헐적으로 이루어질 수도 있다. 도 18에서는 0.5시간(30분)마다 콘텐츠 관람여부 및 콘텐츠 관람시간을 판단하는 것으로 도시되었지만, 이에 한정되지 않는다. 본 실시예에서는, 아바타 시야와 콘텐츠 송출영역의 오버랩비율이 60% 이상이면 콘텐츠를 관람하는 것으로 판단하도록 설정되었다. 따라서, 오버랩비율이 100%인 0m∼1.5시간인 구간과, 오버랩비율이 67%인 1.5∼3시간인 구간은 유저가 콘텐츠를 실질적으로 관람하는 것으로 판단하고, 오버랩비율이 18%에 불과한 3∼4시간 구간은 유저가 콘텐츠를 실질적으로 관람하지 않는 것으로 판단할 수 있다. The determination of whether content is viewed and the content viewing time may be continuously performed while the content is played, or may be performed intermittently at preset intervals. In Fig. 18, the determination of whether content is viewed and the content viewing time is performed every 0.5 hours (30 minutes), but is not limited thereto. In the present embodiment, it is set so that the content is viewed if the overlap ratio between the avatar's field of view and the content transmission area is 60% or higher. Accordingly, the section of 0 m to 1.5 hours where the overlap ratio is 100% and the section of 1.5 to 3 hours where the overlap ratio is 67% can be determined as the user actually viewing the content, and the section of 3 to 4 hours where the overlap ratio is only 18% can be determined as the user not actually viewing the content.
콘텐츠 관람시간은 아바타 시야 내에 콘텐츠 송출영역의 전부 또는 일부가 포함되는 시간에 기초하여 판단될 수 있다. 위의 설명에서, 오버랩비율로 판단하면 유저의 콘텐츠 관람시간은 3시간으로 추출될 수 있다. 판단주기를 더 짧게 한다면 더욱 정밀하게 관람시간이 추출될 수 있을 것이다. 다만, 다른 실시예에서는, 기설정된 오버랩비율과 무관하게, 아바타 시야 내에 콘텐츠 송출영역의 전부 또는 일부가 포함되기만 하면, 유저가 실질적으로 해당 콘텐츠를 관람한 것으로 판단할 수 있다. 이 때에는, 콘텐츠가 재생되는 4시간 동안 아바타 시야 내에 콘텐츠 송출영역(S)의 전부 또는 일부가 포함되었기 때문에 콘텐츠 관람시간을 4시간으로 판단할 수 있다.The content viewing time can be determined based on the time during which all or part of the content transmission area is included within the avatar's field of view. In the above explanation, the user's content viewing time can be extracted as 3 hours when determined by the overlap ratio. If the determination period is shortened, the viewing time can be extracted more precisely. However, in another embodiment, regardless of the preset overlap ratio, if all or part of the content transmission area is included within the avatar's field of view, it can be determined that the user has actually viewed the content. In this case, since all or part of the content transmission area (S) is included within the avatar's field of view for 4 hours during which the content is played, the content viewing time can be determined as 4 hours.
도 19는 본 발명에 따른 방법 및 장치에 있어서 유저 디바이스의 화면정보에 기초한 콘텐츠 관람여부 판단방식을 설명하기 위한 도면이다.FIG. 19 is a drawing for explaining a method for determining whether to view content based on screen information of a user device in a method and device according to the present invention.
유저 디바이스(예: HMD, 태블릿PC, 노트북 등)로부터 수신되는 유저 스테이터스 정보는 화면정보일 수 있다. 도 19에는 HMD의 화면정보를 도시했으나, 다른 실시예에서는 노트북의 스크린에 디스플레이되는 화면정보, 태블릿PC의 터치스크린에 디스플레이되는 화면정보, 컴퓨터 모니터에 디스플레이되는 화면정보 등일 수 있다. 실질적으로 유저는 위에서 언급한 장치에 디스플레이되는 화면을 보게 된다. 즉, 화면에 미디어콘텐츠가 포함되면 유저는 현실연동 콘텐츠를 보게 되고, 화면에서 현실연동 콘텐츠가 사라지면 유저는 더 이상 해당 콘텐츠를 보지 않게 된다. 따라서, 유저 디바이스에 디스플레이되는 화면정보에 기초하면 유저가 현재 무엇을 보고 있는지를 판단할 수 있다. 결국, 본 발명은 유저 디바이스에서 디스플레이되는 화면정보를 수신하는 단계를 더 포함하고, 화면정보에 기초하여 콘텐츠 관람여부 및 관람시간 중 적어도 하나가 판단될 수 있다.The user status information received from a user device (e.g., HMD, tablet PC, laptop, etc.) may be screen information. Although the screen information of the HMD is illustrated in FIG. 19, in another embodiment, it may be screen information displayed on a screen of a laptop, screen information displayed on a touch screen of a tablet PC, screen information displayed on a computer monitor, etc. In reality, the user sees the screen displayed on the above-mentioned device. That is, when media content is included on the screen, the user sees reality-linked content, and when the reality-linked content disappears from the screen, the user no longer sees the content. Therefore, it is possible to determine what the user is currently viewing based on the screen information displayed on the user device. Ultimately, the present invention further includes a step of receiving screen information displayed on the user device, and at least one of whether or not the content has been viewed and the viewing time can be determined based on the screen information.
한편, 본 발명에 따른 방법은 유저 디바이스(예: HMD, 태블릿PC, 노트북 등)가 추적한 유저의 유저시선정보를 수신하는 단계를 더 포함하고, 유저시선정보에 기초하여 관람여부 및 관람시간 중 적어도 하나를 판단할 수 있다.Meanwhile, the method according to the present invention further includes a step of receiving user gaze information of a user tracked by a user device (e.g., HMD, tablet PC, laptop, etc.), and at least one of viewing status and viewing time can be determined based on the user gaze information.
도 20은 본 발명에 따른 방법 및 장치에 있어서 안구전도(EOG, electrooculogram)를 이용하여 추출된 유저 시선정보에 기초한 콘텐츠 관람여부 판단방식을 설명하기 위한 도면이다.FIG. 20 is a drawing for explaining a method for determining whether to view content based on user gaze information extracted using electrooculogram (EOG) in a method and device according to the present invention.
도 20에 도시된 바와 같이, 유저 디바이스는 유저의 안구전도를 이용하여 유저시선정보를 추출할 수 있다. 안구전도는 안구의 수평(좌우) 움직임에 따른 안구전도인 수평안구전도와, 안구의 수직(상하) 움직임에 따른 수직안구전도로 나뉠 수 있다. 유저 디바이스는 안구전도를 측정하기 위한 하나 이상의 센서를 포함하고, 센서에서 측정된 안구전도에 기초하여 유저의 시선정보를 추출할 수 있다. 이때, 안구전도를 센싱하기 위한 센서의 종류, 모양, 크기, 개수, 위치는 다양한 방식으로 설계될 수 있다.As illustrated in FIG. 20, the user device can extract user gaze information using the user's electrooculography. The electrooculography can be divided into horizontal electrooculography, which is an electrooculography according to horizontal (left-right) movement of the eyeball, and vertical electrooculography according to vertical (up-down) movement of the eyeball. The user device includes one or more sensors for measuring electrooculography, and can extract the user's gaze information based on the electrooculography measured by the sensor. At this time, the type, shape, size, number, and position of the sensor for sensing the electrooculography can be designed in various ways.
HMD는 유저의 안면에 접촉하는 영역에 배치된 센서에 의하여 안구전도신호를 측정할 수 있고, 측정된 안구전도신호를 복수의 신호 성분으로 분리하는 선형계수벡터를 생성한다. 이때, 선형계수벡터를 생성하기 위해 안구의 수평/수직 운동의 검출을 위한 사전 운동이 유저에게 요청될 수 있다. 특정 패턴의 사전 운동에 따른 안구전도신호는 안구의 움직임에 따른 신호 성분 및 노이즈 성분을 포함할 수 있다. HMD는 안구전도신호를 수평 운동에 대한 신호 성분, 수직 운동에 대한 신호 성분, 노이즈 성분으로 분리할 수 있다. 이때, 여러 신호성분이 혼합신호에서 각각의 신호를 분리하는 ICA(Independent Component Analysis) 알고리즘이나 RICA(Reconstruction Independent component analysis) 알고리즘을 이용하여, 수평운동에 대한 신호 성분, 수직운동에 대한 신호 성분, 노이즈 성분을 포함하는 혼합신호를 분리할 수 있고, 분리된 신호에 대응되는 선형계수벡터를 출력한 뒤 이를 분리된 신호에 적용한다. 그리고, 선형 계수 벡터를 이용하여, 안구 움직임에 안구전도신호로부터 수평 안구전도신호 및 수직 안구전도신호를 추정한다. 즉, 안구의 사전 운동에 따라 선형계수벡터가 획득되면, 선형계수벡터를 안구전도신호에 적용하여 수평 및 수직 안구전도신호를 추정할 수 있게 된다. 이와 같이 추정된 수평 및 수직 안구전도신호는 아바타의 안구움직임을 렌더링하는 데 이용될 수도 있다. The HMD can measure an ocular electromyography signal by a sensor placed in an area in contact with the user's face, and generates a linear coefficient vector that separates the measured ocular electromyography signal into multiple signal components. At this time, in order to generate the linear coefficient vector, the user can be requested to perform a pre-movement for detecting horizontal/vertical eye movement. The ocular electromyography signal according to a specific pattern of pre-movement can include a signal component and a noise component according to the movement of the eye. The HMD can separate the ocular electromyography signal into a signal component for horizontal movement, a signal component for vertical movement, and a noise component. At this time, the mixed signal including the signal component for horizontal movement, the signal component for vertical movement, and the noise component can be separated by using an ICA (Independent Component Analysis) algorithm or a RICA (Reconstruction Independent component analysis) algorithm that separates each signal from a mixed signal, and the linear coefficient vector corresponding to the separated signal is output and then applied to the separated signal. And, using the linear coefficient vector, the horizontal eye conduction signal and the vertical eye conduction signal are estimated from the eye conduction signal for eye movement. That is, when the linear coefficient vector is obtained according to the pre-movement of the eye, the horizontal and vertical eye conduction signals can be estimated by applying the linear coefficient vector to the eye conduction signal. The horizontal and vertical eye conduction signals estimated in this way can also be used to render the eye movement of the avatar.
EOG를 이용하여 추출된 유저 시선정보에 기초하면, HMD에서 디스플레이되는 현실연동 콘텐츠를 실질적으로 관람하는지를 판단할 수 있다. 더욱 구체적으로, EOG를 이용하면, 유저가 잠들어 실질적으로 콘텐츠를 관람하고 있지 않는 경우까지 판단할 수 있게 된다.Based on the user gaze information extracted using EOG, it is possible to determine whether the user is actually viewing the reality-linked content displayed on the HMD. More specifically, using EOG, it is possible to determine even cases where the user is asleep and not actually viewing the content.
도 21은 본 발명에 따른 방법 및 장치에 있어서 유저 시선정보를 추출하기 위한 HMD 구조 및 유저 시선정보에 기초한 콘텐츠 실질관람 여부 판단방식을 설명하기 위한 도면이다. 구체적으로, 도 21의 (a)는 유저 시선정보를 추출하기 위한 HMD 구조를 나타내는 도면이고, (b)는 유저 시선정보에 기초한 관람 여부 판단방식을 설명하기 위한 도면이다.FIG. 21 is a drawing for explaining an HMD structure for extracting user gaze information and a method for determining whether content has been actually viewed based on the user gaze information in a method and device according to the present invention. Specifically, (a) of FIG. 21 is a drawing showing an HMD structure for extracting user gaze information, and (b) is a drawing for explaining a method for determining whether content has been viewed based on the user gaze information.
유저시선정보는 내부 카메라를 통해 획득된 유저의 동공 움직임을 통하여 추출될 수도 있다. HMD는 유저 안면에 접촉하는 쿠션, 렌즈, 디스플레이, 하우징과 함께 유저의 동공 움직임을 추적하기 위한 눈추적센서(예: 카메라)를 포함한다. 그 외의 각종 센서 모듈(관성센서 등), 헤드트래킹 모듈, 통신 모듈, 가변초점모듈, 컨트롤러 등 다양한 구성이 하우징 내외에 구비될 수 있다. 눈추적센서는 유저의 눈의 배향에 관한 정보, 즉, 시선의 각도에 관한 정보를 포함할 수 있다. 눈추적센서에서 획득된 유저시선정보와 HMD에서 디스플레이되는 영상정보를 통하여, 유저가 현재 보고 있는 콘텐츠 영역을 추출할 수 있고, 이에 기초하여 현실연동 콘텐츠에 대한 실질관람 여부 및 실질관람시간을 판단할 수 있다. The user gaze information can also be extracted through the user's pupil movement acquired through an internal camera. The HMD includes a cushion, lens, display, housing that come into contact with the user's face, and an eye tracking sensor (e.g., camera) for tracking the user's pupil movement. Various other sensor modules (such as inertial sensors), head tracking modules, communication modules, variable focus modules, and controllers may be provided inside and outside the housing. The eye tracking sensor may include information about the orientation of the user's eyes, that is, information about the angle of the gaze. Through the user gaze information acquired from the eye tracking sensor and the image information displayed on the HMD, the content area that the user is currently viewing can be extracted, and based on this, whether or not the user is actually viewing the reality-linked content and the actual viewing time can be determined.
한편, 본 발명에 따른 방법은, 상기 소정 오브젝트에 인접한 아바타의 개수를 산정하는 단계와, 아바타의 개수에 기초하여 소정 오브젝트에 인접한 각각의 아바타에게 리워드를 제공하는 단계를 포함할 수 있다. 즉, 현실연동 콘텐츠에 대한 관람 아바타의 수가 많을수록 더욱 큰 혜택을 각 아바타에게 제공할 수 있다. 또한, 현실연동 콘텐츠에 대한 관람 아바타의 수가 많을수록 해당 콘텐츠를 제공한 아바타에게 리워드를 제공할 수 있다. 즉, 본 발명에 따른 방법은, 아바타의 개수에 기초하여 결정된 리워드를 소정 오브젝트에 인접한 각각의 아바타에게 제공하는 단계를 포함할 수 있다.Meanwhile, the method according to the present invention may include a step of calculating the number of avatars adjacent to the predetermined object, and a step of providing a reward to each avatar adjacent to the predetermined object based on the number of avatars. That is, the greater the number of avatars viewing the reality-linked content, the greater the benefit can be provided to each avatar. In addition, the greater the number of avatars viewing the reality-linked content, the more rewards can be provided to the avatars providing the corresponding content. That is, the method according to the present invention may include a step of providing a reward determined based on the number of avatars to each avatar adjacent to the predetermined object.
이때, 아바타의 개수는, 위에서 설명한 바와 같이, 소정 오브젝트를 중심으로 소정 반경 이내에 위치하는 아바타를 대상으로 산출될 수 있다. 더욱 구체적으로, 현실연동 콘텐츠가 디스플레이되는 영역에 인접해 있다는 사실만으로 리워드를 제공하는 것은 불합리하기 때문에, 소정 오브젝트에 인접한 아바타를 대상으로 실질관람 여부를 판단하고, 콘텐츠를 실질적으로 관람하는 아바타만을 대상으로 아바타의 개수를 산정할 수 있다. 이를 위하여, 본 발명에 따른 방법은, 소정 오브젝트를 중심으로 소정 반경 이내에 위치하는 아바타의 시선을 추출하는 단계와, 상기 시선 내에 상기 소정 오브젝트의 전부 또는 일부가 포함되는 아바타만을 카운팅하는 단계를 포함할 수 있고, 이 2개의 단계를 통하여 실질관람 아바타의 개수만을 산출할 수 있다. At this time, the number of avatars can be calculated for avatars located within a predetermined radius centered on a predetermined object, as described above. More specifically, since it is unreasonable to provide a reward simply for the fact that the content is displayed adjacent to an area where reality-linked content is displayed, the actual viewing can be determined for avatars adjacent to the predetermined object, and the number of avatars can be calculated for only avatars that actually view the content. To this end, the method according to the present invention can include a step of extracting the line of sight of avatars located within a predetermined radius centered on a predetermined object, and a step of counting only avatars that include all or part of the predetermined object within the line of sight, and only the number of avatars that actually view the content can be calculated through these two steps.
한편, 콘텐츠 제공자를 위하여, 본 발명에 따른 방법은, 상기 소정 오브젝트에 인접한 아바타의 개수를 산정하는 단계, 및, 아바타의 개수에 기초하여, 현실연동 콘텐츠를 전송한 유저에게 리워드를 제공하는 단계를 더 포함할 수 있다. 이때, 리워드는 현실연동 콘텐츠를 제공할 수 있는 권한을 부여하는 아이템일 수 있지만, 이에 한정되지 않는다. Meanwhile, for content providers, the method according to the present invention may further include a step of calculating the number of avatars adjacent to the predetermined object, and a step of providing a reward to a user who has transmitted reality-linked content based on the number of avatars. In this case, the reward may be an item granting the right to provide reality-linked content, but is not limited thereto.
위와 같이, 현실연동 콘텐츠를 관람하는 아바타의 개수에 따라서, 관람자 및 콘텐츠 제공자는 소정의 리워드를 받을 수 있다. 따라서, 더욱 많은 아바타를 소집하기 위하여, 본 발명에 따른 방법은, 소정 오브젝트에 인접한 제1 아바타로부터 제2 아바타의 소환요청을 수신하는 단계, 소환요청 신호를 상기 제2 아바타에게 전달하는 단계, 및, 제2 아바타로부터 상기 소환요청 신호에 대한 수용 신호를 수신하면 상기 제2 아바타를 상기 제1 아바타에 근접한 위치로 이동시키는 단계를 더 포함할 수 있다. 즉, 아바타 소환 기능을 허용함으로써, 플랫폼 제공자는 더욱 많은 유저로 하여금 메타버스 공간을 이용하게 만들 수 있고, 콘텐츠 제공자와 관람자는 더 많은 리워드를 받을 수 있게 하여, 메타버스 플랫폼의 활성화를 도모할 수 있게 된다.As described above, depending on the number of avatars viewing the reality-linked content, the viewer and the content provider can receive a predetermined reward. Therefore, in order to summon more avatars, the method according to the present invention may further include the steps of receiving a summoning request of a second avatar from a first avatar adjacent to a predetermined object, the step of transmitting a summoning request signal to the second avatar, and the step of moving the second avatar to a position close to the first avatar when an acceptance signal for the summoning request signal is received from the second avatar. That is, by allowing the avatar summoning function, the platform provider can make more users use the metaverse space, and the content provider and the viewer can receive more rewards, thereby promoting the activation of the metaverse platform.
한편, 현실연동 콘텐츠가 라이브홈쇼핑인 경우, 본 발명에 따른 방법은, 라이브홈쇼핑 콘텐츠에 포함된 상품의 상품 정보를 제공하는 단계, 및, 실시간으로 산출되는 상기 아바타의 개수에 기초하여 상품 정보를 실시간으로 변경하는 단계를 더 포함할 수 있다. 이때, 상품 정보는 상기 상품의 가격, 할인율 및 사은품 정보 중 적어도 하나를 포함할 수 있다. 즉, 라이브홈쇼핑을 관람하는 아바타의 개수가 실시간으로 산정되고, 그에 따른 혜택이 가시적으로 디스플레이됨으로써 유저는 더욱 적극적으로 아바타를 소집할 노력을 기울이게 된다.Meanwhile, if the reality-linked content is live home shopping, the method according to the present invention may further include a step of providing product information of a product included in the live home shopping content, and a step of changing the product information in real time based on the number of avatars calculated in real time. At this time, the product information may include at least one of the price, discount rate, and gift information of the product. That is, the number of avatars watching the live home shopping is calculated in real time, and the corresponding benefits are visibly displayed, so that users make more active efforts to recruit avatars.
본 발명에 따른 방법을 콘텐츠 제공자 및 관람자에 대한 리워드 관점에서 정리하면, 먼저, 메타버스 공간 상에 영상 콘텐츠를 재생하기 위한 소정 오브젝트를 생성하고, 이후, 유저 요청에 기초하여 현실연동 콘텐츠를 소정 오브젝트 상에 오버랩하여 디스플레이한 뒤, 위에서 설명한 방식으로, 현실연동 콘텐츠를 관람하는 아바타의 개수를 산정하고, 아바타의 개수에 기초하여 상기 현실연동 콘텐츠를 관람하는 각 아바타에게 리워드를 제공한다.If we organize the method according to the present invention from the viewpoint of rewards for content providers and viewers, first, a predetermined object for playing video content in a metaverse space is created, and then, based on a user request, reality-linked content is displayed by overlapping it on the predetermined object, and then, in the manner described above, the number of avatars viewing the reality-linked content is calculated, and a reward is provided to each avatar viewing the reality-linked content based on the number of avatars.
이때, 콘텐츠 제공 권한과 관련하여, 본 발명에 따른 방법은, 유저로부터 소정 오브젝트에 대한 사용 요청을 수신하고, 소정 오브젝트에 대한 상기 유저의 사용권한을 판단하며, 유저에게 사용권한이 있다고 판단되면 유저로부터 현실연동 콘텐츠를 실시간으로 수신하는 단계를 더 포함할 수 있다. 유저로부터 실시간으로 수신된 콘텐츠는 소정 오브젝트 상에 오버랩하여 미디어파사드의 형태로 디스플레이될 수 있다.At this time, with respect to the content provision authority, the method according to the present invention may further include the steps of receiving a request for use of a predetermined object from a user, determining the user's authority to use the predetermined object, and receiving real-time linked content from the user if it is determined that the user has the authority to use the predetermined object. The content received in real time from the user may be displayed in the form of a media facade by overlapping the predetermined object.
리워드 제공을 위하여, 본 발명에 따른 방법은, 현실연동 콘텐츠에 대한 아바타의 실질관람 여부를 판단하고, 현실연동 콘텐츠를 관람하는 아바타의 개수는 상기 실질관람 여부에 기초하여 산정됨은 위에서 설명한 바와 같다.In order to provide a reward, the method according to the present invention determines whether an avatar has actually viewed the reality-linked content, and the number of avatars viewing the reality-linked content is calculated based on the actual viewing, as described above.
실질관람 여부의 판단의 제1 실시예에서, 아바타의 시선을 추적하고, 아바타의 시선에 기초한 아바타 시야 내에 상기 현실연동 콘텐츠의 재생영역이 소정 비율 이상 포함되면, 상기 아바타가 상기 현실연동 콘텐츠를 실질적으로 관람하는 것으로 판단할 수 있다.In a first embodiment of determining whether or not actual viewing is taking place, the avatar's gaze is tracked, and if the playback area of the reality-linked content is included within the avatar's field of view based on the avatar's gaze by a predetermined percentage or more, it can be determined that the avatar is actually viewing the reality-linked content.
실질관람 여부의 판단의 제2 실시예에서, 유저의 HMD(Head-Mounted Display)에서 디스플레이되는 화면정보를 수신하고, 상기 화면정보에 기초하여 상기 실질관람 여부를 결정할 수 있다.In a second embodiment of determining whether or not actual viewing has occurred, screen information displayed on a user's HMD (Head-Mounted Display) may be received, and whether or not actual viewing has occurred may be determined based on the screen information.
실질관람 여부의 판단의 제3 실시예에서, 유저의 HMD(Head-Mounted Display)가 추적한 상기 유저의 유저시선정보를 수신하고, 유저시선정보에 기초하여 실질관람 여부를 결정할 수 있다.In a third embodiment of determining whether or not actual viewing has occurred, the user's gaze information tracked by the user's HMD (Head-Mounted Display) is received, and whether or not actual viewing has occurred can be determined based on the user's gaze information.
위의 제1 내지 제3 실시예 외에, 다양한 방식으로 현실연동 콘텐츠에 대한 아바타의 실질관람 여부를 판단할 수 있을 것이다. 한편, 실질관람 여부와 함께, 현실연동 콘텐츠를 관람하는 아바타 각각에 대하여 현실연동 콘텐츠에 대한 실질관람 시간을 산출하는 단계가 더 포함될 수 있다.In addition to the first to third embodiments above, it may be possible to determine whether an avatar has actually viewed the reality-linked content in various ways. Meanwhile, along with determining whether or not the content has actually been viewed, a step of calculating the actual viewing time of each avatar viewing the reality-linked content may be further included.
한편, 콘텐츠 관람여부 판단대상인 아바타를 추출하기 위한 영역설정방식을 설명하면, 아바타 추출영역은 현실연동 콘텐츠 송출영역 면적에 따라 달라질 수 있다. 즉, 작은 면적의 송출영역(CA)에 대한 아바타 추출영역(PA)은 송출영역(CA)의 중심으로부터 짧은 반경(D)을 갖는 원의 영역일 수 있고, 넓은 면적의 송출영역(CA')에 대한 아바타 추출영역(PA')은 송출영역(CA')의 중심으로부터 긴 반경(D')을 갖는 원의 영역일 수 있다. 이는, 메타버스 공간 상에서 송출되는 현실연동 콘텐츠를 시각적으로 제대로 인식할 수 있는 거리에 아바타가 존재해야 해당 콘텐츠를 실질적으로 관람했다고 볼 수 있기 때문이다. 먼 거리에 있는 아바타의 아바타시야 내에 수개의 콘텐츠가 100%의 오버랩비율로 포함되었다고 해서, 해당 콘텐츠를 모두 관람한 것으로 판단하는 것은 비합리적이다. 이를 감안하여, 아바타 추출영역(PA, PA')은 송출영역(CA, CA')에 인접해야 하고, 아바타가 송출영역으로부터 소정 반경의 원의 내부에 존재하면, 해당 아바타가 송출영역에 인접한 것으로 판단할 수 있다. 그리고, 해당 아바타는 콘텐츠 관람여부 판단의 대상이 되고, 리워드 제공의 대상이 된다. Meanwhile, when explaining the area setting method for extracting avatars, which are the target of determining whether or not to view content, the avatar extraction area can vary depending on the area of the reality-linked content transmission area. That is, the avatar extraction area (PA) for a transmission area (CA) with a small area can be a circular area with a short radius (D) from the center of the transmission area (CA), and the avatar extraction area (PA') for a transmission area (CA') with a large area can be a circular area with a long radius (D') from the center of the transmission area (CA'). This is because in order to consider that the content has actually been viewed, an avatar must exist at a distance where the content can be properly visually recognized while being transmitted in the metaverse space. It is unreasonable to consider that all of the content has been viewed just because several contents are included with a 100% overlap ratio within the avatar field of view of an avatar at a distance. Considering this, the avatar extraction area (PA, PA') must be adjacent to the transmission area (CA, CA'), and if the avatar exists within a circle with a predetermined radius from the transmission area, the avatar can be determined to be adjacent to the transmission area. In addition, the avatar becomes a target for determining whether to view the content and a target for providing rewards.
다만, 이는 어디까지나 실시예에 불과하고, 아바타 추출영역이 원이 아닌 사각형, 육각형 등의 형태를 취해도 무방하다. 또 다른 실시예에서는, 콘텐츠 송출영역과 아바타 사이의 직선거리가 소정 거리 이내인 경우, 해당 아바타가 아바타 추출영역 내에 위치한 것으로 판단할 수도 있다. However, this is only an example, and the avatar extraction area may take the shape of a square, hexagon, etc. rather than a circle. In another embodiment, if the straight-line distance between the content transmission area and the avatar is within a predetermined distance, the avatar may be determined to be located within the avatar extraction area.
또한, 아바타 추출을 위한 설정영역 내의 아바타 개수에 기초한 리워드 제공방식에 대해서 설명한다. 아바타 추출영역을 설정하지 않으면, 더 많은 아바타가 모이는 장소임에도 불구하고, 실질적으로 현실연동 콘텐츠를 관람할 수 있는 대상 아바타는 더 적을 수 있다. 따라서, 본 발명은 아바타 추출영역에 포함된(콘텐츠 송출영역에 인접한) 아바타의 개수에 기초하여 리워드를 상이하게 결정할 수 있다. 아바타 추출영역에 포함된(콘텐츠 송출영역에 인접한) 아바타의 개수가 많을수록 라이브홈쇼핑/라이브버스킹 등의 현실연동 콘텐츠 제공자는 더 많은 비용을 지불할 수 있고, 이에 따른 리워드의 규모도 더 커지는 것이 바람직하기 때문이다. In addition, a reward provision method based on the number of avatars in the setting area for avatar extraction is described. If the avatar extraction area is not set, even if there are more avatars gathered in a place, the number of target avatars that can actually view reality-linked content may be smaller. Therefore, the present invention can determine rewards differently based on the number of avatars included in the avatar extraction area (adjacent to the content transmission area). This is because the greater the number of avatars included in the avatar extraction area (adjacent to the content transmission area), the more cost a provider of reality-linked content such as live home shopping/live busking can pay, and thus, it is desirable for the scale of rewards to be larger.
그리고, 리워드 결정에 이용되는 아바타의 개수는, 실질적으로 콘텐츠를 관람하는 아바타로 한정할 수 있다. 따라서, 콘텐츠 송출영역의 중심으로부터 소정 반경 내에 위치하는 아바타의 개수에 기초하여 소정의 리워드를 결정하되, 상기 아바타의 개수는 아바타시야 내에 콘텐츠 송출영역이 포함되는 아바타만을 카운팅하여 산출될 수 있다. And, the number of avatars used to determine rewards can be limited to avatars that actually view the content. Accordingly, a given reward is determined based on the number of avatars located within a given radius from the center of the content transmission area, and the number of avatars can be calculated by counting only avatars whose content transmission area is included within the avatar field of view.
도 22는 본 발명에 따른 장치(또는 서버)의 구성을 나타내는 블록도이다. Figure 22 is a block diagram showing the configuration of a device (or server) according to the present invention.
본 발명에 따른 장치(1000)는 서버 또는 단말 등 다양한 장치로 구현될 수 있다. 본 발명에 따른 장치(1000)는 디지털 기기로서, 랩탑 컴퓨터, 노트북 컴퓨터, 데스크톱 컴퓨터, 웹 패드, 이동 전화기와 같이 프로세서를 탑재하고 메모리를 구비한 연산 능력을 갖춘 디지털 기기일 수 있다. The device (1000) according to the present invention can be implemented as various devices such as a server or a terminal. The device (1000) according to the present invention can be a digital device having a processor, memory, and computing power, such as a laptop computer, a notebook computer, a desktop computer, a web pad, or a mobile phone.
또한, 본 발명에 따른 장치(1000)는 메타버스 플랫폼을 제공하는 웹 서버일 수 있다. 또한, 본 발명에 따른 장치(1000)는 클라우드 컴퓨팅 서비스를 제공하는 서버일 수 있다. 보다 구체적으로, 본 발명에 따른 장치(1000)는 인터넷 기반 컴퓨팅의 일종으로 정보를 사용자의 컴퓨터가 아닌 인터넷에 연결된 다른 컴퓨터로 처리하는 클라우드 컴퓨팅 서비스를 제공하는 서버일 수 있다. 클라우드 컴퓨팅 서비스는 인터넷 상에 자료를 저장해 두고, 사용자가 필요한 자료나 프로그램을 자신의 컴퓨터에 설치하지 않고도 인터넷 접속을 통해 언제 어디서나 이용할 수 있는 서비스일 수 있다. 인터넷 상에 저장된 자료들을 간단한 조작 및 클릭으로 쉽게 공유하고 전달할 수 있다. 또한, 클라우드 컴퓨팅 서비스는 인터넷 상의 서버에 단순히 자료를 저장하는 것뿐만 아니라, 별도로 프로그램을 설치하지 않아도 웹에서 제공하는 응용프로그램의 기능을 이용하여 원하는 작업을 수행할 수 있으며, 여러 사람이 동시에 문서를 공유하면서 작업을 진행할 수 있는 서비스일 수 있다. 또한, 클라우드 컴퓨팅 서비스는 IaaS(Infrastructure as a Service), PaaS(Platform as a Service), SaaS(Software as a Service), 가상 머신 기반 클라우드 서버 및 컨테이너 기반 클라우드 서버 중 적어도 하나의 형태로 구현될 수 있다. 즉, 본 발명에 따른 장치(1000)는 상술한 클라우드 컴퓨팅 서비스 중 적어도 하나의 형태로 구현될 수 있다. 전술한 클라우드 컴퓨팅 서비스의 구체적인 기재는 예시일 뿐, 본 발명의 클라우드 컴퓨팅 환경을 구축하는 임의의 플랫폼을 포함할 수도 있다.In addition, the device (1000) according to the present invention may be a web server providing a metaverse platform. In addition, the device (1000) according to the present invention may be a server providing a cloud computing service. More specifically, the device (1000) according to the present invention may be a server providing a cloud computing service that processes information with another computer connected to the Internet rather than the user's computer as a type of Internet-based computing. The cloud computing service may be a service that stores data on the Internet and allows the user to use the data or programs required by the user anytime and anywhere through an Internet connection without having to install them on his or her computer. Data stored on the Internet can be easily shared and transmitted with simple manipulation and clicks. In addition, the cloud computing service may be a service that not only simply stores data on a server on the Internet, but also performs desired tasks by utilizing the functions of application programs provided on the web without having to install a separate program, and allows multiple people to share documents and work simultaneously. In addition, the cloud computing service may be implemented in the form of at least one of IaaS (Infrastructure as a Service), PaaS (Platform as a Service), SaaS (Software as a Service), a virtual machine-based cloud server, and a container-based cloud server. That is, the device (1000) according to the present invention can be implemented in the form of at least one of the above-described cloud computing services. The specific description of the above-described cloud computing services is only an example, and may include any platform that constructs the cloud computing environment of the present invention.
본 발명에 따른 장치(1000)는 프로세서(1010), 메타버스 공간 생성부(1020), 아바타 생성부(1030), 현실연동 콘텐츠 제공부(1040), 시선추적부(1050), 실질관람 판단부(10060), 리워드 제공부(1070), 저장부(1080) 및 통신부(1090)를 포함할 수 있다. A device (1000) according to the present invention may include a processor (1010), a metaverse space creation unit (1020), an avatar creation unit (1030), a reality-linked content provision unit (1040), a gaze tracking unit (1050), an actual viewing judgment unit (10060), a reward provision unit (1070), a storage unit (1080), and a communication unit (1090).
본 발명에 따른 장치(1000)는 위에서 설명한 방법의 다양한 실시에를 수행하며, 각 구성은 해당 방법의 각 단계를 수행하는 기능을 갖는다. 다만, 도 23에 도시된 각 구성은 수행동작에 따라 기능적으로 구별된 것에 불과하며, 프로세서가 전체 구성 또는 일부 구성의 동작을 수행할 수 있다. 또한, 2 이상의 구성이 하나의 구성으로 통합될 수도 있고, 하나의 구성이 2 이상의 구성으로 분리되어도 무방하다. 다시 말해, 도 22에 도시된 블록도는 본 발명에 따른 장치(1000)의 동작을 쉽게 이해시키기 위하여 개략적으로 도시된 것에 불과하며, 각 구성의 명칭, 구조, 형태, 개수 등은 본 발명의 권리범위를 제한하지 않음을 이해해야 한다. 한편, 도 22의 각 구성은 도 2의 구성에 대응될 수 있고, 아래에서 설명하는 각 구성의 동작이 도 2의 제어부에 의하여 수행되거나 제어될 수 있고, 도 2의 통신부 및 데이터베이스에 의하여 수행될 수 있다. 마찬가지로, 도 2의 제어부, 통신부 및 데이터베이스의 동작이 아래에서 설명하는 각 구성에 의하여 수행될 수 있음은 당업자에 자명하다.The device (1000) according to the present invention performs various embodiments of the method described above, and each component has a function of performing each step of the method. However, each component illustrated in FIG. 23 is merely functionally distinguished according to the performed operation, and the processor may perform the operation of the entire component or a part of the component. In addition, two or more components may be integrated into one component, and one component may be separated into two or more components. In other words, it should be understood that the block diagram illustrated in FIG. 22 is merely schematically illustrated to easily understand the operation of the device (1000) according to the present invention, and the name, structure, shape, number, etc. of each component do not limit the scope of the rights of the present invention. Meanwhile, each component of FIG. 22 may correspond to the component of FIG. 2, and the operation of each component described below may be performed or controlled by the control unit of FIG. 2, and may be performed by the communication unit and database of FIG. 2. Likewise, it is obvious to those skilled in the art that the operations of the control unit, communication unit, and database of Fig. 2 can be performed by each configuration described below.
프로세서(1010)는 메타버스 공간 생성부(1020), 아바타 생성부(1030), 현실연동 콘텐츠 제공부(1040), 시선추적부(1050), 실질관람 판단부(10060), 리워드 제공부(1070), 저장부(1080) 및 통신부(1090)의 전반적인 동작을 제어한다. 프로세서(1010)는 저장부(1080)에 저장된 컴퓨터 프로그램을 판독하여 본 발명에 따른 방법을 수행할 수 있다. 프로세서(1010)는 하나 이상의 코어로 구성될 수 있으며, 컴퓨팅 장치의 중앙 처리 장치(CPU: central processing unit), 범용 그래픽 처리 장치 (GPGPU: general purpose graphics processing unit), 텐서 처리 장치(TPU: tensor processing unit) 등으로 구현될 수 있다. The processor (1010) controls the overall operation of the metaverse space creation unit (1020), the avatar creation unit (1030), the reality-linked content provision unit (1040), the eye-tracking unit (1050), the actual viewing judgment unit (10060), the reward provision unit (1070), the storage unit (1080), and the communication unit (1090). The processor (1010) can read a computer program stored in the storage unit (1080) and perform a method according to the present invention. The processor (1010) may be composed of one or more cores, and may be implemented as a central processing unit (CPU), a general purpose graphics processing unit (GPGPU), a tensor processing unit (TPU), or the like of a computing device.
메타버스 공간 생성부(1020)는 메타버스 공간 내에 각종 오브젝트를 생성한다. 메타버스 공간 생성부(1020)는 현실연동 콘텐츠를 재생하기 위한 오브젝트를 생성할 수 있다. 현실연동 콘텐츠는 영상 콘텐츠일 수 있고, 이를 재생하기 위해서는 해당 오브젝트가 편평한 면을 갖는 것이 바람직하다. 따라서, 콘텐츠 재생용 오브젝트는 가상공간 내에 위치하는 건물 벽면, 스크린, 광고판, 편평한 면을 갖는 고정물 등을 포함할 수 있는데, 이는 일 실시예일 뿐, 이에 한정되지 않는다. 즉, 영상 콘텐츠가 디스플레이될 수 있으면 족하고 곡면을 포함하는 오브젝트이어도 무방하다.The metaverse space creation unit (1020) creates various objects within the metaverse space. The metaverse space creation unit (1020) can create an object for playing back reality-linked content. The reality-linked content can be video content, and in order to play back the content, it is preferable that the object has a flat surface. Accordingly, the object for playing back the content can include a building wall, a screen, a billboard, a fixture having a flat surface, etc. located within the virtual space, but this is only an example and is not limited thereto. In other words, it is sufficient if the video content can be displayed, and it may also be an object including a curved surface.
유저 계정 등록부(1020)는 유저 정보를 등록한다. 유저 정보는, 유저의 아바타 정보, 아이템 정보, 권한 정보, 보유 에셋, 지분, 등일 수 있다. 한편, 유저 계정 등록부(1020)는 미디어 스페이스의 생성 내역 정보를 더 포함할 수 있고, 이에 기초하여 유저의 레벨이 결정될 수 있다. 즉, 미디어 스페이스를 다수 생성한 유저는 레벨이 상향조정되어, 메타버스 공간 내 활동에 다양한 리워드(보상)가 부여될 수 있다.The user account registration unit (1020) registers user information. The user information may be the user's avatar information, item information, authority information, owned assets, shares, etc. Meanwhile, the user account registration unit (1020) may further include information on the creation history of media spaces, and the user's level may be determined based on this. That is, a user who has created multiple media spaces may have their level adjusted upward, and various rewards may be granted for activities within the metaverse space.
아바타 생성부(1030)는 메타버스 공간 상에서 활동하는 아바타를 생성한다. 아바타는 유저 조작에 의하여 메타버스 공간 내에서 활동한다. 아바타 생성부(1030)는 아바타 외모(얼굴, 눈, 코, 입, 귀, 피부색, 헤어, 체형, 손, 발 등), 의류, 액세서리, 신발, 장갑, 가방 등을 유저에게 제시하고, 유저가 선택한 옵션을 조합하여 아바타의 모습, 외형, 자세 등을 생성할 수 있다. 아바타 생성부(1030)는 유저를 식별할 수 있는 ID를 부여할 수 있다. The avatar creation unit (1030) creates an avatar that is active in the metaverse space. The avatar is active in the metaverse space by user manipulation. The avatar creation unit (1030) presents the avatar appearance (face, eyes, nose, mouth, ears, skin color, hair, body shape, hands, feet, etc.), clothing, accessories, shoes, gloves, bags, etc. to the user, and can create the appearance, appearance, posture, etc. of the avatar by combining the options selected by the user. The avatar creation unit (1030) can assign an ID that can identify the user.
현실연동 콘텐츠 제공부(1040)는 유저 요청에 기초하여 현실연동 콘텐츠를 소정 오브젝트 상에 오버랩하여 디스플레이한다. 현실연동 콘텐츠 제공부(1040)는 콘텐츠 제공자로부터 수신한 콘텐츠에 대한 위치선정, 송출, 수정, 기록 등을 수행한다. 현실연동 콘텐츠 제공부(1040)는 통신부(1090)를 통해서 유저로부터 다양한 콘텐츠를 수신할 수 있고, 해당 콘텐츠는 라이브버스킹, 라이브홈쇼핑 등일 수 있으나, 이에 한정되지 않는다. 현실연동 콘텐츠 제공부(1040)는 유저로부터 수신한 콘텐츠를 저장한 뒤 소정 시간에 디스플레이할 수 있다. 또한, 현실연동 콘텐츠 제공부(1040)는 유저로부터 실시간으로 콘텐츠를 수신하고, 실시간 스트리밍을 통해 해당 콘텐츠를 디스플레이할 수 있다. 현실연동 콘텐츠 송출영역의 선정은 현실연동 콘텐츠 제공부(1040)가 임의적으로 수행하거나, 플랫폼 관리자, 유저, 콘텐츠 제공자 등의 요청에 따라 수행될 수 있다.The reality-linked content provider (1040) overlaps reality-linked content on a predetermined object and displays it based on a user request. The reality-linked content provider (1040) performs location selection, transmission, modification, recording, etc. for content received from a content provider. The reality-linked content provider (1040) can receive various contents from users through the communication unit (1090), and the contents may be live busking, live home shopping, etc., but are not limited thereto. The reality-linked content provider (1040) can store the contents received from users and display them at a predetermined time. In addition, the reality-linked content provider (1040) can receive contents from users in real time and display the contents through real-time streaming. The selection of a reality-linked content transmission area may be performed arbitrarily by the reality-linked content provider (1040), or may be performed at the request of a platform manager, a user, a content provider, etc.
현실연동 콘텐츠 제공부(1040)는 콘텐츠 재생용 오브젝트에 대한 유저의 사용권한을 판단한다. 즉, 현실연동 콘텐츠 제공부(1040)는 유저로부터 소정 오브젝트에 대한 사용 요청을 수신하고, 소정 오브젝트에 대한 유저의 사용권한을 판단하며, 유저에게 사용권한이 있다고 판단되면 유저로부터 현실연동 콘텐츠를 실시간으로 수신한다. 한편, 현실연동 콘텐츠 제공부(1040)는 라이브홈쇼핑 콘텐츠에 포함된 상품의 상품 정보를 제공하되, 실시간으로 산출되는 상기 아바타의 개수에 기초하여 상기 상품 정보를 실시간으로 변경한다. 이때, 상품 정보는 상기 상품의 가격, 할인율 및 사은품 정보 중 적어도 하나를 포함할 수 있지만, 이에 한정되지 않는다.The reality-linked content provider (1040) determines whether the user has the right to use the object for content playback. That is, the reality-linked content provider (1040) receives a request for use of a given object from a user, determines whether the user has the right to use the given object, and if it is determined that the user has the right to use the object, it receives reality-linked content from the user in real time. Meanwhile, the reality-linked content provider (1040) provides product information of a product included in a live home shopping content, and changes the product information in real time based on the number of avatars calculated in real time. At this time, the product information may include at least one of the price, discount rate, and gift information of the product, but is not limited thereto.
현실연동 콘텐츠 제공부(1040)는 현실연동 콘텐츠가 라이브버스킹 콘텐츠인 경우, 오브젝트 상에 라이브 버스킹 관련 콘텐츠 영상이 디스플레이되면 라이브 버스킹 관련 콘텐츠 영상을 관람하는 아바타의 실시간 재화 기부를 유도하도록 상기 오브젝트 주변에 팁 항아리(tip jar)를 배치할 수 있다.If the reality-linked content is live busking content, the reality-linked content provider (1040) may place a tip jar around the object to induce real-time donations of goods by avatars watching the live busking content video when the live busking content video is displayed on the object.
시선추적부(1050)는 현실연동 콘텐츠가 송출되는 시점에 송출영역에 인접한 아바타의 시선을 추적한다. 인접한 아바타는 송출영역을 중심으로 한 소정 반경 내에 위치하는 아바타일 수 있다. 따라서, 시선추적부(1050)는 송출영역에 인접한 아바타를 추출하기 위해, 아바타 추출영역을 설정할 수 있다. 시선추적부(1050)는 위에서 언급한 다양한 방식으로 아바타의 시선을 추적할 수 있지만, 이에 한정되지 않는다.The eye tracking unit (1050) tracks the eye of an avatar adjacent to the transmission area at the time when the reality-linked content is transmitted. The adjacent avatar may be an avatar located within a predetermined radius centered on the transmission area. Therefore, the eye tracking unit (1050) may set an avatar extraction area in order to extract an avatar adjacent to the transmission area. The eye tracking unit (1050) may track the eye of the avatar in various ways as mentioned above, but is not limited thereto.
실질관람 판단부(1060)는 아바타에 대응하는 유저의 콘텐츠 관람여부 및 관람시간 중 적어도 하나를 판단한다. 실질관람 판단부(1060)는 아바타의 시선을 추적하고, 아바타의 시선에 기초한 아바타시야 내에 콘텐츠 송출영역이 포함되는지에 기초하여 실질관람 여부를 판단한다. 구체적으로, 실질관람 판단부(1060)는 아바타의 시선에 기초한 아바타시야를 획득하고, 아바타시야와 송출영역의 오버랩 여부에 기초하여 현실연동 콘텐츠에 대한 아바타의 실질관람 여부를 판단한다. 실질관람 판단부(1060)는 통신부(1090)를 통해 수신된 유저의 HMD(Head-Mounted Display)의 화면정보에 기초하여 아바타의 시선 및 아바타시야를 획득할 수 있다. 또한, 실질관람 판단부(1060)는 통신부(1090)를 통해 수신된 유저의 유저시선정보에 기초하여 아바타의 시선 및 아바타시야를 획득할 수 있다. 실질관람 판단부(1060)는 아바타시야와 콘텐츠 송출영역의 오버랩 비율을 산출하고, 오버랩 비율이 소정값 이상인 경우에만 아바타가 해당 콘텐츠를 실질적으로 관람하는 것으로 판단할 수 있다. 실질관람 판단부(1060)는 아바타 시야 내에 2개 이상의 콘텐츠가 포함되는 경우, 아바타시야와 각 콘텐츠의 송출영역의 오버랩 비율을 추출하고, 오버랩 비율이 가장 높은 콘텐츠를 아바타가 실질적으로 관람하는 콘텐츠로 결정할 수 있다. 실질관람 판단부(1060)는 아바타시야와 콘텐츠 송출영역이 오버랩되는 실질관람시간을 추출할 수 있다. The actual viewing judgment unit (1060) determines at least one of whether the user corresponding to the avatar has viewed the content and the viewing time. The actual viewing judgment unit (1060) tracks the gaze of the avatar and determines whether the actual viewing has occurred based on whether the content transmission area is included in the avatar field of view based on the gaze of the avatar. Specifically, the actual viewing judgment unit (1060) obtains the avatar field of view based on the gaze of the avatar and determines whether the avatar has actually viewed the reality-linked content based on whether the avatar field of view and the transmission area overlap. The actual viewing judgment unit (1060) can obtain the gaze and avatar field of view of the avatar based on the screen information of the user's HMD (Head-Mounted Display) received through the communication unit (1090). In addition, the actual viewing judgment unit (1060) can obtain the gaze and avatar field of view of the avatar based on the user's gaze information received through the communication unit (1090). The actual viewing judgment unit (1060) calculates the overlap ratio between the avatar's field of view and the content transmission area, and can determine that the avatar is actually viewing the content only when the overlap ratio is greater than or equal to a predetermined value. When two or more contents are included in the avatar's field of view, the actual viewing judgment unit (1060) can extract the overlap ratio between the avatar's field of view and the transmission area of each content, and determine the content with the highest overlap ratio as the content that the avatar is actually viewing. The actual viewing judgment unit (1060) can extract the actual viewing time during which the avatar's field of view and the content transmission area overlap.
리워드 제공부(1070)는 콘텐츠에 대한 실질관람 여부에 따라 아바타에게 소정의 리워드를 제공한다. 이때, 소정의 리워드는, 실질관람 판단부(1060)에서 획득된 실질관람시간에 따라 상이하게 선택될 수 있다. 리워드 제공부(1070)는 콘텐츠의 재생 시간 및 관람시간의 비율에 기초하여 리워드 레벨을 산출하고, 리워드 레벨에 기초하여 소정의 리워드를 선택할 수 있다. 리워드 제공부(1070)는 콘텐츠 송출영역에 인접한 아바타 개수에 기초하여 소정의 리워드를 선택할 수 있다. 이때, 아바타 개수는 실질적으로 콘텐츠를 관람하는 아바타, 즉, 아바타시야 내에 콘텐츠의 송출영역이 포함되는 아바타만을 카운팅하여 산정될 수 있다. 리워드 제공부(1070)는 실질관람 시간에 기초하여 선택된 리워드를 현실연동 콘텐츠를 관람하는 아바타 각각의 아바타에게 제공한다. 또한, 리워드 제공부(1070)는 현실연동 콘텐츠를 관람하는 아바타의 개수에 기초하여 선택된 리워드를 현실연동 콘텐츠를 제공한 상기 유저에게 제공한다.The reward providing unit (1070) provides a predetermined reward to an avatar depending on whether the content is actually viewed. At this time, the predetermined reward may be selected differently depending on the actual viewing time obtained by the actual viewing determining unit (1060). The reward providing unit (1070) may calculate a reward level based on a ratio of the content's playback time and viewing time, and select a predetermined reward based on the reward level. The reward providing unit (1070) may select a predetermined reward based on the number of avatars adjacent to the content transmission area. At this time, the number of avatars may be calculated by counting only avatars that actually view the content, that is, avatars whose content transmission area is included within the avatar's field of view. The reward providing unit (1070) provides a reward selected based on the actual viewing time to each avatar that views the reality-linked content. Additionally, the reward provision unit (1070) provides a reward selected based on the number of avatars viewing the reality-linked content to the user who provided the reality-linked content.
저장부(1080)는 본 발명에 따른 방법을 수행하기 위한 컴퓨터 프로그램을 저장할 수 있다. 저장부(1080)는 관리자, 유저에 대한 각종 정보, 메타버스 공간 내에 포함되는 오브젝트에 대한 속성정보, 오브젝트에 대한 토큰화 정보 등을 포함할 수 있다. 또한, 저장부(1080)는 메타버스 상에 송출할 다양한 콘텐츠를 저장할 수 있다. 저장부(1080)는 위에서 설명한 리워드 레벨에 대한 LUT를 저장할 수 있다. 저장부(1080)는 콘텐츠에 대한 기본 리워드 정보, 인접 아바타 개수에 따른 리워드 설정/변경 정보, 콘텐츠 관람시간에 따른 리워드 설정/변경 정보 등을 저장할 수 있다. The storage (1080) can store a computer program for performing a method according to the present invention. The storage (1080) can include various information about an administrator and a user, attribute information about an object included in a metaverse space, tokenization information about an object, etc. In addition, the storage (1080) can store various contents to be transmitted on the metaverse. The storage (1080) can store a LUT for the reward level described above. The storage (1080) can store basic reward information about contents, reward setting/change information according to the number of adjacent avatars, reward setting/change information according to the content viewing time, etc.
통신부(1090)는 외부 디바이스, 외부 서버와 유무선으로 연결되어 각종 신호와 데이터를 송수신한다. 여기서, 외부 디바이스는 HMD, 스마트폰, 태블릿 PC, 노트북 등일 수 있지만, 이에 한정되지 않는다. 통신부(1080)는 유선 통신망 또는 무선 통신망을 통해 HMD, 스마트폰, 태블릿PC 등의 외부 디바이스와 데이터 송수신을 수행한다. 통신부(1090)는 유저 디바이스(예: HMD)에서 디스플레이되는 화면정보, 유저 디바이스가 추적한 유저시선정보 등을 수신할 수 있다.The communication unit (1090) is connected to external devices and external servers via wired or wireless means to transmit and receive various signals and data. Here, the external devices may be HMDs, smartphones, tablet PCs, laptops, etc., but are not limited thereto. The communication unit (1080) transmits and receives data with external devices such as HMDs, smartphones, tablet PCs, etc. via wired or wireless communication networks. The communication unit (1090) can receive screen information displayed on a user device (e.g., HMD), user gaze information tracked by a user device, etc.
또한, 도면에 도시하지는 않았지만, 사용자 요청에 의하여 생성된 메타버스 내의 각종 공간(랜드마크, 도로, 가상스토어 등)과 각종 오브젝트를 NFT로 토큰화하는 오브젝트 민팅부(미도시)를 더 포함할 수 있다. 오브젝트 민팅부(미도시)는, 외부 플랫폼과 연동하며 NFT를 생성할 수도 있고, 플랫폼 내부에서 자체적으로 NFT를 생성할 수도 있다. 한편, 메타버스 공간 내의 에셋은 NFT로 생성되어 거래의 대상으로 삼을 수 있으며, 메타공간 내에서의 매매대상 공간(랜드마크 등)을 구획하고, 해당 매매대상의 면적 등에 따라 온오프라인 결제를 통해 매매대상을 거래할 수도 있을 것이다. In addition, although not shown in the drawing, it may further include an object minting unit (not shown) that tokenizes various spaces (landmarks, roads, virtual stores, etc.) and various objects within the metaverse created at the user's request into NFTs. The object minting unit (not shown) may create NFTs by linking with an external platform, or may create NFTs within the platform itself. Meanwhile, assets within the metaverse space may be created as NFTs and made the subject of transactions, and the subject of transactions (landmarks, etc.) within the metaspace may be sectioned and the subject of transactions may be traded through online and offline payments depending on the area of the subject of transaction.
또한, 도면에 도시하지는 않았지만, 메타버스 공간을 이미지화하기 위한, 가상공간 구성부(미도시), 오브젝트 모델링부(미도시), 아바타 관리부(미도시) 등의 구성을 더 포함할 수 있다. 가상공간 설계부(미도시)는 거래의 대상이 될 가상의 메타버스 공간을 미리 구획, 분할, 배치하고, 각 공간에 대한 용도를 설정하는 기능을 갖는다. 유저는 가상공간 설계부(미도시)에 의해서 구획된 공간을 구입하여 랜드마크, 도로, 가상스토어로 이용할 수 있다. 거래대상은 크기, 용도 등에 따라 다양한 가치가 매겨질 수 있다. 오브젝트 모델링부(미도시)는 유저 입력 등에 따라 오브젝트를 모델링하여 속성 정보를 부여한 뒤 가상공간에 배치한다. 오브젝트 모델링부(미도시)에 의해서 모델링된 오브젝트는 유저 단말에 디스플레이될 수 있다. 아바타 관리부(미도시)는 메타버스 공간 내에서 활동하게 될 아바타 모델을 생성하고, 이를 유저에게 제시하여 선택하게 할 수 있다. 아바타 관리부(미도시)는 아바타와 관련한 다양한 오브젝트(의류, 가방, 액세서리, 헤어, 포즈 등)를 생성할 수 있다. 혹은, 유저로부터 생성된 다양한 오브젝트(의류, 가방, 액세서리, 헤어, 포즈 등)를 입력받아 메타버스 공간 내에서 위탁 판매할 수도 있다. In addition, although not shown in the drawing, it may further include a virtual space composition unit (not shown), an object modeling unit (not shown), an avatar management unit (not shown), etc., for visualizing the metaverse space. The virtual space design unit (not shown) has the function of pre-dividing, dividing, and arranging the virtual metaverse space to be the subject of the transaction, and setting the purpose of each space. The user can purchase the space divided by the virtual space design unit (not shown) and use it as a landmark, road, or virtual store. The transaction subject may be assigned various values depending on the size, purpose, etc. The object modeling unit (not shown) models an object according to user input, etc., assigns attribute information, and then arranges it in the virtual space. The object modeled by the object modeling unit (not shown) may be displayed on the user terminal. The avatar management unit (not shown) may create an avatar model that will be active in the metaverse space, and present it to the user for selection. The avatar management unit (not shown) may create various objects (clothes, bags, accessories, hair, poses, etc.) related to the avatar. Alternatively, you can input various objects (clothes, bags, accessories, hair, poses, etc.) created by users and sell them on consignment within the metaverse space.
이상에서 전술한 본 개시의 일 실시예에 따른 방법은, 하드웨어인 서버와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.The method according to one embodiment of the present disclosure described above can be implemented as a program (or application) to be executed in combination with a hardware server and stored in a medium.
상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.The above-described program may include codes coded in a computer language, such as C, C++, JAVA, or machine language, that can be read by the processor (CPU) of the computer through the device interface of the computer, so that the computer reads the program and executes the methods implemented as a program. Such codes may include functional codes related to functions that define functions necessary for executing the methods, and may include control codes related to execution procedures necessary for the processor of the computer to execute the functions according to a predetermined procedure. In addition, such codes may further include memory reference-related codes regarding which location (address address) of the internal or external memory of the computer should be referenced for additional information or media necessary for the processor of the computer to execute the functions. In addition, if the processor of the computer needs to communicate with another computer or server located remotely in order to execute the functions, the code may further include communication-related code regarding how to communicate with another computer or server located remotely using the communication module of the computer, what information or media to send and receive during communication, etc.
상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.The above storage medium means a medium that stores data semi-permanently and can be read by a device, rather than a medium that stores data for a short period of time, such as a register, cache, or memory. Specifically, examples of the storage medium include, but are not limited to, ROM, RAM, CD-ROM, magnetic tape, floppy disk, or optical data storage device. That is, the program can be stored in various storage media on various servers that the computer can access or in various storage media on the user's computer. In addition, the medium can be distributed to computer systems connected to a network, so that a computer-readable code can be stored in a distributed manner.
본 개시의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 개시가 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in connection with the embodiments of the present disclosure may be implemented directly in hardware, implemented in a software module executed by hardware, or implemented by a combination of these. The software module may reside in a Random Access Memory (RAM), a Read Only Memory (ROM), an Erasable Programmable ROM (EPROM), an Electrically Erasable Programmable ROM (EEPROM), a flash memory, a hard disk, a removable disk, a CD-ROM, or any other form of computer-readable recording medium well known in the art to which the present disclosure pertains.
이상, 첨부된 도면을 참조로 하여 본 개시의 실시예를 설명하였지만, 본 개시가 속하는 기술분야의 통상의 기술자는 본 개시가 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.Although the embodiments of the present disclosure have been described above with reference to the attached drawings, those skilled in the art will appreciate that the present disclosure may be implemented in other specific forms without changing the technical spirit or essential features thereof. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.
Claims (20)
유저로부터 메타버스 내에 배치된 소정 오브젝트에 대한 사용 요청을 수신하는 단계;
상기 소정 오브젝트에 대한 상기 유저의 사용권한을 판단하는 단계;
상기 유저에게 사용권한이 있다고 판단되면, 상기 유저로부터 라이브홈쇼핑 콘텐츠를 실시간으로 수신하는 단계;
상기 라이브홈쇼핑 콘텐츠를 상기 소정 오브젝트 상에 오버랩하여 디스플레이하는 단계; 및
상기 라이브홈쇼핑 콘텐츠의 송출 영역을 판단하고, 상기 라이브홈쇼핑 콘텐츠의 송출 영역에 기초하여 상기 오브젝트에 인접한 아바타들의 개수를 산정하며, 상기 아바타의 개수에 기초하여 리워드를 제공하는 단계를 포함하고,
상기 라이브홈쇼핑 콘텐츠의 송출 영역은, 상기 오브젝트의 메타버스 공간 내의 위치좌표와 상기 라이브홈쇼핑 콘텐츠의 송출 면적에 기초하여 판단하며,
상기 리워드를 제공하는 단계는,
상기 송출 영역에 기초하여 시선 정보를 획득할 아바타 선정 영역을 설정하는 단계;
상기 아바타 선정 영역 내에 있는 아바타들을 대상으로 시선 정보를 획득하고, 상기 획득한 시선 정보 및 상기 송출 영역에 기초하여 상기 아바타들의 상기 라이브홈쇼핑 콘텐츠에 대한 실질관람여부를 각각 판단하는 단계; 및
상기 라이브홈쇼핑 콘텐츠를 실질적으로 관람한 아바타의 개수를 산출하는 단계를 포함하는, 라이브홈쇼핑 제공방법.A method performed on a computing device having one or more processors and a memory storing one or more programs executed by the one or more processors,
A step of receiving a request for use of a specific object placed within the metaverse from a user;
A step of determining the user's usage rights for the above-mentioned predetermined object;
If it is determined that the above user has usage rights, a step of receiving live home shopping content from the above user in real time;
A step of displaying the above live home shopping content by overlapping it on the above predetermined object; and
It includes a step of determining the transmission area of the live home shopping content, calculating the number of avatars adjacent to the object based on the transmission area of the live home shopping content, and providing a reward based on the number of avatars.
The transmission area of the above live home shopping content is determined based on the location coordinates of the object within the metaverse space and the transmission area of the above live home shopping content.
The steps for providing the above rewards are:
A step of setting an avatar selection area for acquiring gaze information based on the above transmission area;
A step of acquiring gaze information of avatars within the above avatar selection area and determining whether the avatars actually watch the live home shopping content based on the acquired gaze information and the transmission area; and
A method for providing live home shopping, comprising a step of calculating the number of avatars that actually viewed the above live home shopping content.
상기 유저의 요청에 기초하여, 라이브홈쇼핑 콘텐츠 재생용 아이템을 제공하는 단계;를 더 포함하고,
상기 라이브홈쇼핑 콘텐츠 재생용 아이템의 소유 여부에 기초하여, 상기 사용권한의 유무를 판단하는 라이브홈쇼핑 제공방법.In the first paragraph,
Further comprising a step of providing an item for playing live home shopping content based on the request of the user;
A method for providing live home shopping, which determines whether or not there is the right to use the above based on whether or not the item for playing the above live home shopping content is owned.
상기 실질관람여부를 판단하는 단계는,
상기 오브젝트에 인접한 아바타들의 시선정보, 해당 아바타들의 유저 스테이터스 정보, 및 상기 콘텐츠 송출영역을 기 학습된 AI 모델에 입력하는 단계; 및
상기 AI 모델로부터 상기 라이브홈쇼핑 콘텐츠의 관람 여부에 대한 결과를 획득하는 단계를 포함하는, 라이브홈쇼핑 제공방법.In the first paragraph,
The steps for determining whether or not the above actual viewing is:
A step of inputting the gaze information of avatars adjacent to the object, the user status information of the avatars, and the content transmission area into the pre-learned AI model; and
A method for providing live home shopping, comprising a step of obtaining a result on whether or not to view the live home shopping content from the AI model.
상기 아바타의 개수를 산정하는 단계는, 상기 소정 오브젝트를 중심으로 소정 반경 이내에 위치하는 아바타의 개수를 산정하는 라이브홈쇼핑 제공방법.In the first paragraph,
The step of calculating the number of avatars is a live home shopping providing method that calculates the number of avatars located within a predetermined radius centered on the predetermined object.
상기 실질관람여부를 판단하는 단계는,
상기 아바타의 시선에 기초한 아바타 시야 내에 상기 송출영역이 기 설정된 비율 이상 포함되는 경우 상기 라이브홈쇼핑 콘텐츠를 실질적으로 관람한 것으로 판단하는 라이브홈쇼핑 제공방법. In the first paragraph,
The steps for determining whether or not the above actual viewing is:
A method for providing live home shopping, wherein the live home shopping content is determined to have been actually viewed when the transmission area is included within the avatar's field of vision by a preset percentage or more.
상기 실질관람여부를 판단하는 단계는,
상기 메타버스 공간 내 상기 송출 영역의 위치 및 면적, 상기 아바타의 시선에 기초한 아바타 시야, 및 상기 송출 영역과 상기 아바타 사이의 거리에 기초하여 상기 아바타 시야와 상기 송출영역 간 오버랩 비율을 산출하는 단계를 포함하는, 라이브홈쇼핑 제공방법.In the first paragraph,
The steps for determining whether or not the above actual viewing is:
A method for providing live home shopping, comprising: calculating an overlap ratio between the avatar field of view and the transmission area based on the location and area of the transmission area within the metaverse space, the avatar field of view based on the avatar's gaze, and the distance between the transmission area and the avatar.
상기 리워드를 제공하는 단계는,
상기 아바타의 개수에 기초하여 결정된 리워드를 상기 소정 오브젝트에 인접한 각각의 아바타에게 제공하는 라이브홈쇼핑 제공방법.In the first paragraph,
The steps for providing the above rewards are:
A method for providing live home shopping, which provides a reward determined based on the number of avatars to each avatar adjacent to the predetermined object.
상기 아바타의 개수에 기초하여, 상기 라이브홈쇼핑 콘텐츠를 전송한 상기 유저에게 리워드를 제공하는 라이브홈쇼핑 제공방법.In the first paragraph,
A method for providing live home shopping that provides rewards to users who transmit the live home shopping content based on the number of the above avatars.
상기 소정 오브젝트에 인접한 제1 아바타로부터 제2 아바타의 소환요청을 수신하는 단계;
상기 소환요청 신호를 상기 제2 아바타에게 전달하는 단계; 및
상기 제2 아바타로부터 상기 소환요청 신호에 대한 수용 신호를 수신하면, 상기 제2 아바타를 상기 제1 아바타에 근접한 위치로 이동시키는 단계;를 더 포함하는 라이브홈쇼핑 제공방법.In the first paragraph,
A step of receiving a summoning request of a second avatar from a first avatar adjacent to the above-mentioned predetermined object;
A step of transmitting the above summoning request signal to the second avatar; and
A method for providing live home shopping, further comprising: a step of moving the second avatar to a position close to the first avatar when receiving an acceptance signal for the summoning request signal from the second avatar.
상기 라이브홈쇼핑 콘텐츠에 포함된 상품의 상품 정보를 제공하는 단계; 및
실시간으로 산출되는 상기 아바타의 개수에 기초하여 상기 상품 정보를 실시간으로 변경하는 단계;를 더 포함하는 라이브홈쇼핑 제공방법.In the first paragraph,
Step of providing product information of products included in the above live home shopping content; and
A method for providing live home shopping, further comprising: a step of changing the product information in real time based on the number of avatars generated in real time.
상기 상품 정보는 상기 상품의 가격, 할인율 및 사은품 정보 중 적어도 하나를 포함하는 라이브홈쇼핑 제공방법.In Article 12,
A method for providing live home shopping, wherein the above product information includes at least one of the product's price, discount rate, and gift information.
유저 요청에 기초하여 라이브홈쇼핑 콘텐츠를 상기 소정 오브젝트 상에 오버랩하여 디스플레이하는 현실연동 콘텐츠 제공부; 및
상기 라이브홈쇼핑 콘텐츠의 송출 영역을 판단하고, 상기 라이브홈쇼핑 콘텐츠의 송출 영역에 기초하여 상기 오브젝트에 인접한 아바타들의 개수를 산정하며, 상기 아바타의 개수에 기초하여 리워드를 제공하는 리워드 제공부를 포함하며,
상기 현실연동 콘텐츠 제공부는,
유저로부터 상기 소정 오브젝트에 대한 사용 요청을 수신하면 상기 소정 오브젝트에 대한 상기 유저의 사용권한을 판단하고, 상기 유저에게 상기 소정 오브젝트에 대한 사용권한이 있다고 판단되면, 상기 유저로부터 라이브홈쇼핑 콘텐츠를 실시간으로 수신하며, 수신된 상기 라이브홈쇼핑 콘텐츠를 실시간으로 디스플레이하며,
상기 리워드 제공부는,
상기 라이브홈쇼핑 콘텐츠의 송출 영역을 상기 오브젝트의 메타버스 공간 내의 위치좌표와 상기 라이브홈쇼핑 콘텐츠의 송출 면적에 기초하여 판단하며, 상기 송출 영역에 기초하여 시선 정보를 획득할 아바타 선정 영역을 설정하고, 상기 아바타 선정 영역 내에 있는 아바타들을 대상으로 시선 정보를 획득하며, 상기 획득한 시선 정보 및 상기 송출 영역에 기초하여 상기 아바타들의 상기 라이브홈쇼핑 콘텐츠에 대한 실질관람여부를 각각 판단하고, 상기 라이브홈쇼핑 콘텐츠를 실질적으로 관람한 아바타의 개수를 산출하는, 라이브홈쇼핑 제공장치.A metaverse space creation unit that creates a predetermined object for playing video content in the metaverse space; and
A real-time linkage content provider that displays live home shopping content by overlapping it on a predetermined object based on a user request; and
A reward providing unit is included that determines the transmission area of the live home shopping content, calculates the number of avatars adjacent to the object based on the transmission area of the live home shopping content, and provides a reward based on the number of avatars.
The above reality-linked content provider department is,
When a request for use of the above-mentioned object is received from a user, the user's usage authority for the above-mentioned object is determined, and if it is determined that the user has usage authority for the above-mentioned object, the live home shopping content is received from the user in real time, and the received live home shopping content is displayed in real time.
The above reward provider,
A live home shopping providing device that determines the transmission area of the live home shopping content based on the position coordinates of the object in the metaverse space and the transmission area of the live home shopping content, sets an avatar selection area for acquiring line-of-sight information based on the transmission area, acquires line-of-sight information targeting avatars within the avatar selection area, determines whether the avatars actually viewed the live home shopping content based on the acquired line-of-sight information and the transmission area, and calculates the number of avatars that actually viewed the live home shopping content.
상기 현실연동 콘텐츠 제공부는,
상기 유저의 요청에 기초하여 라이브홈쇼핑 콘텐츠 재생용 아이템을 제공하고, 상기 라이브홈쇼핑 콘텐츠 재생용 아이템의 소유 여부에 기초하여 상기 사용권한의 유무를 판단하는 라이브홈쇼핑 제공장치.In Article 14,
The above reality-linked content provider department is,
A live home shopping providing device that provides an item for playing live home shopping content based on the request of the user, and determines whether or not the user has the right to use the item based on whether or not the user owns the item for playing live home shopping content.
상기 리워드 제공부는,
상기 오브젝트에 인접한 아바타들의 시선정보, 해당 아바타들의 유저 스테이터스 정보, 및 상기 송출영역을 기 학습된 AI 모델에 입력하고, 상기 AI 모델로부터 상기 라이브홈쇼핑 콘텐츠의 관람 여부에 대한 결과를 획득하는, 라이브홈쇼핑 제공장치.In Article 14,
The above reward provider,
A live home shopping providing device that inputs the gaze information of avatars adjacent to the object, the user status information of the avatars, and the transmission area into a pre-learned AI model, and obtains a result on whether or not the live home shopping content has been viewed from the AI model.
상기 리워드 제공부는,
상기 아바타의 시선에 기초한 아바타 시야 내에 상기 송출영역이 기 설정된 비율 이상 포함되는 경우 상기 라이브홈쇼핑 콘텐츠를 실질적으로 관람한 것으로 판단하는, 라이브홈쇼핑 제공장치.In Article 14,
The above reward provider,
A live home shopping providing device that determines that the live home shopping content has actually been viewed when the transmission area is included within the avatar's field of vision by a preset percentage or more based on the avatar's gaze.
상기 리워드 제공부는,
상기 메타버스 공간 내 상기 송출 영역의 위치 및 면적, 상기 아바타의 시선에 기초한 아바타 시야, 및 상기 송출 영역과 상기 아바타 사이의 거리에 기초하여 상기 아바타 시야와 상기 송출영역 간 오버랩 비율을 산출하는, 라이브홈쇼핑 제공장치.In Article 14,
The above reward provider,
A live home shopping providing device that calculates an overlap ratio between the avatar's field of view and the transmission area based on the location and area of the transmission area within the metaverse space, the avatar's field of view based on the avatar's gaze, and the distance between the transmission area and the avatar.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title | 
|---|---|---|---|
| KR1020230083051A KR102741006B1 (en) | 2023-06-27 | 2023-06-27 | Method and apparatus for providing live home shopping in metaverse | 
| PCT/KR2023/010995 WO2024248227A1 (en) | 2023-06-02 | 2023-07-27 | Method and apparatus for providing reality-linked content in metaverse | 
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title | 
|---|---|---|---|
| KR1020230083051A KR102741006B1 (en) | 2023-06-27 | 2023-06-27 | Method and apparatus for providing live home shopping in metaverse | 
Publications (1)
| Publication Number | Publication Date | 
|---|---|
| KR102741006B1 true KR102741006B1 (en) | 2024-12-10 | 
Family
ID=93849898
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date | 
|---|---|---|---|
| KR1020230083051A Active KR102741006B1 (en) | 2023-06-02 | 2023-06-27 | Method and apparatus for providing live home shopping in metaverse | 
Country Status (1)
| Country | Link | 
|---|---|
| KR (1) | KR102741006B1 (en) | 
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title | 
|---|---|---|---|---|
| JP2020201619A (en) * | 2019-06-07 | 2020-12-17 | 株式会社アルファコード | Incentive imparting system, incentive imparting device, incentive imparting method for virtual reality space, and incentive management program | 
| KR102414412B1 (en) * | 2021-12-31 | 2022-06-29 | 주식회사 메타버즈 | A Method of Providing Advertisements in a Virtual Space through an Algorithm for Determining Whether or Not to Consume Advertisements with Improved Accuracy | 
| KR102432524B1 (en) * | 2021-12-28 | 2022-08-17 | 주식회사 메타랩 | Metaverse hybrid platform service system and method for controlling the same | 
| KR102492985B1 (en) | 2021-12-30 | 2023-01-31 | 주식회사 닷밀 | A digital theme park implementation system that provides a digital twin-based metaverse | 
| KR20230047726A (en) * | 2021-10-01 | 2023-04-10 | 고수영 | System and Methid for adapting user profile in Virtual Exhibition system based on on-line | 
- 
        2023
        - 2023-06-27 KR KR1020230083051A patent/KR102741006B1/en active Active
 
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title | 
|---|---|---|---|---|
| JP2020201619A (en) * | 2019-06-07 | 2020-12-17 | 株式会社アルファコード | Incentive imparting system, incentive imparting device, incentive imparting method for virtual reality space, and incentive management program | 
| KR20230047726A (en) * | 2021-10-01 | 2023-04-10 | 고수영 | System and Methid for adapting user profile in Virtual Exhibition system based on on-line | 
| KR102432524B1 (en) * | 2021-12-28 | 2022-08-17 | 주식회사 메타랩 | Metaverse hybrid platform service system and method for controlling the same | 
| KR102492985B1 (en) | 2021-12-30 | 2023-01-31 | 주식회사 닷밀 | A digital theme park implementation system that provides a digital twin-based metaverse | 
| KR102414412B1 (en) * | 2021-12-31 | 2022-06-29 | 주식회사 메타버즈 | A Method of Providing Advertisements in a Virtual Space through an Algorithm for Determining Whether or Not to Consume Advertisements with Improved Accuracy | 
Similar Documents
| Publication | Publication Date | Title | 
|---|---|---|
| US20210166300A1 (en) | Virtual reality platform for retail environment simulation | |
| Luna-Nevarez et al. | The rise of the virtual reality (VR) marketplace: exploring the antecedents and consequences of consumer attitudes toward V-commerce | |
| US11847754B2 (en) | Interactive virtual reality system | |
| US10771704B2 (en) | Method of displaying wide-angle image, image display system, and information processing apparatus | |
| CN106462825B (en) | Data grid platform | |
| US9996874B2 (en) | Character personal shopper system | |
| US10055894B2 (en) | Markerless superimposition of content in augmented reality systems | |
| KR101894021B1 (en) | Method and device for providing content and recordimg medium thereof | |
| KR102379738B1 (en) | Electronic apparatus and product information providing method thereof | |
| US20190180319A1 (en) | Methods and systems for using a gaming engine to optimize lifetime value of game players with advertising and in-app purchasing | |
| JP6930704B2 (en) | Methods, devices and computer programs for presenting advertisements in virtualized environments | |
| US20180124351A1 (en) | Systems and methods for conserving computing resources during an online or virtual shopping session | |
| US20180121997A1 (en) | Systems and methods for adjusting the display quality of an avatar during an online or virtual shopping session | |
| Uma | Latest research trends and challenges of computational intelligence using artificial intelligence and augmented reality | |
| JP7708111B2 (en) | Information processing device, information processing method, and program | |
| JP2019530932A (en) | Crossover interaction trading system and method | |
| KR102741006B1 (en) | Method and apparatus for providing live home shopping in metaverse | |
| McNamara et al. | Investigating low-cost virtual reality technologies in the context of an immersive maintenance training application | |
| US20170032420A1 (en) | Publisher facilitated advertisement mediation | |
| KR20250000801A (en) | Method and apparatus for providing rewards for real world linked contents provided in metaverse | |
| US20230206281A1 (en) | Advertisement tracking integration system | |
| KR20210101753A (en) | User Behavior Analysis System In Virtual Environment And Method Of Driving The Same | |
| US20250307863A1 (en) | Information processing apparatus, calculation method, and non-transitory computer-readable medium | |
| US20240378802A1 (en) | Information processing method, server, and information processing system | |
| US20250315881A1 (en) | Systems, devices, articles, and methods to provide a customized retail experience | 
Legal Events
| Date | Code | Title | Description | 
|---|---|---|---|
| PA0109 | Patent application | Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20230627 | |
| PA0201 | Request for examination | Patent event code: PA02011R01I Patent event date: 20230627 Comment text: Patent Application | |
| PA0302 | Request for accelerated examination | Patent event date: 20240521 Patent event code: PA03022R01D Comment text: Request for Accelerated Examination | |
| PE0902 | Notice of grounds for rejection | Comment text: Notification of reason for refusal Patent event date: 20240611 Patent event code: PE09021S01D | |
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration | Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20241202 | |
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment | Comment text: Registration of Establishment Patent event date: 20241205 Patent event code: PR07011E01D | |
| PR1002 | Payment of registration fee | Payment date: 20241205 End annual number: 3 Start annual number: 1 | |
| PG1601 | Publication of registration |