[go: up one dir, main page]

KR102735183B1 - Contents providing apparatus based on virtual character and providing method thereof - Google Patents

Contents providing apparatus based on virtual character and providing method thereof Download PDF

Info

Publication number
KR102735183B1
KR102735183B1 KR1020220014253A KR20220014253A KR102735183B1 KR 102735183 B1 KR102735183 B1 KR 102735183B1 KR 1020220014253 A KR1020220014253 A KR 1020220014253A KR 20220014253 A KR20220014253 A KR 20220014253A KR 102735183 B1 KR102735183 B1 KR 102735183B1
Authority
KR
South Korea
Prior art keywords
characters
virtual
recognized
stored
people
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020220014253A
Other languages
Korean (ko)
Other versions
KR20230117920A (en
Inventor
김새론
윤필엽
김영원
송하영
남성현
Original Assignee
(주)스튜디오코인
한국전자기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)스튜디오코인, 한국전자기술연구원 filed Critical (주)스튜디오코인
Priority to KR1020220014253A priority Critical patent/KR102735183B1/en
Publication of KR20230117920A publication Critical patent/KR20230117920A/en
Application granted granted Critical
Publication of KR102735183B1 publication Critical patent/KR102735183B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Electromagnetism (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Remote Sensing (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)

Abstract

가상 캐릭터 기반의 콘텐츠 제공 장치가 개시된다. 본 발명의 가상 캐릭터 기반의 콘텐츠 제공 장치는 디스플레이부, 전방의 일정 범위 내 물체를 감지하는 라이다(LiDAR) 센서, 복수의 가상 캐릭터에 대한 정보가 저장된 저장부, 라이다 센서를 통해 감지된 적어도 한 사람의 3차원 위치 좌표를 인식하고, 디스플레이부를 통해 표시되는 가상의 배경 공간 중 인식된 3차원 위치 좌표에 각각 대응되는 영역에 저장된 복수의 가상 캐릭터 중 어느 하나를 표시하도록 제어하는 프로세서를 포함한다.A content providing device based on a virtual character is disclosed. The content providing device based on a virtual character of the present invention includes a display unit, a LiDAR sensor for detecting an object within a certain range in front, a storage unit for storing information on a plurality of virtual characters, and a processor for recognizing three-dimensional position coordinates of at least one person detected through the LiDAR sensor and controlling display of one of a plurality of virtual characters stored in an area corresponding to each of the recognized three-dimensional position coordinates among a virtual background space displayed through the display unit.

Description

가상 캐릭터 기반의 콘텐츠 제공 장치 및 그 방법 { CONTENTS PROVIDING APPARATUS BASED ON VIRTUAL CHARACTER AND PROVIDING METHOD THEREOF }{CONTENTS PROVIDING APPARATUS BASED ON VIRTUAL CHARACTER AND PROVIDING METHOD THEREOF}

본 발명은 가상 캐릭터 기반의 콘텐츠 제공 장치 및 그 방법에 관한 것으로, 더욱 상세하게는 실제 사람과 매칭되는 가상의 캐릭터를 생성하고 이를 애니메이션 형태의 콘텐츠로 실시간 제공할 수 있는 콘텐츠 제공 장치 및 그 방법에 관한 것이다.The present invention relates to a content providing device and method based on a virtual character, and more specifically, to a content providing device and method capable of creating a virtual character matching an actual person and providing the same in real time as content in the form of animation.

최근, 컴퓨터 그래픽과 AR/VR 기술의 발달로 메타버스(Metaverse)의 인기와 시장이 커지고 있다. 특히 코로나19 사태 이후 언택트(Untact) 문화의 확산으로 메타버스의 개념이 부각되면서 이를 도입한 가상현실 콘텐츠들이 주목을 받고 있다.Recently, the popularity and market of the Metaverse are growing due to the development of computer graphics and AR/VR technology. In particular, as the concept of the Metaverse has been highlighted due to the spread of the untact culture following the COVID-19 incident, virtual reality contents that have adopted it are attracting attention.

메타버스는 가상, 초월을 의미하는 메타(Meta)와 세계를 뜻하는 유니버스(Universe)의 합성어로 현실과 가상 세계가 상호 작용할 수 있는 시장을 의미한다.Metaverse is a compound word of Meta, meaning virtual and transcendent, and Universe, meaning world, and refers to a market where reality and the virtual world can interact.

최근에는, 게임 내 자신의 캐릭터(아바타)를 꾸미고 자신의 개성을 뽐낼 수 있는 다양한 메타버스 플랫폼이 등장하고 있다. 글로벌 시장조사기업 스태티스타(Statista)에 따르면 메타버스 플랫폼의 기반이 될 증강현실(AR)과 가상현실(VR)의 시장 규모는 2021년 약 377억 달러에서 2024년 약 2969억 달러 수준까지 급속도로 성장할 것이라고 전망하였다.Recently, various metaverse platforms have emerged where you can decorate your own character (avatar) in the game and show off your individuality. According to Statista, a global market research firm, the market size of augmented reality (AR) and virtual reality (VR), which will be the basis of the metaverse platform, is expected to grow rapidly from approximately $37.7 billion in 2021 to approximately $296.9 billion in 2024.

또한, 캐릭터가 단순히 이야기를 전달하는 문화 콘텐츠에서 직접적으로 수익을 창출하는 산업 상품으로 확장하면서 최근 몇 년 동안 캐릭터 산업 규모는 꾸준하게 증가하고 있으며, 다양한 캐릭터 상품으로 개발 및 판매되면서 매출 또한 폭발적인 성장세를 보이고 있다. 이는 캐릭터가 단순히 일시적으로 소비되는 엔터테인먼트를 넘어 자신을 표현하는 수단으로 진화하는 문화의 변화 때문인 것으로 보인다.In addition, the character industry has been steadily increasing in size in recent years as characters have expanded from simply telling stories to industrial products that directly generate revenue, and sales have also been growing explosively as various character products are developed and sold. This seems to be due to cultural changes in which characters are evolving from simply being entertainment consumed temporarily to a means of expressing oneself.

본 발명은 메타버스와 고부가가치를 가지는 캐릭터 산업이 성장하는 환경 속에서 익숙하고 친화적인 캐릭터를 메타버스에 활용하여 새롭고 친근한 가상의 세계를 경험하고자 하는 니즈를 충족시키기 위한 것이다.The present invention is intended to satisfy the need to experience a new and friendly virtual world by utilizing familiar and friendly characters in the metaverse in an environment where the metaverse and a high value-added character industry are growing.

본 발명은 상술한 니즈를 충족하기 위한 것으로, 본 발명의 목적은 사용자 친화적인 캐릭터를 사람에 매칭시켜 흥미를 유발할 수 있는 가상 현실 콘텐츠를 제공함으로써, 캐릭터의 부가가치를 증대시키고 보는 사람으로 하여금 흥미를 유발하도록 하기 위한 것이다.The present invention is intended to satisfy the above-described needs, and an object of the present invention is to provide virtual reality content that can arouse interest by matching user-friendly characters to people, thereby increasing the added value of characters and arousing interest in viewers.

상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 가상 캐릭터 기반의 콘텐츠 제공 장치는 디스플레이부, 전방의 일정 범위 내 물체를 감지하는 라이다(LiDAR) 센서, 복수의 가상 캐릭터에 대한 정보가 저장된 저장부, 상기 라이다 센서를 통해 감지된 적어도 한 사람의 3차원 위치 좌표를 인식하고, 상기 디스플레이부를 통해 표시되는 가상의 배경 공간 중 상기 인식된 3차원 위치 좌표에 각각 대응되는 영역에 상기 저장된 복수의 가상 캐릭터 중 어느 하나를 표시하도록 제어하는 프로세서를 포함한다.According to an embodiment of the present invention for achieving the above-described purpose, a virtual character-based content providing device includes a display unit, a LiDAR sensor for detecting an object within a certain range in front, a storage unit for storing information on a plurality of virtual characters, and a processor for recognizing three-dimensional position coordinates of at least one person detected through the LiDAR sensor and controlling display of one of the plurality of virtual characters stored in an area corresponding to each of the recognized three-dimensional position coordinates among a virtual background space displayed through the display unit.

이때, 상기 프로세서는 상기 감지된 사람의 신체적 특징 및 동작을 인식하고, 상기 복수의 가상 캐릭터 중 상기 인식된 신체적 특징에 대응되는 캐릭터를 매칭시켜 표시하도록 하며, 상기 인식된 동작에 따라 상기 표시되는 캐릭터가 움직이도록 제어할 수 있다.At this time, the processor can recognize the physical characteristics and movements of the detected person, match and display a character corresponding to the recognized physical characteristics among the plurality of virtual characters, and control the displayed character to move according to the recognized movements.

또한, 상기 프로세서는 상기 전방의 일정 범위 내 복수의 사람이 감지되는 경우, 상기 감지되는 복수의 사람 간 거리를 각각 인식하고, 상기 인식된 거리에 기초하여 적어도 둘 이상의 사람을 하나의 그룹으로 판단하며, 상기 저장부에 기 저장된 상기 가상 캐릭터 간 연관관계에 대한 정보에 기초하여, 상기 판단된 하나의 그룹에 속하는 사람들에 대하여 각각 상기 복수의 가상 캐릭터 중 서로 연관관계가 가장 높은 캐릭터들을 순차적으로 매칭시켜 표시하도록 제어할 수 있다.In addition, when a plurality of people are detected within a predetermined range in front, the processor can recognize the distances between the plurality of detected people, determine at least two or more people as one group based on the recognized distances, and sequentially match and display characters with the highest correlation among the plurality of virtual characters for each person belonging to the determined one group based on information about the correlation between the virtual characters previously stored in the storage unit.

한편, 본 발명의 일 실시 예에 따른 가상 캐릭터 기반의 콘텐츠 제공 방법은 라이다 센서를 통해 전방의 일정 범위 내 물체를 감지하는 단계, 상기 라이다 센서를 통해 감지된 적어도 한 사람의 3차원 위치 좌표를 인식하는 단계 및, 디스플레이부를 통해 표시되는 가상의 배경 공간 중 상기 인식된 3차원 위치 좌표에 각각 대응되는 영역에 기 저장된 복수의 가상 캐릭터 중 어느 하나를 표시하는 단계를 포함한다.Meanwhile, a method for providing content based on a virtual character according to an embodiment of the present invention includes a step of detecting an object within a certain range in front through a lidar sensor, a step of recognizing three-dimensional position coordinates of at least one person detected through the lidar sensor, and a step of displaying one of a plurality of virtual characters previously stored in an area corresponding to each of the recognized three-dimensional position coordinates among a virtual background space displayed through a display unit.

이때, 상기 표시하는 단계는 상기 감지된 사람으로부터 인식된 신체적 특징 및 동작에 기초하여, 상기 복수의 가상 캐릭터 중 상기 인식된 신체적 특징에 대응되는 캐릭터를 매칭시키고, 상기 인식된 동작에 따라 상기 매칭된 캐릭터가 움직이도록 표시할 수 있다.At this time, the displaying step may match a character corresponding to the recognized physical characteristic among the plurality of virtual characters based on the physical characteristic and movement recognized from the detected person, and display the matched character to move according to the recognized movement.

또한, 상기 표시하는 단계는 상기 전방의 일정 범위 내 복수의 사람이 감지되는 경우, 상기 감지되는 복수의 사람 간 거리를 각각 인식하는 단계, 상기 인식된 거리에 기초하여 적어도 둘 이상의 사람을 하나의 그룹으로 판단하는 단계 및, 기 저장된 상기 가상 캐릭터 간 연관관계에 대한 정보에 기초하여, 상기 판단된 하나의 그룹에 속하는 사람들에 대하여 각각 상기 복수의 가상 캐릭터 중 서로 연관관계가 가장 높은 캐릭터들을 순차적으로 매칭시켜 표시하는 단계를 포함할 수 있다.In addition, the displaying step may include a step of recognizing the distance between the plurality of people detected within a predetermined range in front, a step of determining at least two or more people as one group based on the recognized distance, and a step of sequentially matching and displaying characters with the highest correlation among the plurality of virtual characters for people belonging to the determined one group based on information about the correlation between the virtual characters stored in advance.

이상과 같은 본 발명의 다양한 실시 예에 따르면, 사용자 친화적인 캐릭터를 사람에 매칭시켜 흥미를 유발할 수 있는 가상 현실 콘텐츠를 제공하여 새로운 엔터테인먼트 경험을 제공할 수 있다.According to various embodiments of the present invention as described above, a new entertainment experience can be provided by providing virtual reality content that can arouse interest by matching user-friendly characters to people.

본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 본 발명의 일 실시 예에 따른 콘텐츠 제공 장치의 구성을 간략히 도시한 블록도,
도 2는 본 발명의 일 실시 예에 따른 라이더 센서로 감지한 주변 물체에 대한 데이터를 3D 이미지화한 도면,
도 3은 본 발명의 일 실시 예에 따른 콘텐츠 제공 장치의 동작 예를 설명하기 위한 도면,
도 4는 본 발명의 일 실시 예에 따른 콘텐츠 제공 방법을 간략하게 설명하기 위한 흐름도이다.
In order to more fully understand the drawings cited in the detailed description of the present invention, a brief description of each drawing is provided.
Figure 1 is a block diagram briefly illustrating the configuration of a content providing device according to one embodiment of the present invention.
FIG. 2 is a drawing of a 3D image of data on surrounding objects detected by a lidar sensor according to an embodiment of the present invention.
FIG. 3 is a drawing for explaining an example of operation of a content providing device according to one embodiment of the present invention.
Figure 4 is a flowchart briefly explaining a content providing method according to one embodiment of the present invention.

먼저, 본 명세서 및 청구범위에서 사용되는 용어는 본 발명의 다양한 실시 예들에서의 기능을 고려하여 일반적인 용어들을 선택하였다. 하지만, 이러한 용어들은 당 분야에 종사하는 기술자의 의도나 법률적 또는 기술적 해석 및 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 일부 용어는 출원인이 임의로 선정한 용어일 수 있다. 이러한 용어에 대해서는 본 명세서에서 정의된 의미로 해석될 수 있으며, 구체적인 용어 정의가 없으면 본 명세서의 전반적인 내용 및 당해 기술 분야의 통상적인 기술 상식을 토대로 해석될 수도 있다.First, the terms used in this specification and claims are general terms selected in consideration of functions in various embodiments of the present invention. However, these terms may vary depending on the intention of a person skilled in the art, legal or technical interpretation, and the emergence of new technologies. In addition, some terms may be terms arbitrarily selected by the applicant. These terms may be interpreted as defined in this specification, and if there is no specific definition of a term, it may be interpreted based on the overall content of this specification and common technical knowledge in the relevant technical field.

또한, 본 명세서에 첨부된 각 도면에 기재된 동일한 참조 번호 또는 부호는 실질적으로 동일한 기능을 수행하는 부품 또는 구성요소를 나타낸다. 설명 및 이해의 편의를 위해서 서로 다른 실시 예들에서도 동일한 참조번호 또는 부호를 사용하여 설명하도록 한다. 즉, 복수의 도면에서 동일한 참조 번호를 가지는 구성 요소를 모두 도시하고 있다고 하더라도, 복수의 도면들이 하나의 실시 예를 의미하는 것은 아니다.In addition, the same reference numbers or symbols described in each drawing attached to this specification represent parts or components that perform substantially the same function. For convenience of description and understanding, the same reference numbers or symbols are used in different embodiments to describe them. That is, even if components having the same reference numbers are all depicted in multiple drawings, the multiple drawings do not mean one embodiment.

또한, 본 명세서 및 청구범위에서는 구성요소들 간의 구별을 위하여 '제1', '제2' 등과 같이 서수를 포함하는 용어가 사용될 수 있다. 이러한 서수는 동일 또는 유사한 구성 요소들을 서로 구별하기 위하여 사용하는 것이며, 이러한 서수 사용으로 인하여 용어의 의미가 한정 해석되어서는 안될 것이다. 일 예로, 이러한 서수와 결합된 구성 요소는 그 숫자에 의해 사용 순서나 배치 순서 등이 제한 해석되어서는 안된다. 필요에 따라서는, 각 서수들은 서로 교체되어 사용될 수도 있다.In addition, terms including ordinal numbers such as "first", "second", etc. may be used in this specification and claims to distinguish between components. These ordinals are used to distinguish between identical or similar components, and the meaning of the terms should not be interpreted in a limited manner due to the use of these ordinals. For example, the order of use or arrangement of components combined with these ordinals should not be interpreted in a limited manner by their numbers. If necessary, each ordinal number may be used interchangeably.

본 명세서에서 단수의 표현은 문맥상 명백하게 다름을 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, '포함하다' 또는 '구성하다' 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this specification, singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, it should be understood that terms such as "comprise" or "comprises" are intended to specify the presence of a feature, number, step, operation, component, part or combination thereof described in the specification, but do not exclude in advance the possibility of the presence or addition of one or more other features, numbers, steps, operations, components, parts or combinations thereof.

또한, 본 발명의 실시 예에서, 어떤 부분이 다른 부분과 연결되어 있다고 할 때, 이는 직접적인 연결뿐 아니라, 다른 매체를 통한 간접적인 연결의 경우도 포함한다. 또한 어떤 부분이 어떤 구성 요소를 포함한다는 의미는, 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있다는 것을 의미한다.In addition, in the embodiment of the present invention, when it is said that a part is connected to another part, this includes not only a direct connection but also an indirect connection through another medium. In addition, when it is said that a part includes a certain component, it means that it may further include other components, rather than excluding other components, unless there is a specific description to the contrary.

이하, 첨부된 도면을 참조하여 본 발명을 더욱 구체적으로 설명하기로 한다.Hereinafter, the present invention will be described in more detail with reference to the attached drawings.

도 1은 본 발명의 일 실시 예에 따른 콘텐츠 제공 장치의 구성을 간략히 도시한 블록도이다.FIG. 1 is a block diagram briefly illustrating the configuration of a content providing device according to one embodiment of the present invention.

본 발명의 콘텐츠 제공 장치(100)는 디스플레이부(110), 라이다 센서(120), 저장부(130) 및 프로세서(140)를 포함한다.The content providing device (100) of the present invention includes a display unit (110), a lidar sensor (120), a storage unit (130), and a processor (140).

디스플레이부(110)는 영상데이터를 출력한다. 특히, 디스플레이부(110)는 프로세서(140)의 제어 동작에 따라 가상의 캐릭터를 기반으로 하는 다양한 영상 콘텐츠를 표시할 수 있다.The display unit (110) outputs image data. In particular, the display unit (110) can display various image contents based on virtual characters according to the control operation of the processor (140).

디스플레이부(110)는 영상을 디스플레이하기 위한 패널을 포함할 수 있다. 이 패널은 액정 표시 패널(Liquid Crystal Display Panel), 전기영동 표시 패널(Electrophoretic Display Panel), OLED 패널(Organic Light Emitting Diode Panel), LED 패널(Light Emitting Diode Panel), 무기 EL 패널(Electro Luminescent Display Panel), FED 패널(Field Emission Display Panel), SED 패널(Surface-conduction Electron-emitter Display Panel), PDP(Plasma Display Panel), CRT(Cathode Ray Tube) 표시 패널 중 선택된 어느 하나일 수 있다.The display unit (110) may include a panel for displaying an image. The panel may be any one selected from a liquid crystal display panel, an electrophoretic display panel, an organic light emitting diode panel (OLED panel), a light emitting diode panel (LED panel), an inorganic EL panel (Electro Luminescent Display Panel), a field emission display panel (FED panel), a surface-conduction electron-emitter display panel (SED panel), a plasma display panel (PDP), and a cathode ray tube (CRT) display panel.

또한, 디스플레이부(110)는 야외 무대나 강당, 노상 등 실내·외에서 대형 스크린의 형태로 구현되기 위하여, 서로 접합되어 비디오 월(video wall)을 구성할 수 있는 복수 개의 디스플레이 모듈을 포함할 수 있다.In addition, the display unit (110) may include a plurality of display modules that can be connected to each other to form a video wall in order to be implemented in the form of a large screen indoors or outdoors, such as on an outdoor stage, auditorium, or on the street.

라이다(Light Detection And Ranging, LiDAR) 센서(120)는 고출력 레이저 펄스를 발사하여 레이저가 목표물에 맞고 되돌아오는 신호의 특징을 측정하여 사물까지의 거리, 방향, 형태 등을 감지할 수 있는 구성이다. 라이다 센서(120)는 이와 같인 측면에서 비행시간거리측정(ToF, Time of Flight) 기술, 레이저 스캐너, 레이저 레이더라고도 불린다.A LiDAR (Light Detection And Ranging) sensor (120) is a configuration that can detect the distance, direction, shape, etc. to an object by emitting a high-power laser pulse and measuring the characteristics of the signal that returns when the laser hits a target. In this respect, the LiDAR sensor (120) is also called a time-of-flight (ToF) technology, a laser scanner, or a laser radar.

라이다 센서(120)는 거리를 비롯해 폭과 높낮이 정보까지 측정해 대상을 3차원으로 인식하고, 레이저를 여러 갈래로 쪼개어 발사한다. 15, 32, 64개 등 나눠지는 레이저 채널 수가 높아질수록 세밀한 인식이 가능하다. 펄스의 폭은 몇 나노초부터 몇 마이크로초까지 변동할 수 있다. 펄스 전력, 왕복 시간, 위상 변이, 펄스폭은 빛 신호에서 정보를 추출하는데 쓰이는 일반적인 파라미터들이다.The lidar sensor (120) measures the distance, width, and height information to recognize the target in three dimensions, and fires the laser by splitting it into several branches. The higher the number of laser channels divided into 15, 32, and 64, the more detailed the recognition is. The pulse width can vary from several nanoseconds to several microseconds. Pulse power, round trip time, phase shift, and pulse width are general parameters used to extract information from light signals.

도 2에 도시된 바와 같이, 라이다 센서(120)는 감지되는 데이터를 바탕으로 주변 지형·사물에 대한 3D 지도를 생성할 수 있으며, 이로부터 사람을 구분하여 감지할 수 있다.As illustrated in FIG. 2, the lidar sensor (120) can create a 3D map of the surrounding terrain and objects based on the detected data, and can distinguish and detect people from this.

라이다 센서(120)를 이용한 사람 감지 방법은 사람 몸의 비율을 이용한 방법, 다리 감지 방법 등이 있다. 몸의 비율을 이용한 방법은 사람 몸의 폭과 두께의 비율을 계산하여 사람인지를 판단하는 방법이다. 다리를 감지하는 방법은 두 다리 사이의 거리 연관성을 계산하여 사람을 구분하는 방법이다. 이 방법들은 일반적으로 클러스터링과 분류의 두 단계로 이루어진다. 클러스터링은 라이다 센서(120)의 출력 결과로 얻은 거리 데이터를 연관성을 고려하여 데이터를 그룹화하고, 이 과정에서 감지된 데이터로부터 몸의 폭과 두께와 같은 사람의 특징을 얻을 수 있다. 이 후에는 사람의 특징들을 분류하는 작업을 수행할 수 있다.There are various methods for detecting people using a lidar sensor (120), such as a method using the ratio of the human body and a method for detecting legs. The method using the ratio of the body is a method for determining whether a person is a person by calculating the ratio of the width and thickness of the human body. The method for detecting legs is a method for distinguishing people by calculating the distance correlation between two legs. These methods generally consist of two steps: clustering and classification. Clustering groups the distance data obtained as an output result of the lidar sensor (120) by considering the correlation, and in this process, human characteristics such as the width and thickness of the body can be obtained from the detected data. After this, a task of classifying the human characteristics can be performed.

분류에는 학습 방법이 이용될 수 있다. 대표적인 학습 방법은 Bayes 분류기, AdaBoost, SVM(Support Vector Machines) 등이 있다.Learning methods can be used for classification. Representative learning methods include Bayes classifier, AdaBoost, and SVM (Support Vector Machines).

또한, 본 발명의 콘텐츠 제공 장치(100)는 실시 예에 따라 카메라(미도시)를 더 포함할 수 있으며, 라이다 센서(120) 및 카메라를 융합하여 사람을 감지할 수도 있다. 라이다 센서(120)에 의해 획득한 정확한 거리 정보와 각도 정보를 이용하여 사람의 위치를 얻을 수 있으며, 카메라를 통해 색, 얼굴, 윤곽 등의 특징 정보를 획득하여 높은 정확도로 사람을 감지할 수 있다.In addition, the content providing device (100) of the present invention may further include a camera (not shown) according to an embodiment, and may detect a person by fusing a lidar sensor (120) and a camera. The location of a person can be obtained by using accurate distance information and angle information acquired by the lidar sensor (120), and feature information such as color, face, and outline can be acquired through the camera to detect a person with high accuracy.

저장부(130)는 콘텐츠 제공 장치(100)의 동작에 필요한 프로그램 및 데이터를 저장하는 역할을 수행한다. 특히, 저장부(130)는 가상의 캐릭터 또는 배경공간을 구성하는 복수의 이미지와 같은 정보를 저장할 수 있다.The storage unit (130) serves to store programs and data necessary for the operation of the content providing device (100). In particular, the storage unit (130) can store information such as multiple images that constitute a virtual character or background space.

저장부(130)에 저장된 캐릭터 정보는 복수의 분류로 구분되어 저장될 수 있다. 구체적으로, 캐릭터 정보는 캐릭터가 속하는 세계관, 성별, 크기, 체형, 나이, 성격 및 기타 신체적 특징 중 적어도 하나의 특성에 따른 기 설정된 기준에 따라 분류되어 저장될 수 있다. 캐릭터 정보는 인간 형상으로 국한되지 않는 다양한 캐릭터에 대한 정보를 포함할 수 있으며, 2D 캐릭터 또는 3D 캐릭터로 표현되는 정보일 수 있다.Character information stored in the storage unit (130) may be classified and stored by being divided into multiple categories. Specifically, character information may be classified and stored according to a preset criterion based on at least one of the world view, gender, size, body type, age, personality, and other physical characteristics of the character. Character information may include information on various characters that are not limited to human figures, and may be information expressed as 2D characters or 3D characters.

또한, 저장부(130)에 저장되는 캐릭터 정보는 저장되는 캐릭터들간의 연관관계를 수치화한 데이터를 더 포함할 수 있다. 구체적으로, 저장부(130)에 저장되는 캐릭터들 중 동일한 세계관을 공유하는 캐릭터들과 그렇지 않은 캐릭터들이 있는 경우, 동일한 세계관을 공유하는 캐릭터들 간의 연관관계가 나머지 캐릭터들과의 연관관계보다 더 높을 것이다.In addition, the character information stored in the storage unit (130) may further include data that quantifies the relationships between the stored characters. Specifically, if among the characters stored in the storage unit (130), there are characters that share the same world view and characters that do not, the relationships between the characters that share the same world view will be higher than the relationships with the remaining characters.

예를 들어, 저장부(130)에 저장된 캐릭터에 둘리, 또치, 마이콜, 피카츄, 꼬북이, 아이언맨이 있다고 가정한다. 이때, 둘리, 또치 및 마이콜은 모두 동일한 애니메이션 '아기공룡 둘리'에 등장하는 캐릭터이므로 동일한 세계관을 공유한다(동일한 콘텐츠 작품 또는 시리즈에 등장하는 경우 일반적으로 동일한 세계관을 공유한다고 볼 수 있다). 피카츄와 꼬북이는 '포켓몬'에 등장하는 캐릭터이므로 마찬가지로 서로 동일한 세계관을 공유하지만 둘리, 또치 및 마이콜과는 세계관이 다르다. 따라서, 둘리와 또치와 연관관계는 둘리와 피카츄와의 연관관계보다 높다고 볼 수 있다.For example, it is assumed that the characters stored in the storage (130) include Dooly, Totchi, Mycol, Pikachu, Turtle, and Iron Man. At this time, Dooly, Totchi, and Mycol are all characters appearing in the same animation 'Dooly the Little Dinosaur', so they share the same worldview (if they appear in the same content work or series, they can generally be considered to share the same worldview). Pikachu and Turtle are characters appearing in 'Pokemon', so they also share the same worldview, but their worldviews are different from Dooly, Totchi, and Mycol. Therefore, the relationship between Dooly and Totchi can be considered to be higher than the relationship between Dooly and Pikachu.

동일 세계관을 공유하는지 여부만을 고려하여 캐릭터 간 연관관계를 수치화된 데이터로 나타내면, 둘리와 또치 간의 연관도는 '1'이고, 둘리와 피카츄 간의 연관도, 둘리와 아이언맨 간의 연관도는 '0'이 될 수 있다. 실시 예에 따라서, 동일 세계관 내에서도 출연 빈도, 배역(동료인지 적인지 등)에 따라 연관도는 다르게 설정될 수 있다.If we were to represent the character relationships as numerical data by only considering whether they share the same worldview, the correlation between Dooly and Totchi would be '1', the correlation between Dooly and Pikachu, and the correlation between Dooly and Iron Man would be '0'. Depending on the embodiment, even within the same worldview, the correlation may be set differently depending on the frequency of appearance and the role (whether they are friends or enemies, etc.).

한편, 캐릭터의 크기 및 성격이라는 캐릭터 특성을 더 고려하여 캐릭터 간 연관관계를 수치화된 데이터로 나타낼 수 있다. 둘리, 또치, 피카츄, 꼬북이가 '작음'과 '귀여움'이라는 동일한 특성을 가지고 마이콜과 아이언맨은 해당 특성을 가지지 않으므로, 둘리와 또치 간의 연관도는 '1.5', 둘리와 아이언맨 간의 연관도는 여전히 '0'이지만 둘리와 피카츄 간의 연관도는 '0.5'가 될 수 있다.Meanwhile, considering the character characteristics such as the size and personality of the character, the correlation between the characters can be expressed as numerical data. Since Dooly, Tochi, Pikachu, and Turtle have the same characteristics of 'small' and 'cute', and Michael and Iron Man do not have these characteristics, the correlation between Dooly and Tochi is '1.5', the correlation between Dooly and Iron Man is still '0', but the correlation between Dooly and Pikachu can be '0.5'.

이와 같이, 저장부(130)에 저장되는 캐릭터 정보는 캐릭터들 간의 다양한 특성을 바탕으로 분류되며, 해당 특성들을 기준으로 서로 간의 연관관계를 나타내는 수치화된 정보를 포함할 수 있다. 또한, 캐릭터 특성 별로 서로 다른 가중치가 부여됨으로써 연관도가 다르게 반영되도록 할 수 있다.In this way, the character information stored in the storage unit (130) is classified based on various characteristics between characters, and may include numerical information indicating the relationship between the characteristics. In addition, by assigning different weights to each character characteristic, the degree of association can be reflected differently.

한편, 콘텐츠 제공 장치(100)는 저장부(130) 외에 통신부(미도시)를 포함하여 외부의 콘텐츠 서버와 별도의 상호간 통신을 수행하여, 상술한 캐릭터 정보를 수신할 수도 있다.Meanwhile, the content providing device (100) may perform separate mutual communication with an external content server by including a communication unit (not shown) in addition to the storage unit (130), thereby receiving the above-described character information.

네트워크는 WLAN(Wireless LAN), 와이파이(Wi-Fi), 와이브로(Wibro), 와이맥스(Wimax), HSDPA(High Speed Downlink Packet Access) 등의 무선 통신망을 포함할 수 있으며, 시스템 구현 방식에 따라 이더넷(Ethernet), xDSL(ADSL, VDSL), HFC(Hybrid Fiber Coaxial Cable), FTTC(Fiber to The Curb), FTTH(Fiber To The Home) 등의 유선 통신망을 포함할 수도 있다.The network may include wireless communication networks such as WLAN (Wireless LAN), Wi-Fi, Wibro, WiMAX, and HSDPA (High Speed Downlink Packet Access), and depending on the system implementation method, may also include wired communication networks such as Ethernet, xDSL (ADSL, VDSL), HFC (Hybrid Fiber Coaxial Cable), FTTC (Fiber to The Curb), and FTTH (Fiber To The Home).

콘텐츠 서버(미도시)는 콘텐츠 제공 장치(100)로부터의 캐릭터 모델링 요청에 응답하여 캐릭터를 구성하는 캐릭터 이미지를 포함하는 캐릭터 정보를 제공할 수 있다.A content server (not shown) can provide character information including a character image constituting a character in response to a character modeling request from a content providing device (100).

프로세서(140)는 콘텐츠 제공 장치(100)를 전반적으로 제어하는 구성이다. 구체적으로, 프로세서(140)는 라이다 센서(120)를 통해 감지된 적어도 한 사람의 3차원 위치 좌표를 인식하고, 디스플레이부(110)를 통해 표시되는 가상의 배경 공간 중 인식된 3차원 위치 좌표에 각각 대응되는 영역에, 저장부(130)에 저장된 복수의 가상의 캐릭터 중 어느 하나를 표시하도록 제어할 수 있다.The processor (140) is a component that controls the content providing device (100) as a whole. Specifically, the processor (140) recognizes the three-dimensional position coordinates of at least one person detected through the lidar sensor (120), and can control displaying one of a plurality of virtual characters stored in the storage unit (130) in an area corresponding to each recognized three-dimensional position coordinate among the virtual background space displayed through the display unit (110).

구체적으로, 도 3을 참조하여 콘텐츠 제공 장치의 동작 예를 설명하도록 한다.Specifically, an example of the operation of the content providing device will be described with reference to FIG. 3.

프로세서(140)는 콘텐츠 제공 장치(100)의 일부 영역에 구비된 라이다 센서(120)에 의해 감지되는 전방의 지역을 카메라로 촬영한 이미지를 좌·우 반전 및 그래픽 처리하여 가상의 배경 공간을 나타내는 3D 그래픽을 생성할 수 있다. 즉, 실제로 콘텐츠 제공 장치(100) 전방의 라이다 센서(120)에 의해 감지되는 지역을 가상의 배경 공간으로 처리하므로 사람들은 디스플레이부(110)에 비친 배경 공간이 마치 거울처럼 실제 자신이 위치하는 곳을 반영하는 것처럼 느껴지므로 가상 현실 체감 효과가 증대될 수 있다.The processor (140) can generate 3D graphics representing a virtual background space by left/right reversing and graphically processing an image captured by a camera of an area in front detected by a lidar sensor (120) equipped in some area of the content providing device (100). That is, since the area actually detected by the lidar sensor (120) in front of the content providing device (100) is processed as a virtual background space, people feel as if the background space reflected on the display unit (110) reflects their actual location like a mirror, and thus the virtual reality sensation effect can be enhanced.

프로세서(140)는 가상의 캐릭터가 포함된 콘텐츠를 생성하고 가상의 배경 공간 내 사람이 인식된 3차원 위치 좌표에 대응되는 영역에 오버랩되어 표시되도록 디스플레이부(110)를 제어할 수 있다. 가상의 캐릭터는 사람의 움직임에 의해 제어되는 콘텐츠 내 객체로서, 저장부(130)에 저장된 복수의 가상 캐릭터 이미지가 사용될 수 있다.The processor (140) can generate content including a virtual character and control the display unit (110) so that the virtual character is overlapped and displayed in an area corresponding to the three-dimensional position coordinates of a person recognized within a virtual background space. The virtual character is an object within the content controlled by the movement of a person, and multiple virtual character images stored in the storage unit (130) can be used.

프로세서(140)는 감지된 사람의 신체적 특징 및 동작을 인식하고, 저장부(130)에 저장된 복수의 가상 캐릭터 중 인식된 사람의 신체적 특징에 대응되는 캐릭터를 매칭시켜 표시하도록 하고, 인식된 동작에 따라 표시되는 캐릭터가 움직이도록 제어할 수 있다.The processor (140) can recognize the physical characteristics and movements of the detected person, match and display a character corresponding to the physical characteristics of the recognized person among a plurality of virtual characters stored in the storage unit (130), and control the displayed character to move according to the recognized movements.

구체적으로, 가상의 배경 공간 내 표시되는 캐릭터는 인식되는 사람의 특성에 따라 선택되거나 변형될 수 있다. 예를 들면, 인식되는 사람의 키나 덩치가 큰 것으로 인식된 경우, 그 인식 정도에 따라 힘이 센 캐릭터, 남자 캐릭터, 영웅 캐릭터 등 관련된 특성을 가지는 캐릭터가 선택될 수 있다. 만약, 반대로 인식되는 사람의 키나 덩치가 작은 것으로 인식된 경우, 귀엽고 작은 캐릭터, 동물 캐릭터 등이 선택될 수 있다. 물론 이와 반대되는 실시 예 또한 가능하다. 이 경우 작고 왜소한 체형인 경우 큰 덩치를 갖는 영웅 캐릭터를 매칭시킴으로써 사람들에게 색다른 즐거움을 제공할 수 있다. 또한, 인식되는 사람의 신체가 키가 크거나 뚱뚱한 경우, 캐릭터의 길이가 그에 맞게 늘어나거나 뚱뚱하게 표현된 캐릭터로 표시될 수 있다.Specifically, the character displayed in the virtual background space can be selected or modified according to the characteristics of the recognized person. For example, if the recognized person is recognized as being tall or big, a character with related characteristics such as a strong character, a male character, a hero character, etc. can be selected depending on the degree of recognition. On the contrary, if the recognized person is recognized as being short or small, a cute and small character, an animal character, etc. can be selected. Of course, the opposite embodiment is also possible. In this case, by matching a small or small body type with a large hero character, it is possible to provide people with different kinds of enjoyment. In addition, if the recognized person is tall or fat, the length of the character can be increased accordingly or the character can be displayed as fat.

이를 위하여, 저장부(130)에는 감지되는 사람의 키, 체형 등의 특성 정보와 캐릭터 특성 정보가 매칭 및 분류되어 저장될 수 있다.To this end, the storage unit (130) can store the characteristic information of the detected person, such as height and body shape, and the character characteristic information in a matched and classified manner.

또한, 프로세서(140)는 라이다 센서(120)에 의해 인식된 사람의 다양한 동작에 따라 캐릭터가 동일한 애니메이션 동작으로 실시간 표현될 수 있도록 제어할 수 있다. 이 경우, 라이다 센서(120)를 통해 사람의 다양한 동작에 대한 인식 자료를 수집하고, 카메라와 같은 영상 촬영 장비를 동시에 설치하여 사람의 영상 자료를 수집한다. 라이다 센서(120) 및 영상 촬영 장비를 통해 수집된 두 자료를 매칭하여 분석을 위한 데이터 셋을 구축하고, 이를 통해 사람의 각 동작 별로 유의한 차이가 있는 것으로 도출된 라이다 센서(120)의 인식 데이터를 심층신경망(Deep Neural Network, DNN)의 입력 변수로 설정하여, 사람의 동작 특성을 학습 및 추정할 수 있다.In addition, the processor (140) can control the character to be expressed in real time with the same animation motion according to various motions of the person recognized by the lidar sensor (120). In this case, recognition data on various motions of the person are collected through the lidar sensor (120), and video recording equipment such as a camera is installed at the same time to collect video data of the person. The two data collected through the lidar sensor (120) and the video recording equipment are matched to build a data set for analysis, and the recognition data of the lidar sensor (120), which is derived to have a significant difference for each motion of the person, is set as an input variable of a deep neural network (DNN), so that the motion characteristics of the person can be learned and estimated.

이에 따라, 프로세서(140)는 추정되는 사람의 동작에 대응되도록, 매칭되는 캐릭터의 동작을 실시간 변경하여 표시하도록 디스플레이부(110)를 제어할 수 있다.Accordingly, the processor (140) can control the display unit (110) to change and display the movement of the matching character in real time to correspond to the movement of the estimated person.

도 3을 참조하면, 가상의 배경 공간 중 A, B, C 및 D의 3차원 위치 좌표와 각각 대응되는 영역에 A, B, C 및 D와 매칭되는 AA, BB, CC 및 DD 캐릭터가 표시될 수 있다.Referring to FIG. 3, characters AA, BB, CC, and DD matching A, B, C, and D can be displayed in areas corresponding to the three-dimensional position coordinates of A, B, C, and D in the virtual background space, respectively.

이때, 본 발명의 일 실시 예에 따르면, 프로세서(140)는 전방의 일정 범위 내 감지되는 복수의 사람 간 거리를 각각 인식하고, 인식된 거리에 기초하여 적어도 둘 이상의 사람을 하나의 그룹으로 판단할 수 있다.At this time, according to one embodiment of the present invention, the processor (140) can recognize the distance between a plurality of people detected within a certain range in front, and determine at least two or more people as one group based on the recognized distance.

구체적으로, 프로세서(140)는 둘 이상의 사람이 기 설정된 거리 내로 떨어져 있는 경우에는 동료, 친구, 가족 등 친밀한 관계일 경우가 많으므로 이들을 하나의 그룹으로 그룹핑할 수 있다. 실시 예에 따라, 프로세서(140)는 둘 이상의 사람이 기 설정된 거리 내로 떨어져 있는 시간이 기 설정된 시간 이상인 경우에만 이들을 하나의 그룹으로 그룹핑할 수도 있다. 여기서, 기 설정된 거리는 10cm 이하 또는 30cm 이하 등으로 다양하게 설정될 수 있다.Specifically, the processor (140) may group two or more people into one group when they are separated by a preset distance, since they are often close friends, colleagues, family members, etc. Depending on the embodiment, the processor (140) may group two or more people into one group only when the time that they are separated by a preset distance is longer than a preset time. Here, the preset distance may be set to various values, such as 10 cm or less or 30 cm or less.

이후, 프로세서(140)는 판단된 하나의 그룹에 속하는 사람들에 대하여는 각각 서로 연관도가 가장 높은 캐릭터들을 순차적으로 매칭시켜 표시하도록 제어할 수 있다.Thereafter, the processor (140) can control the sequential matching and display of characters with the highest correlation with respect to each person belonging to a determined group.

도 3을 참조하면, 프로세서(140)는 C 및 D를 기 설정된 거리 내로 떨어져 있는 하나의 그룹(31)으로 판단할 수 있다. 이 경우, 프로세서(140)는 C 및 D에 매칭되는 캐릭터들(32)을 동일한 세계관 내에 속하는 '아기공룡 둘리' 애니메이션 캐릭터인 도우너(CC) 및 또치(DD)와 같이 연관도가 높은 순으로 선택하여 할당할 수 있다.Referring to FIG. 3, the processor (140) may determine that C and D are a single group (31) separated by a preset distance. In this case, the processor (140) may select and assign characters (32) matching C and D in order of high relevance, such as Dooly the Little Dinosaur animation characters, Douner (CC) and Ddoochi (DD), which belong to the same world view.

이와 같은 실시 예에에 따라, 하나의 그룹에 속하는 사람들에게는 연관된 캐릭터를 부여함으로써, 흥미 유발뿐만 아니라 스토리를 제공할 수 있다.In this embodiment, by giving related characters to people belonging to a group, it is possible to provide a story as well as generate interest.

또한, 프로세서(140)는 사람이 감지된 3차원 위치 좌표 외의 다른 빈 영역에 사람의 감지 여부와 상관없이 자체적으로 생성된 가상의 캐릭터(X1, X2)가 동작하는 모습을 표시함으로써 사람(A, B, C 및 D)에 매칭되는 캐릭터(AA, BB, CC 및 DD)가 마치 가상의 캐릭터(X1, X2)와 같이 존재하거나 서로 상호작용하는 듯한 효과를 제공할 수 있다.In addition, the processor (140) can display a virtual character (X1, X2) generated by itself moving regardless of whether a person is detected in a blank area other than the three-dimensional position coordinates where a person is detected, thereby providing an effect in which characters (AA, BB, CC, and DD) matching people (A, B, C, and D) exist together with or interact with the virtual characters (X1, X2).

한편, 더 나아가 프로세서(140)는 하나로 판단된 그룹 내에 속한 사람들의 신체적 특성 정보를 더 고려하여, 더욱 연관도 높은 캐릭터를 매칭시킬 수 있다. 구체적으로, 그룹 내에 속한 사람들의 키 및 체형에 대한 인식 정보를 바탕으로 해당 그룹이 키 차이가 10cm 이상 나는 두 명으로 구성된 경우, 연인 또는 부부로 판단하고, 이에 매칭되는 연인 캐릭터(미녀와 야수, 슈렉과 피오나 등)를 매칭시킬 수 있다. 또한, 해당 그룹이 키 차이가 30cm 이상 나는 세 명으로 구성된 경우, 아이가 있는 부부로 판단하고, 이에 매칭되는 가족 캐릭터(심슨 가족, 인크레더블 가족 등)를 매칭시킬 수 있다.Meanwhile, further, the processor (140) can match characters with higher relevance by further considering the physical characteristic information of people belonging to a group determined as one. Specifically, if the group is composed of two people with a height difference of 10 cm or more based on the recognition information on the height and body shape of people belonging to the group, the group can be determined as a lover or married couple, and a matching lover character (Beauty and the Beast, Shrek and Fiona, etc.) can be matched. In addition, if the group is composed of three people with a height difference of 30 cm or more, the group can be determined as a married couple with a child, and a matching family character (The Simpsons, The Incredibles, etc.) can be matched.

즉, 프로세서(140)는 그룹 내 속한 사람들의 신체적 특성 정보 및 저장부(130)에 저장된 신체적 특성 정보에 따른 관계 정보에 기초하여 그룹 내 속한 사람들 간의 관계를 판단하고, 판단된 관계에 매칭되는 캐릭터(연인, 가족 등)를 매칭시킬 수 있다.That is, the processor (140) can determine the relationship between people in the group based on the physical characteristic information of people in the group and the relationship information according to the physical characteristic information stored in the storage unit (130), and match a character (lover, family member, etc.) that matches the determined relationship.

한편, 실시 예에 따라, 프로세서(140)는 라이다 센서(120)에 의해 감지된 사람의 보행 특성을 바탕으로 성별 및 연령대를 추정할 수도 있다. 이를 위하여, 라이다 센서(120) 및 영상 촬영 장비를 이용하여 수집된 보행자 속성 자료를 바탕으로 데이터셋을 구축하고, 보행자의 평균 속도, 보폭, 속도 표준편차, 방향각 표준편차 등 다양한 특징 정보를 도출할 수 있다. 이와 같이 도출된 특징 정보를 DNN의 입력변수로 설정하여 보행자 특성을 학습 및 추정할 수 있다. 프로세서(140)는 이를 통해 추정되는 성별 및 연령대에 기초하여 더욱 상세한 캐릭터 매칭 기준을 설정할 수 있다.Meanwhile, according to an embodiment, the processor (140) may estimate the gender and age group based on the walking characteristics of the person detected by the lidar sensor (120). To this end, a dataset may be constructed based on pedestrian attribute data collected using the lidar sensor (120) and video recording equipment, and various feature information such as the pedestrian's average speed, stride, speed standard deviation, and direction angle standard deviation may be derived. The feature information derived in this way may be set as an input variable of the DNN to learn and estimate the pedestrian's characteristics. The processor (140) may thereby set more detailed character matching criteria based on the estimated gender and age group.

도 4는 본 발명의 일 실시 예에 따른 콘텐츠 제공 방법을 간략하게 설명하기 위한 흐름도이다.Figure 4 is a flowchart briefly explaining a content providing method according to one embodiment of the present invention.

먼저, 라이다 센서를 통해 전방의 일정 범위 내 물체를 감지한다(S410).First, an object within a certain range in front is detected using a lidar sensor (S410).

이후, 라이다 센서를 통해 감지된 적어도 한 사람의 3차원 위치좌표를 인식한다(S420).Thereafter, the 3D location coordinates of at least one person detected through the lidar sensor are recognized (S420).

이후, 디스플레이부를 통해 표시되는 가상의 배경공간 중, 인식된 3차원 위치좌표에 각각 대응되는 영역에 기 저장된 복수의 가상 캐릭터 중 어느 하나를 표시한다(S430).Thereafter, one of the multiple virtual characters previously stored is displayed in an area corresponding to each recognized 3D position coordinate among the virtual background space displayed through the display unit (S430).

이때, 감지된 사람으로부터 인식된 신체적 특징 및 모션에 기초하여, 복수의 가상 캐릭터 중 인식된 신체적 특징에 대응되는 캐릭터를 매칭시키고, 인식된 모션에 따라, 매칭된 캐릭터가 움직이도록 표시할 수 있다.At this time, based on the physical characteristics and motions recognized from the detected person, a character corresponding to the recognized physical characteristics among a plurality of virtual characters can be matched, and the matched character can be displayed to move according to the recognized motion.

또한, 전방의 일정 범위 내 복수의 사람이 감지되는 경우, 감지되는 복수의 사람 간 거리를 각각 인식하고, 인식된 거리에 기초하여 적어도 둘 이상의 사람을 하나의 그룹으로 판단하며, 기 저장된 가상 캐릭터 간 연관관계에 대한 정보에 기초하여, 판단된 하나의 그룹에 속하는 사람들에 대하여 복수의 가상 캐릭터 중 서로 연관관계가 가장 높은 캐릭터들을 순차적으로 매칭시켜 표시할 수 있다.In addition, when multiple people are detected within a certain range in front, the distances between the multiple detected people are each recognized, and at least two or more people are determined as one group based on the recognized distances, and based on information about the relationships between previously stored virtual characters, characters with the highest relationship among the multiple virtual characters can be sequentially matched and displayed for people belonging to one determined group.

이상과 같은 본 발명의 다양한 실시 예에 따르면, 사용자 친화적인 캐릭터를 사람에 매칭시켜 흥미를 유발할 수 있는 가상 현실 콘텐츠를 제공하여 새로운 엔터테인먼트 경험을 제공할 수 있다. 또한, 캐릭터의 부가가치를 증대시켜 관련 산업의 육성에 이바지할 수 있다.According to the various embodiments of the present invention as described above, it is possible to provide a new entertainment experience by providing virtual reality content that can stimulate interest by matching user-friendly characters to people. In addition, it is possible to increase the added value of characters and contribute to the development of related industries.

한편, 상술한 다양한 실시 예에 따른 콘텐츠 제공 방법은 프로그램으로 구현되어 다양한 기록 매체에 저장될 수 있다. 즉, 각종 프로세서에 의해 처리되어 상술한 콘텐츠 제공 방법을 실행할 수 있는 컴퓨터 프로그램이 기록 매체에 저장된 상태로 사용될 수도 있다.Meanwhile, the content providing method according to the various embodiments described above may be implemented as a program and stored in various recording media. That is, a computer program that can be processed by various processors and execute the content providing method described above may be used in a state of being stored in a recording medium.

일 예로, ⅰ) 라이다 센서를 통해 전방의 일정 범위 내 물체를 감지하는 단계, ⅱ) 라이다 센서를 통해 감지된 적어도 한 사람의 3차원 위치좌표를 인식하는 단계, ⅲ) 디스플레이부를 통해 표시되는 가상의 배경공간 중, 인식된 3차원 위치좌표에 각각 대응되는 영역에 기 저장된 복수의 가상 캐릭터 중 어느 하나를 표시하는 단계를 수행하는 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)가 제공될 수 있다.For example, a non-transitory computer readable medium may be provided in which a program is stored that performs the steps of: i) detecting an object within a certain range in front using a lidar sensor, ii) recognizing three-dimensional position coordinates of at least one person detected using the lidar sensor, and iii) displaying one of a plurality of virtual characters stored in advance in an area corresponding to each of the recognized three-dimensional position coordinates among a virtual background space displayed through a display unit.

비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.A non-transitory readable medium refers to a medium that semi-permanently stores data and can be read by a device, rather than a medium that stores data for a short period of time, such as a register, cache, or memory. Specifically, the various applications or programs described above can be stored and provided on a non-transitory readable medium, such as a CD, DVD, hard disk, Blu-ray disk, USB, memory card, or ROM.

이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.Although the preferred embodiments of the present invention have been illustrated and described above, the present invention is not limited to the specific embodiments described above, and various modifications may be made by those skilled in the art without departing from the gist of the present invention as claimed in the claims. Furthermore, such modifications should not be individually understood from the technical idea or prospect of the present invention.

100: 콘텐츠 제공 장치 110: 디스플레이부
120: 라이다 센서 130: 저장부
140: 프로세서
100: Content provider device 110: Display unit
120: Lidar sensor 130: Storage unit
140: Processor

Claims (6)

가상 캐릭터 기반의 콘텐츠 제공 장치에 있어서,
디스플레이부;
전방의 일정 범위 내 물체를 감지하는 라이다(LiDAR) 센서;
복수의 가상 캐릭터에 대한 정보가 저장된 저장부;
상기 라이다 센서를 통해 감지된 적어도 한 사람의 3차원 위치 좌표를 인식하고, 상기 디스플레이부를 통해 표시되는 가상의 배경 공간 중 상기 인식된 3차원 위치 좌표에 각각 대응되는 영역에 상기 저장된 복수의 가상 캐릭터 중 어느 하나를 표시하도록 제어하는 프로세서;를 포함하고,
상기 저장부에 저장되는 복수 개의 캐릭터에 대한 정보는 저장되는 복수 개의 캐릭터들간의 연관관계를 수치화한 데이터를 더 포함하고,
상기 저장부에 저장되는 복수 개의 캐릭터는 상기 연관관계를 수치화된 데이터에 따라 복수의 분류로 구분되어 저장되며,
상기 프로세서는,
상기 감지된 사람의 신체적 특징 및 동작을 인식하고, 상기 복수의 가상 캐릭터 중 상기 인식된 신체적 특징에 대응되는 캐릭터를 매칭시켜 표시하도록 하며, 상기 인식된 동작에 따라 상기 표시되는 캐릭터가 움직이도록 제어하는 것을 특징으로 하고,
상기 프로세서는,
상기 전방의 일정 범위 내 복수의 사람이 감지되는 경우, 상기 감지되는 복수의 사람 간 거리를 각각 인식하고, 상기 인식된 거리에 기초하여 적어도 둘 이상의 사람을 하나의 그룹으로 판단하며, 상기 저장부에 기 저장된 상기 가상 캐릭터 간 연관관계를 수치화한 데이터에 기초하여, 상기 판단된 하나의 그룹에 속하는 사람들에 대하여 상기 복수 개의 캐릭터 중 상기 연관관계를 수치화된 데이터에 따라 나누어진 복수 개의 분류 중 어느 하나의 분류에 속하는 캐릭터들을 순차적으로 매칭시켜 표시하도록 제어하는 것을 특징으로 하는 콘텐츠 제공 장치.
In a content providing device based on virtual characters,
Display section;
LiDAR sensor that detects objects within a certain range ahead;
A storage unit storing information about multiple virtual characters;
A processor that recognizes the three-dimensional position coordinates of at least one person detected through the lidar sensor and controls displaying one of the plurality of stored virtual characters in an area corresponding to each of the recognized three-dimensional position coordinates among the virtual background space displayed through the display unit;
The information about the plurality of characters stored in the above storage unit further includes data that quantifies the relationship between the plurality of characters stored,
The multiple characters stored in the above storage unit are stored in multiple categories according to the numerical data of the above relationship,
The above processor,
It is characterized by recognizing the physical characteristics and movements of the detected person, matching and displaying a character corresponding to the recognized physical characteristics among the plurality of virtual characters, and controlling the displayed character to move according to the recognized movements.
The above processor,
A content providing device characterized in that, when a plurality of people are detected within a predetermined range in front, the distance between the plurality of detected people is respectively recognized, and at least two or more people are determined as one group based on the recognized distance, and, based on the data in which the correlations between the virtual characters are digitized and stored in the storage unit, the content providing device sequentially matches and displays characters belonging to one of a plurality of classifications divided according to the digitized correlation data among the plurality of characters for people belonging to the determined one group.
삭제delete 삭제delete 가상 캐릭터 기반의 콘텐츠 제공 방법에 있어서,
라이다 센서를 통해 전방의 일정 범위 내 물체를 감지하는 단계;
상기 라이다 센서를 통해 감지된 적어도 한 사람의 3차원 위치 좌표를 인식하는 단계; 및
디스플레이부를 통해 표시되는 가상의 배경 공간 중 상기 인식된 3차원 위치 좌표에 각각 대응되는 영역에 기 저장된 복수의 가상 캐릭터 중 어느 하나를 표시하는 단계;를 포함하고,
복수 개의 캐릭터에 대한 정보는 저장되는 복수 개의 캐릭터들간의 연관관계를 수치화한 데이터를 더 포함하고, 기 저장된 복수 개의 캐릭터는 상기 연관관계를 수치화된 데이터에 따라 복수의 분류로 구분되어 저장되며,
상기 표시하는 단계는,
상기 감지된 사람으로부터 인식된 신체적 특징 및 동작에 기초하여, 상기 복수의 가상 캐릭터 중 상기 인식된 신체적 특징에 대응되는 캐릭터를 매칭시키고, 상기 인식된 동작에 따라 상기 매칭된 캐릭터가 움직이도록 표시하는 것을 특징으로 하며,
상기 표시하는 단계는,
상기 전방의 일정 범위 내 복수의 사람이 감지되는 경우, 상기 감지되는 복수의 사람 간 거리를 각각 인식하는 단계;
상기 인식된 거리에 기초하여 적어도 둘 이상의 사람을 하나의 그룹으로 판단하는 단계; 및
기 저장된 상기 가상 캐릭터 간 연관관계에 대한 정보에 기초하여, 상기 판단된 하나의 그룹에 속하는 사람들에 대하여 각각 상기 복수의 가상 캐릭터 중 상기 연관관계를 수치화된 데이터에 따라 나누어진 복수 개의 분류 중 어느 하나의 분류에 속하는 캐릭터들을 순차적으로 매칭시켜 표시하는 단계;를 포함하는 것을 특징으로 하는 콘텐츠 제공 방법.
In a method for providing content based on virtual characters,
A step of detecting an object within a certain range ahead using a lidar sensor;
A step of recognizing the three-dimensional position coordinates of at least one person detected through the above lidar sensor; and
A step of displaying one of a plurality of virtual characters stored in advance in an area corresponding to each of the recognized three-dimensional position coordinates among the virtual background space displayed through the display unit; including;
Information about multiple characters further includes data that quantifies the relationships between the multiple characters to be stored, and the multiple characters that have already been stored are classified into multiple categories and stored according to the quantified data of the relationships.
The steps indicated above are:
Based on the physical characteristics and movements recognized from the detected person, a character corresponding to the recognized physical characteristics among the plurality of virtual characters is matched, and the matched character is displayed to move according to the recognized movements.
The steps indicated above are:
When multiple people are detected within a predetermined range in front, a step of recognizing the distance between each of the multiple people detected;
A step of determining at least two or more people as one group based on the recognized distance; and
A content providing method characterized by comprising: a step of sequentially matching and displaying characters belonging to one of a plurality of classifications divided according to numerical data of the relationships among the plurality of virtual characters, for each person belonging to the determined group, based on information about the relationships between the virtual characters that have been previously stored;
삭제delete 삭제delete
KR1020220014253A 2022-02-03 2022-02-03 Contents providing apparatus based on virtual character and providing method thereof Active KR102735183B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220014253A KR102735183B1 (en) 2022-02-03 2022-02-03 Contents providing apparatus based on virtual character and providing method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220014253A KR102735183B1 (en) 2022-02-03 2022-02-03 Contents providing apparatus based on virtual character and providing method thereof

Publications (2)

Publication Number Publication Date
KR20230117920A KR20230117920A (en) 2023-08-10
KR102735183B1 true KR102735183B1 (en) 2024-11-27

Family

ID=87560767

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220014253A Active KR102735183B1 (en) 2022-02-03 2022-02-03 Contents providing apparatus based on virtual character and providing method thereof

Country Status (1)

Country Link
KR (1) KR102735183B1 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101876419B1 (en) * 2016-01-07 2018-07-10 한국전자통신연구원 Apparatus for providing augmented reality based on projection mapping and method thereof
CN110084712A (en) * 2016-10-26 2019-08-02 奥康科技有限公司 For analyzing image and providing the wearable device and method of feedback

Also Published As

Publication number Publication date
KR20230117920A (en) 2023-08-10

Similar Documents

Publication Publication Date Title
Camara et al. Pedestrian models for autonomous driving Part I: low-level models, from sensing to tracking
CN110310175B (en) System and method for mobile augmented reality
AU2017361061B2 (en) Deep learning system for cuboid detection
US11110343B2 (en) Methods and systems for generating detailed datasets of an environment via gameplay
US8401225B2 (en) Moving object segmentation using depth images
US8983184B2 (en) Vision image information storage system and method thereof, and recording medium having recorded program for implementing method
US9727977B2 (en) Sample based color extraction for augmented reality
US9317112B2 (en) Motion control of a virtual environment
CN107689082B (en) Data projection method and device
CN111881861A (en) Display method, device, equipment and storage medium
CN113359986B (en) Augmented reality data display method and device, electronic equipment and storage medium
CN102163324A (en) Deep image de-aliasing technique
CN102982560A (en) Surface segmentation according to RGB and depth image
US20150123901A1 (en) Gesture disambiguation using orientation information
US20230030260A1 (en) Systems and methods for improved player interaction using augmented reality
Zelener et al. Cnn-based object segmentation in urban lidar with missing points
Ghani et al. Detecting negative obstacle using Kinect sensor
WO2019199967A1 (en) Systems and methods for gamification of drone behavior using artificial intelligence
KR102735183B1 (en) Contents providing apparatus based on virtual character and providing method thereof
KR102231909B1 (en) Artificial intelligence device
Ueda et al. Dataset Creation for Segmentation to Enhance Visual Navigation in a Targeted Indoor Environment
Wang et al. CityLifeSim: a high-fidelity pedestrian and vehicle simulation with complex behaviors
Sviatov et al. Detection of obstacle features using neural networks with attention in the task of autonomous navigation of mobile robots
US12299835B1 (en) Shared scene co-location for artificial reality devices
KR102535404B1 (en) Physical phenomena simulation method for expressing the physical phenomeana in mixed reality, and mixed reality apparatus that performs the mothod

Legal Events

Date Code Title Description
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

PN2301 Change of applicant

St.27 status event code: A-3-3-R10-R13-asn-PN2301

St.27 status event code: A-3-3-R10-R11-asn-PN2301

PN2301 Change of applicant

St.27 status event code: A-3-3-R10-R13-asn-PN2301

St.27 status event code: A-3-3-R10-R11-asn-PN2301

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

T11-X000 Administrative time limit extension requested

St.27 status event code: U-3-3-T10-T11-oth-X000

T11-X000 Administrative time limit extension requested

St.27 status event code: U-3-3-T10-T11-oth-X000

T11-X000 Administrative time limit extension requested

St.27 status event code: U-3-3-T10-T11-oth-X000

T11-X000 Administrative time limit extension requested

St.27 status event code: U-3-3-T10-T11-oth-X000

E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601