KR101803064B1 - Apparatus and method for 3d model reconstruction - Google Patents
Apparatus and method for 3d model reconstruction Download PDFInfo
- Publication number
- KR101803064B1 KR101803064B1 KR1020150049732A KR20150049732A KR101803064B1 KR 101803064 B1 KR101803064 B1 KR 101803064B1 KR 1020150049732 A KR1020150049732 A KR 1020150049732A KR 20150049732 A KR20150049732 A KR 20150049732A KR 101803064 B1 KR101803064 B1 KR 101803064B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- dimensional
- restoration
- depth
- geometry information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- Computer Vision & Pattern Recognition (AREA)
Abstract
본 발명은 투명 재질로 형성된 거치대에 착장된 3차원 객체를 3차원 모델로 복원하는 자동화된 복원 장치 및 방법에 관한 것이다.
본 발명의 일면에 따른 3차원 모델 복원 방법은 투명 거치대에 착장된 복원 대상 객체에 대하여 깊이 영상 및 색상 영상을 획득하는 단계와, 획득된 깊이 영상을 이용하여 복원 대상 객체의 3차원 기하 정보를 복원하는 단계와, 기획득한 투명 거치대의 3차원 기하 정보를 이용하여 복원 대상 객체의 3차원 기하 정보 내 왜곡 깊이 정보를 제거하는 단계 및 왜곡 깊이 정보가 제거된 3차원 기하 정보 및 색상 영상으로부터 생성한 텍스쳐를 이용하여 최종 3차원 모델을 생성하는 단계를 포함하는 것을 특징으로 한다. The present invention relates to an automated restoration apparatus and method for restoring a three-dimensional object collapsed on a cradle formed of a transparent material into a three-dimensional model.
A three-dimensional model reconstruction method according to an embodiment of the present invention includes the steps of acquiring a depth image and a color image for a restoration object placed on a transparent restraint, restoring the three-dimensional geometry information of the restoration object using the obtained depth image, Dimensional geometry information of the object to be reconstructed by using the three-dimensional geometry information of the transparent cradle, and a step of extracting the three-dimensional geometry information from which the distortion depth information is removed and the texture generated from the color image And generating a final three-dimensional model using the three-dimensional model.
Description
본 발명은 투명 재질로 형성된 거치대에 착장된 3차원 객체를 3차원 모델로 복원하는 자동화된 복원 장치 및 방법에 관한 것이다.
The present invention relates to an automated restoration apparatus and method for restoring a three-dimensional object collapsed on a cradle formed of a transparent material into a three-dimensional model.
깊이(depth) 정보를 계측할 수 있는 센서가 발달하고 보급화됨에 따라, 다양한 형태의 사물을 복원 및 디지털화하는 것이 가능해지고 있다. As sensors capable of measuring depth information have been developed and popularized, various types of objects can be restored and digitized.
이러한 기술은 가시화, 시뮬레이션 등 다양한 분야에 적용되어 사용되고 있다. These technologies are used in various fields such as visualization and simulation.
종래 기술에 따른 의류의 가상화 및 온라인 피팅 방식은 대표적으로 크로마키(chroma-key) 방법을 사용하고 있으나, 의류의 색상과 해당 의류가 착장된 마네킹의 색상이 유사할 경우에는 이러한 방법을 사용할 수 없는 문제점이 있다. The virtualization and on-line fitting methods of clothes according to the related art typically use a chroma-key method. However, when the colors of the clothes are similar to the colors of the mannequins with the clothes, the method can not be used There is a problem.
또한, 종래 기술에 따른 영상 정보 기반 방식에 따르면 얇거나 속이 비치는 의류의 경우, 의류의 가상화 과정에서 색감의 변화가 발생하는 문제점이 있다.
In addition, according to the image information-based method according to the related art, there is a problem that a change in color is caused in a virtualization process of a garment in the case of a thin or lighted garment.
본 발명은 전술한 문제점을 해결하기 위하여 제안된 것으로, 영상 장비의 깊이 센서가 감지하지 못하는 투명한 마네킹에 복원 대상인 의류를 착장하여, 의류 색감의 변화 없이 복원 대상인 의류의 3차원 외형을 복원하고, 색상 센서에서 추출된 투명한 마네킹의 색상 정보를 제거함으로써, 의류의 3차원 모델을 저비용으로 신속하고 용이하게 복원하는 것이 가능한 3차원 모델 복원 장치 및 방법을 제공하는 데 목적이 있다.
Disclosure of Invention Technical Problem [8] The present invention has been proposed in order to solve the above-mentioned problems, and it is an object of the present invention to restore a three-dimensional outer shape of a garment to be restored without changing the color of clothes, Dimensional model restoring apparatus and method capable of restoring a three-dimensional model of clothes quickly and easily at low cost by removing color information of a transparent mannequin extracted from a sensor.
본 발명의 일면에 따른 3차원 모델 복원 방법은 투명 거치대에 착장된 복원 대상 객체에 대하여 깊이 영상 및 색상 영상을 획득하는 단계와, 획득된 깊이 영상을 이용하여 복원 대상 객체의 3차원 기하 정보를 복원하는 단계와, 기획득한 투명 거치대의 3차원 기하 정보를 이용하여 복원 대상 객체의 3차원 기하 정보 내 왜곡 깊이 정보를 제거하는 단계 및 왜곡 깊이 정보가 제거된 3차원 기하 정보 및 색상 영상으로부터 생성한 텍스쳐를 이용하여 최종 3차원 모델을 생성하는 단계를 포함하는 것을 특징으로 한다. A three-dimensional model reconstruction method according to an embodiment of the present invention includes the steps of acquiring a depth image and a color image for a restoration object placed on a transparent restraint, restoring the three-dimensional geometry information of the restoration object using the obtained depth image, Dimensional geometry information of the object to be reconstructed by using the three-dimensional geometry information of the transparent cradle, and a step of extracting the three-dimensional geometry information from which the distortion depth information is removed and the texture generated from the color image And generating a final three-dimensional model using the three-dimensional model.
본 발명의 다른 면에 따른 3차원 모델 복원 장치는 투명 거치대에 착장된 복원 대상 객체에 대하여 깊이 영상 및 색상 영상을 획득하는 영상 획득부와, 깊이 영상을 이용하여 복원 대상 객체의 3차원 기하 정보를 복원하되, 투명 거치대의 3차원 기하 정보를 이용하여 복원 대상 객체의 3차원 기하 정보 내 왜곡 깊이 정보를 제거하는 복원부 및 복원 대상 객체의 3차원 기하 정보 및 색상 영상을 이용하여 텍스쳐를 생성하고, 이를 이용하여 3차원 의류 모델을 생성하는 모델 생성부를 포함하는 것을 특징으로 한다.
According to another aspect of the present invention, there is provided an apparatus for reconstructing a three-dimensional model, the apparatus comprising: an image acquisition unit for acquiring a depth image and a color image for a restoration object placed on a transparent restraint; Dimensional geometry information of the object to be reconstructed using the 3D geometry information of the transparent cradle and the 3D geometry information and the color image of the object to be reconstructed, And a model generating unit for generating a three-dimensional clothing model using the model information.
본 발명에 따른 3차원 모델 복원 장치 및 방법은 종래 기술에 따른 크로마키를 이용한 복원 방식과 비하여 볼 때, 복원 대상의 색감이 크로마키 색에 의하여 영향을 받지 않는 장점이 있으며, 크로마키 색과 복원 대상 객체의 색이 유사하지 않아야 한다는 제한으로부터 자유로운 장점이 있다. The three-dimensional model restoration apparatus and method according to the present invention are advantageous in that the color of the restoration object is not affected by the chroma key color as compared with the restoration method using the chroma key according to the related art, There is an advantage that it is free from restriction that the color of the target object should not be similar.
또한, 본 발명에 따르면 3차원 의류 모델 복원 과정에 있어서 사용자의 개입을 최소한으로 하면서도 자동화된 방법으로 신속하고 용이하게 3차원 모델을 복원하는 것이 가능하여, 대규모의 복원 프로세스에 적용되는 것이 가능한 효과가 있다. In addition, according to the present invention, it is possible to restore a three-dimensional model quickly and easily by an automated method while minimizing the user's intervention in the process of restoring the three-dimensional garment model, have.
본 발명의 효과는 이상에서 언급한 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
The effects of the present invention are not limited to those mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the following description.
도 1은 본 발명의 실시예에 따른 3차원 모델 복원 방법을 나타내는 순서도이다.
도 2는 본 발명의 실시예에 따른 투명 마네킹을 이용한 깊이 정보 및 색상 정보 획득을 나타내는 예시도이다.
도 3은 투명 마네킹 통과 시 발생하는 굴절에 의한 깊이 정보 왜곡을 나타내는 개념도이다.
도 4는 본 발명의 실시예에 따른 3차원 모델 복원 장치를 나타내는 블록도이다.1 is a flowchart illustrating a three-dimensional model restoration method according to an embodiment of the present invention.
2 is a diagram illustrating depth information and color information acquisition using a transparent mannequin according to an embodiment of the present invention.
Fig. 3 is a conceptual diagram showing depth information distortion due to refraction occurring when passing through a transparent mannequin.
4 is a block diagram illustrating a 3D model restoration apparatus according to an embodiment of the present invention.
본 발명의 전술한 목적 및 그 이외의 목적과 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. BRIEF DESCRIPTION OF THE DRAWINGS The above and other objects, advantages and features of the present invention and methods of achieving them will be apparent from the following detailed description of embodiments thereof taken in conjunction with the accompanying drawings.
그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 이하의 실시예들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 목적, 구성 및 효과를 용이하게 알려주기 위해 제공되는 것일 뿐으로서, 본 발명의 권리범위는 청구항의 기재에 의해 정의된다. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the exemplary embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, And advantages of the present invention are defined by the description of the claims.
한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성소자, 단계, 동작 및/또는 소자가 하나 이상의 다른 구성소자, 단계, 동작 및/또는 소자의 존재 또는 추가됨을 배제하지 않는다.
It is to be understood that the terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. &Quot; comprises "and / or" comprising ", as used herein, unless the recited component, step, operation, and / Or added.
본 발명의 바람직한 실시예를 설명하기에 앞서, 이하에서는 당업자의 이해를 돕기 위하여 본 발명이 제안된 배경을 먼저 살펴보기로 한다. Prior to describing the preferred embodiments of the present invention, the background of the present invention will be described below in order to facilitate the understanding of those skilled in the art.
깊이 계측 센서의 발달로 인하여 다양한 형태의 사물이 복원되어 디지털화되고 있으며, 특히 키넥트(kinect)의 보급으로 인하여 깊이 정보를 저비용으로 획득할 수 있게 됨에 따라, 사물 복원의 활용성은 더욱 커질 전망이다. Various types of objects have been restored and digitized due to the development of the depth measurement sensor. In particular, the availability of depth restoration information can be acquired at a low cost due to the spread of kinect.
종래 기술에 따른 마이크로소프트 사의 KinectFusion을 이용하면, 방 한 칸 크기 정도의 공간을 비교적 쉽게 3차원 영상으로 복원하는 것이 가능하다. Using KinectFusion of Microsoft according to the prior art, it is possible to relatively easily restore a space of about one space in a room to a three-dimensional image.
그러나, 종래 기술에 따르면 수작업으로 공간을 스캔하여야 하는 불편함이 있고, 불필요한 부분까지 복원된 경우 이에 대하여 일일이 수작업으로 제거하여야 하는 불편함이 있는 문제점이 있다.
However, according to the related art, it is inconvenient to manually scan a space, and when an unnecessary portion is restored, there is a problem that it must be manually removed manually.
의류의 가상화 및 온라인 피팅(fitting) 기술이 등장함에 따라, 사용자는 체험 서비스를 통하여 직접 의류를 입어보지 아니하고도 의류의 착용 모습을 쉽게 예측할 수 있다. With the emergence of virtualization and online fitting techniques of clothing, users can easily predict how to wear clothes without wearing clothing directly through experience services.
그러나, 이러한 서비스 분야에 대두되고 있는 가장 큰 문제점은 지속적인 가상 의류 공급이 어렵다는 점이다. However, the biggest problem in the service field is that it is difficult to supply virtual clothing continuously.
가상 의류를 제작하는 방법으로는 크게 컴퓨터 그래픽스 저작툴(예: 오토데스크 마야)를 이용하는 방법, 실제 판매되는 의상의 옷본을 이용하여 3차원 모델을 구성하는 방법, 다각도에서 촬영된 영상 정보를 이용하여 3차원 모델을 복원하는 방법 등이 있다. There are three methods for creating virtual clothing: using computer graphics authoring tools (eg, Autodesk Maya), constructing 3D models using the actual costume garments, and using image information from multiple angles And restoring the dimensional model.
컴퓨터 그래픽스 저작툴을 이용하는 방법 또는 실제 판매되는 의상의 옷본을 이용하여 3차원 모델을 구성하는 방법은 고도로 훈련된 디자이너가 많은 시간을 들여야만 하는 제작 방법으로, 제작 비용이 높고 제작 과정을 자동화하기가 매우 어렵다는 문제점이 있다. The method of using the computer graphics authoring tool or the method of constructing the three-dimensional model by using the clothes of the actually sold costume is a production method in which a highly trained designer has to spend a lot of time, There is a problem that it is difficult.
다각도에서 촬영된 영상 정보를 이용하여 3차원 모델을 복원하는 방법은 의류의 자연스러운 외형 정보를 저비용으로 신속하게 추출하는 것이 가능하나, 의류를 거치하고 있는 마네킹도 동시에 추출되기 때문에, 마네킹을 제거하기 위한 후작업이 필요하여, 대규모의 복원 프로세스에는 적합하지 않은 문제점이 있다.
The method of restoring the three-dimensional model using the image information photographed at various angles can extract the natural appearance information of the clothes quickly at low cost. However, since the mannequin resting on the clothes is also extracted at the same time, There is a problem that it is not suitable for a large-scale restoration process.
불필요한 마네킹을 제거하기 위한 방법으로, 종래 기술에 따른 영상 처리 및 합성 분야에서 사용되는 대표적인 기술인 크로마키(chroma-key) 방법이 사용되어 왔다.As a method for removing unnecessary mannequins, a chroma-key method, which is a typical technique used in the field of image processing and synthesis according to the prior art, has been used.
크로마키는 색상 차이를 이용하여 피사체를 다른 화면에 합성하는 화면 합성 기법으로, 일기 예보, 선거 방송, 역사 스페셜 등의 프로그램에서 많이 사용되는 기법이다. The chroma key is a screen synthesis technique that synthesizes the subject on another screen using the color difference. It is a technique widely used in programs such as weather forecast, election broadcasting, and history special.
이러한 크로마키는 컬러 텔레비전의 카메라에서 얻을 수 있는 RGB 신호를 이용하여 그 색(chroma)의 차이를 키(key)로 하여 빼내고 싶은 피사체와 배경을 분리하고, 그것을 다른 화면에 합성하는 원리를 따른다. Such a chroma key follows the principle of separating the subject and background to be extracted by using the RGB signal obtained from the camera of the color television with the difference of the chroma as a key and composing it to another screen.
예를 들어, 빼내고자 하는 피사체가 인물인 경우, 살색과 보색인 청색 배경 앞에 인물을 세워 카메라로 촬영하고, 그 출력에서 청색 성분을 제거하면 배경은 검게 되고 인물만을 빼낼 수 있다. For example, if the subject you are trying to extract is a person, the person is placed in front of a blue background, which is fleshy and complementary, and photographed with a camera. When the blue component is removed from the output, the background becomes black and only the character can be extracted.
가상 의류 제작에 있어서는, 대상이 아닌 물체 또는 영역을 특정한 색으로 만들고, 영상 처리 시 지정한 색을 인식하여 처리 대상에서 제외시키는 크로마키와 유사한 방식을 차용하여, 마네킹을 특정한 색으로 제작하여 이를 제거하는 것이 가능하다. In the production of virtual clothing, a method similar to a chroma key is used to create a specific color for an object or area that is not an object, recognize a designated color at the time of image processing, and remove the object from the object. It is possible.
그러나, 의류의 색상이 마네킹과 유사한 경우에는 이러한 기법을 사용할 수 없으며, 얇거나 속이 비치는 의류는 영상 정보 기반 방식에서는 색감의 변화가 발생할 수 있는 등 많은 문제점을 가지고 있다.
However, this technique can not be used when the color of a garment is similar to that of a mannequin, and thin or light garment has many problems such as a change in color in an image information based method.
본 발명은 전술한 종래 기술에 따른 문제점을 해결하기 위하여 제안된 것으로서, 이하에서는 도 1 내지 도 3의 상세한 설명으로 본 발명의 바람직한 실시예를 설명한다.
The present invention has been proposed in order to solve the above-mentioned problems in the prior art, and a preferred embodiment of the present invention will be described below with reference to FIGS. 1 to 3. FIG.
도 1은 본 발명의 실시예에 따른 3차원 모델 복원 방법을 나타내는 순서도이다. 1 is a flowchart illustrating a three-dimensional model restoration method according to an embodiment of the present invention.
본 발명의 실시예에 따른 3차원 모델 복원 방법은 투명 거치대에 착장된 복원 대상 객체에 대하여 깊이 영상 및 색상 영상을 획득하는 단계와, 획득된 깊이 영상을 이용하여 복원 대상 객체의 3차원 기하 정보를 복원하는 단계와, 기획득한 투명 거치대의 3차원 기하 정보를 이용하여 복원 대상 객체의 3차원 기하 정보 내 왜곡 깊이 정보를 제거하는 단계 및 왜곡 깊이 정보가 제거된 3차원 기하 정보 및 색상 영상으로부터 생성한 텍스쳐를 이용하여 최종 3차원 모델을 생성하는 단계를 포함하는 것을 특징으로 한다. The 3D model reconstruction method according to an embodiment of the present invention includes the steps of acquiring a depth image and a color image with respect to a restoration object placed on a transparent restraint and detecting the 3D geometry information of the restoration object using the obtained depth image Dimensional geometry information of the object to be reconstructed by using the three-dimensional geometry information of the transparent holder, and generating the three-dimensional geometry information and the color image from which the distortion depth information is removed And generating a final three-dimensional model using the texture.
이하에서 설명하는 본 발명의 바람직한 실시예에서는, 도 2에 도시된 바와 같이, 투명 재질로 형성된 마네킹(300)에 복원 대상 객체인 의류를 착장하고, 의류의 3차원 모델을 복원하는 과정을 설명한다. In a preferred embodiment of the present invention described below, a process of restoring a three-dimensional model of clothing by loading clothing as a restoration object on a
본 발명의 바람직한 실시예에서 복원 대상 객체로 삼는 의류는 점퍼, 재킷, 코트, 니트, 셔츠 또는 티셔츠 등을 포함하는 상의류, 치마 또는 바지 등을 포함하는 하의류, 원피스 또는 투피스 등을 포함하는 드레스류, 스키복등 상하의 일체형 의류 또는 모자, 넥타이, 머플러, 가방 또는 신발 등을 포함하는 악세서리류를 모두 의미한다. In a preferred embodiment of the present invention, the garment to be restored is a dress including a bottom, a dress or a two-piece including an upper body including a jumper, a jacket, a coat, a knit, a shirt or a T- Skis, etc., or accessories including hats, ties, mufflers, bags or shoes.
또한 마네킹은 상반신형, 하반신형, 전신형, 머리 전용형, 손 전용형 또는 발 전용형이며, 일반적으로 사용하는 고정형 마네킹 또는 주요 신체 부위의 사이즈, 예를 들어 머리둘레, 목둘레, 가슴둘레, 배둘레, 팔둘레, 손목둘레, 허벅지 둘레, 종아리 둘레, 발둘레 등을 프로그램으로 조정 가능한 물리적 크기를 가진 가변형 마네킹일 수 있다.In addition, the mannequins may be of the upper half body type, the lower half body type, the full body type, the head exclusive type, the hand exclusive type or the exclusive type, and the sizes of the commonly used fixed type mannequins or main body parts such as the head circumference, It can be a variable manikin with a physical size adjustable by programs such as armpit, arm circumference, wrist circumference, thigh circumference, calf circumference, foot circumference, and the like.
당업자의 이해를 돕기 위하여 제시되는 본 발명의 바람직한 실시예는 의류의 복원을 그 목표로 하지만, 본 발명은 거치대를 사용하는 다른 형태의 사물에 대한 복원에 적용되는 것 역시 가능하며, 본 발명에 따르면 투명 재질로 제작된 거치대를 별도의 후작업 없이 복원 대상에서 용이하게 제외시키는 것이 가능하다.
While the preferred embodiments of the present invention presented to assist those of ordinary skill in the art are intended to restore garments, the present invention is also applicable to restoration of other types of objects using cradles, It is possible to easily remove the cradle made of a transparent material from the restoration subject without any additional post-operation.
본 발명의 실시예에 따르면, 투명 마네킹에 의류를 착장하고(S100), 영상 획득부(10)의 깊이 영상 카메라(100) 및 색상 영상 카메라(200)를 이용하여 복원 대상이 되는 착장된 의류에 대한 깊이 영상 및 색상 영상을 획득한다(S200, S300). According to the embodiment of the present invention, the clothing is placed on the transparent mannequin (S100), and the
본 발명의 실시예에 따르면, 의류 모델 생성에 있어서 의류를 거치하기 위한 마네킹을 자동으로 제거하기 위하여, 도 2에 도시된 바와 같이 투명 재질로 형성된 마네킹(300)을 사용하며, 깊이 영상 카메라(100) 및 색상 영상 카메라(200)를 이용하여 3차원 의류 모델 생성을 위한 깊이 및 색상 정보를 획득한다. According to an embodiment of the present invention, a
깊이 정보를 획득하기 위한 액티브 방식 스캐너는 패턴이나 레이저를 대상체의 표면에 조사하고, 대상체에 비친 패턴이나 레이저를 카메라에서 읽어, 삼각 측량 방식을 이용하여 물체의 3차원 위치를 찾아내게 된다.An active scanner for acquiring depth information irradiates a pattern or a laser on a surface of a target object, reads a pattern reflected on the target object or a laser from the camera, and finds the three-dimensional position of the object using a triangulation method.
본 발명의 실시예에서와 같은 투명 마네킹을 통과한 패턴이나 레이저에서 발생되는 양상은 다음과 같이 분류된다. Patterns generated in a pattern or laser passing through a transparent mannequin as in the embodiment of the present invention are classified as follows.
첫 번째 양상은, 도 2에 도시된 깊이 영상 카메라(100a)의 획득과 같이, 조사된 패턴이나 레이저가 투명 마네킹(300)을 통과하여 투명 마네킹(300) 너머에 존재하는 의류의 깊이 정보를 획득하는 것이다. The first aspect is that the irradiated pattern or laser passes through the
이러한 경우, 깊이 영상 카메라의 특성을 고려하여, 마네킹이 제거된 의류의 깊이 정보를 자동으로 획득하는 것이 가능하다. In this case, it is possible to automatically acquire the depth information of the garment from which the mannequin is removed, taking into account the characteristics of the depth image camera.
두 번째 양상은, 패턴이나 레이저가 투명 마네킹(300)을 통과하면서 세기 감소 또는 패턴의 변형 등의 이유로 인하여 의류의 깊이 정보를 상실하는 것이다. The second aspect is that the pattern or laser passes through the
이러한 경우에는, 도 2에 도시된 깊이 영상 카메라(100b)와 같이, 투명 마네킹(300)에 의하여 가려지지 않는 다른 센서를 이용하여 획득한 깊이 정보로 대체하는 것이 가능하다. In this case, it is possible to substitute the depth information obtained by using another sensor not covered by the
세 번째 양상은, 도 3에 도시된 바와 같이, 조사된 패턴이나 레이저가 투명 마네킹(300a)을 통과하면서 굴절에 의하여 의류의 왜곡된 깊이 정보가 획득되는 경우이다. The third aspect is the case where the irradiated pattern or laser passes through the
이러한 경우, 후술할 S600 단계에서의 복원부(20)의 왜곡 깊이 정보 제거 과정을 통하여, 획득된 깊이 정보를 3차원 의류모델 생성을 위한 텍스쳐 생성에 있어 제외시키게 된다. In this case, the obtained depth information is excluded in the texture generation for generating the 3D clothing model through the distortion depth information removal process of the
네 번째 양상은, 조사된 패턴이나 레이저가 투명 마네킹(300)에 의하여 반사되어, 투명 마네킹(300)의 깊이 정보가 획득되는 경우이다. The fourth aspect is the case where the irradiated pattern or laser is reflected by the
이러한 경우는 투명 마네킹의 높은 반사율 및 낮은 투과율에 의하여 발생하는 현상으로, 낮은 반사율 및 높은 투과율을 가지는 재질의 투명 마네킹으로 대체함으로써 해결하는 것이 가능하다.
This case is caused by a high reflectance and a low transmittance of the transparent mannequin, and can be solved by replacing the transparent mannequin with a material having a low reflectance and a high transmittance.
색상 영상 카메라(200)는 깊이 영상 카메라(100)와는 달리, 투명 마네킹(300)의 색상 정보를 획득할 수 있다. Unlike the
또한, 투명 마네킹의 재질에 따른 굴절에 의하여 왜곡된 색상 정보는, 전술한 왜곡된 깊이 정보와는 달리 2D 정보이므로, 왜곡 깊이 정보 제거 방식과는 상이한 방법이 사용되어야 한다. Also, the color information distorted by the refraction of the transparent mannequin is different from the distorted depth information described above, and therefore, a method different from the distortion depth information removal method should be used.
본 발명의 실시예에 따른 텍스쳐 생성 단계(S700)는 S200 단계에서 기획득한 투명 마네킹의 3차원 기하 정보를 이용하여, 획득된 마네킹 색상을 처리하게 된다.
In the texture generation step S700 according to the embodiment of the present invention, the obtained mannequin color is processed using the three-dimensional geometric information of the transparent mannequin that is prepared in step S200.
S500 단계에서는, S300 단계에서 획득된 깊이 영상을 이용하여 의류의 3차원 기하 정보를 복원한다. In step S500, the three-dimensional geometric information of the garment is restored using the depth image obtained in step S300.
캡쳐된 깊이 정보는 카메라의 위치, 방향 등 외부 파라미터와 카메라의 렌즈 정보 등 내부 파라미터를 이용하여 3D 점 좌표로 변환된다. The captured depth information is converted into 3D point coordinates using internal parameters such as camera position and direction, external parameters such as the camera's lens information, and the like.
이 때, 3D 점 좌표들은 적어도 하나 이상의 카메라로 한 점 이상의 위치에서 한 방향 이상의 방향으로 촬영함으로써 획득된다. At this time, the 3D point coordinates are obtained by photographing at least one camera in one or more directions at a position more than one point.
3D 점 좌표를 이용하여 3D 모델을 생성하는 것은 일반적인 메쉬 복원(mesh reconstruction) 기술 등을 적용하여 수행된다. Generating a 3D model using 3D point coordinates is performed by applying a general mesh reconstruction technique or the like.
또한, 복원 속도를 높이고, 복원과 동시에 3D 점 좌표를 추가하는 것이 가능한 복셀(voxel) 기반 복원 방법이 사용되는 것이 가능하며, 이 때 복셀 기반 복원 방법은 마칭 큐브(marching cube) 방식과 거리 영역(distance field)을 이용하는 방식이 사용될 수 있다.
In addition, it is possible to use a voxel-based reconstruction method capable of enhancing the reconstruction speed and adding 3D point coordinates at the same time of reconstruction. In this case, the voxel-based reconstruction method includes a marching cube method, distance field) may be used.
의류의 3차원 기하 정보를 복원함에 있어서는, 도 3에 도시된 바와 같이, 투명 마네킹(300a)을 구성하는 투명 재질로 인하여 굴절된 정보가 획득되어, 의도하지 않은 공간에 깊이 정보를 생성하는 문제점이 발생될 수 있다. In restoring the three-dimensional geometric information of the garment, as shown in FIG. 3, the refracted information is acquired due to the transparent material constituting the
이러한 왜곡된 깊이 정보는 S200 단계에서 획득된 투명 마네킹의 3차원 기하 정보 또는 3차원 기하 연결 정보를 이용하여 제거된다. The distorted depth information is removed using the 3D geometry information or 3D geometry connection information of the transparent mannequin obtained in step S200.
도 3에 도시한 바와 같이, 의류(401)의 깊이 정보는 투명 마네킹을 통과하면서 굴절되어, 깊이 영상 카메라(100)에 도달되는 경우가 발생한다. As shown in Fig. 3, the depth information of the
왜곡 의류(402)로 도시한 바와 같이, 깊이 영상 카메라(100)는 획득한 깊이 정보를 왜곡된 정보로 해석함에 따라, 전술한 S500 단계에서 복원된 3차원 기하 정보는 왜곡된 기하 정보를 포함하게 된다. As shown in the
왜곡된 기하 정보가 정상적인 기하 정보와 기하학적으로 연결되어 있지 않으면, 3D 기하 연결 정보를 이용하여 왜곡된 기하 정보를 제거하는 것이 가능하다. If the distorted geometry information is not geometrically connected to the normal geometry information, it is possible to remove the distorted geometry information using the 3D geometry connection information.
S600 단계에서 두 기하 정보의 연결 정보를 판별하는 실시예는 다음과 같다. In step S600, the connection information of the two geometry information is determined as follows.
3D 모델이 위치 정보를 가지는 버텍스(vertex) 및 버텍스를 연결한 다각형으로 구성된 메쉬(mesh) 형태이면, 먼저 한 다각형의 버텍스로 이루어진 집합을 구성하고, 다음 다각형의 버텍스 중 적어도 어느 하나라도 현재 집합의 버텍스와 그 위치가 같거나 거리가 아주 가까운 경우, 현재 집합에 현재 다각형을 추가한다. If the 3D model is a mesh composed of a vertex having a positional information and a polygon connected to a vertex, it is necessary to first construct a set of vertices of one polygon, and at least one of the vertices of the next polygon, Adds the current polygon to the current set if its position is the same as the vertex or if the distance is very close.
이러한 과정은 모든 다각형에 대하여 수행되며, 한 다각형의 서로 다른 버텍스가 서로 다른 집합에 각각 포함된다면, 두 집합을 하나의 집합으로 만든다. This process is performed for all polygons. If different vertices of one polygon are included in different sets, they are combined into one set.
전술한 바와 같이, 왜곡된 기하 정보가 정상적인 기하 정보와 기하적으로 연결되어 있다면, S200 단계에서 기획득한 투명 마네킹의 3D 기하 정보를 이용하여 왜곡된 기하 정보 및 정상적인 기하 정보를 구분한다. As described above, if the distorted geometric information is geometrically connected to the normal geometric information, the distorted geometric information and the normal geometric information are distinguished using the 3D geometric information of the transparent mannequin, which is prepared in step S200.
즉, 깊이 영상 카메라로부터 가상의 광선을 조사하고, 투명 마네킹의 3D 기하 정보를 이용하여 광선을 굴절시키고, 광선의 진행 거리에 비하여 굴절 정도가 일정 수준을 넘으면 광선에 대응하는 깊이 정보를 제거한다.
That is, a virtual ray is irradiated from a depth image camera, the ray is refracted by using the 3D geometry information of the transparent mannequin, and the depth information corresponding to the ray is removed when the refraction degree exceeds a certain level compared to the traveling distance of the ray.
S700 단계는 모델 생성부(30)가 복원된 3차원 기하 정보 및 마네킹의 3차원 기하 정보를 이용하여, 색상 영상으로부터 마네킹 정보가 제거된 텍스쳐를 생성하는 단계이다. In operation S700, the
S700 단계는 복원된 3D 모델을 2차원 매개변수화(parameterization)하여 각 버텍스(vertex)의 텍스쳐 좌표를 획득한다. In operation S700, the reconstructed 3D model is two-dimensionally parameterized to obtain texture coordinates of each vertex.
이후 3D 모델을 매개변수에 따르도록 2D 공간에 렌더링(rendering)하여 텍스쳐의 각 텍셀(texel)에 매핑되는 3D 공간을 찾는다. The 3D model is then rendered in 2D space to follow the parameters to find the 3D space mapped to each texel of the texture.
각 텍셀의 색상을 결정하기 위하여는, 매핑된 3D 위치에서 색상 영상 카메라의 위치와의 가시성 테스트를 수행한다. To determine the color of each texel, a visibility test is performed with the location of the color image camera at the mapped 3D position.
가시성 테스트의 실시예로는, 텍셀에 매핑되는 3D 좌표로부터 각 센서의 위치를 지나가는 가상의 반직선을 만들어, 3D 모델과 충돌 테스트를 통하여 충돌하지 않을 경우 가시성 테스트에 통과시키는 방법이 적용된다. As an embodiment of the visibility test, a method of creating a virtual ray passing through the position of each sensor from the 3D coordinates mapped to the texel, and passing the visibility test when the 3D model does not collide with the 3D model is applied.
이 때, 충돌 테스트는 다각형으로 이루어진 모델의 경우 직선과 각 다각형을 지나는 평면과의 교점을 구하는 방법을 사용한다. In this case, the collision test uses a method of finding a point of intersection between a straight line and a plane passing through each polygon in the case of a model made of a polygon.
가시성 테스트의 속도를 높이기 위하여는 3D 모델에 Kd-tree, BVH(Bounding Volume Hierarchy) 등 가속을 위한 보조 데이터 구조를 만들어 사용하는 것이 가능하다. In order to speed up the visibility test, it is possible to create an auxiliary data structure for acceleration such as Kd-tree and BVH (Bounding Volume Hierarchy) in 3D model.
가시성 테스트에서 통과한 텍셀은 해당하는 색상 정보를 사용하고, 가시성 테스트에서 통과하지 못한 텍셀은 가시성 테스트를 통과한 다른 센서에서 획득한 색상 정보를 바탕으로 그 텍셀값이 결정된다. The texel passed in the visibility test uses the corresponding color information, and the texel value that is not passed in the visibility test is determined based on the color information obtained from the other sensor that passed the visibility test.
그런데, 도 2에 도시된 색상 영상 카메라(200a)와 같이, 투명 마네킹(300)은 3D 모델에 포함되지 않기 때문에, 도 2의 색상 영상 카메라(200a)와의 가시성 테스트를 통과할 수 있다. However, since the
이러한 점을 방지하기 위하여, S200 단계에서 기획득된 투명 마네킹의 3D 기하 정보를 가시성 테스트 대상에 포함시킴으로써, 투명 마네킹(300)의 색상이 획득되지 않도록 한다.
In order to prevent this, the 3D geometry information of the transparent mannequin obtained in step S200 is included in the visibility test object so that the color of the
S800 단계에서는S700 단계에서 생성한 텍스쳐와 복원된 의류의 3차원 기하 정보(S600단계에서 왜곡 깊이 정보가 제거된 3차원 기하 정보)를 이용하여 최종 3차원 의류모델을 생성한다.
In step S800, a final three-dimensional garment model is generated using the texture generated in step S700 and the three-dimensional geometry information of the restored garment (three-dimensional geometry information in which the distortion depth information is removed in step S600).
이제까지 본 발명의 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
The embodiments of the present invention have been described above. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is defined by the appended claims rather than by the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.
10: 영상 획득부 20: 복원부
30: 모델 생성부 100: 깊이 영상 카메라
200: 색상 영상 카메라 300: 투명 마네킹
401: 의류 402: 왜곡 의류 10: image acquiring unit 20:
30: a model generating unit 100: a depth image camera
200: Color video camera 300: Transparent mannequin
401: Clothes 402: Distorted Clothes
Claims (11)
(b) 상기 획득된 깊이 영상을 이용하여 상기 복원 대상 객체의 3차원 기하 정보를 복원하는 단계;
(c) 기획득한 상기 투명 거치대의 3차원 기하 정보를 이용하여, 상기 복원 대상 객체의 3차원 기하 정보 내 왜곡 깊이 정보를 제거하는 단계; 및
(d) 상기 왜곡 깊이 정보가 제거된 3차원 기하 정보 및 색상 영상으로부터 생성한 텍스쳐를 이용하여 최종 3차원 모델을 생성하는 단계를 포함하고,
상기 (a) 단계는 상기 투명 거치대를 기준으로 촬영 위치가 상이한 복수의 카메라를 이용하여 상기 깊이 영상 및 색상 영상을 획득하되, 제1 카메라의 위치에서 상기 복원 대상 객체로 조사되는 패턴 또는 레이저가 상기 투명 거치대를 통과함에 따라 패턴 변형 또는 세기 감소에 의하여 상기 복원 대상 객체의 깊이 정보가 상실되는 경우, 상기 투명 거치대에 의하여 상기 복원대상 객체가 가려지지 않는 위치에 배치된 제2 카메라로부터 획득한 깊이 영상을 대체 획득하는 것
을 특징으로 하는 3차원 모델 복원 방법.
(a) acquiring a depth image and a color image for a restoration object colliding with a transparent restraint;
(b) restoring the 3D geometry information of the restoration object using the obtained depth image;
(c) removing three-dimensional geometric information distortion depth information of the restoration target object using the three-dimensional geometry information of the transparent holder; And
(d) generating a final three-dimensional model using the texture generated from the three-dimensional geometry information and the color image from which the distortion depth information is removed,
Wherein the step (a) acquires the depth image and the color image using a plurality of cameras whose photographing positions are different from each other on the basis of the transparent holder, The depth information of the object to be restored is lost due to the pattern deformation or the intensity decrease as the object passes through the transparent holder, the depth information obtained from the second camera disposed at a position where the object is not covered by the transparent holder Alternate acquisition of
Dimensional model reconstruction method.
상기 (b) 단계는 카메라의 위치 및 방향 정보를 이용하여 상기 깊이 영상 내 깊이 정보를 3차원 점 좌표로 변환하고, 이를 메쉬 복원 또는 복셀 기반 복원을 통해 상기 복원 대상 객체의 3차원 기하 정보로 복원하는 것
인 3차원 모델 복원 방법.
The method according to claim 1,
In the step (b), depth information in the depth image is converted into three-dimensional point coordinates using the camera position and direction information, and restored as three-dimensional geometry information of the restoration target object through mesh restoration or voxel- To do
Dimensional model restoration method.
상기 (c) 단계는 상기 투명 거치대의 3차원 기하 정보를 이용하여, 상기 깊이 영상을 획득하는 카메라로부터 조사되는 광선을 굴절시키고, 그 굴절 정도가 진행 거리 대비 기설정 비율을 초과하는 경우 상기 깊이 영상으로부터 획득된 깊이 정보를 제거하는 것
인 3차원 모델 복원 방법.
The method according to claim 1,
In the step (c), the light beam irradiated from the camera for acquiring the depth image is refracted using the three-dimensional geometry information of the transparent holder, and when the refraction degree exceeds the set ratio of the progress distance, To remove depth information obtained from
Dimensional model restoration method.
상기 (d) 단계는 상기 복원 대상 객체의 3차원 기하 정보를 2차원 매개변수화하여 버텍스의 텍스쳐 좌표를 추출하고, 상기 색상 영상을 획득하는 카메라의 위치와의 가시성 테스트를 수행하여 텍셀의 색상을 결정하는 것
인 3차원 모델 복원 방법.
The method according to claim 1,
In the step (d), the texture coordinates of the vertex are extracted by performing two-dimensional parameterization of the 3D geometry information of the restoration object, and the visibility test is performed with respect to the position of the camera for acquiring the color image, To do
Dimensional model restoration method.
상기 (d) 단계는 상기 텍셀에 매핑되는 3차원 좌표로부터 상기 색상 영상을 획득하는 카메라를 잇는 가상의 반직선을 생성하고, 상기 반직선이 상기 복원 대상 객체의 3차원 기하 정보와 충돌되는지 여부를 확인하여 상기 가시성 테스트를 수행하는 것
인 3차원 모델 복원 방법.
6. The method of claim 5,
In step (d), a virtual ray connecting the camera for acquiring the color image from the three-dimensional coordinate mapped to the texel is generated, and it is determined whether the ray collides with the three-dimensional geometry information of the object to be restored Performing the visibility test
Dimensional model restoration method.
상기 (d) 단계는 상기 투명 거치대의 3차원 기하 정보를 상기 가시성 테스트 대상에 포함시켜, 상기 텍셀의 색상 결정에 있어 상기 투명 거치대의 색상 정보를 배제시키는 것
인 3차원 모델 복원 방법.
6. The method of claim 5,
The step (d) includes the step of including the three-dimensional geometry information of the transparent holder in the visibility test object to exclude the color information of the transparent holder in color determination of the texel
Dimensional model restoration method.
상기 깊이 영상을 이용하여 상기 복원 대상 객체의 3차원 기하 정보를 복원하는 복원부; 및
상기 복원 대상 객체의 3차원 기하 정보 및 상기 투명 거치대의 3차원 기하 정보를 이용하여 상기 색상 영상으로부터 상기 투명 거치대의 정보가 제거된 텍스쳐를 생성하고, 상기 복원 대상 객체의 3차원 기하 정보 및 상기 텍스쳐를 이용하여 최종 3차원 모델을 생성하는 모델 생성부를 포함하고,
상기 모델 생성부는 상기 복원 대상 객체의 3차원 기하 정보를 이용하여 버텍스의 텍스쳐 좌표를 추출하고, 가시성 테스트의 수행 결과를 고려하여 텍셀 색상을 결정하는 것
을 특징으로 하는 3차원 모델 복원 장치.
An image acquiring unit acquiring a depth image and a color image of a restoration object collided on a transparent restraint;
A restoration unit for restoring the 3D geometry information of the restoration object using the depth image; And
Dimensional geometry information of the restoration target object and the three-dimensional geometry information of the transparent restraint to generate a texture from which the information of the transparent holder is removed from the color image, And a model generating unit for generating a final three-dimensional model using the three-
The model generation unit extracts the texture coordinates of the vertex using the 3D geometry information of the restoration object, and determines the texel color considering the result of the visibility test
Dimensional model reconstruction apparatus.
상기 복원부는 상기 투명 거치대의 3차원 기하 정보를 이용하여 상기 복원 대상 객체의 3차원 기하 정보 내의 왜곡 깊이 정보를 제거하는 것
인 3차원 모델 복원 장치.
9. The method of claim 8,
The restoration unit may remove the distortion depth information in the three-dimensional geometry information of the restoration object using the three-dimensional geometry information of the transparent holder
3D model restoration device.
(b) 상기 획득된 깊이 영상을 이용하여 상기 복원 대상 객체의 3차원 기하 정보를 복원하는 단계;
(c) 기획득한 상기 투명 거치대의 3차원 기하 정보를 이용하여, 상기 복원 대상 객체의 3차원 기하 정보 내 왜곡 깊이 정보를 제거하는 단계; 및
(d) 상기 왜곡 깊이 정보가 제거된 3차원 기하 정보 및 색상 영상으로부터 생성한 텍스쳐를 이용하여 최종 3차원 모델을 생성하는 단계를 포함하고,
상기 (c) 단계는 상기 투명 거치대의 3차원 기하 정보를 이용하여, 상기 깊이 영상을 획득하는 카메라로부터 조사되는 광선을 굴절시키고, 그 굴절 정도가 진행 거리 대비 기설정 비율을 초과하는 경우 상기 깊이 영상으로부터 획득된 깊이 정보를 제거하는 것
인 3차원 모델 복원 방법. (a) acquiring a depth image and a color image for a restoration object colliding with a transparent restraint;
(b) restoring the 3D geometry information of the restoration object using the obtained depth image;
(c) removing three-dimensional geometric information distortion depth information of the restoration target object using the three-dimensional geometry information of the transparent holder; And
(d) generating a final three-dimensional model using the texture generated from the three-dimensional geometry information and the color image from which the distortion depth information is removed,
In the step (c), the light beam irradiated from the camera for acquiring the depth image is refracted using the three-dimensional geometry information of the transparent holder, and when the refraction degree exceeds the set ratio of the progress distance, To remove depth information obtained from
Dimensional model restoration method.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020150049732A KR101803064B1 (en) | 2015-04-08 | 2015-04-08 | Apparatus and method for 3d model reconstruction |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020150049732A KR101803064B1 (en) | 2015-04-08 | 2015-04-08 | Apparatus and method for 3d model reconstruction |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20160120536A KR20160120536A (en) | 2016-10-18 |
| KR101803064B1 true KR101803064B1 (en) | 2017-11-29 |
Family
ID=57244287
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020150049732A Expired - Fee Related KR101803064B1 (en) | 2015-04-08 | 2015-04-08 | Apparatus and method for 3d model reconstruction |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR101803064B1 (en) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN110070611B (en) * | 2019-04-22 | 2020-12-01 | 清华大学 | A three-dimensional face reconstruction method and device based on depth image fusion |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2001084408A (en) * | 1999-09-13 | 2001-03-30 | Sanyo Electric Co Ltd | Method and device for processing three-dimensional data and recording medium |
| JP2008015863A (en) | 2006-07-07 | 2008-01-24 | Nippon Hoso Kyokai <Nhk> | Distance information output device and three-dimensional shape restoration device |
| US20080262944A1 (en) | 2007-04-18 | 2008-10-23 | Wu Chih-Chen | Online clothing display system and method therefor |
-
2015
- 2015-04-08 KR KR1020150049732A patent/KR101803064B1/en not_active Expired - Fee Related
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2001084408A (en) * | 1999-09-13 | 2001-03-30 | Sanyo Electric Co Ltd | Method and device for processing three-dimensional data and recording medium |
| JP2008015863A (en) | 2006-07-07 | 2008-01-24 | Nippon Hoso Kyokai <Nhk> | Distance information output device and three-dimensional shape restoration device |
| US20080262944A1 (en) | 2007-04-18 | 2008-10-23 | Wu Chih-Chen | Online clothing display system and method therefor |
Also Published As
| Publication number | Publication date |
|---|---|
| KR20160120536A (en) | 2016-10-18 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR101778833B1 (en) | Apparatus and method of 3d clothes model reconstruction | |
| CN113012293B (en) | Stone carving model construction method, device, equipment and storage medium | |
| EP2686834B1 (en) | Improved virtual try on simulation service | |
| CN106373178B (en) | Apparatus and method for generating artificial image | |
| US8976230B1 (en) | User interface and methods to adapt images for approximating torso dimensions to simulate the appearance of various states of dress | |
| CN110168608B (en) | System for acquiring 3-dimensional digital representations of physical objects | |
| US20100328308A1 (en) | Three Dimensional Mesh Modeling | |
| KR101707707B1 (en) | Method for fiiting virtual items using human body model and system for providing fitting service of virtual items | |
| WO2021018894A1 (en) | Method and computer program product for producing 3-dimensional model data of a garment | |
| JP7595641B2 (en) | A method for estimating naked body shape from occluded body scans. | |
| KR20180069786A (en) | Method and system for generating an image file of a 3D garment model for a 3D body model | |
| CN110148217A (en) | A kind of real-time three-dimensional method for reconstructing, device and equipment | |
| EP2647305A1 (en) | Method for virtually trying on footwear | |
| JP2006249618A (en) | Virtual fitting device | |
| JP2016071645A (en) | Object three-dimensional model restoration method, apparatus and program | |
| CN108846892A (en) | The determination method and device of manikin | |
| JP2022027395A (en) | Posture estimation learning system, posture estimation learning method and creation program of machine learning data | |
| EP2462564B1 (en) | Representation of complex and/or deformable objects, and virtual fitting of wearable objects | |
| JP2004280776A (en) | Method for determining shape of object in image | |
| JP2015212891A (en) | Image processor and method for controlling image processor | |
| KR101803064B1 (en) | Apparatus and method for 3d model reconstruction | |
| KR20060131145A (en) | Rendering Method of 3D Objects Using 2D Image | |
| JP2025000475A (en) | Image processing apparatus, image processing method, and program | |
| Siegmund et al. | Virtual Fitting Pipeline: Body Dimension Recognition, Cloth Modeling, and On-Body Simulation. | |
| Kubišta et al. | Workflow for creating animated digital replicas of historical clothing |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| A201 | Request for examination | ||
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-2-2-P10-P22-nap-X000 |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| E13-X000 | Pre-grant limitation requested |
St.27 status event code: A-2-3-E10-E13-lim-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |
|
| PC1903 | Unpaid annual fee |
St.27 status event code: A-4-4-U10-U13-oth-PC1903 Not in force date: 20201124 Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE |
|
| PC1903 | Unpaid annual fee |
St.27 status event code: N-4-6-H10-H13-oth-PC1903 Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE Not in force date: 20201124 |