KR101054736B1 - 3D object recognition and attitude estimation method - Google Patents
3D object recognition and attitude estimation method Download PDFInfo
- Publication number
- KR101054736B1 KR101054736B1 KR1020100041642A KR20100041642A KR101054736B1 KR 101054736 B1 KR101054736 B1 KR 101054736B1 KR 1020100041642 A KR1020100041642 A KR 1020100041642A KR 20100041642 A KR20100041642 A KR 20100041642A KR 101054736 B1 KR101054736 B1 KR 101054736B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- color histogram
- image patches
- patches
- object recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/758—Involving statistics of pixels or of feature values, e.g. histogram matching
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/12—Acquisition of 3D measurements of objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
물체의 인식 및 자세 추정 방법은 스테레오 카메라를 통하여 2차원 영상을 획득하는 단계, 2차원 영상으로부터 3차원 포인트 클라우드(3D point cloud)를 생성하는 단계, 2차원 영상에 포함된 이미지 패치들(image patches)의 색상 히스토그램(color histogram)과 타겟 모델(target model)의 색상 히스토그램 간의 유사도를 측정하는 단계, 유사도에 기초하여 이미지 패치들 중에서 복수의 이미지 패치들을 선정하는 단계, 및 선정된 이미지 패치들에 상응하는 자세 가설(pose hypothesis)을 예측하는 단계를 포함하고, 색상 히스토그램은 멀티파트 HSV 색상 히스토그램(multi-part color histogram)이다.The object recognition and posture estimation method may include obtaining a 2D image through a stereo camera, generating a 3D point cloud from the 2D image, and image patches included in the 2D image. Measuring similarity between the color histogram of the image and the color histogram of the target model, selecting a plurality of image patches among the image patches based on the similarity, and corresponding to the selected image patches. Predicting a pose hypothesis, wherein the color histogram is a multi-part color histogram.
Description
본 발명은 로봇의 3차원 물체 인식 및 자세 추정 방법에 관한 것이다.The present invention relates to a three-dimensional object recognition and attitude estimation method of the robot.
3차원 물체의 인식 및 자세 추정은 지능 로봇 분야(intelligent robots)에서 중요한 문제들 중 하나이다.Recognition and posture estimation of three-dimensional objects is one of the important problems in intelligent robots.
3차원 물체의 인식 및 자세 추정을 수행하는 대부분의 기술들은 모델 기반의 인식/추정 기술(일례로, 장면으로부터 추출된 특징을 물체에 대해 미리 저장된 특징과 매칭을 통하여 인식/추정하는 기술)을 이용하여, 그 예로는, D. Jang, "Recognition of 3D objects from a sequence of images," Intelligent Computing in Signal Processing and Pattern Recognition, vol. 345, pp. 1024-1029, 2006. 에 개시된 기술, S. Q. Xie et al., "Three-dimensional object recognition system for enhancing the intelligence of a KUKA robot," International Journal of Advanced Manufacturing Technology, vol. 38, no 7-8, pp. 822-839, Sep. 2008.에 개시된 기술, F. Rothganger et al., "3D object modeling and recognition using local affine-invariant image descriptors and multi-view spatial constraints," International Journal of Comupter vision, vol. 66, no. 3, pp. 231-259, Mar. 2006. 에 개시된 기술을 들 수 있다.Most techniques for performing 3D object recognition and attitude estimation use model-based recognition / estimation techniques (e.g., techniques for recognizing / estimating features extracted from scenes by matching them with pre-stored features). For example, D. Jang, "Recognition of 3D objects from a sequence of images," Intelligent Computing in Signal Processing and Pattern Recognition, vol. 345, pp. 1024-1029, 2006. S. Q. Xie et al., "Three-dimensional object recognition system for enhancing the intelligence of a KUKA robot," International Journal of Advanced Manufacturing Technology, vol. 38, no 7-8, pp. 822-839, Sep. 2008. F. Rothganger et al., “3D object modeling and recognition using local affine-invariant image descriptors and multi-view spatial constraints,” International Journal of Comupter vision, vol. 66, no. 3, pp. 231-259, Mar. 2006. The technique disclosed in 2006. is mentioned.
개시된 기술이 이루고자 하는 기술적 과제는 3차원 물체의 인식 및 자세 추정을 정확하고 효율적으로 수행하기 위한 방법을 제공하는 데 있다.An object of the present invention is to provide a method for accurately and efficiently performing recognition and pose estimation of a 3D object.
상기의 기술적 과제를 이루기 위해 개시된 기술의 제 1 측면은 스테레오 카메라를 통하여 2차원 영상을 획득하는 단계, 상기 2차원 영상으로부터 3차원 포인트 클라우드(3D point cloud)를 생성하는 단계, 상기 2차원 영상에 포함된 이미지 패치들(image patches)의 색상 히스토그램(color histogram)과 타겟 모델(target model)의 색상 히스토그램 간의 유사도를 측정하는 단계, 상기 유사도에 기초하여 상기 이미지 패치들 중에서 복수의 이미지 패치들을 선정하는 단계 및 상기 선정된 이미지 패치들에 상응하는 자세 가설(pose hypothesis)을 예측하는 단계를 포함하고, 상기 색상 히스토그램은 멀티파트 HSV 색상 히스토그램(multi-part color histogram)인 물체 인식 및 자세 추정 방법을 제공하는 데 있다.In order to achieve the above technical problem, a first aspect of the disclosed technology is to obtain a 2D image through a stereo camera, generate a 3D point cloud from the 2D image, and display the 2D image. Measuring similarity between a color histogram of included image patches and a color histogram of a target model, and selecting a plurality of image patches among the image patches based on the similarity; And predicting a pose hypothesis corresponding to the selected image patches, wherein the color histogram is a multipart HSV color histogram. There is.
상기의 기술적 과제를 이루기 위해 개시된 기술의 제 2 측면은 스테레오 카메라를 통하여 2차원 영상을 획득하는 단계, 상기 2차원 영상으로부터 3차원 포인트 클라우드(3D point cloud)를 생성하는 단계, 상기 2차원 영상에 포함된 이미지 패치들(image patches)의 색상 히스토그램(multi-part color histogram)과 타겟 모델(target model)의 색상 히스토그램(multi-part color histogram)간의 Bhattacharyya distance를 산출하는 단계, 상기 Bhattacharyya distance를 성분으로 하는 투표 행렬(vote matrix)을 생성하는 단계, 상기 투표 행렬에 기초하여 누적 확률 밀도 함수를 생성하고, 상기 누적 확률 밀도 함수 중 미리 설정된 비율에 따라 문턱 값(threshold value)을 설정하는 단계, 상기 문턱 값보다 작은 Bhattacharyya distance를 가지는 이미지 패치들을 선정하는 단계, 및 상기 선정된 이미지 패치들에 상응하는 3차원 물체 포즈들(3D object poses)을 2차원 상으로 투사하고, 상기 투사된 이미지들과 타겟 모델의 포즈를 매칭하여 상기 3차원 물체 포즈들에 해당하는 타겟 모델의 확률(probability)를 산출하는 단계를 포함하는 물체 인식 및 자세 추정 방법을 제공하는 데 있다.A second aspect of the disclosed technology to achieve the above technical problem is the step of obtaining a two-dimensional image through a stereo camera, generating a three-dimensional point cloud (3D point cloud) from the two-dimensional image, Calculating a Bhattacharyya distance between a multi-part color histogram of included image patches and a multi-part color histogram of a target model, wherein the Bhattacharyya distance is used as a component Generating a voting matrix, generating a cumulative probability density function based on the voting matrix, and setting a threshold value according to a preset ratio among the cumulative probability density functions, the threshold Selecting image patches having a Bhattacharyya distance less than a value, and corresponding to the selected image patches Project 3D object poses onto a two-dimensional image and match the projected images with the poses of the target model to calculate the probability of the target model corresponding to the three-dimensional object poses. To provide an object recognition and attitude estimation method comprising the step of.
개시된 기술은 다음의 효과를 가질 수 있다. 다만, 특정 실시예가 다음의 효과를 전부 포함하여야 한다거나 다음의 효과만을 포함하여야 한다는 의미는 아니므로, 개시된 기술의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.The disclosed technique may have the following effects. It is to be understood, however, that the scope of the disclosed technology is not to be construed as limited thereby, as it is not meant to imply that a particular embodiment should include all of the following effects or only the following effects.
일 실시예에 따른 3D 물체 인식 및 자세 추정 방법은 멀티파트 HSV 색상 히스토그램(multi-part hsv color histogram)을 사용하여 2차원 영상과 타겟 모델과의 유사도를 측정하므로, 정확한 유사도 측정이 가능하고 보다 자세 가설 예측의 정확도를 높일 수 있다.According to an embodiment, the 3D object recognition and pose estimation method uses a multi-part hsv color histogram to measure the similarity between the two-dimensional image and the target model, thereby enabling accurate similarity measurement and more posture. Improve the accuracy of hypothesis prediction.
일 실시예에 따른 3D 물체 인식 및 자세 추정 방법은 2차원 영상 중 자세 가설을 예측할 후보를 선정하는데 기준이 되는 문턱 값(threshold value)을 적응적으로 결정하므로, 안정적으로 자세 가설 예측을 할 수 있게 한다.The 3D object recognition and pose estimation method according to an embodiment adaptively determines a threshold value, which is a criterion for selecting a candidate for predicting a pose hypothesis, from the two-dimensional image, thereby stably predicting the pose hypothesis. do.
도 1은 본 발명의 일 실시예에 따른 3D 물체 인식 및 자세 추정 방법을 나타내는 흐름도이다.
도 2는 도 1의 물체 인식 및 자세 추정 방법을 설명하기 위한 도면이다.1 is a flowchart illustrating a 3D object recognition and pose estimation method according to an embodiment of the present invention.
2 is a view for explaining the object recognition and attitude estimation method of FIG.
개시된 기술에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 개시된 기술의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 개시된 기술의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다.The description of the disclosed technique is merely an example for structural or functional explanation and the scope of the disclosed technology should not be construed as being limited by the embodiments described in the text. That is, the embodiments may be variously modified and may have various forms, and thus the scope of the disclosed technology should be understood to include equivalents capable of realizing the technical idea.
한편, 본 출원에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.On the other hand, the meaning of the terms described in the present application should be understood as follows.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions should be understood to include plural expressions unless the context clearly indicates otherwise, and terms such as "include" or "have" refer to features, numbers, steps, operations, components, parts, or parts thereof described. It is to be understood that the combination is intended to be present, but not to exclude in advance the possibility of the presence or addition of one or more other features or numbers, steps, operations, components, parts or combinations thereof.
각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.Each step may occur differently from the stated order unless the context clearly dictates the specific order. That is, each step may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the reverse order.
여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 개시된 기술이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.All terms used herein have the same meaning as commonly understood by one of ordinary skill in the art unless otherwise defined. Terms defined in commonly used dictionaries should be interpreted to be consistent with meaning in the context of the relevant art and can not be construed as having ideal or overly formal meaning unless expressly defined in the present application.
도 1은 본 발명의 일 실시예에 따른 3D 물체 인식 및 자세 추정 방법을 나타내는 흐름도이고, 도 2는 도 1의 물체 인식 및 자세 추정 방법을 설명하기 위한 도면이다.1 is a flowchart illustrating a 3D object recognition and attitude estimation method according to an embodiment of the present invention, and FIG. 2 is a view for explaining the object recognition and attitude estimation method of FIG. 1.
도 1을 참조하면, 110 단계에서, 물체 인식 및 자세 추정 장치는 타겟 모델(target model)의 위치와 자세를 추정하기 위하여, 스테레오 카메라를 이용하여 인식할 물체를 포함하는 주변환경을 촬영하며, 주변환경에 대한 2차원 영상을 획득한다. 예를 들어, 타겟 모델은 도 2의 (a)에 나타난 것과 같을 수 있으며, 물체 인식 및 자세 추정 장치는 도 2의 (b)에 나타난 것과 같은 2차원 영상을 획득할 수 있다. 여기에서, 2차원 영상은 주변환경에 대한 좌 이미지 및 우 이미지 중 적어도 하나를 포함할 수 있다.Referring to FIG. 1, in
115 단계에서, 물체 인식 및 자세 추정 장치는 스테레오 카메라의 의해 획득된 2차원 영상으로부터 3차원 포인트 클라우드(3D point cloud)를 생성한다. 예를 들어, 물체 인식 및 자세 추정 장치는 도 2의 (b)에 나타난 2차원 영상으로부터 도 2의 (c)에 나타난 것과 같은 3차원 포인트 클라우드를 생성할 수 있다.In
120 단계에서, 물체 인식 및 자세 추정 장치는 3차원 포인트 클라우드에 따른 평균 깊이(average depth)에 기초하여, 최초 스캐닝 윈도우 사이즈를 설정한다. 예를 들어, 물체 인식 및 자세 추정 장치는 3차원 포인트 클라우드에 따른 평균 깊이가 크면 작은 스캐닝 윈도우 사이즈를 설정하고, 평균 깊이가 작으면 큰 스캐닝 윈도우 사이즈를 설정할 수 있다.In
125 단계에서, 물체 인식 및 자세 추정 장치는 2차원 영상 중 현재 스캐닝할 부분에 상응하는 3차원 포인트 클라우드의 로컬 깊이(local depth)에 기초하여, 적응적으로(adaptively) 로컬 스캐닝 윈도우 사이즈를 결정하고, 로컬 스캐닝 윈도우 사이즈에 따라 2차원 영상을 스캐닝하여 이미지 패치(image patch)를 생성한다. 예를 들어, 현재 스캐닝할 부분이 주변환경에 해당하면, 로컬 스캐닝 윈도우 사이즈는 최초 스캐닝 윈도우 사이즈에 상응할 수 있고, 현재 스캐닝할 부분이 물체(object)에 해당하면, 로컬 스캐닝 윈도우 사이즈는 최초 스캐닝 윈도우 사이즈보다 클 수 있다.In
130 단계에서, 물체 인식 및 자세 추정 장치는 이미지 패치에 대한 멀티파트 HSV 색상 히스토그램(multi-part hsv color histogram)을 생성한다. 여기에서, 물체 인식 및 자세 추정 장치는 이미지 패치를 복수의 파트들로 분할하고, 분할된 파트별로 각각의 히스토그램을 생성함으로써 멀티파트 HSV 색상 히스토그램을 생성할 수 있다.In
135 단계에서, 물체 인식 및 자세 추정 장치는 타겟 모델(target model)의 멀티파트 HSV 색상 히스토그램과 이미지 패치의 멀티파트 HSV 색상 히스토그램 간의 유사도를 측정한다. 예를 들어, 물체 인식 및 자세 추정 장치는 두 히스토그램 간의 Bhattacharyya distance를 계산할 수 있다. 여기에서, 타겟 모델의 색상 히스토그램과 이미지 패치의 색상 히스토그램이 서로 유사할수록 Bhattacharyya distance는 작아지고, 서로 유사하지 않을수록 Bhattacharyya distance는 커진다.In
140 단계에서, 물체 인식 및 자세 추정 장치는 2차원 영상의 모든 이미지 패치들에 대하여 유사도 측정이 완료되었는지를 판단하고, 판단 결과 아직 완료되지 않았으면 125 단계로 진행한다.In
145 단계에서, 물체 인식 및 자세 추정 장치는 2차원 영상에 상응하는 투표 행렬(vote matrix)을 생성한다. 여기에서, 투표 행렬은 Bhattacharyya distance를 성분으로 포함할 수 있다. 예를 들어, 물체 인식 및 자세 추정 장치는 도 2의 (b)에 나타난 2차원 영상에 상응하여 도 2의 (d)에 나타난 것과 같은 투표 행렬을 생성할 수 있다.In
150 단계에서, 물체 인식 및 자세 추정 장치는 투표 행렬에 기초하여 확률 밀도 함수(PDF, probability density function) 및 누적 확률 밀도 함수(CDF, cumulative distribution function)를 산출한다. 예를 들어, 물체 인식 및 자세 추정 장치는 도 2의 (d)에 나타난 투표 행렬에 기초하여 도 2의 (e)에 나타난 것과 같은 확률 밀도 함수(210) 및 누적 확률 밀도 함수(220)를 생성할 수 있다.In
155 단계에서, 물체 인식 및 자세 추정 장치는 누적 확률 밀도 함수에 기초하여 후보를 선정하는데 기준이 되는 문턱 값(threshold value)을 적응적으로 결정한다. 여기에서 문턱 값은 통계적으로 결정될 수 있다. 예를 들어, 물체 인식 및 자세 추정 장치는 누적 확률 밀도 함수에서, 하위 5%에 해당하는 값을 문턱 값으로 결정할 수 있다.In
160 단계에서, 물체 인식 및 자세 추정 장치는 문턱 값보다 작은 Bhattacharyya distance를 가지는 이미지 패치들을 후보 패치들(candidate patches)로 선정한다.In
165 단계에서, 물체 인식 및 자세 추정 장치는 후보 패치들에 상응하는 자세 가설(pose hypothesis)을 예측한다. 여기에서 각 자세 가설은 2차원 영상에서 타겟 모델의 위치에 대한 하나의 해석(interpretation)일 수 있다. 물체 인식 및 자세 추정 장치는 후보 패치들에 상응하는 3차원 물체 포즈들(3D object poses)을 2차원 이미지들로 투사하여 자세 가설을 예측할 수 있다. 예를 들어, 물체 인식 및 자세 추정 장치는 투사된 이미지들에 타겟 모델의 포즈에 따른 색상 시그너쳐(color signature) 및 크기(size)를 매칭하여 투사된 이미지들에 대한 확률을 계산할 수 있다.In
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the present invention as defined by the following claims It can be understood that
Claims (8)
상기 2차원 영상으로부터 3차원 포인트 클라우드(3D point cloud)를 생성하는 단계;
상기 2차원 영상에 포함된 이미지 패치들(image patches)의 색상 히스토그램(color histogram)과 타겟 모델(target model)의 색상 히스토그램 간의 유사도를 측정하는 단계;
상기 유사도에 기초하여 상기 이미지 패치들 중에서 복수의 이미지 패치들을 선정하는 단계; 및
상기 선정된 이미지 패치들에 상응하는 자세 가설(pose hypothesis)을 예측하는 단계를 포함하고,
상기 색상 히스토그램은 멀티파트 HSV 색상 히스토그램(multi-part color histogram)인 물체 인식 및 자세 추정 방법.Obtaining a 2D image through a stereo camera;
Generating a 3D point cloud from the 2D image;
Measuring a similarity between a color histogram of image patches included in the 2D image and a color histogram of a target model;
Selecting a plurality of image patches among the image patches based on the similarity; And
Predicting a pose hypothesis corresponding to the selected image patches,
And the color histogram is a multipart HSV color histogram.
상기 이미지 패치들의 멀티파트 HSV 색상 히스토그램과 상기 타겟 모델의 멀티파트 HSV 색상 히스토그램 간의 Bhattacharyya distance에 상응하는 것을 특징으로 하는 물체 인식 및 자세 추정 방법.The method of claim 1, wherein the similarity between the color histogram is
And a Bhattacharyya distance between the multipart HSV color histogram of the image patches and the multipart HSV color histogram of the target model.
상기 Bhattacharyya distance를 성분으로 하는 투표 행렬(vote matrix)를 생성하는 단계;
상기 투표 행렬에 기초하여 누적 확률 밀도 함수(cdf)를 산출하는 단계;
상기 누적 확률 밀도 함수에 기초하여 후보를 선정하는데 기준이 되는 문턱 값(threshold value)을 설정하는 단계; 및
상기 문턱 값보다 작은 Bhattacharyya distance를 가지는 이미지 패치들을 선정하는 단계를 포함하는 것을 특징으로 하는 물체 인식 및 자세 추정 방법.3. The method of claim 2, wherein selecting the plurality of image patches
Generating a vote matrix having the Bhattacharyya distance as a component;
Calculating a cumulative probability density function (cdf) based on the voting matrix;
Setting a threshold value as a reference for selecting a candidate based on the cumulative probability density function; And
And selecting image patches having a Bhattacharyya distance less than the threshold value.
상기 선정된 이미지 패치들에 상응하는 3차원 물체 포즈들(3D object poses)을 2차원 이미지들로 투사하는 단계; 및
상기 투사된 이미지들과 상기 타겟 모델의 포즈에 따른 색상 시그너쳐(color signature) 및 크기(size)를 매칭하여 자세 가설을 예측하는 단계를 포함하는 것을 특징으로 하는 물체 인식 및 자세 추정 방법.The method of claim 1, wherein predicting a pose hypothesis corresponding to the selected image patches is
Projecting 3D object poses into two-dimensional images corresponding to the selected image patches; And
And predicting a posture hypothesis by matching a color signature and a size according to the projected image and the pose of the target model.
상기 3차원 포인트 클라우드에 따른 로컬 깊이(local depth)에 기초하여 스캐닝 윈도우 사이즈를 결정하는 단계를 더 포함하고,
상기 이미지 패치는 상기 결정된 스캐닝 윈도우 사이즈에 상응하는 것을 특징으로 하는 물체 인식 및 자세 추정 방법.The method of claim 1,
Determining a scanning window size based on a local depth according to the three-dimensional point cloud,
And the image patch corresponds to the determined scanning window size.
상기 2차원 영상으로부터 3차원 포인트 클라우드(3D point cloud)를 생성하는 단계;
상기 2차원 영상에 포함된 이미지 패치들(image patches)의 색상 히스토그램(multi-part color histogram)과 타겟 모델(target model)의 색상 히스토그램(multi-part color histogram)간의 Bhattacharyya distance를 산출하는 단계;
상기 Bhattacharyya distance를 성분으로 하는 투표 행렬(vote matrix)을 생성하는 단계;
상기 투표 행렬에 기초하여 누적 확률 밀도 함수를 생성하고, 상기 누적 확률 밀도 함수 중 미리 설정된 비율에 따라 문턱 값(threshold value)을 설정하는 단계;
상기 문턱 값보다 작은 Bhattacharyya distance를 가지는 이미지 패치들을 선정하는 단계; 및
상기 선정된 이미지 패치들에 상응하는 3차원 물체 포즈들(3D object poses)을 2차원 상으로 투사하고, 상기 투사된 이미지들과 타겟 모델의 포즈를 매칭하여 상기 3차원 물체 포즈들에 해당하는 타겟 모델의 확률(probability)를 산출하는 단계를 포함하는 물체 인식 및 자세 추정 방법.Obtaining a 2D image through a stereo camera;
Generating a 3D point cloud from the 2D image;
Calculating a Bhattacharyya distance between a multi-part color histogram of image patches included in the 2D image and a multi-part color histogram of a target model;
Generating a vote matrix having the Bhattacharyya distance as a component;
Generating a cumulative probability density function based on the voting matrix and setting a threshold value according to a preset ratio among the cumulative probability density functions;
Selecting image patches having a Bhattacharyya distance less than the threshold value; And
Projecting 3D object poses corresponding to the selected image patches onto a 2D image, matching the projected images with the poses of the target model to target the corresponding 3D object poses. An object recognition and pose estimation method comprising the step of calculating the probability of the model.
멀티파트 HSV 색상 히스토그램(multi-part color histogram)인 물체 인식 및 자세 추정 방법.The color histogram of claim 6, wherein the color histogram is
Object recognition and attitude estimation method with multi-part color histogram.
상기 3차원 포인트 클라우드에 따른 로컬 깊이(local depth)에 기초하여 스캐닝 윈도우 사이즈를 결정하는 단계를 더 포함하고,
상기 이미지 패치는 상기 결정된 스캐닝 윈도우 사이즈에 상응하는 것을 특징으로 하는 물체 인식 및 자세 추정 방법.The method of claim 7, wherein
Determining a scanning window size based on a local depth according to the three-dimensional point cloud,
And the image patch corresponds to the determined scanning window size.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020100041642A KR101054736B1 (en) | 2010-05-04 | 2010-05-04 | 3D object recognition and attitude estimation method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020100041642A KR101054736B1 (en) | 2010-05-04 | 2010-05-04 | 3D object recognition and attitude estimation method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| KR101054736B1 true KR101054736B1 (en) | 2011-08-05 |
Family
ID=44932930
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020100041642A Expired - Fee Related KR101054736B1 (en) | 2010-05-04 | 2010-05-04 | 3D object recognition and attitude estimation method |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR101054736B1 (en) |
Cited By (15)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2015006224A1 (en) * | 2013-07-08 | 2015-01-15 | Vangogh Imaging, Inc. | Real-time 3d computer vision processing engine for object recognition, reconstruction, and analysis |
| US9710960B2 (en) | 2014-12-04 | 2017-07-18 | Vangogh Imaging, Inc. | Closed-form 3D model generation of non-rigid complex objects from incomplete and noisy scans |
| KR101756650B1 (en) * | 2015-10-27 | 2017-07-26 | 광주과학기술원 | Installation space exploration method for a substance and readable media having the program therefor |
| KR101819730B1 (en) * | 2016-04-19 | 2018-01-17 | 광주과학기술원 | Method for 3D object detection and pose estimation |
| US9875545B2 (en) | 2013-07-09 | 2018-01-23 | Samsung Electronics Co., Ltd. | Camera pose estimation apparatus and method |
| US9984308B2 (en) | 2014-06-20 | 2018-05-29 | Samsung Electronics Co., Ltd. | Method and apparatus for extracting feature regions from point cloud |
| US10380762B2 (en) | 2016-10-07 | 2019-08-13 | Vangogh Imaging, Inc. | Real-time remote collaboration and virtual presence using simultaneous localization and mapping to construct a 3D model and update a scene based on sparse data |
| US10810783B2 (en) | 2018-04-03 | 2020-10-20 | Vangogh Imaging, Inc. | Dynamic real-time texture alignment for 3D models |
| US10839585B2 (en) | 2018-01-05 | 2020-11-17 | Vangogh Imaging, Inc. | 4D hologram: real-time remote avatar creation and animation control |
| US11080540B2 (en) | 2018-03-20 | 2021-08-03 | Vangogh Imaging, Inc. | 3D vision processing using an IP block |
| US11170552B2 (en) | 2019-05-06 | 2021-11-09 | Vangogh Imaging, Inc. | Remote visualization of three-dimensional (3D) animation with synchronized voice in real-time |
| US11170224B2 (en) | 2018-05-25 | 2021-11-09 | Vangogh Imaging, Inc. | Keyframe-based object scanning and tracking |
| US11232633B2 (en) | 2019-05-06 | 2022-01-25 | Vangogh Imaging, Inc. | 3D object capture and object reconstruction using edge cloud computing resources |
| US11335063B2 (en) | 2020-01-03 | 2022-05-17 | Vangogh Imaging, Inc. | Multiple maps for 3D object scanning and reconstruction |
| CN117455983A (en) * | 2023-12-26 | 2024-01-26 | 深圳市亿境虚拟现实技术有限公司 | VR handle space positioning method and device, electronic equipment and storage medium |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20050057096A (en) * | 2002-08-30 | 2005-06-16 | 닛본 덴끼 가부시끼가이샤 | Object trace device, object trace method, and object trace program |
| KR20060018061A (en) * | 2004-08-23 | 2006-02-28 | 삼성전자주식회사 | Method and apparatus for tracking people using robots |
| KR20060066975A (en) * | 2004-12-14 | 2006-06-19 | 삼성전자주식회사 | Apparatus and method for tracking people, recording media storing programs for performing the method and mobile electronic devices including the apparatus |
| KR20090081968A (en) * | 2008-01-25 | 2009-07-29 | 성균관대학교산학협력단 | Real-time Object Recognition and Pose Estimation System and Method Using Situation Monitoring |
-
2010
- 2010-05-04 KR KR1020100041642A patent/KR101054736B1/en not_active Expired - Fee Related
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20050057096A (en) * | 2002-08-30 | 2005-06-16 | 닛본 덴끼 가부시끼가이샤 | Object trace device, object trace method, and object trace program |
| KR20060018061A (en) * | 2004-08-23 | 2006-02-28 | 삼성전자주식회사 | Method and apparatus for tracking people using robots |
| KR20060066975A (en) * | 2004-12-14 | 2006-06-19 | 삼성전자주식회사 | Apparatus and method for tracking people, recording media storing programs for performing the method and mobile electronic devices including the apparatus |
| KR20090081968A (en) * | 2008-01-25 | 2009-07-29 | 성균관대학교산학협력단 | Real-time Object Recognition and Pose Estimation System and Method Using Situation Monitoring |
Cited By (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9715761B2 (en) | 2013-07-08 | 2017-07-25 | Vangogh Imaging, Inc. | Real-time 3D computer vision processing engine for object recognition, reconstruction, and analysis |
| WO2015006224A1 (en) * | 2013-07-08 | 2015-01-15 | Vangogh Imaging, Inc. | Real-time 3d computer vision processing engine for object recognition, reconstruction, and analysis |
| US9875545B2 (en) | 2013-07-09 | 2018-01-23 | Samsung Electronics Co., Ltd. | Camera pose estimation apparatus and method |
| US9984308B2 (en) | 2014-06-20 | 2018-05-29 | Samsung Electronics Co., Ltd. | Method and apparatus for extracting feature regions from point cloud |
| US9710960B2 (en) | 2014-12-04 | 2017-07-18 | Vangogh Imaging, Inc. | Closed-form 3D model generation of non-rigid complex objects from incomplete and noisy scans |
| KR101756650B1 (en) * | 2015-10-27 | 2017-07-26 | 광주과학기술원 | Installation space exploration method for a substance and readable media having the program therefor |
| KR101819730B1 (en) * | 2016-04-19 | 2018-01-17 | 광주과학기술원 | Method for 3D object detection and pose estimation |
| US10380762B2 (en) | 2016-10-07 | 2019-08-13 | Vangogh Imaging, Inc. | Real-time remote collaboration and virtual presence using simultaneous localization and mapping to construct a 3D model and update a scene based on sparse data |
| US10839585B2 (en) | 2018-01-05 | 2020-11-17 | Vangogh Imaging, Inc. | 4D hologram: real-time remote avatar creation and animation control |
| US11080540B2 (en) | 2018-03-20 | 2021-08-03 | Vangogh Imaging, Inc. | 3D vision processing using an IP block |
| US10810783B2 (en) | 2018-04-03 | 2020-10-20 | Vangogh Imaging, Inc. | Dynamic real-time texture alignment for 3D models |
| US11170224B2 (en) | 2018-05-25 | 2021-11-09 | Vangogh Imaging, Inc. | Keyframe-based object scanning and tracking |
| US11170552B2 (en) | 2019-05-06 | 2021-11-09 | Vangogh Imaging, Inc. | Remote visualization of three-dimensional (3D) animation with synchronized voice in real-time |
| US11232633B2 (en) | 2019-05-06 | 2022-01-25 | Vangogh Imaging, Inc. | 3D object capture and object reconstruction using edge cloud computing resources |
| US11335063B2 (en) | 2020-01-03 | 2022-05-17 | Vangogh Imaging, Inc. | Multiple maps for 3D object scanning and reconstruction |
| CN117455983A (en) * | 2023-12-26 | 2024-01-26 | 深圳市亿境虚拟现实技术有限公司 | VR handle space positioning method and device, electronic equipment and storage medium |
| CN117455983B (en) * | 2023-12-26 | 2024-04-12 | 深圳市亿境虚拟现实技术有限公司 | VR handle space positioning method and device, electronic equipment and storage medium |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR101054736B1 (en) | 3D object recognition and attitude estimation method | |
| US11763485B1 (en) | Deep learning based robot target recognition and motion detection method, storage medium and apparatus | |
| Li et al. | RGB-D SLAM in dynamic environments using static point weighting | |
| CN109934847B (en) | Method and device for estimating posture of weak texture three-dimensional object | |
| US11881000B2 (en) | System and method for simultaneous consideration of edges and normals in image features by a vision system | |
| CN104899563B (en) | A method and system for locating key feature points of two-dimensional face | |
| CN106940704B (en) | Positioning method and device based on grid map | |
| EP1677250B9 (en) | Image collation system and image collation method | |
| US10380767B2 (en) | System and method for automatic selection of 3D alignment algorithms in a vision system | |
| CN106780631B (en) | Robot closed-loop detection method based on deep learning | |
| KR20180087994A (en) | Stero matching method and image processing apparatus | |
| CN105335955A (en) | Object detection method and object detection apparatus | |
| CN104756491A (en) | Depth map generation from monoscopic images based on combined depth cues | |
| JP2014127208A (en) | Method and apparatus for detecting object | |
| US10595006B2 (en) | Method, system and medium for improving the quality of 2D-to-3D automatic image conversion using machine learning techniques | |
| KR20120040924A (en) | Image processing apparatus and method | |
| JP6817742B2 (en) | Information processing device and its control method | |
| CN112200056B (en) | Face living body detection method and device, electronic equipment and storage medium | |
| KR102110459B1 (en) | Method and apparatus for generating three dimension image | |
| KR102410300B1 (en) | Apparatus for measuring position of camera using stereo camera and method using the same | |
| US20120155748A1 (en) | Apparatus and method for processing stereo image | |
| IT202000016054A1 (en) | METHOD FOR DETERMINING THE CONFIDENCE OF A DISPARITY MAP BY SELF-ADAPTIVE LEARNING OF A NEURAL NETWORK, AND RELATED SENSOR SYSTEM | |
| KR101125061B1 (en) | A Method For Transforming 2D Video To 3D Video By Using LDI Method | |
| JP2016066270A (en) | Work similarity calculation method, device and program | |
| US11657506B2 (en) | Systems and methods for autonomous robot navigation |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A201 | Request for examination | ||
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| R15-X000 | Change to inventor requested |
St.27 status event code: A-3-3-R10-R15-oth-X000 |
|
| R16-X000 | Change to inventor recorded |
St.27 status event code: A-3-3-R10-R16-oth-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| PE0801 | Dismissal of amendment |
St.27 status event code: A-2-2-P10-P12-nap-PE0801 |
|
| D13-X000 | Search requested |
St.27 status event code: A-1-2-D10-D13-srh-X000 |
|
| D14-X000 | Search report completed |
St.27 status event code: A-1-2-D10-D14-srh-X000 |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
Fee payment year number: 1 St.27 status event code: A-2-2-U10-U11-oth-PR1002 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R11-asn-PN2301 St.27 status event code: A-5-5-R10-R13-asn-PN2301 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R11-asn-PN2301 St.27 status event code: A-5-5-R10-R13-asn-PN2301 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| FPAY | Annual fee payment |
Payment date: 20140617 Year of fee payment: 4 |
|
| PR1001 | Payment of annual fee |
Fee payment year number: 4 St.27 status event code: A-4-4-U10-U11-oth-PR1001 |
|
| FPAY | Annual fee payment |
Payment date: 20150703 Year of fee payment: 5 |
|
| PR1001 | Payment of annual fee |
Fee payment year number: 5 St.27 status event code: A-4-4-U10-U11-oth-PR1001 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| LAPS | Lapse due to unpaid annual fee | ||
| PC1903 | Unpaid annual fee |
Not in force date: 20160802 Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE St.27 status event code: A-4-4-U10-U13-oth-PC1903 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| PC1903 | Unpaid annual fee |
Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE Not in force date: 20160802 St.27 status event code: N-4-6-H10-H13-oth-PC1903 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R11-asn-PN2301 St.27 status event code: A-5-5-R10-R13-asn-PN2301 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |