[go: up one dir, main page]

KR102576449B1 - Device and method of image registration for 3d models - Google Patents

Device and method of image registration for 3d models Download PDF

Info

Publication number
KR102576449B1
KR102576449B1 KR1020200162217A KR20200162217A KR102576449B1 KR 102576449 B1 KR102576449 B1 KR 102576449B1 KR 1020200162217 A KR1020200162217 A KR 1020200162217A KR 20200162217 A KR20200162217 A KR 20200162217A KR 102576449 B1 KR102576449 B1 KR 102576449B1
Authority
KR
South Korea
Prior art keywords
image
virtual
shooting
model
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020200162217A
Other languages
Korean (ko)
Other versions
KR20220074103A (en
Inventor
방기인
이광일
Original Assignee
주식회사 소프트그래피
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 소프트그래피 filed Critical 주식회사 소프트그래피
Priority to KR1020200162217A priority Critical patent/KR102576449B1/en
Publication of KR20220074103A publication Critical patent/KR20220074103A/en
Application granted granted Critical
Publication of KR102576449B1 publication Critical patent/KR102576449B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

본 발명에 따르면 3차원 모델에 대한 영상 정합 방법은 3차원 모델에 대한 영상 정합 장치에서 수행된다.
여기에서, 상기 3차원 모델에 대한 영상 정합 방법은 가상 환경에서 시설물의 3차원 모델을 구현하는 단계; 상기 가상 환경에서의 가상 촬영을 통해 상기 3차원 모델에 대한 가상 영상을 생성하는 단계; 상기 가상 영상 및 촬영 장치가 실제 시설물을 촬영하여 획득한 촬영 영상 간의 오차를 산출하는 단계; 및 상기 산출된 오차를 보정하여 상기 가상 영상 및 촬영 영상을 정합하는 단계;를 포함한다.
본 발명은 카메라로 촬영한 영상과 가상 환경에서 구현된 촬영 대상의 3차원 모델을 정합시킴으로써, 3차원 모델을 통해서도 촬영 대상을 정확하게 점검 및 진단할 수 있다.
According to the present invention, the image registration method for a 3D model is performed in an image registration device for a 3D model.
Here, the image registration method for the 3D model includes implementing a 3D model of the facility in a virtual environment; generating a virtual image for the 3D model through virtual photography in the virtual environment; Calculating an error between the virtual image and a captured image obtained by photographing an actual facility by a photographing device; and correcting the calculated error to match the virtual image and the captured image.
The present invention matches an image captured by a camera with a 3D model of the object to be photographed in a virtual environment, making it possible to accurately inspect and diagnose the object to be photographed through the 3D model.

Description

3차원 모델에 대한 영상 정합 장치 및 방법{DEVICE AND METHOD OF IMAGE REGISTRATION FOR 3D MODELS}Image registration device and method for 3D model {DEVICE AND METHOD OF IMAGE REGISTRATION FOR 3D MODELS}

본 발명은 3차원 모델에 대한 영상 정합 장치 및 방법에 관한 것으로서, 보다 상세하게는, 카메라로 촬영한 영상과 가상 환경에서 구현된 촬영 대상의 3차원 모델을 정합시킴으로써, 3차원 모델을 통해서도 촬영 대상을 정확하게 점검 및 진단할 수 있는 3차원 모델에 대한 영상 정합 장치 및 방법에 관한 것이다.The present invention relates to an image registration device and method for a 3D model. More specifically, the present invention relates to an image captured by a camera and a 3D model of a subject implemented in a virtual environment, thereby enabling the subject to be captured through the 3D model. It relates to an image registration device and method for a 3D model that can accurately inspect and diagnose.

안전 진단 및 손상도 점검 등을 포함하는 시설물 관리를 위한 방법 중 하나로서, 영상 장비를 활용하여 시설물의 상태 및 위치와 관련된 정보를 얻고 이를 활용하는 방법이 있다. 상기 영상 장비를 통해 얻어진 정보를 가상 환경 등에서 구현한 관리 대상 시설물의 3차원 모델에 적용하면 원격지에서도 용이하게 관리 대상인 시설물을 정밀점검 할 수 있는 이점이 있다.As one of the methods for facility management, including safety diagnosis and damage inspection, there is a method of obtaining and utilizing information related to the status and location of the facility using imaging equipment. Applying the information obtained through the above imaging equipment to a 3D model of the facility subject to management implemented in a virtual environment, etc. has the advantage of allowing detailed inspection of the facility subject to management easily even from a remote location.

한편, 인력의 접근이 용이하지 않은 상황이나 장소에서는 무인비행체를 활용함으로써, 시설물에 대한 정밀점검을 수행할 수 있다. 이러한 무인비행체를 활용한 시설물의 점검 및 관리 방법은 무인비행체를 통해 촬영한 영상에 나타나는 시설물 일부가 어떤 위치에 있는 것인지 정확하게 알 수 있어야 하며, 시설물에 발생한 미세한 손상 등을 정밀하게 파악할 수 있는 기술이 필요하게 된다.Meanwhile, in situations or places where human access is not easy, detailed inspections of facilities can be performed by using unmanned aerial vehicles. This method of inspecting and managing facilities using unmanned aerial vehicles requires the ability to accurately determine the location of parts of the facility that appear in images captured by unmanned aerial vehicles, and requires technology to accurately identify minute damage to the facility. It becomes necessary.

구체적으로, 무인비행체에 장착된 촬영 장치로부터 영상을 획득하고, 이러한 영상으로부터 시설물에 대한 정량 정보를 추출하기 위해서는 영상이 촬영된 위치와 촬영 당시 카메라의 자세를 3차원 공간 상에서 결정해야 한다. 이에 따라, 무인비행체(또는 이에 탑재되는 촬영 장치)에 대한 위치 및 자세를 측정하기 위한 장치로서 GNSS(Global Navigation Satellite System; 글로벌 위성항법 시스템) 신호 수신 장치 및 IMU(Inertial Measurement Unit; 관성 측정 장치)가 사용될 수 있으며, 편의에 따라서 상기 두 장치의 기능이 하나로 병합된 GNSS/IMU가 사용될 수 있다.Specifically, in order to acquire images from a imaging device mounted on an unmanned aerial vehicle and extract quantitative information about a facility from these images, the location where the image was captured and the posture of the camera at the time of shooting must be determined in three-dimensional space. Accordingly, a GNSS (Global Navigation Satellite System) signal receiving device and an IMU (Inertial Measurement Unit) are devices for measuring the position and attitude of an unmanned aerial vehicle (or an imaging device mounted thereon). may be used, and depending on convenience, GNSS/IMU that combines the functions of the two devices into one may be used.

그러나, GNSS 신호가 무인비행체의 정확한 위치를 결정할 수 있을 만큼 수신되지 않는 상황에서는 획득한 영상의 촬영 위치 및 자세를 결정하는데 어려움이 발생할 수 있다. 예를 들어, 교량 시설물의 하부에 대한 정밀점검을 위해 교량 시설물 하부로 무인비행체를 이동시키는 경우 GNSS 신호의 수신이 원활하지 않을 수 있으며, 이러한 경우 획득한 영상과 영상에 대한 위치 정보 및 자세 정보 등이 정확히 일치하게 않게 되므로, 앞서 말한 3차원 모델로 구현된 시설물에 획득한 영상을 정확하게 정합시키기 어려운 문제가 발생할 수 있다.However, in situations where GNSS signals are not received enough to determine the exact location of the unmanned aerial vehicle, difficulties may arise in determining the shooting location and attitude of the acquired image. For example, when an unmanned aerial vehicle is moved to the lower part of a bridge facility for a detailed inspection of the lower part of the bridge facility, reception of GNSS signals may not be smooth, and in this case, the acquired image and location information and attitude information for the image, etc. Since these do not match exactly, problems may arise where it is difficult to accurately match the acquired image to the facility implemented with the 3D model mentioned above.

또한, GNSS 신호 수신과 관련된 문제 이외에도, 영상 장비의 카메라 정렬 상태가 정확하게 결정되어 있지 않을 경우 또는 구현된 3차원 모델의 형상이 정확하지 않은 경우에도 획득한 영상의 정합에 어려움이 생길 수 있다는 문제점이 있다.In addition, in addition to problems related to GNSS signal reception, there is a problem that difficulties may arise in matching the acquired images even when the camera alignment state of the imaging equipment is not accurately determined or the shape of the implemented 3D model is not accurate. there is.

한국등록특허 제10-2038127호Korean Patent No. 10-2038127

본 발명은 상술한 문제점을 해결하기 위해 고안된 것으로서, 촬영 장치를 통해 획득한 촬영 영상과 3차원 모델을 대상으로 생성된 가상 영상을 비교하여 두 영상 간의 오차를 산출하고, 산출된 오차를 보정하는 과정을 통해 정확한 정합을 이루어 낼 수 있다.The present invention was designed to solve the above-mentioned problems, and involves comparing a captured image obtained through a photographing device and a virtual image generated for a 3D model, calculating the error between the two images, and correcting the calculated error. Through this, accurate matching can be achieved.

본 발명의 일 측면에 따르면, 3차원 모델에 대한 영상 정합 방법은 3차원 모델에 대한 영상 정합 장치에서 수행된다. 여기에서, 상기 3차원 모델에 대한 영상 정합 방법은 가상 환경에서 시설물의 3차원 모델을 구현하는 단계; 상기 가상 환경에서의 가상 촬영을 통해 상기 3차원 모델에 대한 가상 영상을 생성하는 단계; 상기 생성된 가상 영상 및 촬영 장치가 실제 시설물을 촬영하여 획득한 촬영 영상 간의 오차를 산출하는 단계; 및 상기 산출된 오차를 보정하여 상기 가상 영상 및 촬영 영상을 정합하는 단계;를 포함할 수 있다.According to one aspect of the present invention, the image registration method for a 3D model is performed in an image registration device for a 3D model. Here, the image registration method for the 3D model includes implementing a 3D model of the facility in a virtual environment; generating a virtual image for the 3D model through virtual photography in the virtual environment; Calculating an error between the generated virtual image and a captured image obtained by photographing an actual facility by a photographing device; and correcting the calculated error to match the virtual image and the captured image.

일 실시예에서, 상기 3차원 모델에 대한 가상 영상을 생성하는 단계;는, 상기 촬영 장치가 획득한 촬영 영상 각각에 대한 촬영 위치 및 촬영 자세 정보를 수집하는 단계; 및 상기 수집된 촬영 위치 및 촬영 자세 정보와 대응되는 상기 가상 환경에서의 촬영 위치 및 촬영 자세를 도출하고, 상기 도출된 촬영 위치 및 촬영 자세에 기초하여 상기 3차원 모델에 대한 가상 영상을 생성하는 단계;를 포함할 수 있다.In one embodiment, generating a virtual image for the 3D model includes collecting shooting location and shooting posture information for each captured image acquired by the photographing device; and deriving a shooting position and posture in the virtual environment corresponding to the collected shooting location and posture information, and generating a virtual image for the three-dimensional model based on the derived shooting position and posture. May include ;.

일 실시예에서, 상기 오차를 산출하는 단계는, 상기 가상 영상 및 촬영 영상에 포함되는 시설물에 대한 외곽선을 추출하는 단계;를 포함할 수 있다.In one embodiment, calculating the error may include extracting an outline of a facility included in the virtual image and the captured image.

일 실시예에서, 상기 가상 영상 및 촬영 영상을 정합하는 단계;는, 상기 추출된 외곽선을 이용하는 투영 변환법에 기초하여 상기 가상 영상 및 촬영 영상을 정합하는 단계;를 포함할 수 있다.In one embodiment, matching the virtual image and the captured image may include matching the virtual image and the captured image based on a projection transformation method using the extracted outline.

일 실시예에서, 상기 오차를 산출하는 단계는, 상기 가상 영상 및 촬영 영상 중에서 촬영 위치 및 촬영 자세가 서로 동일한 것으로 판단되는 영상을 매칭시키는 단계; 및 상기 매칭된 영상이 서로 투영되도록 중첩시키는 단계;를 포함할 수 있다.In one embodiment, calculating the error includes matching images whose shooting positions and shooting postures are determined to be the same among the virtual images and the captured images; and overlapping the matched images so that they are projected onto each other.

일 실시예에서, 상기 가상 영상 및 촬영 영상을 정합하는 단계;는, 상기 중첩된 영상 별로 상기 투영 변환법을 적용하여 상기 가상 영상 및 촬영 영상을 정합하는 단계;를 포함할 수 있다.In one embodiment, matching the virtual image and the captured image may include matching the virtual image and the captured image by applying the projection transformation method to each of the overlapping images.

일 실시예에서, 투영 변환법에 기초하여 상기 가상 영상 및 촬영 영상을 정합하는 단계;는, 상기 획득한 촬영 영상의 좌표에 대한 상기 가상 환경에서의 변환 좌표를 산출하는 단계;를 포함할 수 있다.In one embodiment, matching the virtual image and the captured image based on a projection transformation method may include calculating transformation coordinates in the virtual environment for coordinates of the obtained captured image.

본 발명의 다른 일 측면에 따르면, 3차원 모델에 대한 영상 정합 장치는 3차원 모델에 대한 영상 정합 방법을 수행한다. 여기에서, 상기 3차원 모델에 대한 영상 정합 장치는 가상 환경에서 시설물의 3차원 모델을 구현하는 3차원 모델 생성부; 상기 가상 환경에서의 가상 촬영을 통해 상기 3차원 모델에 대한 가상 영상을 생성하는 가상 영상 생성부; 상기 생성된 가상 영상 및 촬영 장치가 실제 시설물을 촬영하여 획득한 촬영 영상 간의 오차를 산출하는 오차 산출부; 및 상기 산출된 오차를 보정하여 상기 가상 영상 및 촬영 영상을 정합하는 영상 정합부;를 포함할 수 있다.According to another aspect of the present invention, an image registration device for a 3D model performs an image registration method for a 3D model. Here, the image registration device for the 3D model includes a 3D model generator that implements a 3D model of the facility in a virtual environment; a virtual image generator that generates a virtual image of the three-dimensional model through virtual photography in the virtual environment; an error calculation unit that calculates an error between the generated virtual image and the captured image obtained by photographing an actual facility by a photographing device; and an image matching unit that corrects the calculated error and matches the virtual image and the captured image.

본 발명의 일 실시예에 따른 3차원 모델에 대한 영상 정합 장치 및 방법은 구현된 3차원 모델의 가상 영상과 정합할 촬영 영상 간의 불일치 발생을 정확하게 검출하고, 이를 보정하여 실제 시설물과 거의 동일한 3차원 모델을 구현할 수 있는 효과가 있다.An image registration device and method for a 3D model according to an embodiment of the present invention accurately detects discrepancies between the virtual image of the implemented 3D model and the captured image to be matched, and corrects this to create a 3D image that is almost identical to the actual facility. It has the effect of implementing the model.

본 발명의 일 실시예에 따른 3차원 모델에 대한 영상 정합 장치 및 방법은 시설물에 대한 3차원 모델에 촬영 영상을 정확하게 정합할 수 있으므로, 원격지에서도 관리 대상인 시설물을 용이하게 정밀 점검할 수 있는 효과가 있다.The image matching device and method for a 3D model according to an embodiment of the present invention can accurately match captured images to a 3D model for a facility, which has the effect of allowing easy detailed inspection of facilities subject to management even from a remote location. there is.

본 발명의 일 실시예에 따른 3차원 모델에 대한 영상 정합 장치 및 방법은 3차원 모델에 대한 가상 영상과 촬영 영상 간의 오차를 자동적으로 산출하여 보정하므로, 영상 간의 정합을 위한 작업자의 후보정 작업이 별도로 필요하지 않게 되는 이점이 있다.The image registration device and method for a 3D model according to an embodiment of the present invention automatically calculates and corrects the error between the virtual image and the captured image for the 3D model, so the operator's post-processing work for registration between images is separate. The advantage is that it is not necessary.

도 1은 본 발명의 일 실시예에 따른 3차원 모델에 대한 영상 정합 장치에서 이용될 수 있는 촬영 장치(10)를 설명하기 위한 참고도이다.
도 2는 본 발명의 일 실시예에 따른 3차원 모델에 대한 영상 정합 장치를 설명하기 위한 블록도이다.
도 3 내지 도 5는 본 발명의 일 실시예에 따른 3차원 모델에 대한 영상 정합 방법을 설명하기 위한 참고도이다.
도 6은 본 발명의 일 실시예에 따른 3차원 모델에 대한 영상 정합 방법을 설명하기 위한 흐름도이다.
FIG. 1 is a reference diagram for explaining a photographing device 10 that can be used in an image registration device for a 3D model according to an embodiment of the present invention.
Figure 2 is a block diagram for explaining an image registration device for a 3D model according to an embodiment of the present invention.
3 to 5 are reference diagrams for explaining an image matching method for a 3D model according to an embodiment of the present invention.
Figure 6 is a flowchart illustrating an image registration method for a 3D model according to an embodiment of the present invention.

본 발명을 첨부된 도면을 참조하여 상세히 설명하면 다음과 같다. 여기서, 반복되는 설명, 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능, 및 구성에 대한 상세한 설명은 생략한다. 본 발명의 실시형태는 당 업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되는 것이다. 따라서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.The present invention will be described in detail with reference to the attached drawings as follows. Here, repeated descriptions, known functions that may unnecessarily obscure the gist of the present invention, and detailed descriptions of configurations are omitted. Embodiments of the present invention are provided to more completely explain the present invention to those skilled in the art. Accordingly, the shapes and sizes of elements in the drawings may be exaggerated for clearer explanation.

명세서 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is said to “include” a certain component, this means that it may further include other components rather than excluding other components, unless specifically stated to the contrary.

또한, 명세서에 기재된 "...부"의 용어는 하나 이상의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Additionally, the term "... unit" used in the specification refers to a unit that processes one or more functions or operations, and may be implemented as hardware, software, or a combination of hardware and software.

도 1은 본 발명의 일 실시예에 따른 3차원 모델에 대한 영상 정합 장치에서 이용될 수 있는 촬영 장치(10)를 설명하기 위한 참고도이다.FIG. 1 is a reference diagram for explaining a photographing device 10 that can be used in an image registration device for a 3D model according to an embodiment of the present invention.

도 1을 참조하면, 촬영 장치(10)는 본 발명의 일 실시예에 따른 3차원 모델에 대한 영상 정합 방법에서 정밀 점검, 진단 또는 관리 대상이 되는 시설물의 영상을 촬영하고, 영상 정보를 획득할 수 있는 장치로서, 구비되는 렌즈를 통해 입력되는 광 신호들을 전자 신호들로 변환하는 이미지 센서를 포함하거나 이와 동등한 기능을 수행할 수 있는 장치를 의미할 수 있다. 도 1에서 촬영 장치(10)는 본 발명의 바람직한 예시로서 무인비행체로 도시되었으며, 무인비행체 형태의 촬영 장치(10)는 촬영 장치(10)의 위치 및 자세 정보를 획득하기 위한 GNSS/IMU, 촬영 장치(10)에 탑재되는 카메라 및 상기 카메라를 고정하기 위한 짐발을 포함하여 구성될 수 있다.Referring to FIG. 1, the imaging device 10 captures an image of a facility subject to detailed inspection, diagnosis, or management in the image registration method for a three-dimensional model according to an embodiment of the present invention and obtains image information. The device may include an image sensor that converts optical signals input through a provided lens into electronic signals, or may refer to a device capable of performing an equivalent function. In FIG. 1, the photographing device 10 is shown as an unmanned air vehicle as a preferred example of the present invention, and the photographing device 10 in the form of an unmanned air vehicle uses GNSS/IMU and photographing to obtain location and attitude information of the photographing device 10. It may be configured to include a camera mounted on the device 10 and a gimbal for fixing the camera.

또한, 촬영 장치(10)는 획득한 영상 정보를 내부에 구비되는 저장부에 저장하거나, 무선 네트워크를 통해 실시간으로 3차원 모델에 대한 영상 정합 장치 또는 다른 서버에 전송할 수 있다. 또한, 촬영 장치(10)는 무선 통신 제어를 포함하는 다양한 방식에 의하여 동작이 제어될 수 있다.Additionally, the imaging device 10 may store the acquired image information in an internal storage unit or transmit it to an image registration device for a 3D model or another server in real time through a wireless network. Additionally, the operation of the imaging device 10 may be controlled by various methods including wireless communication control.

도 2는 본 발명의 일 실시예에 따른 3차원 모델에 대한 영상 정합 장치 (100)의 구성을 도시한 블록도이다.Figure 2 is a block diagram showing the configuration of an image registration device 100 for a 3D model according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 시설물 정밀점검 시스템(100)은 3차원 모델 생성부(110), 가상 영상 생성부(120), 오차 산출부(130) 및 영상 정합부(140)를 포함하여 구성될 수 있다.Referring to Figure 2, the facility precision inspection system 100 according to an embodiment of the present invention includes a 3D model generator 110, a virtual image generator 120, an error calculation unit 130, and an image matching unit ( 140).

3차원 모델 생성부(110), 가상 영상 생성부(120), 오차 산출부(130) 및 영상 정합부(140) 각각은 컴퓨터 프로그램들 혹은 컴퓨터에 의해 판독 가능한 매체에 저장된 데이터와 같은 명령어들을 실행하기 위한 하나 또는 그 이상의 프로세서들, 메모리들, 및 다른 적절한 구성 요소들을 포함함으로써 본 명세서에 기재된 다양한 단계들을 수행할 수 있다.The 3D model generator 110, virtual image generator 120, error calculation unit 130, and image matching unit 140 each execute commands such as computer programs or data stored in a computer-readable medium. Various steps described herein may be performed by including one or more processors, memories, and other suitable components to perform the following.

예를 들면, 컴퓨터 프로그램들 또는 명령어들은 해당 구성의 내부 혹은 외부에 있는 컴퓨터에 의해 판독 가능한 매체에 저장될 수 있다.For example, computer programs or instructions may be stored on a medium readable by a computer internal or external to the device.

3차원 모델 생성부(110)는 가상 환경에서 시설물의 3차원 모델을 구현할 수 있다.The 3D model generator 110 can implement a 3D model of a facility in a virtual environment.

여기에서, 가상 환경은 사용자가 상기 시설물의 3차원 모델을 구현할 수 있는 가상의 공간을 의미할 수 있다. 예를 들어, 상기 가상 환경은 사용자 단말에 설치될 수 있는 특정 소프트웨어의 실행을 통해 임의로 생성될 수 있는 것으로서, 사용자 단말의 디스플레이 장치를 통해 시각적으로 표현되는 3차원 공간을 의미할 수 있다. 이에 따라, 3차원 모델 생성부(110)는 사용자가 미리 형성한 시설물의 3차원 모델에 대한 정보에 기초하여 상기 가상 환경 상에 시설물의 3차원 모델을 구현할 수 있다.Here, the virtual environment may mean a virtual space where a user can implement a 3D model of the facility. For example, the virtual environment can be arbitrarily created through the execution of specific software that can be installed on the user terminal, and may mean a three-dimensional space that is visually expressed through the display device of the user terminal. Accordingly, the 3D model generator 110 may implement a 3D model of the facility in the virtual environment based on information about the 3D model of the facility previously formed by the user.

가상 영상 생성부(120)는 상기 가상 환경에서의 가상 촬영을 통해 상기 3차원 모델에 대한 가상 영상을 생성할 수 있다.The virtual image generator 120 may generate a virtual image for the three-dimensional model through virtual photography in the virtual environment.

일 실시예에서, 가상 영상 생성부(120)는 촬영 장치(10)가 획득한 촬영 영상 각각에 대한 촬영 위치 및 촬영 자세 정보를 수집할 수 있다.In one embodiment, the virtual image generator 120 may collect shooting location and shooting posture information for each captured image acquired by the photographing device 10.

예를 들어, 가상 영상 생성부(120)는 촬영 장치(10)의 GNSS/IMU로부터 촬영 장치(10)의 촬영 시 위치 및 자세 정보를 직접 수신 받아 수집할 수 있으며, 다른 한편으로는, 촬영 장치(10)에 포함되는 저장 장치로부터 촬영 시의 위치 및 자세 정보를 전달받아 수집할 수 있다.For example, the virtual image generator 120 may directly receive and collect location and posture information when photographing the photographing device 10 from the GNSS/IMU of the photographing device 10, and on the other hand, the virtual image generator 120 may collect Location and posture information at the time of shooting can be received and collected from the storage device included in (10).

일 실시예에서, 가상 영상 생성부(120)는 상기 수집된 촬영 위치 및 촬영 자세 정보와 대응되는 상기 가상 환경에서의 촬영 위치 및 촬영 자세를 도출하고, 상기 도출된 촬영 위치 및 촬영 자세에 기초하여 상기 3차원 모델에 대한 가상 영상을 생성할 수 있다.In one embodiment, the virtual image generator 120 derives a shooting position and a shooting posture in the virtual environment corresponding to the collected shooting location and shooting posture information, and based on the derived shooting position and shooting posture A virtual image for the 3D model can be generated.

예를 들어, 가상 영상 생성부(120)는 촬영 장치(10)가 획득한 촬영 영상 각각에 대한 촬영 위치 및 촬영 자세 정보를 수집함으로써, 상기 획득한 촬영 영상 각각에 대한 상기 가상 환경에서의 촬영 위치 및 촬영 자세를 도출할 수 있으며, 상기 도출된 촬영 위치 및 촬영 자세에 기초하여 가상 환경 상에서 가상 촬영을 수행함으로써, 촬영 장치(10)가 촬영한 촬영 영상과 유사한 가상 영상을 생성할 수 있다.For example, the virtual image generator 120 collects shooting position and shooting posture information for each captured image acquired by the photographing device 10, thereby determining the shooting position in the virtual environment for each acquired captured image. And the shooting posture can be derived, and by performing virtual shooting in a virtual environment based on the derived shooting position and posture, a virtual image similar to the captured image captured by the photographing device 10 can be generated.

오차 산출부(130)는 상기 생성된 가상 영상 및 촬영 장치(10)가 실제 시설물을 촬영하여 획득한 촬영 영상 간의 오차를 산출할 수 있다. 여기에서, 상술한 바와 같이 가상 영상 생성부(120)가 촬영 장치(10)가 촬영한 촬영 영상과 유사한 가상 영상을 생성한다고 하더라도, GNSS/IMU 등을 통해 위치 및 자세를 결정하기 어려운 상황이 발생하는 경우를 포함하는 다양한 이유로 오차가 발생될 여지가 있으며, 이러한 오차를 보정하여 해소하기 위해서는 상기 가상 영상과 획득한 촬영 영상 간의 오차를 먼저 정확하게 산출할 필요가 있다.The error calculation unit 130 may calculate an error between the generated virtual image and the captured image obtained by photographing the actual facility by the photographing device 10. Here, even if the virtual image generator 120 generates a virtual image similar to the captured image captured by the photographing device 10 as described above, a situation occurs in which it is difficult to determine the location and posture through GNSS/IMU, etc. There is a possibility that errors may occur for a variety of reasons, including the case where errors occur, and in order to correct and resolve these errors, it is necessary to first accurately calculate the error between the virtual image and the acquired captured image.

일 실시예에서, 오차 산출부(130)는 상기 가상 영상 및 촬영 영상 중에서 촬영 위치 및 촬영 자세가 서로 동일한 것으로 판단되는 영상을 매칭시키고, 상기 매칭된 영상이 서로 투영되도록 중첩시킬 수 있다.In one embodiment, the error calculation unit 130 may match images that are determined to have the same shooting position and shooting posture among the virtual image and the captured image, and overlap the matched images so that they are projected onto each other.

이와 관련하여, 도 3 및 도 4는 본 발명의 일 실시예에 따른 3차원 모델에 대한 영상 정합 방법을 설명하기 위한 참고도이다.In this regard, Figures 3 and 4 are reference diagrams for explaining an image registration method for a 3D model according to an embodiment of the present invention.

여기에서, 도 3의 (a)는 본 발명의 일 실시예에 따른 촬영 장치(10)가 촬영한 시설물에 대한 촬영 영상 중 하나를 도시한 것이며, 도 3의 (b)는 촬영 장치(10)가 촬영한 영상(a)에 대한 촬영 위치 및 자세를 적용하여 생성된 가상 영상을 도시한 것이다. 또한, 도 4는 위 영상(a) 및 (b)를 서로 투영되도록 중첩한 예를 도시한 것이다.Here, Figure 3 (a) shows one of the captured images of the facility captured by the photographing device 10 according to an embodiment of the present invention, and Figure 3 (b) shows the photographing device 10. This shows a virtual image created by applying the shooting position and posture to the image (a) captured by . Additionally, Figure 4 shows an example in which the above images (a) and (b) are overlapped so that they are projected onto each other.

도 4에 도시된 바와 같이, 오차 산출부(130)는 상기 매칭된 영상 각각을 중첩시켜 비교하는 방법을 통해 상기 매칭된 영상 각각에 대한 오차를 산출할 수 있다.As shown in FIG. 4, the error calculation unit 130 can calculate the error for each of the matched images by overlapping and comparing each of the matched images.

일 실시예에서, 오차 산출부(130)는 상기 가상 영상 및 촬영 영상에 포함되는 시설물에 대한 외곽선을 추출할 수 있다. 이와 관련하여, 도 5는 본 발명의 3차원 모델에 대한 영상 정합 장치를 통해 추출한 외곽선의 예를 도시하고 있다. 여기에서, 오차 산출부(130)는 각 영상에 포함되는 시설물에 대한 외곽선을 추출함으로써, 상기 중첩된 영상 간의 오차를 산출하는데 이용할 수 있다. 예를 들어, 오차 산출부(130)는 상기 중첩된 영상에서 촬영 영상의 외곽선 및 가상 영상의 외곽선을 비교하여 오차를 산출하되, 각 영상의 외곽선에 대한 특징점을 도출하고, 각 영상에 대해서 도출된 특징점 간의 좌표 비교를 통해 오차를 산출할 수 있다.In one embodiment, the error calculation unit 130 may extract outlines of facilities included in the virtual image and the captured image. In this regard, Figure 5 shows an example of an outline extracted through an image matching device for a 3D model of the present invention. Here, the error calculation unit 130 can be used to calculate the error between the overlapping images by extracting the outline of the facility included in each image. For example, the error calculation unit 130 calculates the error by comparing the outline of the captured image and the outline of the virtual image in the overlapping images, derives feature points for the outline of each image, and calculates the error for each image. The error can be calculated through comparison of coordinates between feature points.

영상 정합부(140)는 상기 산출된 오차를 보정하여 상기 가상 영상 및 촬영 영상을 정합할 수 있다.The image matching unit 140 may correct the calculated error and match the virtual image and the captured image.

일 실시예에서, 영상 정합부(140)는 상기 획득한 촬영 영상의 좌표에 대한 상기 가상 환경에서의 변환 좌표를 산출할 수 있다.In one embodiment, the image registration unit 140 may calculate transformation coordinates in the virtual environment for the coordinates of the acquired captured image.

본 발명의 3차원 모델에 대한 영상 정합 방법은 상기 획득한 촬영 영상의 좌표에 대한 상기 가상 환경에서의 변환 좌표를 산출함으로써, 상기 획득한 촬영 영상을 상기 가상 영상과 같은 기준에서 비교할 수 있도록 한다. 여기에서, 하기 수학식 1은 상기 획득한 촬영 영상의 좌표를 가상 환경에서의 좌표로 변환하기 위한 것으로서, 이러한 변환 과정에는 다양한 변수가 이용될 수 있다.The image matching method for a 3D model of the present invention calculates transformation coordinates in the virtual environment for the coordinates of the acquired captured image, thereby allowing the acquired captured image to be compared with the virtual image on the same basis. Here, Equation 1 below is used to convert the coordinates of the acquired captured image into coordinates in a virtual environment, and various variables can be used in this conversion process.

[수학식 1][Equation 1]

(여기에서, 는 촬영 영상에 대한 변환 좌표, s는 축척, r은 y축 회전 각도, p는 x축 회전 각도, h는 z축 회전 각도, 는 x축 이동 거리, 는 y축 이동 거리, 는 각각 변환 이전의 촬영 영상 좌표임)(From here, is the transformation coordinate for the captured image, s is the scale, r is the y-axis rotation angle, p is the x-axis rotation angle, h is the z-axis rotation angle, is the x-axis movement distance, is the y-axis movement distance, and are the coordinates of the captured image before conversion, respectively)

일 실시예에서, 영상 정합부(140)는 상기 추출된 외곽선을 이용하는 투영 변환법에 기초하여 상기 가상 영상 및 촬영 영상을 정합할 수 있다.In one embodiment, the image matching unit 140 may match the virtual image and the captured image based on a projection transformation method using the extracted outline.

일 실시예에서, 영상 정합부(140)는 상기 중첩된 영상 별로 상기 투영 변환법을 적용하여 상기 가상 영상 및 촬영 영상을 정합할 수 있다.In one embodiment, the image registration unit 140 may apply the projection transformation method to each of the overlapping images to match the virtual image and the captured image.

본 발명의 3차원 모델에 대한 영상 정합 방법은 상기 추출된 외곽선을 이용하는 투영 변환법에 기초하여 영상 간에 발생한 오차를 최소화하는 보정을 수행할 수 있다. 구체적으로 예를 들어, 영상 정합부(140)는 상기 추출된 외각선에 대한 임의의 특징점을 도출하고, 해당 특징점을 포함하는 외곽선의 기울기로부터 산출되는 가중치 행렬을 상기 특징점에 적용함으로써, 특징점 간의 위치 오차를 최소화할 수 있다.The image registration method for a 3D model of the present invention can perform correction to minimize errors occurring between images based on a projection transformation method using the extracted outline. Specifically, for example, the image registration unit 140 derives random feature points for the extracted outline and applies a weight matrix calculated from the slope of the outline including the feature point to the feature points, thereby determining the location between feature points. Errors can be minimized.

도 6은 본 발명의 일 실시예에 따른 3차원 모델에 대한 영상 정합 방법을 설명하기 위한 흐름도이다.Figure 6 is a flowchart illustrating an image registration method for a 3D model according to an embodiment of the present invention.

도 6을 참조하면, 사용자는 촬영 장치를 통해 관리 대상이 되는 시설물에 대한 촬영 영상을 획득해 놓을 수 있으며, 특정 소프트웨어 등을 통해 상기 관리 대상이 되는 시설물의 3차원 모델을 생성하여 가상 환경 상에 구현할 수 있다(S601).Referring to FIG. 6, the user can acquire a captured image of the facility subject to management through a recording device, and create a three-dimensional model of the facility subject to management through specific software, etc., and place it in a virtual environment. It can be implemented (S601).

다음으로, 가상 영상 생성부는 획득한 촬영 영상의 위치 및 자세 정보과 대응되도록 가상 환경 상에서 구현된 시설물을 촬영하여 가상 영상을 생성할 수 있다(S602).Next, the virtual image generator may generate a virtual image by photographing a facility implemented in the virtual environment to correspond to the location and posture information of the acquired captured image (S602).

다음으로, 오차 산출부는 생성된 가상 영상과 미리 획득한 촬영 영상 간의 오차를 산출할 수 있다(S603).Next, the error calculation unit may calculate the error between the generated virtual image and the previously acquired captured image (S603).

다음으로, 영상 정합부를 통해 상기 산출된 오차를 보정하여 상기 가상 영상 및 촬영 영상을 정합할 수 있으며, 이를 통해 사용자는 별도의 후보정 과정 없이 3차원 모델을 이용하여 실제 시설물을 점검 및 관리할 수 있다(S604).Next, the virtual image and the captured image can be matched by correcting the calculated error through the image matching unit. Through this, the user can inspect and manage the actual facility using the 3D model without a separate post-processing process. (S604).

전술한 3차원 모델에 대한 영상 정합 방법은 도면에 제시된 순서도를 참조로 하여 설명되었다. 간단히 설명하기 위하여 상기 방법은 일련의 블록들로 도시되고 설명되었으나, 본 발명은 상기 블록들의 순서에 한정되지 않고, 몇몇 블록들은 다른 블록들과 본 명세서에서 도시되고 기술된 것과 상이한 순서로 또는 동시에 일어날 수도 있으며, 동일한 또는 유사한 결과를 달성하는 다양한 다른 분기, 흐름 경로, 및 블록의 순서들이 구현될 수 있다. 또한, 본 명세서에서 기술되는 방법의 구현을 위하여 도시된 모든 블록들이 요구되지 않을 수도 있다.The image registration method for the above-described 3D model was explained with reference to the flow chart presented in the drawing. For simplicity of illustration, the method is shown and described as a series of blocks; however, the invention is not limited to the order of the blocks, and some blocks may occur simultaneously or in a different order than shown and described herein with other blocks. Various other branches, flow paths, and sequences of blocks may be implemented that achieve the same or similar results. Additionally, not all blocks shown may be required for implementation of the methods described herein.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the present invention has been described above with reference to preferred embodiments, those skilled in the art may make various modifications and changes to the present invention without departing from the spirit and scope of the present invention as set forth in the claims below. You will understand that you can do it.

10: 촬영 장치
100: 3차원 모델에 대한 영상 정합 장치
110: 3차원 모델 생성부
120: 가상 영상 생성부
130: 오차 산출부
140: 영상 정합부
10: Filming device
100: Image registration device for 3D model
110: 3D model creation unit
120: Virtual image creation unit
130: Error calculation unit
140: Image matching unit

Claims (8)

3차원 모델에 대한 영상 정합 장치에서 수행되는 3차원 모델에 대한 영상 정합 방법에 있어서,
가상 환경에서 시설물의 3차원 모델을 구현하는 단계;
상기 가상 환경에서의 가상 촬영을 통해 상기 3차원 모델에 대한 가상 영상을 생성하는 단계;
촬영 장치의 위치 및 자세 정보를 획득하기 위한 GNSS(Global Navigation Satellite System; 글로벌 위성항법 시스템)/IMU(Inertial Measurement Unit; 관성 측정 장치), 카메라 및 상기 카메라를 고정하기 위한 짐발을 포함하는 무인비행체 형태의 촬영 장치가 실제 시설물을 촬영하는 단계;
상기 생성된 가상 영상 및 촬영 장치가 실제 시설물을 촬영하여 획득한 촬영 영상 간의 오차를 산출하는 단계; 및
상기 산출된 오차를 보정하여 상기 가상 영상 및 촬영 영상을 정합하는 단계;를 포함하되,
상기 3차원 모델에 대한 가상 영상을 생성하는 단계;는,
상기 촬영 장치의 GNSS/IMU로부터 상기 촬영 장치의 촬영 시 위치 및 자세 정보를 직접 수신 받아 상기 촬영 장치가 획득한 촬영 영상 각각에 대한 촬영 위치 및 촬영 자세 정보를 수집하는 단계; 및
상기 수집된 촬영 위치 및 촬영 자세 정보와 대응되는 상기 가상 환경에서의 촬영 위치 및 촬영 자세를 도출하고, 상기 도출된 촬영 위치 및 촬영 자세에 기초하여 가상 환경 상에서 가상 촬영을 수행함으로써, 상기 3차원 모델에 대한 가상 영상을 생성하는 단계;를 포함하고,
상기 오차를 산출하는 단계는,
상기 가상 영상 및 촬영 영상 중에서 촬영 위치 및 촬영 자세가 서로 동일한 것으로 판단되는 영상을 매칭시키는 단계; 및
상기 매칭된 영상이 서로 투영되도록 중첩시키는 단계;를 포함하는 것을 특징으로 하는,
3차원 모델에 대한 영상 정합 방법.
In an image registration method for a 3D model performed in an image registration device for a 3D model,
Implementing a three-dimensional model of a facility in a virtual environment;
generating a virtual image for the 3D model through virtual photography in the virtual environment;
A type of unmanned aerial vehicle that includes a GNSS (Global Navigation Satellite System)/IMU (Inertial Measurement Unit) to acquire location and attitude information of the imaging device, a camera, and a gimbal to fix the camera. A step in which a photographing device photographs an actual facility;
Calculating an error between the generated virtual image and a captured image obtained by photographing an actual facility by a photographing device; and
Comprising: correcting the calculated error to match the virtual image and the captured image,
Generating a virtual image for the three-dimensional model;
Directly receiving location and posture information of the photographing device from the GNSS/IMU of the photographing device and collecting photographing position and posture information for each captured image acquired by the photographing device; and
By deriving a shooting position and shooting posture in the virtual environment corresponding to the collected shooting location and shooting posture information, and performing virtual shooting in the virtual environment based on the derived shooting position and shooting posture, the three-dimensional model Including; generating a virtual image for,
The step of calculating the error is,
Matching images whose shooting positions and shooting postures are determined to be the same among the virtual images and the captured images; and
Characterized in that it includes a step of overlapping the matched images so that they are projected onto each other,
Image registration method for 3D models.
삭제delete 제1항에 있어서,
상기 오차를 산출하는 단계는,
상기 가상 영상 및 촬영 영상에 포함되는 시설물에 대한 외곽선을 추출하는 단계;를 포함하는 것을 특징으로 하는,
3차원 모델에 대한 영상 정합 방법.
According to paragraph 1,
The step of calculating the error is,
Characterized in that it includes; extracting the outline of the facility included in the virtual image and the captured image,
Image registration method for 3D models.
제3항에 있어서,
상기 가상 영상 및 촬영 영상을 정합하는 단계;는,
상기 추출된 외곽선을 이용하는 투영 변환법에 기초하여 상기 가상 영상 및 촬영 영상을 정합하는 단계;를 포함하는 것을 특징으로 하는,
3차원 모델에 대한 영상 정합 방법.
According to paragraph 3,
Matching the virtual image and the captured image;
A step of matching the virtual image and the captured image based on a projection transformation method using the extracted outline,
Image registration method for 3D models.
삭제delete 제4항에 있어서,
상기 가상 영상 및 촬영 영상을 정합하는 단계;는,
상기 중첩된 영상 별로 상기 투영 변환법을 적용하여 상기 가상 영상 및 촬영 영상을 정합하는 단계;를 포함하는 것을 특징으로 하는,
3차원 모델에 대한 영상 정합 방법.
According to paragraph 4,
Matching the virtual image and the captured image;
Characterized in that it comprises a step of matching the virtual image and the captured image by applying the projection transformation method to each of the overlapped images.
Image registration method for 3D models.
제4항에 있어서,
투영 변환법에 기초하여 상기 가상 영상 및 촬영 영상을 정합하는 단계;는,
상기 획득한 촬영 영상의 좌표에 대한 상기 가상 환경에서의 변환 좌표를 산출하는 단계;를 포함하는 것을 특징으로 하는,
3차원 모델에 대한 영상 정합 방법.
According to paragraph 4,
Matching the virtual image and the captured image based on a projection transformation method;
Characterized in that it includes; calculating transformation coordinates in the virtual environment for the coordinates of the acquired captured image,
Image registration method for 3D models.
3차원 모델에 대한 영상 정합 방법을 수행하는 3차원 모델에 대한 영상 정합 장치에 있어서,
가상 환경에서 시설물의 3차원 모델을 구현하는 3차원 모델 생성부;
상기 가상 환경에서의 가상 촬영을 통해 상기 3차원 모델에 대한 가상 영상을 생성하는 가상 영상 생성부;
상기 생성된 가상 영상 및 촬영 장치의 위치 및 자세 정보를 획득하기 위한 GNSS(Global Navigation Satellite System; 글로벌 위성항법 시스템)/IMU(Inertial Measurement Unit; 관성 측정 장치), 카메라 및 상기 카메라를 고정하기 위한 짐발을 포함하는 무인비행체 형태의 촬영 장치가 실제 시설물을 촬영하여 획득한 촬영 영상 간의 오차를 산출하는 오차 산출부; 및
상기 산출된 오차를 보정하여 상기 가상 영상 및 촬영 영상을 정합하는 영상 정합부;를 포함하되,
상기 가상 영상 생성부는,
상기 촬영 장치의 GNSS/IMU로부터 상기 촬영 장치의 촬영 시 위치 및 자세 정보를 직접 수신 받아 상기 촬영 장치가 획득한 촬영 영상 각각에 대한 촬영 위치 및 촬영 자세 정보를 수집하고, 상기 수집된 촬영 위치 및 촬영 자세 정보와 대응되는 상기 가상 환경에서의 촬영 위치 및 촬영 자세를 도출하고, 상기 도출된 촬영 위치 및 촬영 자세에 기초하여 가상 환경 상에서 가상 촬영을 수행함으로써, 상기 3차원 모델에 대한 가상 영상을 생성하며,
상기 오차 산출부는,
상기 가상 영상 및 촬영 영상 중에서 촬영 위치 및 촬영 자세가 서로 동일한 것으로 판단되는 영상을 매칭시키고, 상기 매칭된 영상이 서로 투영되도록 중첩시키는 것을 특징으로 하는,
3차원 모델에 대한 영상 정합 장치.
In an image registration device for a 3D model that performs an image registration method for a 3D model,
A 3D model creation unit that implements a 3D model of the facility in a virtual environment;
a virtual image generator that generates a virtual image of the three-dimensional model through virtual photography in the virtual environment;
GNSS (Global Navigation Satellite System)/IMU (Inertial Measurement Unit) for acquiring location and attitude information of the generated virtual image and imaging device, a camera, and a gimbal for fixing the camera. An error calculation unit that calculates an error between captured images obtained by photographing an actual facility by a photographing device in the form of an unmanned aerial vehicle, including; and
An image matching unit that corrects the calculated error and matches the virtual image and the captured image,
The virtual image generator,
Directly receives location and posture information when shooting of the photographing device from the GNSS/IMU of the photographing device, collects shooting location and posture information for each captured image acquired by the photographing device, and collects the collected shooting location and shooting posture Generating a virtual image for the three-dimensional model by deriving a shooting position and shooting posture in the virtual environment corresponding to posture information and performing virtual shooting in the virtual environment based on the derived shooting position and shooting posture; ,
The error calculation unit,
Characterized in that among the virtual images and captured images, images whose shooting positions and shooting postures are determined to be identical are matched, and the matched images are overlapped so that they are projected onto each other.
Image registration device for 3D models.
KR1020200162217A 2020-11-27 2020-11-27 Device and method of image registration for 3d models Active KR102576449B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200162217A KR102576449B1 (en) 2020-11-27 2020-11-27 Device and method of image registration for 3d models

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200162217A KR102576449B1 (en) 2020-11-27 2020-11-27 Device and method of image registration for 3d models

Publications (2)

Publication Number Publication Date
KR20220074103A KR20220074103A (en) 2022-06-03
KR102576449B1 true KR102576449B1 (en) 2023-09-11

Family

ID=81983700

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200162217A Active KR102576449B1 (en) 2020-11-27 2020-11-27 Device and method of image registration for 3d models

Country Status (1)

Country Link
KR (1) KR102576449B1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116758124B (en) * 2023-06-16 2024-09-24 北京代码空间科技有限公司 3D model correction method and terminal equipment
KR20250070358A (en) * 2023-11-13 2025-05-20 주식회사 피유엠피 Method for determining location accuracy of 3D spatial data
KR102722709B1 (en) 2023-12-14 2024-10-29 주식회사 리빌더에이아이 Method, server and computer program for improving 3d model registration texture based on neural rendering and poisson blending
KR20250091815A (en) 2023-12-14 2025-06-23 주식회사 리빌더에이아이 Method, server and computer program for improving 3d model registration texture

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100651508B1 (en) * 2004-01-30 2006-11-29 삼성전자주식회사 Local information provision method using augmented reality and local information service system for it
KR100964951B1 (en) * 2008-10-29 2010-06-21 에이알비전 (주) Augmented Reality Device and Virtual Image Synthesis Method for Simulation
KR101266418B1 (en) * 2010-12-21 2013-05-22 박경호 A Position-Tracking System using Augmented Reality and Location Based Service
KR20120071281A (en) * 2010-12-22 2012-07-02 한국전자통신연구원 Apparatus and method for fusion of real and virtual environment on mobile
KR102109814B1 (en) * 2018-10-31 2020-05-13 에스케이텔레콤 주식회사 Apparatus and method for registering images
KR102038127B1 (en) 2018-12-07 2019-10-29 주식회사 한국건설관리공사 Facility management apparatus and method using unmanned vehicle

Also Published As

Publication number Publication date
KR20220074103A (en) 2022-06-03

Similar Documents

Publication Publication Date Title
KR102576449B1 (en) Device and method of image registration for 3d models
US10825198B2 (en) 3 dimensional coordinates calculating apparatus, 3 dimensional coordinates calculating method, 3 dimensional distance measuring apparatus and 3 dimensional distance measuring method using images
JP5992184B2 (en) Image data processing apparatus, image data processing method, and image data processing program
EP3208774B1 (en) Methods for localization using geotagged photographs and three-dimensional visualization
CN108171733B (en) Method of registering two or more three-dimensional 3D point clouds
KR102664900B1 (en) Apparatus for measuring ground control point using unmanned aerial vehicle and method thereof
CN110969665B (en) External parameter calibration method, device, system and robot
US20060227211A1 (en) Method and apparatus for measuring position and orientation
JP6877293B2 (en) Location information recording method and equipment
US20040176925A1 (en) Position/orientation measurement method, and position/orientation measurement apparatus
US11221216B2 (en) Placement table for unmanned aerial vehicle, surveying method, surveying device, surveying system and program
JP5134784B2 (en) Aerial photogrammetry
JP2016057108A (en) Arithmetic apparatus, arithmetic system, arithmetic method and program
JP6433200B2 (en) Arithmetic apparatus, arithmetic method, and program
JP6516558B2 (en) Position information processing method
US20220026208A1 (en) Surveying system, surveying method, and surveying program
JP2009501996A (en) Image geometric correction method and apparatus
US7711507B2 (en) Method and device for determining the relative position of a first object with respect to a second object, corresponding computer program and a computer-readable storage medium
CN115423863B (en) Camera pose estimation method and device and computer readable storage medium
KR102226256B1 (en) Electro-optical tracking apparatus capable of automatic viewing angle correction and method thereof
CN113052974A (en) Method and device for reconstructing three-dimensional surface of object
JP3808833B2 (en) Aerial photogrammetry
CN110044266B (en) Photogrammetry system based on speckle projection
KR20150119770A (en) Method for measuring 3-dimensional cordinates with a camera and apparatus thereof
Sokolov et al. Development of software and hardware of entry-level vision systems for navigation tasks and measuring

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20201127

PA0201 Request for examination
PG1501 Laying open of application
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20221024

Patent event code: PE09021S01D

AMND Amendment
E601 Decision to refuse application
PE0601 Decision on rejection of patent

Patent event date: 20230515

Comment text: Decision to Refuse Application

Patent event code: PE06012S01D

Patent event date: 20221024

Comment text: Notification of reason for refusal

Patent event code: PE06011S01I

X091 Application refused [patent]
AMND Amendment
PX0901 Re-examination

Patent event code: PX09011S01I

Patent event date: 20230515

Comment text: Decision to Refuse Application

Patent event code: PX09012R01I

Patent event date: 20221226

Comment text: Amendment to Specification, etc.

PX0701 Decision of registration after re-examination

Patent event date: 20230901

Comment text: Decision to Grant Registration

Patent event code: PX07013S01D

Patent event date: 20230816

Comment text: Amendment to Specification, etc.

Patent event code: PX07012R01I

Patent event date: 20230515

Comment text: Decision to Refuse Application

Patent event code: PX07011S01I

Patent event date: 20221226

Comment text: Amendment to Specification, etc.

Patent event code: PX07012R01I

X701 Decision to grant (after re-examination)
GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20230905

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20230906

End annual number: 3

Start annual number: 1

PG1601 Publication of registration