[go: up one dir, main page]

KR100797391B1 - Camera position and attitude information correction method and device - Google Patents

Camera position and attitude information correction method and device Download PDF

Info

Publication number
KR100797391B1
KR100797391B1 KR1020050037882A KR20050037882A KR100797391B1 KR 100797391 B1 KR100797391 B1 KR 100797391B1 KR 1020050037882 A KR1020050037882 A KR 1020050037882A KR 20050037882 A KR20050037882 A KR 20050037882A KR 100797391 B1 KR100797391 B1 KR 100797391B1
Authority
KR
South Korea
Prior art keywords
image
camera
scanner
information
attitude
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR1020050037882A
Other languages
Korean (ko)
Other versions
KR20060071077A (en
Inventor
조성익
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to JP2005312922A priority Critical patent/JP5127128B2/en
Priority to US11/285,529 priority patent/US7908106B2/en
Publication of KR20060071077A publication Critical patent/KR20060071077A/en
Application granted granted Critical
Publication of KR100797391B1 publication Critical patent/KR100797391B1/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/18Stabilised platforms, e.g. by gyroscope
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/40Correcting position, velocity or attitude
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/53Determining attitude
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • G01S5/163Determination of attitude

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Navigation (AREA)

Abstract

본 발명은 위성항법장치와 관성항법장치로부터 위치와 자세 정보를 얻도록 만들어진 카메라의 운용에 있어, 카메라에 장착된 삼선 스캐너를 통하여 얻어지는 영상정보를 분석하여 카메라의 위치와 자세 정보를 정밀하게 보정할 수 있도록 하는 방법 및 장치에 관한 것이다.According to the present invention, in the operation of a camera made to obtain position and attitude information from a satellite navigation device and an inertial navigation device, it is possible to precisely correct the position and attitude information of a camera by analyzing image information obtained through a three-wire scanner attached to the camera. And a method and apparatus for enabling the same.

본 발명은, 카메라의 위치 및 자세 정보 보정 방법에 있어서, 위성항법장치를 이용하여 상기 카메라의 위치를 계산하는 단계; 관성항법장치를 이용하여 상기 카메라의 자세를 계산하는 단계; 상기 카메라에 장착된 삼선 스캐너를 통해 입력되는 영상을 분석하여 상기 카메라의 위치 및 자세 보정 정보를 생성하는 단계; 상기 생성된 위치 및 자세 보정 정보를 각각 상기 위성항법장치와 상기 관성항법장치에 피드백하는 단계를 포함하는 것을 특징으로 한다. 상기 삼선 스캐너를 통해 입력되는 영상은 전방 스캐너 관측 영상, 연직 스캐너 관측 영상 및 후방 스캐너 관측 영상으로 구성된다. The present invention provides a method for calibrating position and attitude information of a camera, comprising: calculating a position of the camera using a satellite navigation apparatus; Calculating the pose of the camera using an inertial navigation device; Generating position and posture correction information of the camera by analyzing an image input through a three-wire scanner mounted to the camera; And feeding back the generated position and attitude correction information to the satellite navigation device and the inertial navigation device, respectively. The image input through the three-wire scanner is composed of a front scanner observation image, a vertical scanner observation image and a rear scanner observation image.

본 발명은 인공위성이나 항공기 등의 수송 수단에 탑재된 카메라를 통하여 관측된 영상에 대해 지상기준점(Ground Control Point)을 사용하지 않고도 카메라의 외부표정요소(Exterior Orientation Parameters)를 정밀하게 결정할 수 있도록 한다.The present invention enables to accurately determine the exterior orientation parameters of a camera without using a ground control point for an image observed through a camera mounted on a vehicle such as a satellite or an aircraft.

또한, 본 발명은 보다 짧은 시간 간격에 대해서 카메라의 위치와 자세 정보를 더욱 정밀하게 결정할 수 있도록 해주는 효과가 있다. In addition, the present invention has an effect that allows to determine the position and attitude information of the camera more precisely for a shorter time interval.

카메라, 삼선 스캐너, 위치, 자세, 외부표정요소  Camera, three-wire scanner, position, posture, external expression

Description

카메라의 위치 및 자세 정보 보정 방법 및 장치{Method and Apparatus for Correcting Position And Attitude Information of Camera}Method and Apparatus for Correcting Position and Attitude Information of Camera {Method and Apparatus for Correcting Position And Attitude Information of Camera}

도1은 본 발명에 따른 영상 기반 위치 및 자세 보정 장치가 적용되는 시스템 구성도;1 is a system configuration to which the image-based position and attitude correction apparatus according to the present invention is applied;

도2는 삼선 스캐너를 통해 획득된 영상간의 관계를 도시한 도면; 2 is a diagram showing a relationship between images acquired through a three-wire scanner;

도3은 본 발명에 따라 위치 및 자세 보정 정보를 생성하는 과정을 도시한 흐름도; 및3 is a flowchart illustrating a process of generating position and attitude correction information according to the present invention; And

도 4는 본 발명에 따른 칼만 필터 처리부의 세부 블럭구성도이다.Figure 4 is a detailed block diagram of a Kalman filter processing unit according to the present invention.

본 발명은 카메라의 위치 및 자세 정보를 보정하는 방법 및 장치에 관한 것으로, 보다 상세하게는, 위성항법장치(Global Navigation Satellite System; GNSS)와 관성항법장치(Inertial Navigation System; INS)로부터 위치와 자세 정보를 얻도록 만들어진 카메라의 운용에 있어, 카메라에 장착된 삼선 스캐너(Three Line Scanner)를 통하여 얻어지는 영상정보를 분석하여 카메라의 위치와 자세 정보를 정 밀하게 보정할 수 있도록 하는 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for calibrating position and attitude information of a camera. More specifically, the present invention relates to a position and attitude from a global navigation satellite system (GNSS) and an inertial navigation system (INS). A method and apparatus for precisely correcting the position and attitude of a camera by analyzing image information obtained through a three-line scanner attached to the camera in operating a camera made to obtain information. will be.

인공위성이나 항공기와 같은 관측장치나 이에 탑재된 카메라의 위치와 자세를 결정하는 방법은 크게 3가지가 있다. 하나는 위성항법장치와 관성항법장치로부터 들어오는 정보를 결합하여 관측 장치의 위치와 자세 정보를 결정하는 방법이다. 다른 하나는 관성항법장치를 사용하지 않는 상황에서 위성항법장치의 일종인 GPS(Global Positioning System)를 이용하여 복수 개의 GPS 위성으로부터 오는 신호를 분석함으로써 관측 장치의 위치와 자세를 결정하는 방법이다. 또 다른 하나는 위성항법장치와 관성항법장치를 장착한 스테레오 카메라를 통해 입력되는 영상을 분석하여 대상물의 3차원 정보를 생성하는 방법이다.There are three ways to determine the position and attitude of observation devices such as satellites and aircraft or cameras mounted on them. One method is to determine the position and attitude information of the observation device by combining the information from satellite and inertial navigation devices. The other method is to determine the position and attitude of the observing device by analyzing signals from a plurality of GPS satellites using a GPS (Global Positioning System), which is a type of satellite navigation device, in the absence of an inertial navigation device. Another method is to generate 3D information of an object by analyzing an image input through a stereo camera equipped with a satellite navigation device and an inertial navigation device.

위성항법장치와 관성항법장치를 결합하여 차량의 위치와 자세를 결정하고 그 결과에 대한 맵 매칭을 통하여 차량의 현재 위치를 나타내기 위한 기술이 대한민국 특허출원 제1997-41019호,"하이브리드 네비게이션 시스템"에 개시되어 있다.A technique for combining a satellite navigation device and an inertial navigation device to determine the position and attitude of a vehicle and indicating the current position of the vehicle through map matching on the result is disclosed in Korean Patent Application No. 1997-41019, "Hybrid Navigation System". Is disclosed.

GPS 센서, 관성항법장치 센서와 DR(Dead-Reckoning) 센서로부터 입력되는 정보를 결합하여 이동 통신에서 위치 및 자세를 결정하기 위한 기술이 대한민국 특허출원 제2000-85817호, "GPS 및 INS를 이용한 이동 통신 시스템에서의 위치 및 자세 결정 시스템"에 개시되어 있다.Technology for determining position and attitude in mobile communication by combining information input from GPS sensor, inertial navigation system sensor and dead-reckoning (DR) sensor is disclosed in Korean Patent Application No. 2000-85817, "Moving using GPS and INS. Position and attitude determination system in a communication system.

위성항법장치와 관성항법장치가 장착된 차량에 설치된 디지털 비디오 카메라를 통하여 획득되는 스테레오 영상을 이용하여 대상물에 대한 3차원 위치 및 속성 정보를 획득하는 기술이 대한민국 특허출원 제2001-41187호, "3차원 위치 측정 장치 및 그 방법"에 개시되어 있다.A technique for acquiring three-dimensional position and attribute information of an object using a stereo image acquired through a digital video camera installed in a vehicle equipped with a satellite navigation device and an inertial navigation device is disclosed in Korean Patent Application No. 2001-41187, "3 Dimensional position measuring apparatus and method thereof.

위성항법장치와 관성항법장치 그리고 CCD 카메라를 이용하여 획득된 영상에 대하여 내부 및 외부 표정요소를 적용하여 정보를 생성하는 기술이 대한민국 특허출원 제2002-62417호, "공간영상의 효율적인 저장 및 검색을 지원하기 위한 공간영상정보시스템 및 그 검색방법"에 개시되어 있다.Korean patent application No. 2002-62417, "Efficient Storage and Retrieval of Spatial Images," describes a technique for generating information by applying internal and external facial expressions to images acquired using a satellite navigation device, an inertial navigation device and a CCD camera. Spatial image information system and its retrieval method for support ".

복수 개의 GPS 위성으로부터 오는 신호와 스타센서(Star Sensor 또는 Star Tracker)를 통해 얻어지는 정보를 분석하여 인공위성의 위치와 자세를 예측하고 점검하기 위한 기술이 미국 공개특허 제2002/0004691호, "Attitude Determination and Alignment Using Electro-optical Sensors and Global Navugation Satellites"에 개시되어 있다.A technique for predicting and checking the position and attitude of satellites by analyzing signals from a plurality of GPS satellites and information obtained through a star sensor (Star Sensor or Star Tracker) is disclosed in US Patent Publication No. 2002/0004691, "Attitude Determination and Alignment Using Electro-optical Sensors and Global Navugation Satellites.

복수 개의 GPS 위성으로부터 오는 신호를 분석하여 차량의 위치와 자세를 결정하기 위한 기술이 미국 등록특허 제6580389호, "Attitude Determination Using A Global Positioning System"에 개시되어 있다.A technique for determining the position and attitude of a vehicle by analyzing signals from a plurality of GPS satellites is disclosed in US Pat. No. 6580389, "Attitude Determination Using A Global Positioning System."

그러나, 종래의 기술은 위성항법장치로부터 얻어지는 정보만을 이용하거나 위성항법장치와 관성항법장치를 동시에 이용하여 관측 장치의 위치와 자세를 결정할 수 있는 방법으로서, 위치 정보의 정밀도는 위성항법장치로부터 얻어지는 정보의 정밀도에 따라 결정되고 자세 정보의 정밀도는 관성항법장치로부터 얻어지는 정보의 정밀도에 따라 결정되는 특성을 가지고 있다.However, the conventional technique is a method that can determine the position and attitude of the observation apparatus using only the information obtained from the satellite navigation system or simultaneously using the satellite navigation system and the inertial navigation system, and the precision of the position information is the information obtained from the satellite navigation system. The attitude information is determined according to the accuracy of and the accuracy of the attitude information is determined by the accuracy of the information obtained from the inertial navigation apparatus.

따라서, 위치정보를 얻는 과정에서는 위성항법장치에 의해 제한되는 정해진 시간 간격보다 짧은 시간 간격에 대해서는 위치정보를 얻을 수 없다는 문제점이 있다. 예를 들어, GPS의 경우 GPS 신호가 통상 1초 간격으로 제공되므로 이보다 짧은 시간 간격에 대해서 정밀한 위치정보를 계산할 수 없다. Therefore, in the process of obtaining the position information, there is a problem in that the position information cannot be obtained for a time interval shorter than a predetermined time interval limited by the satellite navigation apparatus. For example, in the case of GPS, since GPS signals are typically provided at one second intervals, precise location information cannot be calculated for a shorter time interval.

또한, 자세정보를 얻는 과정에서도 관성항법장치에 의해 제한되는 시간 간격보다 짧은 시간 간격에 대해서는 자세정보를 얻을 수 없다는 문제점이 있다. In addition, even in the process of obtaining attitude information, there is a problem in that attitude information cannot be obtained for a time interval shorter than the time interval limited by the inertial navigation apparatus.

또한, 종래의 기술은 위치 및 자세의 정밀도가 관련 장치의 성능에 따라 좌우될 뿐, 위성항법장치와 관성항법장치에 연결된 관측 장치인 카메라로부터 얻어지는 영상정보로부터 부가 정보를 활용하지 못하는 문제점이 있다.In addition, the prior art has a problem that the accuracy of the position and attitude depends only on the performance of the associated device, and does not utilize additional information from image information obtained from a camera, which is an observation device connected to the satellite navigation device and the inertial navigation device.

본 발명은 전술한 문제점을 해결하기 위한 것으로, 위성항법장치와 관성항법장치가 장착된 카메라의 삼선 스캐너를 통하여 얻어지는 스캔라인 영상정보를 이용하여 카메라의 위치와 자세 정보를 정밀하게 결정할 수 있도록 하는 방법 및 장치를 제공하는 데 그 목적이 있다.The present invention is to solve the above problems, a method for accurately determining the position and attitude information of the camera using the scan line image information obtained through the three-line scanner of the camera equipped with the satellite navigation device and the inertial navigation device And to provide a device.

본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.Other objects and advantages of the present invention can be understood by the following description, and will be more clearly understood by the embodiments of the present invention. Also, it will be readily appreciated that the objects and advantages of the present invention may be realized by the means and combinations thereof indicated in the claims.

상기 목적을 달성하기 위한 본 발명은, 카메라의 위치 및 자세 정보 보정 방법에 있어서, 위성항법장치를 이용하여 상기 카메라의 위치를 계산하는 단계; 관성항법장치를 이용하여 상기 카메라의 자세를 계산하는 단계; 상기 카메라에 장착된 삼선 스캐너를 통해 입력되는 영상을 분석하여 상기 카메라의 위치 및 자세 보정 정보를 생성하는 단계; 상기 생성된 위치 및 자세 보정 정보를 각각 상기 위성항법장치와 상기 관성항법장치에 피드백하는 단계를 포함하는 것을 특징으로 한다. 상기 삼선 스캐너를 통해 입력되는 영상은 전방 스캐너 관측 영상, 연직 스캐너 관측 영상 및 후방 스캐너 관측 영상으로 구성된다. According to an aspect of the present invention, there is provided a method of correcting a position and attitude information of a camera, the method comprising: calculating a position of the camera using a satellite navigation apparatus; Calculating the pose of the camera using an inertial navigation device; Generating position and posture correction information of the camera by analyzing an image input through a three-wire scanner mounted to the camera; And feeding back the generated position and attitude correction information to the satellite navigation device and the inertial navigation device, respectively. The image input through the three-wire scanner is composed of a front scanner observation image, a vertical scanner observation image and a rear scanner observation image.

또한, 본 발명은 위성항법장치와 관성항법장치가 연결된 카메라의 위치 및 자세 정보 보정 장치에 있어서, 상기 카메라에 구비된 삼선 스캐너를 통해 입력되는 영상을 분석하여 상기 카메라의 위치 및 자세 보정 정보를 생성하고, 상기 생성된 위치 및 자세 보정 정보를 각각 상기 위성항법장치와 상기 관성항법장치에 피드백하여 상기 카메라의 위치 및 자세 정보의 정밀도를 향상시키는 것을 특징으로 한다.In addition, the present invention in the position and attitude information correction device of the camera connected to the satellite navigation device and the inertial navigation device, by analyzing the image input through the three-wire scanner provided in the camera to generate the position and attitude correction information of the camera The position and attitude correction information is fed back to the satellite navigation device and the inertial navigation device, respectively, to improve the accuracy of the position and attitude information of the camera.

상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명 이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명하기로 한다.The above objects, features and advantages will become more apparent from the following detailed description taken in conjunction with the accompanying drawings, whereby those skilled in the art may easily implement the technical idea of the present invention. There will be. In addition, in describing the present invention, when it is determined that the detailed description of the known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 영상 기반 위치 및 자세 보정 장치가 적용되는 시스템 구성도이다.1 is a system configuration to which the image-based position and posture correction device according to the present invention is applied.

도 1을 참조하면, 삼선 스캐너를 구비한 카메라(100)는 인공위성이나 항공기와 같은 관측장치에 탑재된다. 따라서, 카메라(100)의 위치 및 자세 정보는 관측장치의 위치 및 자세 정보에 직결된다. 도 1을 참조하면, 삼선 스캐너는 관측 장치의 진행 방향의 직각 방향을 향하는 연직 스캐너(120), 상기 관측장치의 진행 방향과 상기 연직 스캐너(120)가 향하는 방향 사이의 임의 방향을 향하는 전방 스캐너(110), 및 상기 관측장치의 진행 방향과 반대되는 방향과 상기 연직 스캐너(120)가 향하는 방향 사이의 임의 방향을 향하는 후방 스캐너(130)로 이루어진다. 따라서, 연직 스캐너(120)와 전방 스캐너(110) 간의 각도와, 연직 스캐너(120)와 후방 스캐너(130)간의 각도는 90도 이하이다. 즉, 도 1에 도시된 바와 같이, 전방 스캐너(110)와 연직 스캐너(120)사이의 각도는 진행방향 쪽으로 90도 이하가 되고, 후방 스캐너(130)와 연직 스캐너(120)사이의 각도는 진행방향 반대방향으로 90도 이하가 된다. Referring to FIG. 1, a camera 100 having a three-wire scanner is mounted on an observation device such as a satellite or an aircraft. Therefore, the position and attitude information of the camera 100 is directly connected to the position and attitude information of the observation apparatus. Referring to FIG. 1, the three-wire scanner includes a vertical scanner 120 facing a direction perpendicular to the direction of travel of the observation device, and a front scanner facing an arbitrary direction between the direction of travel of the observation device and the direction in which the vertical scanner 120 faces. 110, and a rear scanner 130 facing an arbitrary direction between a direction opposite to the direction of travel of the observation apparatus and a direction toward the vertical scanner 120. Therefore, the angle between the vertical scanner 120 and the front scanner 110 and the angle between the vertical scanner 120 and the rear scanner 130 are 90 degrees or less. That is, as shown in FIG. 1, the angle between the front scanner 110 and the vertical scanner 120 is 90 degrees or less in the advancing direction, and the angle between the rear scanner 130 and the vertical scanner 120 is advanced. It becomes 90 degrees or less in the opposite direction to a direction.

위성항법장치(200)는 카메라(100)와 연결되어 카메라(100)의 위치를 결정한다. 위성항법장치(200)의 한 예로 GPS 수신기가 사용될 수 있다. 관성항법장치(300)는 카메라(100)와 연결되어 카메라(100)의 자세를 결정한다. 위성항법장치(200)와 관성항법장치(300)는 카메라(100)와 동일한 프레임에 물리적으로 고정설치된다. 위성 항법장치(200)와 관성항법장치(300)는 통상의 것이 사용될 수 있으므로, 그 구성에 대한 구체적인 설명은 생략한다. The satellite navigation device 200 is connected to the camera 100 to determine the position of the camera 100. As an example of the satellite navigation apparatus 200, a GPS receiver may be used. The inertial navigation device 300 is connected to the camera 100 to determine the pose of the camera 100. The satellite navigation device 200 and the inertial navigation device 300 are physically fixed to the same frame as the camera 100. Since the satellite navigation device 200 and the inertial navigation device 300 may be conventional ones, a detailed description thereof will be omitted.

영상 기반 위치 및 자세 보정 장치(400)는 카메라(100)의 삼선 스캐너를 통해 입력되는 스캔라인 영상을 이용하여 카메라(100)의 위치 및 자세 보정 정보를 생성한다. 생성된 위치 및 자세 보정 정보는 각각 위성항법장치(200)와 관성항법장치(300)에 피드백되며, 카메라(100)의 위치 및 자세 정보는 보다 정밀하게 파악될 수 있다.The image-based position and posture correcting apparatus 400 generates position and posture correction information of the camera 100 using the scanline image input through the three-line scanner of the camera 100. The generated position and attitude correction information is fed back to the satellite navigation device 200 and the inertial navigation device 300, respectively, and the position and attitude information of the camera 100 can be more precisely grasped.

도2는 삼선 스캐너를 통해 획득된 영상간의 관계를 도시한 것이다.2 shows a relationship between images acquired through a three-wire scanner.

삼선 스캐너는 관측장치의 진행방향에 따라 전방 스캐너(110), 연직 스캐너(120), 후방 스캐너(130)로 구성된다. 따라서, 스캔라인 영상도 전방 스캐너(110)를 통해 생성되는 전방 스캐너 관측 영상(520), 연직 스캐너(120)를 통해 생성되는 연직 스캐너 관측 영상(510), 후방 스캐너(130)를 통해 생성되는 후방 스캐너 관측 영상(530)으로 이루어진다.The three-wire scanner is composed of the front scanner 110, the vertical scanner 120, the rear scanner 130 in accordance with the direction of the observation device. Accordingly, the scanline image is also generated by the front scanner observation image 520 generated through the front scanner 110, the vertical scanner observation image 510 generated by the vertical scanner 120, and the rear scanner 130 generated by the rear scanner 130. It consists of a scanner observation image (530).

관측 장치의 진행 방향을 기준으로 세 스캐너가 배열되기 때문에, 관측대상이 되는 지표면 또는 시설물은 먼저 전방 스캐너(110)에 의해 관측이 된다. 일정 시간(Δt1)이 지난 후, 관측대상은 연직 스캐너(120)에 의해 관측이 되고, 다시 일정 시간(Δt2)이 지난 후, 관측대상은 후방 스캐너(130)에 의해 관측이 된다.Since three scanners are arranged based on the traveling direction of the viewing device, the ground surface or facility to be observed is first observed by the front scanner 110. After a predetermined time Δt 1 , the observation target is observed by the vertical scanner 120, and again after a predetermined time Δt 2 , the observation target is observed by the rear scanner 130.

관측 장치가 등속 직선 운동을 하고 자세의 변화가 없는 관성 운동을 하는 경우, 전방 스캐너(110)와 연직 스캐너(120) 그리고 후방 스캐너(130) 사이의 관측 시간 간격은 동일하게 되며(즉, Δt1=Δt2), 세 스캐너(110,120,130)를 통하여 관측되는 영상간에도 위치 편차가 나타나지 않게 된다. When the observation device performs the constant velocity linear motion and the inertial motion with no change in posture, the observation time interval between the front scanner 110, the vertical scanner 120 and the rear scanner 130 is the same (that is, Δt 1). = Δt 2 ), the positional deviation does not appear between the images observed through the three scanners 110, 120, and 130.

반면에, 관측 장치가 등속 직선 운동과 관성 운동을 하지 않는 경우, 세 스 캐너를 통하여 관측되는 영상(510,520,530)간에는 도2에서와 같이 위치 편차가 나타나게 된다. 전방 스캐너 관측영상(510)과 연직 스캐너 관측영상(520)간의 영상 위치 편차는 화소단위로 (1,1)이고, 연직 스캐너 관측영상(520)과 후방 스캐너 관측영상(530)간의 영상 위치편차는 화소단위로 (1,2)이다. 본 발명에 따른 영상 기반 위치 및 자세 보정 장치(400)는 이러한 영상 위치 편차를 분석함으로써 카메라의 위치 및 자세 정보를 정밀하게 보정할 수 있게 한다.On the other hand, when the observation device does not perform constant velocity linear motion and inertial motion, position deviations appear between the images 510, 520, and 530 observed through the scanner as shown in FIG. 2. The image position deviation between the front scanner observing image 510 and the vertical scanner observing image 520 is (1,1) in pixel units, and the image position deviation between the vertical scanner observing image 520 and the rear scanner observing image 530 is (1,2) in pixel units. The image-based position and posture correcting apparatus 400 according to the present invention can accurately correct the position and posture information of the camera by analyzing the image position deviation.

도 3은 본 발명에 따른 영상 기반 위치 및 자세 보정 장치(400)의 세부 블럭 구성도 이다. 3 is a detailed block diagram of the image-based position and posture correction device 400 according to the present invention.

삼선 스캐너를 구비한 카메라(100)를 탑재한 관측장치가 전방으로 진행함에 따라 삼선 카메라에 의해 차례대로 전방 스캐너 관측영상(510), 연직 스캐너 관측영상(520), 후방 스캐너 관측영상(530)이 생성된다. 생성된 관측영상(510,520,530)은 영상 기반 위치 및 자세 보정 장치(400)에 입력된다.As the observation apparatus equipped with the camera 100 having the three-wire scanner proceeds to the front, the front scanner observation image 510, the vertical scanner observation image 520, and the rear scanner observation image 530 are sequentially turned by the three-wire camera. Is generated. The generated observation images 510, 520, and 530 are input to the image-based position and posture correcting apparatus 400.

전방 스캐너 관측영상(510)은 제1 버퍼 메모리(410)에 임시로 저장된다. 이후, 영상 정합부(430)는 임시로 저장된 전방 스캐너 관측영상(510)과, 연직 스캐너(120)를 통해 실시간으로 관측되어 입력되는 연직 스캐너 관측영상(520)에 대해 영상정합을 수행하여 두 영상(510,520)간에 화소단위의 영상 위치편차(Δu1, Δv1)를 계산한다. 영상정합은 영역기준 정합방법이나 형상기준 정합방법과 같이 이미 알려진 다양한 방법으로 수행될 수 있다. The forward scanner observation image 510 is temporarily stored in the first buffer memory 410. Thereafter, the image matching unit 430 performs image registration on the temporarily stored front scanner observation image 510 and the vertical scanner observation image 520 that is observed and input in real time through the vertical scanner 120 to perform two images. Image position deviations Δu 1 and Δv 1 in pixel units are calculated between 510 and 520. Image matching may be performed by various known methods such as region-based matching or shape-based matching.

연직 스캐너(120)와 후방 스캐너(130)를 통해 관측되는 영상에 대해서도 동 일한 과정이 적용된다. 즉, 연직 스캐너 관측영상(520)은 제2 버퍼 메모리(420)에 임시로 저장된다. 이후, 영상 정합부(430)는 임시로 저장된 연직 스캐너 관측영상(520)과, 후방 스캐너(130)를 통해 실시간으로 관측되어 입력되는 후방 스캐너 관측영상(530)에 대해 영상정합을 수행하여 영상(520,530)간에 화소단위의 영상 위치편차(Δu2, Δv2)를 계산한다. 영상정합은 영역기준 정합방법이나 형상기준 정합방법과 같이 이미 알려진 다양한 방법으로 수행될 수 있다.The same process applies to the images observed through the vertical scanner 120 and the rear scanner 130. That is, the vertical scanner observation image 520 is temporarily stored in the second buffer memory 420. Thereafter, the image matching unit 430 performs image registration on the temporarily stored vertical scanner observation image 520 and the rear scanner observation image 530 that is observed and input in real time through the rear scanner 130. Image position deviations Δu 2 and Δv 2 in pixel units are calculated between 520 and 530. Image matching may be performed by various known methods such as region-based matching or shape-based matching.

전방 스캐너 관측영상(510)과 연직 스캐너 관측영상(520)간의 제1 영상 위치편차 관련정보(Δu1, Δv1, tf, tn)와, 연직 스캐너 관측영상(520)과 후방 스캐너 관측영상(530)간의 제2 영상 위치편차 관련정보(Δu2, Δv2, tn, tr)는 칼만필터(Kalman Filter) 처리부(440)에 입력된다. The first image position deviation related information Δu 1 , Δv 1 , between the front scanner observed image 510 and the vertical scanner observed image 520. t f , t n ) and second image position deviation related information Δu 2 , Δv 2 , between the vertical scanner observed image 520 and the rear scanner observed image 530. t n and t r are input to the Kalman Filter processing unit 440.

제1 영상 위치편차 관련정보(Δu1, Δv1, tf, tn)는 전방 스캐너 관측영상(510)과 연직 스캐너 관측영상(520)간의 영상 위치편차(Δu1, Δv1), 전방 스캐너 관측영상(510)이 생성된 시각(tf), 연직 스캐너 관측영상(520)이 생성된 시각(tn)으로 구성된다.Information related to the first image position deviation (Δu 1 , Δv 1 , t f , t n ) is the image position deviation Δu 1 , Δv 1 between the front scanner observation image 510 and the vertical scanner observation image 520, the time t f at which the front scanner observation image 510 was generated, The vertical scanner observation image 520 includes a generated time t n .

제2 영상 위치편차 관련정보(Δu2, Δv2, tn, tr)는 연직 스캐너 관측영상(520)과 후방 스캐너 관측영상(530)간의 영상 위치편차(Δu2, Δv2), 연직 스캐너 관측영상(520)이 생성된 시각(tn), 후방 스캐너 관측영상(530)이 생성된 시각(tr)으 로 구성된다.Second image position deviation related information (Δu 2 , Δv 2 , t n , t r ) is the image position deviation Δu 2 , Δv 2 between the vertical scanner observation image 520 and the rear scanner observation image 530, the time t n at which the vertical scanner observation image 520 was generated, The rear scanner observation image 530 is composed of the generated time t r .

칼만 필터 처리부(440)는 제1 및 제2 영상 위치편차 관련정보, 위성항법장치(200)로부터 입력되는 tn 시점의 카메라 위치정보(x, y, z, tn)와, 관성항법장치(300)로부터 입력되는 tn 시점의 카메라 자세정보(ω,κ,φ,tn)로부터, 위치 및 자세 보정 정보(x',y',z',ω',κ',φ',tm)를 추정하여 생성한다. 위치 및 자세 보정 정보는 영상 생성이 이루어지는 매 시간 간격에 대해서 국부적으로 계산된 카메라의 위치 및 자세 변화를 담고 있다. 여기에서 시각 tm은 전방 스캐너 관측영상(510)이 만들어진 시각(tf)과, 후방 스캐너 관측영상(530)이 만들어진 시각(tb )사이에서 존재하는 임의의 시각이다. 영상 생성이 이루어지는 시간 간격은 통상의 위성항법장치나 관성항법장치에 의해 제한되는 시간 간격보다 짧은 시간 간격으로 이루어 질 수 있다. The Kalman filter processing unit 440 may include first and second image position deviation related information, camera position information (x, y, z, t n ) at a time t n inputted from the satellite navigation apparatus 200, and an inertial navigation apparatus ( Position and attitude correction information (x ', y', z ', ω', κ ', φ', t m from the camera attitude information (ω, κ, φ, t n ) at the time t n inputted from 300) ) Is estimated. The position and posture correction information includes the position and posture change of the camera locally calculated for each time interval at which image generation is performed. Here, the time t m is an arbitrary time existing between the time t f at which the front scanner observation image 510 is made and the time t b at which the rear scanner observation image 530 is made. The time interval at which the image is generated may be shorter than the time interval limited by a conventional satellite navigation system or an inertial navigation system.

도 4는 본 발명에 따른 칼만 필터 처리부(440)의 세부 블럭구성도이다. 투영 변환부(442)는 카메라 위치정보(x, y, z, tn)와 카메라 자세정보(ω,κ,φ,tn)에 의해 정의되는 7개의 매개 변수 (x, y, z, ω,κ,φ,tn)를 제1 및 제2 영상 위치편차 관련정보에 의해 정의되는 7개의 매개 변수 (Δu1, Δv1,Δu2, Δv2, tf, tn, tb)에 적용하는 투영 변환을 수행하고, 그 결과를 카메라 위치 정보를 나타내는 매개 변수 (x, y, z)에 적용하여 실세계 위치 편차를 나타내는 매개 변수(δx, δy, δz)를 계산한다.4 is a detailed block diagram of the Kalman filter processor 440 according to the present invention. The projection conversion unit 442 includes seven parameters (x, y, z, ω) defined by camera position information (x, y, z, t n ) and camera pose information (ω, κ, φ, t n ). , κ, φ, t n ) are defined by seven parameters (Δu 1 , Δv 1 , Δu 2 , Δv 2 , defined by the first and second image position deviation related information. t f , t n , t b ), the projection transformation is applied, and the result is applied to the parameters (x, y, z) representing the camera position information to calculate the parameters (δx, δy, δz) representing the real world position deviation.

이어서, 칼만필터(444)는 위치 및 자세 정보를 나타내는 매개 변수 (x, y, z, ω,κ,φ,tn)와 실세계 위치 편차를 나타내는 매개 변수(δx, δy, δz)로부터 최적화된 위치 및 자세 편차에 대한 추정치를 나타내는 매개 변수 (Δx,Δy, Δz, Δω,Δκ,Δφ)를 계산한다.The Kalman filter 444 is then optimized from parameters (x, y, z, ω, κ, φ, t n ) representing position and attitude information and parameters (δx, δy, δz) representing real world position deviations. Calculate parameters (Δx, Δy, Δz, Δω, Δκ, Δφ) representing estimates for position and attitude deviations.

편차 수정부(446)는 위치 및 자세 편차에 대한 추정치를 나타내는 매개 변수 (Δx,Δy, Δz, Δω,Δκ,Δφ)를 이용하여 위치 및 자세 정보위치 및 자세 정보를 나타내는 매개 변수 (x, y, z, ω,κ,φ,tn)의 편차를 수정함으로써, 주어진 시각 tm에 대해서 최적화되어 추정된 위치 및 자세 보정 정보(x', y', z', ω', κ' ,φ', tm)를 산출한다. The deviation correction unit 446 uses the parameters (Δx, Δy, Δz, Δω, Δκ, Δφ) to indicate the estimates of the position and posture deviations. By correcting the deviations of, z, ω, κ, φ, t n ), the position and posture correction information (x ', y', z ', ω', κ ', φ optimized for a given time t m) ', t m ) is calculated.

tf와 tb 사이에서 존재하는 임의의 시각 tm에 대해 최적화되어 추정된 위치 및 자세 보정 정보(x', y', z', ω', κ' ,φ', tm)는 위치 보정 정보 (x', y', z', tm)와 자세 보정 정보 (ω', κ' ,φ', tm)로 분리된다. 분리된 위치 보정 정보와 자세 보정 정보는 위성항법장치(200)와 관성항법장치(300)에 각각 피드백되어 카메라의 위치와 자세 정보를 정밀하게 보정하기 위해 사용된다.The estimated position and attitude correction information (x ', y', z ', ω', κ ', φ', t m ) optimized for any time t m existing between t f and t b is the position correction Information (x ', y', z ', t m ) and posture correction information (ω', κ ', φ', t m ). The separated position correction information and attitude correction information are fed back to the satellite navigation device 200 and the inertial navigation device 300, respectively, and used to precisely correct the position and attitude information of the camera.

이와 같이 삼선 스캐너 영상을 분석하여 얻어지는 보정 정보를 피드백하여 위치 및 자세 정보의 정밀도를 향상시키는 기술은 즉석처리 접근방식(Onboard Processing Approach)은 물론 후처리 접근방식(Postprocessing Approach)에 의해서도 진행될 수 있다. The technique of improving the accuracy of position and posture information by feeding back the correction information obtained by analyzing the three-wire scanner image may be performed by an onboard processing approach as well as a postprocessing approach.

즉석처리 접근방식은 인공위성이나 항공기에서 삼선 스캐너를 통하여 영상을 관측하는 동시에, 위치 및 자세 보정 정보를 위성항법장치와 관성항법장치에 피드백하여 위치 및 자세 정보의 정밀도를 향상시키고, 보정된 위치와 자세 정보를 삼선 스캐너를 통하여 얻어지는 영상에 곧 바로 적용(즉, 기록)하는 것을 의미한다.The instant processing approach observes images from a satellite or aircraft through a three-wire scanner, while feeding position and attitude correction information back to the satellite and inertial navigation units to improve the accuracy of the position and attitude information, and correct the corrected position and attitude. This means applying information (ie, recording) directly to an image obtained through a three-wire scanner.

후처리 접근방식은 위성항법장치와 관성항법장치로부터 얻어지는 위치 및 자세 정보와 삼선 스캐너를 통하여 얻어지는 영상정보를 있는 그대로 기록하고, 추후에 별도의 처리 과정을 통하여 위치 및 자세 정보의 정밀도를 향상시키는 것을 의미한다.The post-processing approach records the position and attitude information obtained from the satellite navigation system and the inertial navigation system and the image information obtained through the three-wire scanner as it is, and further improves the accuracy of the position and attitude information through a separate process. it means.

본 발명에 따른 위치 및 자세 보정 방법은 프로그램으로 구현되어 컴퓨터로 읽을 수 있는 형태의 기록매체(씨디롬, 램, 롬, 플로피 디스크, 하드 디스크, 광자기 디스크 등)에 저장될 수 있다. The position and posture correction method according to the present invention may be implemented as a program and stored in a computer-readable recording medium (CD-ROM, RAM, ROM, floppy disk, hard disk, magneto-optical disk, etc.).

본 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 전술한 본 발명의 내용을 여러 가지 치환, 변형 및 변경이 가능하므로 본 발명의 기술적 범위는 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.Persons having ordinary skill in the art to which the present invention pertains can make various substitutions, modifications, and changes to the above-described contents of the present invention without departing from the technical spirit of the present invention. It is not limited by the embodiment and the accompanying drawings.

본 발명은 인공위성이나 항공기 등의 수송 수단에 탑재된 카메라를 통하여 관측된 영상에 대해 지상기준점(Ground Control Point)을 사용하지 않고도 카메라의 외부표정요소(Exterior Orientation Parameters)를 정밀하게 결정할 수 있도록 한다.The present invention enables to accurately determine the exterior orientation parameters of a camera without using a ground control point for an image observed through a camera mounted on a vehicle such as a satellite or an aircraft.

또한, 본 발명은 보다 짧은 시간 간격에 대해서 카메라의 위치와 자세 정보를 더욱 정밀하게 결정할 수 있도록 해주는 효과가 있다. In addition, the present invention has an effect that allows to determine the position and attitude information of the camera more precisely for a shorter time interval.

Claims (12)

카메라의 위치 및 자세 정보 보정 방법에 있어서,In the camera position and attitude information correction method, 위성항법장치를 이용하여 상기 카메라의 위치를 계산하는 단계;Calculating the position of the camera using a satellite navigation system; 관성항법장치를 이용하여 상기 카메라의 자세를 계산하는 단계;Calculating the pose of the camera using an inertial navigation device; 상기 카메라에 장착된 삼선 스캐너를 통해 입력되는 영상을 분석하여 상기 카메라의 위치 및 자세 보정 정보를 생성하는 단계; 및Generating position and posture correction information of the camera by analyzing an image input through a three-wire scanner mounted to the camera; And 상기 생성된 위치 및 자세 보정 정보를 각각 상기 위성항법장치와 상기 관성항법장치에 피드백하는 단계를 포함하는Feeding back the generated position and attitude correction information to the satellite navigation device and the inertial navigation device, respectively. 카메라의 위치 및 자세 정보 보정 방법.How to calibrate camera position and attitude information. 제 1 항에 있어서,The method of claim 1, 상기 삼선 스캐너를 통해 입력되는 영상은 전방 스캐너 관측 영상, 연직 스캐너 관측 영상 및 후방 스캐너 관측 영상으로 이루어지는The image input through the three-wire scanner consists of a front scanner observation image, a vertical scanner observation image and a rear scanner observation image. 카메라의 위치 및 자세 정보 보정 방법.How to calibrate camera position and attitude information. 제2항에 있어서,The method of claim 2, 상기 위치 및 자세 보정 정보를 생성하는 단계는,Generating the position and posture correction information, 상기 전방 스캐너 관측 영상과 상기 연직 스캐너 관측 영상을 영상정합하여 제1 영상 위치 편차를 계산하는 단계; 및Calculating a first image position deviation by image registration of the front scanner observation image and the vertical scanner observation image; And 상기 연직 스캐너 관측 영상과 상기 후방 스캐너 관측 영상을 영상정합하여 제2 영상 위치 편차를 계산하는 단계를 포함하는And calculating a second image position deviation by image registration of the vertical scanner observation image and the rear scanner observation image. 카메라의 위치 및 자세 정보 보정 방법.How to calibrate camera position and attitude information. 제3항에 있어서,The method of claim 3, 상기 위치 및 자세 보정 정보를 생성하는 단계는,Generating the position and posture correction information, 상기 전방 스캐너 관측 영상이 생성된 시각, 상기 연직 스캐너 관측영상이 생성된 시각, 상기 후방 스캐너 관측영상이 생성된 시각, 상기 제1 및 제2 영상 위치 편차, 상기 연직 스캐너 관측영상이 생성된 시각에서의 상기 카메라의 위치 정보 및 자세 정보를 칼만필터에 적용하는 단계를 더 포함하는At the time when the front scanner observation image is generated, at the time when the vertical scanner observation image is generated, at the time when the rear scanner observation image is generated, at the time when the first and second image position deviations are generated, and at the time when the vertical scanner observation image is generated. The method may further include applying location information and pose information of the camera to a Kalman filter. 카메라의 위치 및 자세 정보 보정 방법.How to calibrate camera position and attitude information. 제3항에 있어서,The method of claim 3, 상기 제1 및 제2 영상 위치편차는 화소 단위로 계산되는 The first and second image position deviations are calculated in pixel units. 카메라의 위치 및 자세 정보 보정 방법.How to calibrate camera position and attitude information. 제1항에 있어서,The method of claim 1, 상기 카메라의 위치 및 자세 정보의 정밀도를 향상시키는 기술은 즉석처리 접근방식 또는 후처리 접근방식으로 이루어지는The technique for improving the precision of the position and posture information of the camera is made of an instant processing approach or a post processing approach 카메라의 위치 및 자세 정보 보정 방법.How to calibrate camera position and attitude information. 위성항법장치와 관성항법장치가 연결된 카메라의 위치 및 자세 정보 보정 장치에 있어서,In the position and attitude information correction device of the camera connected to the satellite navigation device and the inertial navigation device, 상기 카메라에 구비된 삼선 스캐너를 통해 입력되는 영상을 분석하여 상기 카메라의 위치 및 자세 보정 정보를 생성하고,Analyze the image input through the three-wire scanner provided in the camera to generate the position and attitude correction information of the camera, 상기 생성된 위치 및 자세 보정 정보를 각각 상기 위성항법장치와 상기 관성항법장치에 피드백하여 상기 카메라의 위치 및 자세 정보의 정밀도를 향상시키는Feeding the generated position and attitude correction information to the satellite navigation device and the inertial navigation device, respectively, to improve the accuracy of the position and attitude information of the camera. 카메라의 위치 및 자세 정보 보정 장치.Camera position and attitude information correction device. 제7항에 있어서,The method of claim 7, wherein 상기 삼선 스캐너는 상기 카메라가 탑재된 관측장치의 진행 방향과 직각인 방향을 향하는 연직 스캐너; The three-wire scanner includes a vertical scanner facing in a direction perpendicular to a traveling direction of the observation apparatus on which the camera is mounted; 상기 관측장치의 진행 방향과 상기 연직 스캐너가 향하는 방향 사이의 임의 방향을 향하는 전방 스캐너; 및A front scanner facing in an arbitrary direction between the advancing direction of the viewing device and the direction the vertical scanner faces; And 상기 관측장치의 진행 방향과 반대되는 방향과 상기 연직 스캐너가 향하는 방향 사이의 임의 방향을 향하는 후방 스캐너로 이루어지며,It consists of a rear scanner facing in any direction between the direction opposite to the direction of travel of the observation device and the direction toward the vertical scanner, 상기 연직 스캐너와 상기 전방 스캐너 간의 각도와, 상기 연직 스캐너와 상기 후방 스캐너간의 각도는 90도 이하인The angle between the vertical scanner and the front scanner and the angle between the vertical scanner and the rear scanner are 90 degrees or less. 카메라의 위치 및 자세 정보 보정 장치.Camera position and attitude information correction device. 제8항에 있어서,The method of claim 8, 제1버퍼 메모리에 저장된 상기 전방 스캐너의 관측 영상과 상기 연직 스캐너를 통해 실시간으로 관측되어 입력되는 영상을 영상정합하고, 제2버퍼 메모리에 저장된 상기 연직 스캐너의 관측 영상과 상기 후방 스캐너를 통해 실시간으로 관측되어 입력되는 영상을 영상정합하는 영상 정합부를 포함하는Image matching between the observed image of the front scanner stored in the first buffer memory and the image observed and input in real time through the vertical scanner, and in real time through the observed image of the vertical scanner stored in the second buffer memory and the rear scanner An image matching unit for image matching the observed and input image 카메라의 위치 및 자세 정보 보정 장치.Camera position and attitude information correction device. 제9항에 있어서,The method of claim 9, 상기 영상 정합부의 영상정합 결과 계산된 화소 단위의 영상 위치편차를 칼만 필터에 적용하여 위치 및 자세 보정 정보를 생성하는 칼만 필터 처리부를 포함하는And a Kalman filter processor for generating position and posture correction information by applying the image position deviation of the pixel unit calculated as a result of the image registration to the Kalman filter. 카메라의 위치 및 자세 정보 보정 장치. Camera position and attitude information correction device. 제10항에 있어서,The method of claim 10, 상기 칼만 필터 처리부는,The Kalman filter processing unit, 상기 연직 스캐너의 관측영상이 생성되는 시점에서의 카메라 위치 및 자세정보를 영상 위치편차 정보 및 상기 관측영상 생성 시점 정보를 포함하는 영상 위치편차 관련 정보에 투영변환하여 실세계 위치편차를 산출하는 투영변환부;A projection conversion unit configured to project-transform the camera position and attitude information when the observation image of the vertical scanner is generated to the image position deviation related information including the image position deviation information and the information on the observation image generation point and calculate a real world position deviation ; 상기 연직 스캐너의 관측영상이 생성되는 시점에서의 카메라 위치 및 자세정보와 상기 실세계 위치편차로부터 최적화된 위치 및 자세 편차에 대한 추정치를 산출하는 칼만필터; 및A Kalman filter for calculating an optimized position and posture deviation from the camera position and posture information and the real world position deviation at the time when the observed image of the vertical scanner is generated; And 상기 최적화된 위치 및 자세 편차에 대한 추정치로부터 상기 연직 스캐너의 관측영상이 생성되는 시점에서의 카메라 위치 및 자세정보의 편차를 수정함으로써, 전방 스캐너의 관측영상이 생성된 시각과 후방 스캐너 관측영상이 생성된 시각 사이의 임의의 시각에 대해서 최적화되어 추정된 위치 및 자세 보정 정보를 산출하는 편차 수정부를 포함하는By correcting the deviation of the camera position and attitude information at the time when the observed image of the vertical scanner is generated from the optimized position and attitude deviation, the time at which the observed image of the front scanner is generated and the rear scanner observed image are generated. A deviation correcting unit that is optimized for an arbitrary time between the estimated times and calculates estimated position and attitude correction information. 카메라의 위치 및 자세 정보 보정 장치. Camera position and attitude information correction device. 제8항에 있어서,The method of claim 8, 상기 관측장치는 인공위성 및 항공기 중 어느 하나인The observation device is any one of satellites and aircraft 카메라의 위치 및 자세 정보 보정 장치.Camera position and attitude information correction device.
KR1020050037882A 2004-12-21 2005-05-06 Camera position and attitude information correction method and device Expired - Fee Related KR100797391B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005312922A JP5127128B2 (en) 2004-12-21 2005-10-27 Camera position and orientation information correction method and apparatus
US11/285,529 US7908106B2 (en) 2004-12-21 2005-11-21 Apparatus for correcting position and attitude information of camera and method thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20040109575 2004-12-21
KR1020040109575 2004-12-21

Publications (2)

Publication Number Publication Date
KR20060071077A KR20060071077A (en) 2006-06-26
KR100797391B1 true KR100797391B1 (en) 2008-01-28

Family

ID=37164628

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050037882A Expired - Fee Related KR100797391B1 (en) 2004-12-21 2005-05-06 Camera position and attitude information correction method and device

Country Status (1)

Country Link
KR (1) KR100797391B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100435816B1 (en) * 2001-01-19 2004-06-12 한국과학기술연구원 Organotitanium Precursors for Chemical Vapor Deposition and Manufacturing Method Thereof
KR101520596B1 (en) * 2015-01-07 2015-05-21 주식회사 토페스 Closed circuit television

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2235556A1 (en) 2007-12-11 2010-10-06 Qualcomm Incorporated Gnss method and receiver with camera aid
KR101150510B1 (en) * 2010-08-27 2012-05-31 (주)아세아항측 Method for Generating 3-D High Resolution NDVI Urban Model
KR101308244B1 (en) * 2011-09-07 2013-09-13 인하대학교 산학협력단 Tower crane of automatic bolting device
KR20240020560A (en) 2022-08-08 2024-02-15 한화시스템 주식회사 Learning data generation method and operating method of satellite using the same
CN120431165B (en) * 2025-07-04 2025-09-23 中国测绘科学研究院 Tower base video image automatic positioning method and system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010041187A (en) * 1998-02-20 2001-05-15 가부시키가이샤 비자이 Packaging bottle with carrying handle
US20020004691A1 (en) 2000-03-10 2002-01-10 Yasuhiro Kinashi Attitude determination and alignment using electro-optical sensors and global navigation satellites
KR20030005749A (en) * 2001-07-10 2003-01-23 (주)한양 Apparatus and method of measuring position of three dimensions
KR20030044685A (en) * 2001-11-30 2003-06-09 엘지이노텍 주식회사 System for underwater navigation
KR20050025836A (en) * 2003-09-08 2005-03-14 삼성전자주식회사 Methods and apparatuses for compensating attitude of and locating inertial navigation system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010041187A (en) * 1998-02-20 2001-05-15 가부시키가이샤 비자이 Packaging bottle with carrying handle
US20020004691A1 (en) 2000-03-10 2002-01-10 Yasuhiro Kinashi Attitude determination and alignment using electro-optical sensors and global navigation satellites
KR20030005749A (en) * 2001-07-10 2003-01-23 (주)한양 Apparatus and method of measuring position of three dimensions
KR20030044685A (en) * 2001-11-30 2003-06-09 엘지이노텍 주식회사 System for underwater navigation
KR20050025836A (en) * 2003-09-08 2005-03-14 삼성전자주식회사 Methods and apparatuses for compensating attitude of and locating inertial navigation system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100435816B1 (en) * 2001-01-19 2004-06-12 한국과학기술연구원 Organotitanium Precursors for Chemical Vapor Deposition and Manufacturing Method Thereof
KR101520596B1 (en) * 2015-01-07 2015-05-21 주식회사 토페스 Closed circuit television

Also Published As

Publication number Publication date
KR20060071077A (en) 2006-06-26

Similar Documents

Publication Publication Date Title
US7908106B2 (en) Apparatus for correcting position and attitude information of camera and method thereof
EP2133662B1 (en) Methods and system of navigation using terrain features
CN109059906B (en) Vehicle positioning method and device, electronic equipment and storage medium
US8213706B2 (en) Method and system for real-time visual odometry
KR101192825B1 (en) Apparatus and method for lidar georeferencing based on integration of gps, ins and image at
JP6950832B2 (en) Position coordinate estimation device, position coordinate estimation method and program
CN112005079B (en) System and method for updating high-definition map
US20080319664A1 (en) Navigation aid
JP2016057108A (en) Arithmetic apparatus, arithmetic system, arithmetic method and program
WO2011120141A1 (en) Dynamic network adjustment for rigorous integration of passive and active imaging observations into trajectory determination
JP2009501996A (en) Image geometric correction method and apparatus
JP2012127896A (en) Mobile object position measurement device
EP2175237A1 (en) System and methods for image-based navigation using line features matching
JP2008249555A (en) Position-specifying device, position-specifying method, and position-specifying program
Caballero et al. Improving vision-based planar motion estimation for unmanned aerial vehicles through online mosaicing
JP7665207B2 (en) Method for creating a correction function to improve the accuracy of a GPS device - Patents.com
JP4436632B2 (en) Survey system with position error correction function
US20140286537A1 (en) Measurement device, measurement method, and computer program product
WO2015168460A1 (en) Dead reckoning system based on locally measured movement
Mounier et al. LiDAR-based multi-sensor fusion with 3D digital maps for high-precision positioning
KR100797391B1 (en) Camera position and attitude information correction method and device
KR100901312B1 (en) Apparatus for generating terrain data of autonomous mobile platform, autonomous mobile platform having same, and method of generating terrain data of autonomous mobile platform
US20030118213A1 (en) Height measurement apparatus
JP6773473B2 (en) Survey information management device and survey information management method
Li et al. Image-based self-position and orientation method for moving platform

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

T11-X000 Administrative time limit extension requested

St.27 status event code: U-3-3-T10-T11-oth-X000

T11-X000 Administrative time limit extension requested

St.27 status event code: U-3-3-T10-T11-oth-X000

T11-X000 Administrative time limit extension requested

St.27 status event code: U-3-3-T10-T11-oth-X000

AMND Amendment
P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E601 Decision to refuse application
PE0601 Decision on rejection of patent

St.27 status event code: N-2-6-B10-B15-exm-PE0601

AMND Amendment
J201 Request for trial against refusal decision
P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

PJ0201 Trial against decision of rejection

St.27 status event code: A-3-3-V10-V11-apl-PJ0201

PB0901 Examination by re-examination before a trial

St.27 status event code: A-6-3-E10-E12-rex-PB0901

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

B701 Decision to grant
PB0701 Decision of registration after re-examination before a trial

St.27 status event code: A-3-4-F10-F13-rex-PB0701

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R13-asn-PN2301

St.27 status event code: A-5-5-R10-R11-asn-PN2301

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 4

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 5

L13-X000 Limitation or reissue of ip right requested

St.27 status event code: A-2-3-L10-L13-lim-X000

U15-X000 Partial renewal or maintenance fee paid modifying the ip right scope

St.27 status event code: A-4-4-U10-U15-oth-X000

FPAY Annual fee payment
PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 6

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R11-asn-PN2301

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R14-asn-PN2301

FPAY Annual fee payment

Payment date: 20140416

Year of fee payment: 7

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 7

P14-X000 Amendment of ip right document requested

St.27 status event code: A-5-5-P10-P14-nap-X000

P16-X000 Ip right document amended

St.27 status event code: A-5-5-P10-P16-nap-X000

Q16-X000 A copy of ip right certificate issued

St.27 status event code: A-4-4-Q10-Q16-nap-X000

FPAY Annual fee payment

Payment date: 20150116

Year of fee payment: 8

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 8

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R13-asn-PN2301

St.27 status event code: A-5-5-R10-R11-asn-PN2301

FPAY Annual fee payment

Payment date: 20160112

Year of fee payment: 9

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 9

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000

LAPS Lapse due to unpaid annual fee
PC1903 Unpaid annual fee

St.27 status event code: A-4-4-U10-U13-oth-PC1903

Not in force date: 20170118

Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

PC1903 Unpaid annual fee

St.27 status event code: N-4-6-H10-H13-oth-PC1903

Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

Not in force date: 20170118

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000