KR100797391B1 - Camera position and attitude information correction method and device - Google Patents
Camera position and attitude information correction method and device Download PDFInfo
- Publication number
- KR100797391B1 KR100797391B1 KR1020050037882A KR20050037882A KR100797391B1 KR 100797391 B1 KR100797391 B1 KR 100797391B1 KR 1020050037882 A KR1020050037882 A KR 1020050037882A KR 20050037882 A KR20050037882 A KR 20050037882A KR 100797391 B1 KR100797391 B1 KR 100797391B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- camera
- scanner
- information
- attitude
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/18—Stabilised platforms, e.g. by gyroscope
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/40—Correcting position, velocity or attitude
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/53—Determining attitude
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/16—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
- G01S5/163—Determination of attitude
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Automation & Control Theory (AREA)
- Electromagnetism (AREA)
- Navigation (AREA)
Abstract
본 발명은 위성항법장치와 관성항법장치로부터 위치와 자세 정보를 얻도록 만들어진 카메라의 운용에 있어, 카메라에 장착된 삼선 스캐너를 통하여 얻어지는 영상정보를 분석하여 카메라의 위치와 자세 정보를 정밀하게 보정할 수 있도록 하는 방법 및 장치에 관한 것이다.According to the present invention, in the operation of a camera made to obtain position and attitude information from a satellite navigation device and an inertial navigation device, it is possible to precisely correct the position and attitude information of a camera by analyzing image information obtained through a three-wire scanner attached to the camera. And a method and apparatus for enabling the same.
본 발명은, 카메라의 위치 및 자세 정보 보정 방법에 있어서, 위성항법장치를 이용하여 상기 카메라의 위치를 계산하는 단계; 관성항법장치를 이용하여 상기 카메라의 자세를 계산하는 단계; 상기 카메라에 장착된 삼선 스캐너를 통해 입력되는 영상을 분석하여 상기 카메라의 위치 및 자세 보정 정보를 생성하는 단계; 상기 생성된 위치 및 자세 보정 정보를 각각 상기 위성항법장치와 상기 관성항법장치에 피드백하는 단계를 포함하는 것을 특징으로 한다. 상기 삼선 스캐너를 통해 입력되는 영상은 전방 스캐너 관측 영상, 연직 스캐너 관측 영상 및 후방 스캐너 관측 영상으로 구성된다. The present invention provides a method for calibrating position and attitude information of a camera, comprising: calculating a position of the camera using a satellite navigation apparatus; Calculating the pose of the camera using an inertial navigation device; Generating position and posture correction information of the camera by analyzing an image input through a three-wire scanner mounted to the camera; And feeding back the generated position and attitude correction information to the satellite navigation device and the inertial navigation device, respectively. The image input through the three-wire scanner is composed of a front scanner observation image, a vertical scanner observation image and a rear scanner observation image.
본 발명은 인공위성이나 항공기 등의 수송 수단에 탑재된 카메라를 통하여 관측된 영상에 대해 지상기준점(Ground Control Point)을 사용하지 않고도 카메라의 외부표정요소(Exterior Orientation Parameters)를 정밀하게 결정할 수 있도록 한다.The present invention enables to accurately determine the exterior orientation parameters of a camera without using a ground control point for an image observed through a camera mounted on a vehicle such as a satellite or an aircraft.
또한, 본 발명은 보다 짧은 시간 간격에 대해서 카메라의 위치와 자세 정보를 더욱 정밀하게 결정할 수 있도록 해주는 효과가 있다. In addition, the present invention has an effect that allows to determine the position and attitude information of the camera more precisely for a shorter time interval.
카메라, 삼선 스캐너, 위치, 자세, 외부표정요소 Camera, three-wire scanner, position, posture, external expression
Description
도1은 본 발명에 따른 영상 기반 위치 및 자세 보정 장치가 적용되는 시스템 구성도;1 is a system configuration to which the image-based position and attitude correction apparatus according to the present invention is applied;
도2는 삼선 스캐너를 통해 획득된 영상간의 관계를 도시한 도면; 2 is a diagram showing a relationship between images acquired through a three-wire scanner;
도3은 본 발명에 따라 위치 및 자세 보정 정보를 생성하는 과정을 도시한 흐름도; 및3 is a flowchart illustrating a process of generating position and attitude correction information according to the present invention; And
도 4는 본 발명에 따른 칼만 필터 처리부의 세부 블럭구성도이다.Figure 4 is a detailed block diagram of a Kalman filter processing unit according to the present invention.
본 발명은 카메라의 위치 및 자세 정보를 보정하는 방법 및 장치에 관한 것으로, 보다 상세하게는, 위성항법장치(Global Navigation Satellite System; GNSS)와 관성항법장치(Inertial Navigation System; INS)로부터 위치와 자세 정보를 얻도록 만들어진 카메라의 운용에 있어, 카메라에 장착된 삼선 스캐너(Three Line Scanner)를 통하여 얻어지는 영상정보를 분석하여 카메라의 위치와 자세 정보를 정 밀하게 보정할 수 있도록 하는 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for calibrating position and attitude information of a camera. More specifically, the present invention relates to a position and attitude from a global navigation satellite system (GNSS) and an inertial navigation system (INS). A method and apparatus for precisely correcting the position and attitude of a camera by analyzing image information obtained through a three-line scanner attached to the camera in operating a camera made to obtain information. will be.
인공위성이나 항공기와 같은 관측장치나 이에 탑재된 카메라의 위치와 자세를 결정하는 방법은 크게 3가지가 있다. 하나는 위성항법장치와 관성항법장치로부터 들어오는 정보를 결합하여 관측 장치의 위치와 자세 정보를 결정하는 방법이다. 다른 하나는 관성항법장치를 사용하지 않는 상황에서 위성항법장치의 일종인 GPS(Global Positioning System)를 이용하여 복수 개의 GPS 위성으로부터 오는 신호를 분석함으로써 관측 장치의 위치와 자세를 결정하는 방법이다. 또 다른 하나는 위성항법장치와 관성항법장치를 장착한 스테레오 카메라를 통해 입력되는 영상을 분석하여 대상물의 3차원 정보를 생성하는 방법이다.There are three ways to determine the position and attitude of observation devices such as satellites and aircraft or cameras mounted on them. One method is to determine the position and attitude information of the observation device by combining the information from satellite and inertial navigation devices. The other method is to determine the position and attitude of the observing device by analyzing signals from a plurality of GPS satellites using a GPS (Global Positioning System), which is a type of satellite navigation device, in the absence of an inertial navigation device. Another method is to generate 3D information of an object by analyzing an image input through a stereo camera equipped with a satellite navigation device and an inertial navigation device.
위성항법장치와 관성항법장치를 결합하여 차량의 위치와 자세를 결정하고 그 결과에 대한 맵 매칭을 통하여 차량의 현재 위치를 나타내기 위한 기술이 대한민국 특허출원 제1997-41019호,"하이브리드 네비게이션 시스템"에 개시되어 있다.A technique for combining a satellite navigation device and an inertial navigation device to determine the position and attitude of a vehicle and indicating the current position of the vehicle through map matching on the result is disclosed in Korean Patent Application No. 1997-41019, "Hybrid Navigation System". Is disclosed.
GPS 센서, 관성항법장치 센서와 DR(Dead-Reckoning) 센서로부터 입력되는 정보를 결합하여 이동 통신에서 위치 및 자세를 결정하기 위한 기술이 대한민국 특허출원 제2000-85817호, "GPS 및 INS를 이용한 이동 통신 시스템에서의 위치 및 자세 결정 시스템"에 개시되어 있다.Technology for determining position and attitude in mobile communication by combining information input from GPS sensor, inertial navigation system sensor and dead-reckoning (DR) sensor is disclosed in Korean Patent Application No. 2000-85817, "Moving using GPS and INS. Position and attitude determination system in a communication system.
위성항법장치와 관성항법장치가 장착된 차량에 설치된 디지털 비디오 카메라를 통하여 획득되는 스테레오 영상을 이용하여 대상물에 대한 3차원 위치 및 속성 정보를 획득하는 기술이 대한민국 특허출원 제2001-41187호, "3차원 위치 측정 장치 및 그 방법"에 개시되어 있다.A technique for acquiring three-dimensional position and attribute information of an object using a stereo image acquired through a digital video camera installed in a vehicle equipped with a satellite navigation device and an inertial navigation device is disclosed in Korean Patent Application No. 2001-41187, "3 Dimensional position measuring apparatus and method thereof.
위성항법장치와 관성항법장치 그리고 CCD 카메라를 이용하여 획득된 영상에 대하여 내부 및 외부 표정요소를 적용하여 정보를 생성하는 기술이 대한민국 특허출원 제2002-62417호, "공간영상의 효율적인 저장 및 검색을 지원하기 위한 공간영상정보시스템 및 그 검색방법"에 개시되어 있다.Korean patent application No. 2002-62417, "Efficient Storage and Retrieval of Spatial Images," describes a technique for generating information by applying internal and external facial expressions to images acquired using a satellite navigation device, an inertial navigation device and a CCD camera. Spatial image information system and its retrieval method for support ".
복수 개의 GPS 위성으로부터 오는 신호와 스타센서(Star Sensor 또는 Star Tracker)를 통해 얻어지는 정보를 분석하여 인공위성의 위치와 자세를 예측하고 점검하기 위한 기술이 미국 공개특허 제2002/0004691호, "Attitude Determination and Alignment Using Electro-optical Sensors and Global Navugation Satellites"에 개시되어 있다.A technique for predicting and checking the position and attitude of satellites by analyzing signals from a plurality of GPS satellites and information obtained through a star sensor (Star Sensor or Star Tracker) is disclosed in US Patent Publication No. 2002/0004691, "Attitude Determination and Alignment Using Electro-optical Sensors and Global Navugation Satellites.
복수 개의 GPS 위성으로부터 오는 신호를 분석하여 차량의 위치와 자세를 결정하기 위한 기술이 미국 등록특허 제6580389호, "Attitude Determination Using A Global Positioning System"에 개시되어 있다.A technique for determining the position and attitude of a vehicle by analyzing signals from a plurality of GPS satellites is disclosed in US Pat. No. 6580389, "Attitude Determination Using A Global Positioning System."
그러나, 종래의 기술은 위성항법장치로부터 얻어지는 정보만을 이용하거나 위성항법장치와 관성항법장치를 동시에 이용하여 관측 장치의 위치와 자세를 결정할 수 있는 방법으로서, 위치 정보의 정밀도는 위성항법장치로부터 얻어지는 정보의 정밀도에 따라 결정되고 자세 정보의 정밀도는 관성항법장치로부터 얻어지는 정보의 정밀도에 따라 결정되는 특성을 가지고 있다.However, the conventional technique is a method that can determine the position and attitude of the observation apparatus using only the information obtained from the satellite navigation system or simultaneously using the satellite navigation system and the inertial navigation system, and the precision of the position information is the information obtained from the satellite navigation system. The attitude information is determined according to the accuracy of and the accuracy of the attitude information is determined by the accuracy of the information obtained from the inertial navigation apparatus.
따라서, 위치정보를 얻는 과정에서는 위성항법장치에 의해 제한되는 정해진 시간 간격보다 짧은 시간 간격에 대해서는 위치정보를 얻을 수 없다는 문제점이 있다. 예를 들어, GPS의 경우 GPS 신호가 통상 1초 간격으로 제공되므로 이보다 짧은 시간 간격에 대해서 정밀한 위치정보를 계산할 수 없다. Therefore, in the process of obtaining the position information, there is a problem in that the position information cannot be obtained for a time interval shorter than a predetermined time interval limited by the satellite navigation apparatus. For example, in the case of GPS, since GPS signals are typically provided at one second intervals, precise location information cannot be calculated for a shorter time interval.
또한, 자세정보를 얻는 과정에서도 관성항법장치에 의해 제한되는 시간 간격보다 짧은 시간 간격에 대해서는 자세정보를 얻을 수 없다는 문제점이 있다. In addition, even in the process of obtaining attitude information, there is a problem in that attitude information cannot be obtained for a time interval shorter than the time interval limited by the inertial navigation apparatus.
또한, 종래의 기술은 위치 및 자세의 정밀도가 관련 장치의 성능에 따라 좌우될 뿐, 위성항법장치와 관성항법장치에 연결된 관측 장치인 카메라로부터 얻어지는 영상정보로부터 부가 정보를 활용하지 못하는 문제점이 있다.In addition, the prior art has a problem that the accuracy of the position and attitude depends only on the performance of the associated device, and does not utilize additional information from image information obtained from a camera, which is an observation device connected to the satellite navigation device and the inertial navigation device.
본 발명은 전술한 문제점을 해결하기 위한 것으로, 위성항법장치와 관성항법장치가 장착된 카메라의 삼선 스캐너를 통하여 얻어지는 스캔라인 영상정보를 이용하여 카메라의 위치와 자세 정보를 정밀하게 결정할 수 있도록 하는 방법 및 장치를 제공하는 데 그 목적이 있다.The present invention is to solve the above problems, a method for accurately determining the position and attitude information of the camera using the scan line image information obtained through the three-line scanner of the camera equipped with the satellite navigation device and the inertial navigation device And to provide a device.
본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.Other objects and advantages of the present invention can be understood by the following description, and will be more clearly understood by the embodiments of the present invention. Also, it will be readily appreciated that the objects and advantages of the present invention may be realized by the means and combinations thereof indicated in the claims.
상기 목적을 달성하기 위한 본 발명은, 카메라의 위치 및 자세 정보 보정 방법에 있어서, 위성항법장치를 이용하여 상기 카메라의 위치를 계산하는 단계; 관성항법장치를 이용하여 상기 카메라의 자세를 계산하는 단계; 상기 카메라에 장착된 삼선 스캐너를 통해 입력되는 영상을 분석하여 상기 카메라의 위치 및 자세 보정 정보를 생성하는 단계; 상기 생성된 위치 및 자세 보정 정보를 각각 상기 위성항법장치와 상기 관성항법장치에 피드백하는 단계를 포함하는 것을 특징으로 한다. 상기 삼선 스캐너를 통해 입력되는 영상은 전방 스캐너 관측 영상, 연직 스캐너 관측 영상 및 후방 스캐너 관측 영상으로 구성된다. According to an aspect of the present invention, there is provided a method of correcting a position and attitude information of a camera, the method comprising: calculating a position of the camera using a satellite navigation apparatus; Calculating the pose of the camera using an inertial navigation device; Generating position and posture correction information of the camera by analyzing an image input through a three-wire scanner mounted to the camera; And feeding back the generated position and attitude correction information to the satellite navigation device and the inertial navigation device, respectively. The image input through the three-wire scanner is composed of a front scanner observation image, a vertical scanner observation image and a rear scanner observation image.
또한, 본 발명은 위성항법장치와 관성항법장치가 연결된 카메라의 위치 및 자세 정보 보정 장치에 있어서, 상기 카메라에 구비된 삼선 스캐너를 통해 입력되는 영상을 분석하여 상기 카메라의 위치 및 자세 보정 정보를 생성하고, 상기 생성된 위치 및 자세 보정 정보를 각각 상기 위성항법장치와 상기 관성항법장치에 피드백하여 상기 카메라의 위치 및 자세 정보의 정밀도를 향상시키는 것을 특징으로 한다.In addition, the present invention in the position and attitude information correction device of the camera connected to the satellite navigation device and the inertial navigation device, by analyzing the image input through the three-wire scanner provided in the camera to generate the position and attitude correction information of the camera The position and attitude correction information is fed back to the satellite navigation device and the inertial navigation device, respectively, to improve the accuracy of the position and attitude information of the camera.
상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명 이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명하기로 한다.The above objects, features and advantages will become more apparent from the following detailed description taken in conjunction with the accompanying drawings, whereby those skilled in the art may easily implement the technical idea of the present invention. There will be. In addition, in describing the present invention, when it is determined that the detailed description of the known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명에 따른 영상 기반 위치 및 자세 보정 장치가 적용되는 시스템 구성도이다.1 is a system configuration to which the image-based position and posture correction device according to the present invention is applied.
도 1을 참조하면, 삼선 스캐너를 구비한 카메라(100)는 인공위성이나 항공기와 같은 관측장치에 탑재된다. 따라서, 카메라(100)의 위치 및 자세 정보는 관측장치의 위치 및 자세 정보에 직결된다. 도 1을 참조하면, 삼선 스캐너는 관측 장치의 진행 방향의 직각 방향을 향하는 연직 스캐너(120), 상기 관측장치의 진행 방향과 상기 연직 스캐너(120)가 향하는 방향 사이의 임의 방향을 향하는 전방 스캐너(110), 및 상기 관측장치의 진행 방향과 반대되는 방향과 상기 연직 스캐너(120)가 향하는 방향 사이의 임의 방향을 향하는 후방 스캐너(130)로 이루어진다. 따라서, 연직 스캐너(120)와 전방 스캐너(110) 간의 각도와, 연직 스캐너(120)와 후방 스캐너(130)간의 각도는 90도 이하이다. 즉, 도 1에 도시된 바와 같이, 전방 스캐너(110)와 연직 스캐너(120)사이의 각도는 진행방향 쪽으로 90도 이하가 되고, 후방 스캐너(130)와 연직 스캐너(120)사이의 각도는 진행방향 반대방향으로 90도 이하가 된다. Referring to FIG. 1, a
위성항법장치(200)는 카메라(100)와 연결되어 카메라(100)의 위치를 결정한다. 위성항법장치(200)의 한 예로 GPS 수신기가 사용될 수 있다. 관성항법장치(300)는 카메라(100)와 연결되어 카메라(100)의 자세를 결정한다. 위성항법장치(200)와 관성항법장치(300)는 카메라(100)와 동일한 프레임에 물리적으로 고정설치된다. 위성 항법장치(200)와 관성항법장치(300)는 통상의 것이 사용될 수 있으므로, 그 구성에 대한 구체적인 설명은 생략한다. The
영상 기반 위치 및 자세 보정 장치(400)는 카메라(100)의 삼선 스캐너를 통해 입력되는 스캔라인 영상을 이용하여 카메라(100)의 위치 및 자세 보정 정보를 생성한다. 생성된 위치 및 자세 보정 정보는 각각 위성항법장치(200)와 관성항법장치(300)에 피드백되며, 카메라(100)의 위치 및 자세 정보는 보다 정밀하게 파악될 수 있다.The image-based position and
도2는 삼선 스캐너를 통해 획득된 영상간의 관계를 도시한 것이다.2 shows a relationship between images acquired through a three-wire scanner.
삼선 스캐너는 관측장치의 진행방향에 따라 전방 스캐너(110), 연직 스캐너(120), 후방 스캐너(130)로 구성된다. 따라서, 스캔라인 영상도 전방 스캐너(110)를 통해 생성되는 전방 스캐너 관측 영상(520), 연직 스캐너(120)를 통해 생성되는 연직 스캐너 관측 영상(510), 후방 스캐너(130)를 통해 생성되는 후방 스캐너 관측 영상(530)으로 이루어진다.The three-wire scanner is composed of the
관측 장치의 진행 방향을 기준으로 세 스캐너가 배열되기 때문에, 관측대상이 되는 지표면 또는 시설물은 먼저 전방 스캐너(110)에 의해 관측이 된다. 일정 시간(Δt1)이 지난 후, 관측대상은 연직 스캐너(120)에 의해 관측이 되고, 다시 일정 시간(Δt2)이 지난 후, 관측대상은 후방 스캐너(130)에 의해 관측이 된다.Since three scanners are arranged based on the traveling direction of the viewing device, the ground surface or facility to be observed is first observed by the
관측 장치가 등속 직선 운동을 하고 자세의 변화가 없는 관성 운동을 하는 경우, 전방 스캐너(110)와 연직 스캐너(120) 그리고 후방 스캐너(130) 사이의 관측 시간 간격은 동일하게 되며(즉, Δt1=Δt2), 세 스캐너(110,120,130)를 통하여 관측되는 영상간에도 위치 편차가 나타나지 않게 된다. When the observation device performs the constant velocity linear motion and the inertial motion with no change in posture, the observation time interval between the
반면에, 관측 장치가 등속 직선 운동과 관성 운동을 하지 않는 경우, 세 스 캐너를 통하여 관측되는 영상(510,520,530)간에는 도2에서와 같이 위치 편차가 나타나게 된다. 전방 스캐너 관측영상(510)과 연직 스캐너 관측영상(520)간의 영상 위치 편차는 화소단위로 (1,1)이고, 연직 스캐너 관측영상(520)과 후방 스캐너 관측영상(530)간의 영상 위치편차는 화소단위로 (1,2)이다. 본 발명에 따른 영상 기반 위치 및 자세 보정 장치(400)는 이러한 영상 위치 편차를 분석함으로써 카메라의 위치 및 자세 정보를 정밀하게 보정할 수 있게 한다.On the other hand, when the observation device does not perform constant velocity linear motion and inertial motion, position deviations appear between the
도 3은 본 발명에 따른 영상 기반 위치 및 자세 보정 장치(400)의 세부 블럭 구성도 이다. 3 is a detailed block diagram of the image-based position and
삼선 스캐너를 구비한 카메라(100)를 탑재한 관측장치가 전방으로 진행함에 따라 삼선 카메라에 의해 차례대로 전방 스캐너 관측영상(510), 연직 스캐너 관측영상(520), 후방 스캐너 관측영상(530)이 생성된다. 생성된 관측영상(510,520,530)은 영상 기반 위치 및 자세 보정 장치(400)에 입력된다.As the observation apparatus equipped with the
전방 스캐너 관측영상(510)은 제1 버퍼 메모리(410)에 임시로 저장된다. 이후, 영상 정합부(430)는 임시로 저장된 전방 스캐너 관측영상(510)과, 연직 스캐너(120)를 통해 실시간으로 관측되어 입력되는 연직 스캐너 관측영상(520)에 대해 영상정합을 수행하여 두 영상(510,520)간에 화소단위의 영상 위치편차(Δu1, Δv1)를 계산한다. 영상정합은 영역기준 정합방법이나 형상기준 정합방법과 같이 이미 알려진 다양한 방법으로 수행될 수 있다. The forward
연직 스캐너(120)와 후방 스캐너(130)를 통해 관측되는 영상에 대해서도 동 일한 과정이 적용된다. 즉, 연직 스캐너 관측영상(520)은 제2 버퍼 메모리(420)에 임시로 저장된다. 이후, 영상 정합부(430)는 임시로 저장된 연직 스캐너 관측영상(520)과, 후방 스캐너(130)를 통해 실시간으로 관측되어 입력되는 후방 스캐너 관측영상(530)에 대해 영상정합을 수행하여 영상(520,530)간에 화소단위의 영상 위치편차(Δu2, Δv2)를 계산한다. 영상정합은 영역기준 정합방법이나 형상기준 정합방법과 같이 이미 알려진 다양한 방법으로 수행될 수 있다.The same process applies to the images observed through the
전방 스캐너 관측영상(510)과 연직 스캐너 관측영상(520)간의 제1 영상 위치편차 관련정보(Δu1, Δv1, tf, tn)와, 연직 스캐너 관측영상(520)과 후방 스캐너 관측영상(530)간의 제2 영상 위치편차 관련정보(Δu2, Δv2, tn, tr)는 칼만필터(Kalman Filter) 처리부(440)에 입력된다. The first image position deviation related information Δu 1 , Δv 1 , between the front scanner observed
제1 영상 위치편차 관련정보(Δu1, Δv1, tf, tn)는 전방 스캐너 관측영상(510)과 연직 스캐너 관측영상(520)간의 영상 위치편차(Δu1, Δv1), 전방 스캐너 관측영상(510)이 생성된 시각(tf), 연직 스캐너 관측영상(520)이 생성된 시각(tn)으로 구성된다.Information related to the first image position deviation (Δu 1 , Δv 1 , t f , t n ) is the image position deviation Δu 1 , Δv 1 between the front
제2 영상 위치편차 관련정보(Δu2, Δv2, tn, tr)는 연직 스캐너 관측영상(520)과 후방 스캐너 관측영상(530)간의 영상 위치편차(Δu2, Δv2), 연직 스캐너 관측영상(520)이 생성된 시각(tn), 후방 스캐너 관측영상(530)이 생성된 시각(tr)으 로 구성된다.Second image position deviation related information (Δu 2 , Δv 2 , t n , t r ) is the image position deviation Δu 2 , Δv 2 between the vertical
칼만 필터 처리부(440)는 제1 및 제2 영상 위치편차 관련정보, 위성항법장치(200)로부터 입력되는 tn 시점의 카메라 위치정보(x, y, z, tn)와, 관성항법장치(300)로부터 입력되는 tn 시점의 카메라 자세정보(ω,κ,φ,tn)로부터, 위치 및 자세 보정 정보(x',y',z',ω',κ',φ',tm)를 추정하여 생성한다. 위치 및 자세 보정 정보는 영상 생성이 이루어지는 매 시간 간격에 대해서 국부적으로 계산된 카메라의 위치 및 자세 변화를 담고 있다. 여기에서 시각 tm은 전방 스캐너 관측영상(510)이 만들어진 시각(tf)과, 후방 스캐너 관측영상(530)이 만들어진 시각(tb )사이에서 존재하는 임의의 시각이다. 영상 생성이 이루어지는 시간 간격은 통상의 위성항법장치나 관성항법장치에 의해 제한되는 시간 간격보다 짧은 시간 간격으로 이루어 질 수 있다. The Kalman
도 4는 본 발명에 따른 칼만 필터 처리부(440)의 세부 블럭구성도이다. 투영 변환부(442)는 카메라 위치정보(x, y, z, tn)와 카메라 자세정보(ω,κ,φ,tn)에 의해 정의되는 7개의 매개 변수 (x, y, z, ω,κ,φ,tn)를 제1 및 제2 영상 위치편차 관련정보에 의해 정의되는 7개의 매개 변수 (Δu1, Δv1,Δu2, Δv2, tf, tn, tb)에 적용하는 투영 변환을 수행하고, 그 결과를 카메라 위치 정보를 나타내는 매개 변수 (x, y, z)에 적용하여 실세계 위치 편차를 나타내는 매개 변수(δx, δy, δz)를 계산한다.4 is a detailed block diagram of the
이어서, 칼만필터(444)는 위치 및 자세 정보를 나타내는 매개 변수 (x, y, z, ω,κ,φ,tn)와 실세계 위치 편차를 나타내는 매개 변수(δx, δy, δz)로부터 최적화된 위치 및 자세 편차에 대한 추정치를 나타내는 매개 변수 (Δx,Δy, Δz, Δω,Δκ,Δφ)를 계산한다.The
편차 수정부(446)는 위치 및 자세 편차에 대한 추정치를 나타내는 매개 변수 (Δx,Δy, Δz, Δω,Δκ,Δφ)를 이용하여 위치 및 자세 정보위치 및 자세 정보를 나타내는 매개 변수 (x, y, z, ω,κ,φ,tn)의 편차를 수정함으로써, 주어진 시각 tm에 대해서 최적화되어 추정된 위치 및 자세 보정 정보(x', y', z', ω', κ' ,φ', tm)를 산출한다. The
tf와 tb 사이에서 존재하는 임의의 시각 tm에 대해 최적화되어 추정된 위치 및 자세 보정 정보(x', y', z', ω', κ' ,φ', tm)는 위치 보정 정보 (x', y', z', tm)와 자세 보정 정보 (ω', κ' ,φ', tm)로 분리된다. 분리된 위치 보정 정보와 자세 보정 정보는 위성항법장치(200)와 관성항법장치(300)에 각각 피드백되어 카메라의 위치와 자세 정보를 정밀하게 보정하기 위해 사용된다.The estimated position and attitude correction information (x ', y', z ', ω', κ ', φ', t m ) optimized for any time t m existing between t f and t b is the position correction Information (x ', y', z ', t m ) and posture correction information (ω', κ ', φ', t m ). The separated position correction information and attitude correction information are fed back to the
이와 같이 삼선 스캐너 영상을 분석하여 얻어지는 보정 정보를 피드백하여 위치 및 자세 정보의 정밀도를 향상시키는 기술은 즉석처리 접근방식(Onboard Processing Approach)은 물론 후처리 접근방식(Postprocessing Approach)에 의해서도 진행될 수 있다. The technique of improving the accuracy of position and posture information by feeding back the correction information obtained by analyzing the three-wire scanner image may be performed by an onboard processing approach as well as a postprocessing approach.
즉석처리 접근방식은 인공위성이나 항공기에서 삼선 스캐너를 통하여 영상을 관측하는 동시에, 위치 및 자세 보정 정보를 위성항법장치와 관성항법장치에 피드백하여 위치 및 자세 정보의 정밀도를 향상시키고, 보정된 위치와 자세 정보를 삼선 스캐너를 통하여 얻어지는 영상에 곧 바로 적용(즉, 기록)하는 것을 의미한다.The instant processing approach observes images from a satellite or aircraft through a three-wire scanner, while feeding position and attitude correction information back to the satellite and inertial navigation units to improve the accuracy of the position and attitude information, and correct the corrected position and attitude. This means applying information (ie, recording) directly to an image obtained through a three-wire scanner.
후처리 접근방식은 위성항법장치와 관성항법장치로부터 얻어지는 위치 및 자세 정보와 삼선 스캐너를 통하여 얻어지는 영상정보를 있는 그대로 기록하고, 추후에 별도의 처리 과정을 통하여 위치 및 자세 정보의 정밀도를 향상시키는 것을 의미한다.The post-processing approach records the position and attitude information obtained from the satellite navigation system and the inertial navigation system and the image information obtained through the three-wire scanner as it is, and further improves the accuracy of the position and attitude information through a separate process. it means.
본 발명에 따른 위치 및 자세 보정 방법은 프로그램으로 구현되어 컴퓨터로 읽을 수 있는 형태의 기록매체(씨디롬, 램, 롬, 플로피 디스크, 하드 디스크, 광자기 디스크 등)에 저장될 수 있다. The position and posture correction method according to the present invention may be implemented as a program and stored in a computer-readable recording medium (CD-ROM, RAM, ROM, floppy disk, hard disk, magneto-optical disk, etc.).
본 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 전술한 본 발명의 내용을 여러 가지 치환, 변형 및 변경이 가능하므로 본 발명의 기술적 범위는 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.Persons having ordinary skill in the art to which the present invention pertains can make various substitutions, modifications, and changes to the above-described contents of the present invention without departing from the technical spirit of the present invention. It is not limited by the embodiment and the accompanying drawings.
본 발명은 인공위성이나 항공기 등의 수송 수단에 탑재된 카메라를 통하여 관측된 영상에 대해 지상기준점(Ground Control Point)을 사용하지 않고도 카메라의 외부표정요소(Exterior Orientation Parameters)를 정밀하게 결정할 수 있도록 한다.The present invention enables to accurately determine the exterior orientation parameters of a camera without using a ground control point for an image observed through a camera mounted on a vehicle such as a satellite or an aircraft.
또한, 본 발명은 보다 짧은 시간 간격에 대해서 카메라의 위치와 자세 정보를 더욱 정밀하게 결정할 수 있도록 해주는 효과가 있다. In addition, the present invention has an effect that allows to determine the position and attitude information of the camera more precisely for a shorter time interval.
Claims (12)
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2005312922A JP5127128B2 (en) | 2004-12-21 | 2005-10-27 | Camera position and orientation information correction method and apparatus |
| US11/285,529 US7908106B2 (en) | 2004-12-21 | 2005-11-21 | Apparatus for correcting position and attitude information of camera and method thereof |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR20040109575 | 2004-12-21 | ||
| KR1020040109575 | 2004-12-21 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20060071077A KR20060071077A (en) | 2006-06-26 |
| KR100797391B1 true KR100797391B1 (en) | 2008-01-28 |
Family
ID=37164628
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020050037882A Expired - Fee Related KR100797391B1 (en) | 2004-12-21 | 2005-05-06 | Camera position and attitude information correction method and device |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR100797391B1 (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR100435816B1 (en) * | 2001-01-19 | 2004-06-12 | 한국과학기술연구원 | Organotitanium Precursors for Chemical Vapor Deposition and Manufacturing Method Thereof |
| KR101520596B1 (en) * | 2015-01-07 | 2015-05-21 | 주식회사 토페스 | Closed circuit television |
Families Citing this family (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP2235556A1 (en) | 2007-12-11 | 2010-10-06 | Qualcomm Incorporated | Gnss method and receiver with camera aid |
| KR101150510B1 (en) * | 2010-08-27 | 2012-05-31 | (주)아세아항측 | Method for Generating 3-D High Resolution NDVI Urban Model |
| KR101308244B1 (en) * | 2011-09-07 | 2013-09-13 | 인하대학교 산학협력단 | Tower crane of automatic bolting device |
| KR20240020560A (en) | 2022-08-08 | 2024-02-15 | 한화시스템 주식회사 | Learning data generation method and operating method of satellite using the same |
| CN120431165B (en) * | 2025-07-04 | 2025-09-23 | 中国测绘科学研究院 | Tower base video image automatic positioning method and system |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20010041187A (en) * | 1998-02-20 | 2001-05-15 | 가부시키가이샤 비자이 | Packaging bottle with carrying handle |
| US20020004691A1 (en) | 2000-03-10 | 2002-01-10 | Yasuhiro Kinashi | Attitude determination and alignment using electro-optical sensors and global navigation satellites |
| KR20030005749A (en) * | 2001-07-10 | 2003-01-23 | (주)한양 | Apparatus and method of measuring position of three dimensions |
| KR20030044685A (en) * | 2001-11-30 | 2003-06-09 | 엘지이노텍 주식회사 | System for underwater navigation |
| KR20050025836A (en) * | 2003-09-08 | 2005-03-14 | 삼성전자주식회사 | Methods and apparatuses for compensating attitude of and locating inertial navigation system |
-
2005
- 2005-05-06 KR KR1020050037882A patent/KR100797391B1/en not_active Expired - Fee Related
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20010041187A (en) * | 1998-02-20 | 2001-05-15 | 가부시키가이샤 비자이 | Packaging bottle with carrying handle |
| US20020004691A1 (en) | 2000-03-10 | 2002-01-10 | Yasuhiro Kinashi | Attitude determination and alignment using electro-optical sensors and global navigation satellites |
| KR20030005749A (en) * | 2001-07-10 | 2003-01-23 | (주)한양 | Apparatus and method of measuring position of three dimensions |
| KR20030044685A (en) * | 2001-11-30 | 2003-06-09 | 엘지이노텍 주식회사 | System for underwater navigation |
| KR20050025836A (en) * | 2003-09-08 | 2005-03-14 | 삼성전자주식회사 | Methods and apparatuses for compensating attitude of and locating inertial navigation system |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR100435816B1 (en) * | 2001-01-19 | 2004-06-12 | 한국과학기술연구원 | Organotitanium Precursors for Chemical Vapor Deposition and Manufacturing Method Thereof |
| KR101520596B1 (en) * | 2015-01-07 | 2015-05-21 | 주식회사 토페스 | Closed circuit television |
Also Published As
| Publication number | Publication date |
|---|---|
| KR20060071077A (en) | 2006-06-26 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US7908106B2 (en) | Apparatus for correcting position and attitude information of camera and method thereof | |
| EP2133662B1 (en) | Methods and system of navigation using terrain features | |
| CN109059906B (en) | Vehicle positioning method and device, electronic equipment and storage medium | |
| US8213706B2 (en) | Method and system for real-time visual odometry | |
| KR101192825B1 (en) | Apparatus and method for lidar georeferencing based on integration of gps, ins and image at | |
| JP6950832B2 (en) | Position coordinate estimation device, position coordinate estimation method and program | |
| CN112005079B (en) | System and method for updating high-definition map | |
| US20080319664A1 (en) | Navigation aid | |
| JP2016057108A (en) | Arithmetic apparatus, arithmetic system, arithmetic method and program | |
| WO2011120141A1 (en) | Dynamic network adjustment for rigorous integration of passive and active imaging observations into trajectory determination | |
| JP2009501996A (en) | Image geometric correction method and apparatus | |
| JP2012127896A (en) | Mobile object position measurement device | |
| EP2175237A1 (en) | System and methods for image-based navigation using line features matching | |
| JP2008249555A (en) | Position-specifying device, position-specifying method, and position-specifying program | |
| Caballero et al. | Improving vision-based planar motion estimation for unmanned aerial vehicles through online mosaicing | |
| JP7665207B2 (en) | Method for creating a correction function to improve the accuracy of a GPS device - Patents.com | |
| JP4436632B2 (en) | Survey system with position error correction function | |
| US20140286537A1 (en) | Measurement device, measurement method, and computer program product | |
| WO2015168460A1 (en) | Dead reckoning system based on locally measured movement | |
| Mounier et al. | LiDAR-based multi-sensor fusion with 3D digital maps for high-precision positioning | |
| KR100797391B1 (en) | Camera position and attitude information correction method and device | |
| KR100901312B1 (en) | Apparatus for generating terrain data of autonomous mobile platform, autonomous mobile platform having same, and method of generating terrain data of autonomous mobile platform | |
| US20030118213A1 (en) | Height measurement apparatus | |
| JP6773473B2 (en) | Survey information management device and survey information management method | |
| Li et al. | Image-based self-position and orientation method for moving platform |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A201 | Request for examination | ||
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| T11-X000 | Administrative time limit extension requested |
St.27 status event code: U-3-3-T10-T11-oth-X000 |
|
| T11-X000 | Administrative time limit extension requested |
St.27 status event code: U-3-3-T10-T11-oth-X000 |
|
| T11-X000 | Administrative time limit extension requested |
St.27 status event code: U-3-3-T10-T11-oth-X000 |
|
| AMND | Amendment | ||
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| E601 | Decision to refuse application | ||
| PE0601 | Decision on rejection of patent |
St.27 status event code: N-2-6-B10-B15-exm-PE0601 |
|
| AMND | Amendment | ||
| J201 | Request for trial against refusal decision | ||
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| PJ0201 | Trial against decision of rejection |
St.27 status event code: A-3-3-V10-V11-apl-PJ0201 |
|
| PB0901 | Examination by re-examination before a trial |
St.27 status event code: A-6-3-E10-E12-rex-PB0901 |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| B701 | Decision to grant | ||
| PB0701 | Decision of registration after re-examination before a trial |
St.27 status event code: A-3-4-F10-F13-rex-PB0701 |
|
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R13-asn-PN2301 St.27 status event code: A-5-5-R10-R11-asn-PN2301 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 4 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 5 |
|
| L13-X000 | Limitation or reissue of ip right requested |
St.27 status event code: A-2-3-L10-L13-lim-X000 |
|
| U15-X000 | Partial renewal or maintenance fee paid modifying the ip right scope |
St.27 status event code: A-4-4-U10-U15-oth-X000 |
|
| FPAY | Annual fee payment | ||
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 6 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R11-asn-PN2301 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R14-asn-PN2301 |
|
| FPAY | Annual fee payment |
Payment date: 20140416 Year of fee payment: 7 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 7 |
|
| P14-X000 | Amendment of ip right document requested |
St.27 status event code: A-5-5-P10-P14-nap-X000 |
|
| P16-X000 | Ip right document amended |
St.27 status event code: A-5-5-P10-P16-nap-X000 |
|
| Q16-X000 | A copy of ip right certificate issued |
St.27 status event code: A-4-4-Q10-Q16-nap-X000 |
|
| FPAY | Annual fee payment |
Payment date: 20150116 Year of fee payment: 8 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 8 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R13-asn-PN2301 St.27 status event code: A-5-5-R10-R11-asn-PN2301 |
|
| FPAY | Annual fee payment |
Payment date: 20160112 Year of fee payment: 9 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 9 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |
|
| LAPS | Lapse due to unpaid annual fee | ||
| PC1903 | Unpaid annual fee |
St.27 status event code: A-4-4-U10-U13-oth-PC1903 Not in force date: 20170118 Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE |
|
| PC1903 | Unpaid annual fee |
St.27 status event code: N-4-6-H10-H13-oth-PC1903 Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE Not in force date: 20170118 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |