[go: up one dir, main page]

KR100933297B1 - 3D Coordinate Extraction Method Using Spherical Image from WPS / INS Device and Omnidirectional Camera - Google Patents

3D Coordinate Extraction Method Using Spherical Image from WPS / INS Device and Omnidirectional Camera Download PDF

Info

Publication number
KR100933297B1
KR100933297B1 KR1020090081164A KR20090081164A KR100933297B1 KR 100933297 B1 KR100933297 B1 KR 100933297B1 KR 1020090081164 A KR1020090081164 A KR 1020090081164A KR 20090081164 A KR20090081164 A KR 20090081164A KR 100933297 B1 KR100933297 B1 KR 100933297B1
Authority
KR
South Korea
Prior art keywords
spherical
image
point
spherical image
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR1020090081164A
Other languages
Korean (ko)
Inventor
신진수
Original Assignee
(주)지에스엠솔루션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)지에스엠솔루션 filed Critical (주)지에스엠솔루션
Priority to KR1020090081164A priority Critical patent/KR100933297B1/en
Application granted granted Critical
Publication of KR100933297B1 publication Critical patent/KR100933297B1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)

Abstract

본 발명은 GPS/INS 장비와 전방위 카메라로부터 획득한 구면 영상에서 3차원 지상좌표를 추출하는 방법에 관한 것으로서, 보다 상세하게는 전방위 카메라를 이용하여 획득한 영상과 GPS/INS 장비를 이용하여 획득한 위치정보 및 자세정보를 이용하여 구면 영상과 영상에서의 기지점 좌표를 획득하고, 구-평면 변환모델을 이용하여 구면 영상에서 특정 지점에 대한 지상좌표를 신속하게 얻거나, 반대로 특정 지상좌표에 해당하는 구면 영상에서의 좌표를 신속하게 얻는 방법에 관한 것이다. The present invention relates to a method for extracting three-dimensional terrestrial coordinates from spherical images obtained from GPS / INS equipment and omnidirectional cameras. More particularly, the present invention relates to an image obtained by using an omnidirectional camera and GPS / INS equipment. Acquisition of known point coordinates in spherical images and images using location information and attitude information, and quickly obtain ground coordinates for a specific point in spherical images using spherical-plane transformation model, or conversely, A method for quickly obtaining coordinates in a spherical image.

본 발명의 전방위 카메라로부터 획득한 구면 영상에서 3차원 지상좌표를 추출하는 방법은 (S10) 전방위 카메라로부터 주변 영상들을 취득하는 단계; (S20) GPS/INS 장비로부터 상기 전방위 카메라의 위치정보 및 자세정보를 취득하는 단계; (S30) 상기 GPS/INS 장비로부터 취득한 위치정보 및 자세정보를 활용하여 상기 전방위 카메라로부터 취득한 주변 영상들로부터 구면 영상을 취득하는 단계; (S40) [구-평면 변환 모델]을 이용하여 상기 구면 영상 상의 특정 지점에 대한 3차원 지상좌표(X, Y, Z)를 추출하는 단계;를 포함하여 이루어진다. Method for extracting three-dimensional ground coordinates from the spherical image obtained from the omni-directional camera of the present invention (S10) obtaining the surrounding images from the omnidirectional camera; (S20) obtaining location information and attitude information of the omnidirectional camera from a GPS / INS device; (S30) acquiring a spherical image from the surrounding images obtained from the omnidirectional camera by using the position information and the attitude information acquired from the GPS / INS equipment; (S40) extracting three-dimensional ground coordinates (X, Y, Z) for a specific point on the spherical image by using a [spherical-plane transformation model].

Description

GPS/INS장비와 전방위 카메라로부터 취득한 구면 영상을 이용한 3차원 좌표 추출 방법{Exteraction methods of 3-dimensional coordinate from aspherical image acquired by omnidirectical camera and GPS/INS}Extraction method of 3-dimensional coordinate from aspherical image acquired by omnidirectical camera and GPS / INS}

본 발명은 GPS/INS 장비와 전방위 카메라로부터 획득한 구면 영상에서 3차원 지상좌표를 추출하는 방법에 관한 것으로서, 보다 상세하게는 전방위 카메라를 이용하여 획득한 영상과 GPS/INS 장비를 이용하여 획득한 위치정보 및 자세정보를 이용하여 구면 영상과 영상에서의 기지점 좌표를 획득하고, 구-평면 변환모델을 이용하여 구면 영상에서 특정 지점에 대한 지상좌표를 신속하게 얻거나, 반대로 특정 지상좌표에 해당하는 구면 영상에서의 좌표를 신속하게 얻는 방법에 관한 것이다. The present invention relates to a method for extracting three-dimensional terrestrial coordinates from spherical images obtained from GPS / INS equipment and omnidirectional cameras. More particularly, the present invention relates to an image obtained by using an omnidirectional camera and GPS / INS equipment. Acquisition of known point coordinates in spherical images and images using location information and attitude information, and quickly obtain ground coordinates for a specific point in spherical images using spherical-plane transformation model, or conversely, A method for quickly obtaining coordinates in a spherical image.

영상에서 특정 지점에 대한 지상좌표를 추출하는 방법으로는 동일지역을 다른 방향에서 촬영한 2장의 영상을 이용하는 방식과, 하나의 영상과 레이저 스캐너 데이터를 이용하는 방식이 있다. There are two methods of extracting the ground coordinates of a specific point from an image using two images of the same region taken from different directions, and using one image and laser scanner data.

전자의 경우에는 카메라가 획득한 2장의 영상과, 카메라와 같이 이동체(예; 비행기, 자동차 등)에 탑재된 GPS/INS가 획득한 카메라의 위치정보와 자세정보를 공선조건식에 적용하여 영상의 특정 지점에 대한 3차원 위치를 추출한다. In the former case, two images obtained by the camera and the position and attitude information of the camera acquired by the GPS / INS mounted on the moving object (eg, airplane, car, etc.), such as the camera, are applied to the collinear condition equation. Extract the three-dimensional position of the point.

그리고 후자의 경우에는 카메라가 획득한 1장의 영상과, GPS/INS가 획득한 카메라의 위치정보와 자세정보와, 레이저 스캐너 장비가 획득한 카메라와 지상과의 거리정보를 이용하여 영상의 특정 지점에 대한 3차원 위치를 추출한다. In the latter case, a single image obtained by the camera, position and attitude information of the camera acquired by GPS / INS, and distance information between the camera and the ground obtained by the laser scanner equipment are used to determine a specific point of the image. Extract the 3D position for.

전자의 방식은 동일 지역을 다른 방향에서 촬영한 2장의 영상이 필요하고, 후자의 방식은 고가의 레이저 스캐너 장비가 필요하다는 불편이 있다. The former method requires two images of the same area taken from different directions, and the latter method requires expensive laser scanner equipment.

참고로, GPS/INS 장비는 인공위성을 이용하여 3차원 위치를 결정하는 GPS와, 각속도 운동 및 가속도 운동을 감지하는 관성 계측 장치와 항법 계산기를 포함하는 INS를 결합한 장비로서, INS 센서 자체의 각종 오차와 양자화 오차 및 누적 오차를 GPS를 통해 보정해주어 GPS/INS가 탑재된 이동체의 절대적인 3차원 위치정보와 자세정보를 제공해 준다. For reference, GPS / INS equipment is a combination of GPS that determines three-dimensional position using satellite, INS including inertial measurement device that detects angular velocity motion and acceleration motion and navigation calculator, and various errors of INS sensor itself. And the quantization error and the cumulative error are corrected through GPS to provide absolute three-dimensional position information and attitude information of the moving object equipped with GPS / INS.

본 발명은 상기와 바와 같이 영상에서 특정 지점에 대한 3차원 지상좌표를 획득하기 위해 동일 지역을 다른 방향에서 촬용한 2장 이상의 영상이 필요하거나, 고가의 레이저 스캐너 장비가 추가적으로 필요하지 않고, 하나의 구면 영상에서 특정 지점에 대한 3차원 지상좌표를 신속 간편하게 추출할 수 있는 전방위 카메라로 부터 획득한 구면 영상에서 3차원 지상좌표를 추출하는 방법을 제공함을 목적으로 한다. As described above, the present invention requires two or more images of the same area taken from different directions in order to obtain three-dimensional ground coordinates of a specific point in the image, or does not require an expensive laser scanner. An object of the present invention is to provide a method of extracting three-dimensional ground coordinates from a spherical image obtained from an omnidirectional camera capable of quickly and easily extracting three-dimensional ground coordinates of a specific point in a spherical image.

이와 같은 목적을 달성하기 위한 본 발명의 GPS/INS 장비와 전방위 카메라로부터 취득한 구면 영상을 이용한 3차원 좌표 추출 방법은 3D coordinate extraction method using a spherical image obtained from the GPS / INS equipment and the omnidirectional camera of the present invention for achieving the above object

(S10) 전방위 카메라로부터 주변 영상들을 취득하는 단계;(S10) acquiring surrounding images from the omnidirectional camera;

(S20) GPS/INS 장비로부터 상기 전방위 카메라의 위치정보 및 자세정보를 취득하는 단계;(S20) obtaining location information and attitude information of the omnidirectional camera from a GPS / INS device;

(S30) 상기 GPS/INS 장비로부터 취득한 위치정보 및 자세정보를 활용하여 상기 전방위 카메라로부터 취득한 주변 영상들로부터 구면 영상을 취득하는 단계;(S30) acquiring a spherical image from the surrounding images obtained from the omnidirectional camera by using the position information and the attitude information acquired from the GPS / INS equipment;

(S40) [구-평면 변환 모델]을 이용하여 상기 구면 영상 상의 특정 지점에 대한 3차원 지상좌표(X, Y, Z)를 추출하는 단계;를 포함하여 이루어진다. (S40) extracting three-dimensional ground coordinates (X, Y, Z) for a specific point on the spherical image by using a [spherical-plane transformation model].

그리고 상기 (S40)단계는And the (S40) step

(S41) 구면 영상에서 기지점의 좌표 (X0, Y0, Z0)에서 Z0 값과, 특정 지점의 구면 영상에서의 팬과 틸트 각도인 φ값과 λ값을 [구-평면 변환 모델]에 적용하여 특정 지점에 대한 좌표 X값과 Y값을 구하는 단계와, (S41) By applying the Z0 value at the coordinates (X0, Y0, Z0) of the known point in the spherical image and the φ value and λ value, which are the pan and tilt angles in the spherical image at the specific point, are applied to the [Spherical-Plane Transformation Model]. Obtaining coordinates X and Y values for the point,

(S46) 구면 영상에서 기지점에서 상기 특정 지점까지 지형지물의 변화는 수평과 수직으로만 변화된다는 가정하에, 상기 기지점에서 특정 지점까지의 영상 변 화 특성을 이용하여 특정지점의 고도 값(Z)을 구하는 단계를 포함하는 것을 특징으로 하고, (S46) Assuming that the change of the feature from the known point to the specific point in the spherical image is changed only horizontally and vertically, the altitude value Z of the specific point is obtained using the image change characteristic from the known point to the specific point. Characterized in that it comprises a step,

상기 [구-평면 변환 모델]은 The spherical-plane transformation model

X = NㆍcosφㆍcosλX = N, cosφ, cosλ

Y = NㆍcosφㆍsinλY = N, cosφ, sinλ

Z = Nㆍsinφ 로서, Z = N · sinφ,

여기서, (X, Y, Z)는 구하고자 하는 특정 지점의 3차원 지상좌표이고, Here, (X, Y, Z) is the three-dimensional ground coordinates of a specific point to be obtained,

(φ, λ)는 구면 영상에서의 팬과 틸트 값이고, (φ, λ) are pan and tilt values in the spherical image,

N은 구면 영상의 구 반지름이다.N is the sphere radius of the spherical image.

위와 같은 구성을 갖는 본 발명에 따른 전방위 카메라로부터 획득한 구면 영상에서 3차원 지상좌표를 추출하는 방법은 촬영된 영상에서 3차원 위치정보를 추출하기 위해 2장 이상의 영상이 필요 없이 하나의 구면영상으로 충분하고, 3차원 위치정보의 추출도 간이 신속하게 행해진다. The method of extracting three-dimensional ground coordinates from the spherical image obtained from the omnidirectional camera according to the present invention having the above configuration has a single spherical image without the need for two or more images to extract the three-dimensional position information from the photographed image. It is sufficient, and the extraction of the three-dimensional positional information is also performed quickly.

이하에서는 도면을 참조하여 본 발명을 보다 구체적으로 설명한다. Hereinafter, with reference to the drawings will be described the present invention in more detail.

도1은 본 발명에 따른 전방위 카메라로부터 획득한 구면 영상에서 3차원 지 상좌표를 추출하는 방법의 절차도로서, 본 발명은 전방위 카메라로부터 영상을 획득하는 단계(S10), GPS/INS 장비로부터 위치정보와 자세정보를 획득하는 단계(S20), 구면 영상을 획득하는 단계(S30), 구면 영상에서 특정 지점에 대한 3차원 지상좌표를 추출하는 단계(S40)를 포함하여 이루어진다. 1 is a flowchart illustrating a method of extracting 3D ground coordinates from a spherical image obtained from an omnidirectional camera according to the present invention. Obtaining the information and the attitude information (S20), obtaining the spherical image (S30), and extracting the three-dimensional ground coordinates of the specific point from the spherical image (S40).

상기 S10단계에서는 전방위 카메라로부터 주변 영상을 취득한다. 상기 전방위 카메라는 주변 전방위(전후, 좌우, 상하 방향)에 대한 영상을 한번에 촬영하는 카메라로서, 일반적으로 도2에서 보는 바와 같이 구 형상의 하우징에 다수의 카메라모듈이 전방향을 향하도록 배열되어 결합되어 있다. In step S10, the surrounding image is acquired from the omnidirectional camera. The omnidirectional camera is a camera for capturing an image of the surrounding omnidirectional (front, rear, left and right directions) at a time, and as shown in FIG. 2, a plurality of camera modules are arranged in a spherical housing so as to face all directions. It is.

상기 S20단계에서는 GPS/INS 장비로부터 GPS/INS 장비의 위치정보와 자세정보를 취득한다. In step S20, position information and attitude information of the GPS / INS device are acquired from the GPS / INS device.

상기 전방위 카메라와 GPS/INS 장비는 자동차와 같은 이동체에 함께 탑재되고, 이동체가 이동함에 따라 주변 영상과 위치정보 및 자세정보를 연속적으로 취득한다. 그리고 GPS/INS 장비가 취득하는 위치정보 및 자세정보는 GPS/INS 장비 자체의 위치정보 및 자세정보이지만, 전방위 카메라와 GPS/INS 장비가 같은 이동체에 탑재되므로 오차를 보정하면 전방위 카메라의 위치정보 및 자세정보 또는 이동체 위치정보 및 자세정보가 된다. The omnidirectional camera and the GPS / INS equipment are mounted together in a moving object such as a car, and continuously acquire surrounding images, position information, and attitude information as the moving object moves. The location information and attitude information acquired by the GPS / INS device are the location information and the attitude information of the GPS / INS device itself. However, since the omnidirectional camera and the GPS / INS device are mounted on the same moving object, when the error is corrected, Posture information or moving object position information and posture information.

상기 S30단계에서는 전 단계에서 위치정보 및 자세정보를 이용하여 전방위 카메라가 촬용한 주변 영상들로부터 구면 영상을 취득한다. In step S30, the spherical image is acquired from the surrounding images photographed by the omnidirectional camera using the position information and the attitude information in the previous step.

전방위 카메라가 촬영한 주변 영상들로부터 구면 영상을 취득하는 방법은 공지된 기술이므로 이에 대한 구체적인 설명은 생략한다. Since a method for acquiring spherical images from surrounding images captured by the omnidirectional camera is a well-known technique, a detailed description thereof will be omitted.

구면 영상은 전방위 카메라의 위치마다 생성되고, 도2는 전방위 카메라로부터 촬영한 주변 영상들로부터 취득한 구면 영상의 일례로서, 도2의 중심에 전방위 카메라가 위치한 상태의 구면 영상이다. A spherical image is generated for each position of the omnidirectional camera, and FIG. 2 is an example of a spherical image obtained from surrounding images taken from the omnidirectional camera, and is a spherical image in which the omnidirectional camera is located in the center of FIG.

상기 S40단계에서는 [구-평면 변환모델]을 이용하여 구면 영상에서 특정 지점에 대한 3차원 지상좌표를 추출한다. In step S40, a three-dimensional ground coordinate of a specific point is extracted from the spherical image using the [spherical-plane conversion model].

상기 [구-평면 변환모델]은 도3에서와 같이 구를 평면으로 펼친 경우에 이들의 관계를 나타내며, 이는 구에서의 좌표인 반지름 (N)과, 팬값 (φ)와, 틸트값 (λ)로부터 직각좌표인 3차원 지상좌표 (X, Y, Z)를 구하기 위한 모델이다.[Sphere-Plane Transformation Model] shows the relationship when the sphere is unfolded as shown in Fig. 3, which is the radius (N), the pan value (φ) and the tilt value (λ), which are the coordinates of the sphere. It is a model for obtaining three-dimensional ground coordinates (X, Y, Z), which are rectangular coordinates.

그리고 이들의 관계, 즉, 구의 좌표와 평면 직각좌표의 관계를 나타내는 [구-평면 변환모델]는 아래의 수식과 같다. And the [sphere-plane transformation model] representing these relations, that is, the relationship between the coordinates of the sphere and the rectangular coordinates of the plane, is expressed by the following equation.

X = NㆍcosφㆍcosλX = N, cosφ, cosλ

Y = NㆍcosφㆍsinλY = N, cosφ, sinλ

Z = NㆍsinφZ = N

또는, or,

φ = arctan(Z/P)φ = arctan (Z / P)

λ = arctan(Y/Z)λ = arctan (Y / Z)

여기서, P = (X^2 + Y^2)^(1/2) 이다.Where P = (X ^ 2 + Y ^ 2) ^ (1/2).

그리고 구면 영상에서 구의 반지름 N은 미지의 값이다. 즉, 3차원으로 촬영한 구면 영상에서 3차원 지상의 지면을 구면으로 할 것인지, 건물을 구면으로 할 것인지, 하늘을 구면으로 할 것인지 기준을 정할 수 없다. 또한, 본 발명에서는 지상좌표를 추출함에 있어 N 값을 직접 이용하지 않으므로 구면의 기준을 설정하는 것도 의미가 없다. In the spherical image, the radius N of the sphere is unknown. That is, it is not possible to determine whether to make the ground of the three-dimensional ground sphere, the building the sphere, or the sky the sphere in the spherical image photographed in three dimensions. In addition, in the present invention, since the N value is not directly used to extract the ground coordinates, it is not meaningful to set the spherical reference.

구면 영상에서 지상좌표를 추출함에 있어, N을 직접 이용하지 않으므로, 상기 [구-평면 변환모델]의 수식은 아래와 같이 수정된다. In extracting the ground coordinates from the spherical image, since N is not directly used, the equation of the [spherical-plane conversion model] is modified as follows.

Z = Nㆍsinφ ☞ N = Z/sinφZ = N · sinφ ☞ N = Z / sinφ

X = Z/sinφㆍcosφㆍcosλX = Z / sinφ · cosφ · cosλ

Y = Z/sinφㆍcosφㆍsinλY = Z / sin φ cos φ sin λ

이와 같이 수정된 수식에서 알 수 있듯이, 구면 영상에서 특정 지점에 대한 지상좌표 X, Y는 구면 영상에서 특정 지점의 팬값 φ과 틸트값 λ, 그리고 Z 값으로 표현된다. As can be seen from the modified equation, the ground coordinates X and Y for a specific point in the spherical image are represented by the pan value φ, tilt value λ, and Z value of the specific point in the spherical image.

팬값 φ과 틸트값 λ은 구면 영상에서 선택한 지점(즉, 특정 지점)의 좌표에 대한 값이므로 영상에서 어느 한 지점을 선택하면 즉시 얻을 수 있으므로, 선택한 지점의 Z값을 이미 알고 있거나, 특정한 값으로 가정하면 X와 Y 값을 구할 수 있 다. The pan value φ and the tilt value λ are values for the coordinates of the selected point (i.e. specific point) in the spherical image, and can be obtained immediately by selecting any point in the image. Therefore, the Z value of the selected point is known or specified. Assuming, we can get X and Y values.

다시 말해, 선택한 지점의 Z 값을 이미 알고 있는 경우라면, [구-평면 변환모델]을 이용하여 선택한 지점의 X, Y 값을 구하게 되고, In other words, if you already know the Z value of the selected point, use [Sphere-Plane Transformation Model] to find the X, Y value of the selected point.

선택한 지점의 Z 값을 모르는 경우에는 Z 값을 임의로 가정한 후에 [구-평면 변환모델]을 이용하여 선택한 지점의 X, Y 값을 구하게 된다. 이때, Z 값은 통상 구면 영상에서 알고 있는 기지점의 Z 값으로 가정하게 되고, [구-평면 변환모델]을 이용하여 구해지는 X, Y 값은 선택한 지점에서 수직방향으로 이동한 지점(즉, 기지점과 동일한 고도(Z)를 갖는 지점)의 X, Y 값이므로 서로 동일하다. 이 단계에서 우리가 구하고자 하는 것은 3차원 지상좌표 중 X, Y 값이고, 3차원 지상좌표 중 Z 값은 다른 단계에서 구하게 되므로, 선택한 지점에서 수직방향으로 이동한 지점에서 X, Y 값을 구할 수 있는 것이다. If the Z value of the selected point is not known, the Z value of the selected point is assumed and then the X and Y values of the selected point are obtained using the [Spherical-Plane Transformation Model]. At this time, the Z value is assumed to be the Z value of the known point known in the spherical image, and the X and Y values obtained using the [Spherical-Plane Transformation Model] are moved to the vertical direction from the selected point (that is, the known point). X and Y of the point having the same altitude (Z) and are equal to each other. In this step, we want to find the X and Y values of the three-dimensional ground coordinates, and the Z values of the three-dimensional ground coordinates are obtained in the other steps. It can be.

그리고 이동체에는 GPS/INS 장비가 탑재되어 있으므로 GPS/INS 장비가 획득한 위치와 자세 정보를 이용하여 카메라의 고도 값을 구할 수 있고, 도로면에서 카메라의 설치 높이를 빼면 그 도로면의 Z 값을 얻을 수 있다. 이 특정지점의 도로면 Z 값은 영상 취득과 동시에 취득되므로 구면 영상에서 항시 존재하고 이용할 수 있는 값이므로, 선택한 지점의 지상좌표 X, Y 값을 구할 때 이동체가 이동한 경로의 도로면을 기준으로하여 Z 값을 추정할 수 있다.And since the moving object is equipped with GPS / INS equipment, the altitude value of the camera can be obtained by using the position and attitude information acquired by the GPS / INS equipment.If the installation height of the camera is subtracted from the road surface, the Z value of the road surface is obtained. You can get it. Since the road surface Z value of this specific point is acquired at the same time as the image acquisition, it is always present and available in the spherical image, so it is based on the road surface of the path traveled by the moving object when obtaining ground coordinates X and Y values of the selected point. To estimate the Z value.

참고로, 이 단계(S41)에서 얻어지는 좌표 X, Y, Z는 구면 영상을 기준으로 한 좌표이고, 지구 타원체를 기준으로 한 절대 지상좌표는 아니다. 그러나 GPS/INS로부터 취득된 카메라의 절대좌표와 자세 정보를 이용하여 회전변환 및 이동변환을 하면 구면 영상을 기준으로 한 좌표는 지구 타원체를 기준으로 한 절대 지상좌표로 간편하게 변환된다. 그리고 여기서 이용되는 회전변환 및 이동변환은 본 발명이 속하는 기술분야에서 널리 알려진 주지,관용 기술에 해당하므로 이 단계(S41)에서 얻어지는 좌표 X, Y, Z를 지구 타원체를 기준으로 한 절대 지상좌표와 동일시하더라도 무리가 없다. 그래서 본 발명을 서술함에 있어 S41단계에서 얻어지는 좌표 X, Y, Z(특히, X,Y)를 지상좌표로 표현하기도 하였다. For reference, the coordinates X, Y, and Z obtained in this step S41 are coordinates based on the spherical image, and are not absolute ground coordinates based on the earth ellipsoid. However, when the rotation and movement transformation is performed using the absolute coordinates and attitude information of the camera obtained from GPS / INS, the coordinates based on the spherical image are easily converted to the absolute ground coordinates based on the ellipsoid of the earth. In addition, since rotation and movement transformations used herein correspond to well-known and common techniques well known in the art to which the present invention belongs, the coordinates X, Y, and Z obtained in this step (S41) and the absolute ground coordinates based on the ellipsoid of the earth are There is no problem even if identified. Therefore, in describing the present invention, the coordinates X, Y, and Z (particularly X, Y) obtained in step S41 have been expressed in ground coordinates.

이와 같이 구면 영상에서 이미 알고 있는 기지점의 Z 값을 활용하여 구면 영상 상의 특정 지점 (φ,λ)의 지상좌표 X, Y 값을 구한(S41) 후에는, 실제 지상의 지형지물 변화특성을 이용하여 그 특정 지점의 지상좌표 Z를 구한다.(S46)In this way, after obtaining the ground coordinates X and Y values of a specific point (φ, λ) on the spherical image by using the known Z value of the known point in the spherical image (S41), the characteristics of the ground feature change are used. Obtain the ground coordinate Z of the specific point (S46).

우리들이 생활하는 지상은 대부분 평지이고, 지상에 설치되는 지형지물은 대부분이 수직으로 설치된다. Most of the land we live on is flat, and most of the features on the ground are vertical.

따라서 지상의 지형지물은 수평과 수직으로만 변한다는 가정(조건)을 부가한 후에 구면 영상의 기지점에서 특정 지점까지 연속된 가상의 수평선과 수직선으로 연결한 후에 수직선들의 길이 합으로부터 구면 영상의 특정 지점에 대한 지상좌표 Z를 구할 수 있다. Therefore, after adding the assumption that the ground feature changes only horizontally and vertically, and then connecting the virtual horizontal line and vertical line continuous from the known point of the spherical image to a specific point, the specific point of the spherical image from the sum of the lengths of the vertical lines. We can get ground coordinate Z for.

참고로, 영상에서 지형지물들의 상호 구분과, 동일 지형지물에서 수평부분과 수직부분의 경계는 영상의 색상과 명암 차에 의해 쉽게 구별할 수 있다. For reference, the distinction between features in the image and the boundary between the horizontal and vertical portions in the same feature can be easily distinguished by the color and contrast of the image.

즉, 도5에서 보는 바와 영상에 도로와 인도, 그리고 인도 위에 건물과 전봇대 등이 있고, 사용자가 전봇대의 특정 지점을 선택했을 때, That is, when the bar and the image shown in FIG. 5 include roads, sidewalks, buildings and power poles on the sidewalks, and the user selects a specific point of the power pole,

카메라가 탑재된 이동체가 지나간 도로면의 어느 한 지점을 기지점으로 하여 선택한 특정 지점까지 가상의 수평선과 수직선을 연결한다. 즉, 기지점에서 도로면 끝까지 제1수평선(r1)이 있고, 인도 상부면까지 제1수직선(r2)이 연결되고, 인도 상부면에서 전봇대 하부까지 제2수평선(r3)이 연결되고, 전봇대 하부에서 선택한 특정 지점까지 제2수직선(r4)이 연결된다. It connects a virtual horizontal line and a vertical line to a specific point selected by using a point as a known point on the road surface where the camera-mounted moving object passed. That is, the first horizontal line r1 is connected from the known point to the end of the road surface, the first vertical line r2 is connected to the upper side of the sidewalk, and the second horizontal line r3 is connected from the upper side of the sidewalk to the lower side of the power pole, The second vertical line r4 is connected to the selected specific point.

즉, 수평선에서는 지상좌표의 X축, Y축의 X값, Y값만이 변하고, 수직선에서는 지상좌표의 Z축의 Z 값만이 변화되고, 기지점의 지상좌표 ((X0, YO, Z0)로 가정)는 이미 알고 있으므로, 제1수평선(r1)과 제1수직선(r2)이 만나는 지점의 지상좌표(X1, Y1, Z0), 제1수직선(r2)과 제2수평선(r3)이 만나는 지점의 지상좌표(X1, Y1, Z1), 제2수평선(r3)과 제2수직선(r4)이 만나는 지점의 지상좌표(X2, Y2, Z1), 선택지점의 지상좌표(X2, Y2, Z2)를 순차적으로 구할 수 있다.That is, only the X and Y values of the ground coordinates and the X and Y values of the ground coordinates change on the horizontal line, only the Z values of the Z axis of the ground coordinates change on the vertical line, and the ground coordinates of the known point (assuming (X0, YO, Z0)) are already As you know, the ground coordinates (X1, Y1, Z0) of the point where the first horizontal line (r1) and the first vertical line (r2) meet, the ground coordinates of the point where the first vertical line (r2) and the second horizontal line (r3) meet ( X1, Y1, Z1), the ground coordinates (X2, Y2, Z1) at the point where the second horizontal line r3 and the second vertical line r4 meet, and the ground coordinates (X2, Y2, Z2) at the selected point are sequentially obtained. Can be.

그리고 기지점은 선택점에서 가장 인접된 지점을 선택하는 것이 오차를 줄이는데 바람직할 수 있다. And the known point may be preferable to reduce the error to select the nearest point to the selection point.

이와 같은 과정을 통해 구면 영상 상에서 선택한 대상물의 임의 한 지점에 대한 지상좌표 X, Y, Z 를 구하는 과정을 다시 한 번 간략히 설명한다. Through this process, the process of obtaining ground coordinates X, Y, and Z for any one point of the selected object on the spherical image is briefly described again.

자동차와 같은 이동체에 전방위 카메라와 GPS/INS 장비를 탑재한 후에 이동 체가 이동하면서 주변의 영상들과 영상을 촬영한 카메라의 절대좌표 및 자세 정보를 실시간으로 취득한다. 그리고 실시간으로 취득되는 이들 데이터로부터 구면 영상이 취득된다. 여기서 구면 영상은 매 순간의 이동체에 위치에 따라 카메라의 절대좌표와 자세정보와 함께 취득된다. After the omnidirectional camera and GPS / INS equipment are mounted on a mobile object such as a car, the moving object acquires the absolute coordinates and posture information of the surrounding images and the camera that captured the images in real time. Spherical images are obtained from these data acquired in real time. Here, the spherical image is acquired along with the absolute coordinates and the attitude information of the camera according to the position of the moving object at each moment.

구면 영상이 취득된 후에 구면 영상에서 관심 대상물의 어느 한 지점을 클릭(선택)하면, 클릭한 지점의 좌표(즉, 팬과 틸트로 표현되는 각도)는 구면 영상에서 바로 추출이 되고, 구면 영상의 구 반지름 N 역시 이를 대체하는 기지점의 Z로부터 바로 추출된다. 구면 영상에서 기지점은 GPS/INS 장비를 탑재한 이동체의 이동경로 지면이 된다. 즉, GPS/INS 장비의 절대좌표 (Xa,Ya,Za)는 GPS/INS 장비가 실시간으로 취득하고, 이동체에서 GPS/INS 장비의 설치 높이 H는 이미 알고 있으므로, 이동체가 지나간 지면(즉, 기지점)의 Z 값은 Za-H 가 된다. After the spherical image is acquired, if you click (select) any point of interest in the spherical image, the coordinates of the clicked point (that is, the angle represented by pan and tilt) are extracted directly from the spherical image. The sphere radius N is also extracted directly from the known Z of the replacement point. In the spherical image, the known point becomes the ground of the moving path of the moving object equipped with GPS / INS equipment. That is, the absolute coordinates (Xa, Ya, Za) of the GPS / INS equipment are acquired by the GPS / INS equipment in real time, and the installation height H of the GPS / INS equipment is already known in the moving object, so that the ground (ie ) Z value is Za-H.

이처럼 구면 영상에서 어느 한 지점을 클릭(선택)하면 즉시로 그 지점의 팬과 틸트 값과 구면 영상의 구 반지름을 대체하는 기지점의 Z 값이 추출되고, 추출된 이들 값은 [구-평면 변환모델]에 적용되어 구면 영상에서 선택한 지점의 상대 좌표 중 X, Y 값이 얻어진다. When you click (select) a point in the spherical image, the pan and tilt values of the spherical image and the Z value of the known point that replaces the spherical radius of the spherical image are extracted immediately. ] Is applied to obtain the X and Y values of the relative coordinates of the selected point in the spherical image.

전술한 바와 같이 이들 X,Y,Z는 카메라로부터의 상대적인 위치(즉, X,Y,Z는 구면 영상을 기준으로 한 좌표로서, 이는 곧 카메라로부터의 방향과 거리를 나타내는 것임.)이므로 GPS/INS로부터 취득된 카메라의 절대위치를 기준으로 카메라의 자 세정보를 이용하는 회전변환을 거쳐 선택한 지점의 절대 지상좌표로 취득된다. As mentioned above, these X, Y, and Z are relative positions from the camera (i.e., X, Y, and Z are coordinates based on the spherical image, which indicates the direction and distance from the camera). Based on the absolute position of the camera obtained from the INS, it is obtained by the absolute ground coordinates of the selected point through a rotation transformation using the camera's detailed information.

구면 영상에서 클릭한 지점의 절대좌표값을 구한 후에는 영상의 여러 가지 시설물의 위치를 영상 변화 특성을 이용하여 좌표 값을 구한다. 도5에서 보는 바와 같이 위치를 취득하고자 하는 지점이 전봇대 위의 어느 한 지점일 때, 구면 영상에서 기지점은 이동체가 지나간 경로인 지면인 도로 상에 있다. 도면에서 도로에 있는 맨홀 뚜겅이 기지점 중 하나가 될 수 있다. 기지점으로 잡은 맨홀 뚜겅에서 위치를 취득하고자 하는 지점의 전봇대 위의 어느 한 점까지 가상의 직선들로 연결하되, 이 가상의 직선들은 영상의 지형 지물에서 수평과 수직 방향으로만 경로가 바뀌는 것으로 가정한다. 이는 실제 지상에서 지형 지물은 대부분 수직으로 설치되기에 인정될 수 있는 가정이다. After obtaining the absolute coordinate value of the clicked point in the spherical image, the coordinate values are obtained by using the image change characteristic of the location of various facilities of the image. As shown in Fig. 5, when the point to acquire the position is any point on the power pole, the known point in the spherical image is on the road which is the ground which is the path through which the moving object passed. In the drawing, the manhole cover on the road can be one of the known points. In the manhole cover of the known point, connect the virtual straight lines to a point on the power pole at the point where the position is to be acquired. The virtual straight lines are assumed to be changed only in the horizontal and vertical directions in the image feature. . This is an assumption that can be recognized because most of the features on the ground are installed vertically.

그러면 맨홀 위의 기지점에서 전봇대 위의 선택점까지 연결하는 가상의 직선인 수평선과 수직선의 좌표 (X,Y,Z)의 변화를 구할 수 있다. 즉, 수평선에서는 Z 값은 변하지 않고, 수직선에서는 Z 값만 변하게 되어, 우리가 최종적으로 구하고자 하는 위치값을 구하게 된다. We can then find the change in the coordinates (X, Y, Z) of the horizontal and vertical lines, a virtual straight line connecting the known point on the manhole to the pick point on the pole. In other words, the Z value does not change on the horizontal line, only the Z value changes on the vertical line, and we finally obtain the position value that we want to obtain.

그리고 만약, 도5에서 인도의 높이(r2)를 알고 있는 때에는 [구-평면 변환모델]에 적용하는 기준점의 Z 값을 도로면의 Z 값이 아닌 인도의 Z 값을 사용하고, r3과 r4가 만나는 지점을 한 번의 클릭으로 선택하면 S41 과정을 거쳐 전봇대의 3차원 좌표를 취득할 수도 있다. 물론, 이때 취득되는 좌표는 전봇대와 인도가 만나 는 지점의 좌표이고, 도5에서와 같이 전봇대 위의 어느 한 지점을 선택한 경우에는 S46단계를 거쳐 선택한 지점의 높이(Z 값)를 취득해야 할 것이다.And, if the height r2 of India is known in Fig. 5, the Z value of the reference point applied to the [sphere-plane transformation model] is used instead of the Z value of the road surface, and r3 and r4 If you select the meeting point with a single click, you can obtain the three-dimensional coordinates of the power pole through the S41 process. Of course, the coordinates acquired at this time are the coordinates of the point where the power pole meets the sidewalk, and when selecting any point on the power pole as shown in FIG. 5, the height (Z value) of the selected point must be acquired through step S46. .

이상에서 본 발명을 설명함에 있어 첨부된 도면을 참조하여 특정 절차로 이루어진 GPS/INS 장비와 전방위 카메라로부터 취득한 구면 영상을 이용한 3차원 좌표 추출 방법에 대해 설명하였으나 본 발명은 당업자에 의하여 다양한 변형 및 변경이 가능하고, 이러한 변형 및 변경은 본 발명의 보호범위에 속하는 것으로 해석되어야 한다.In the above description of the present invention, a method of extracting three-dimensional coordinates using spherical images obtained from a GPS / INS device and a omnidirectional camera having a specific procedure with reference to the accompanying drawings has been described. It is to be understood that such modifications and variations are intended to be included within the protection scope of the present invention.

도 1 은 본 발명에 따른 전방위 카메라로부터 획득한 구면 영상에서 3차원 지상좌표를 추출하는 방법의 절차도. 1 is a procedure of a method for extracting three-dimensional ground coordinates from spherical images obtained from the omnidirectional camera according to the present invention.

도 2 는 구면 영상의 일례. 2 is an example of a spherical image.

도 3 은 일례에 따른 전방위 카메라의 사시도. 3 is a perspective view of the omnidirectional camera according to an example.

도 4 는 [구-평면 변환모델]을 설명하기 위해 구를 평면으로 펼친 일례도.4 is an example of spreading a sphere in a plane to explain the [sphere-plane conversion model].

도 5 는 지상좌표 Z를 추출하는 방법을 설명하기 위한 도면. 5 is a view for explaining a method of extracting the ground coordinate Z;

Claims (3)

(S10) 전방위 카메라로부터 주변 영상들을 취득하는 단계;(S10) acquiring surrounding images from the omnidirectional camera; (S20) GPS/INS 장비로부터 상기 전방위 카메라의 위치정보 및 자세정보를 취득하는 단계;(S20) obtaining location information and attitude information of the omnidirectional camera from a GPS / INS device; (S30) 상기 GPS/INS 장비로부터 취득한 위치정보 및 자세정보를 활용하여 상기 전방위 카메라로부터 취득한 주변 영상들로부터 구면 영상을 취득하는 단계;(S30) acquiring a spherical image from the surrounding images obtained from the omnidirectional camera by using the position information and the attitude information acquired from the GPS / INS equipment; (S40) [구-평면 변환 모델]을 이용하여 상기 구면 영상 상의 특정 지점에 대한 3차원 지상좌표(X, Y, Z)를 추출하는 단계;를 포함하여 이루어지되,(S40) extracting three-dimensional ground coordinates (X, Y, Z) for a specific point on the spherical image by using a [spherical-plane transformation model]. 상기 (S40)단계는The step (S40) is (S41) 구면 영상에서 기지점의 좌표 (X0, Y0, Z0)에서 Z0 값과, 특정 지점의 구면 영상에서의 팬과 틸트 각도인 φ값과 λ값을 [구-평면 변환 모델]에 적용하여 특정 지점에 대한 좌표 X값과 Y값을 구하는 단계와, (S41) By applying the Z0 value at the coordinates (X0, Y0, Z0) of the known point in the spherical image and the φ value and λ value, which are the pan and tilt angles in the spherical image at the specific point, are applied to the [Spherical-Plane Transformation Model]. Obtaining coordinates X and Y values for the point, (S46) 구면 영상에서 기지점에서 상기 특정 지점까지 지형지물의 변화는 수평과 수직으로만 변화된다는 가정하에, (S46) Under the assumption that the change of the feature from the known point to the specific point in the spherical image is changed only horizontally and vertically, 상기 기지점에서 특정 지점까지의 영상 변화 특성(즉, 영상의 색상과 명암의 차이)을 이용하여 영상에서 지형지물들을 상호 구분하고, 동일 지형지물에서 수평부분과 수직부분의 경계를 구분하고, By using the image change characteristics (that is, the difference between the color and the contrast of the image) from the known point to the feature, the features are distinguished from each other in the image, and the boundaries of the horizontal and vertical parts in the same feature, 구분된 상기 지형지물과 경계로부터 영상의 기지점에서 특정 지점까지 연속된 가상의 수평선과 수직선으로 연결한 후에 수직선들의 길이 합으로부터 구면 영상의 특정 지점에 대한 고도 값(Z)을 구하는 단계를 포함하는 것을 특징으로 하는 GPS/INS 장비와 전방위 카메라로부터 취득한 구면 영상을 이용한 3차원 좌표 추출 방법.And a step of obtaining an altitude value Z for a specific point of the spherical image from the sum of the lengths of the vertical lines after connecting the separated horizontal feature and the boundary from the known point of the image to the specific horizontal horizontal line and the vertical line. 3D coordinate extraction method using spherical images acquired from a GPS / INS device and an omnidirectional camera. 삭제delete 제 1 항에 있어서, 상기 [구-평면 변환 모델]은 The method of claim 1, wherein the [sphere-plane transformation model] X = NㆍcosφㆍcosλX = N, cosφ, cosλ Y = NㆍcosφㆍsinλY = N, cosφ, sinλ Z = Nㆍsinφ 로서, Z = N · sinφ, 여기서, (X, Y, Z)는 구하고자 하는 특정 지점의 3차원 지상좌표이고, Here, (X, Y, Z) is the three-dimensional ground coordinates of a specific point to be obtained, (φ, λ)는 구면 영상에서의 팬과 틸트 각도이고, (φ, λ) is the pan and tilt angle in the spherical image, N은 구면 영상의 구 반지름인 것을 특징으로 하는 GPS/INS 장비와 전방위 카메라로부터 취득한 구면 영상을 이용한 3차원 좌표 추출 방법.N is a three-dimensional coordinate extraction method using a spherical image obtained from the GPS / INS equipment and the omnidirectional camera, characterized in that the sphere radius of the spherical image.
KR1020090081164A 2009-08-31 2009-08-31 3D Coordinate Extraction Method Using Spherical Image from WPS / INS Device and Omnidirectional Camera Expired - Fee Related KR100933297B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090081164A KR100933297B1 (en) 2009-08-31 2009-08-31 3D Coordinate Extraction Method Using Spherical Image from WPS / INS Device and Omnidirectional Camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090081164A KR100933297B1 (en) 2009-08-31 2009-08-31 3D Coordinate Extraction Method Using Spherical Image from WPS / INS Device and Omnidirectional Camera

Publications (1)

Publication Number Publication Date
KR100933297B1 true KR100933297B1 (en) 2009-12-22

Family

ID=41684571

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090081164A Expired - Fee Related KR100933297B1 (en) 2009-08-31 2009-08-31 3D Coordinate Extraction Method Using Spherical Image from WPS / INS Device and Omnidirectional Camera

Country Status (1)

Country Link
KR (1) KR100933297B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000067227A (en) 1998-08-25 2000-03-03 Canon Inc Image display device, method and storage medium
KR20040050888A (en) * 2001-10-29 2004-06-17 소니 가부시끼 가이샤 Non-flat image processing apparatus, image processing method, recording medium, and computer program
JP2006309802A (en) 2006-08-17 2006-11-09 Sony Corp Image processor and image processing method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000067227A (en) 1998-08-25 2000-03-03 Canon Inc Image display device, method and storage medium
KR20040050888A (en) * 2001-10-29 2004-06-17 소니 가부시끼 가이샤 Non-flat image processing apparatus, image processing method, recording medium, and computer program
JP2006309802A (en) 2006-08-17 2006-11-09 Sony Corp Image processor and image processing method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
논문1:성균관대학교 대학원*

Similar Documents

Publication Publication Date Title
US11054258B2 (en) Surveying system
JP2006250917A (en) High-precision CV calculation device, CV-type three-dimensional map generation device and CV-type navigation device equipped with this high-precision CV calculation device
Ruotsalainen et al. Heading change detection for indoor navigation with a smartphone camera
KR20110068764A (en) Object information provision system and method using spherical image acquired from omnidirectional camera
IL267309B (en) Terrestrial observation device with positioning functionality
Oniga et al. Beyond ground control points: cost-effective 3D building reconstruction through GNSS-integrated photogrammetry
KR100933297B1 (en) 3D Coordinate Extraction Method Using Spherical Image from WPS / INS Device and Omnidirectional Camera
JP2006234703A (en) Image processing apparatus, three-dimensional measuring apparatus, and program for image processing apparatus
Nagai et al. Development of digital surface model and feature extraction by integrating laser scanner and CCD sensor with IMU
Haala et al. Pedestrian mobile mapping system for indoor environments based on MEMS IMU and range camera
Zaydak et al. 3D image-based Navigation in collaborative navigation environment
Haala et al. Pedestrian navigation and modeling for indoor environments
Ishiguro et al. A Method for Location Initialization of Handheld Devices using Autonomous Driving Vehicles for Interactive Systems
Tianen et al. A method of generating panoramic street strip image map with mobile mapping system
Kanga et al. An automatic mosaicking method for building facade texture mapping
Liu et al. Measurable realistic image-based 3D mapping
Lemaire et al. High precision object geo-localization and visualization in sensor networks
Manabe et al. Three-Dimensional Map Generating System by a Walk

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

PA0302 Request for accelerated examination

St.27 status event code: A-1-2-D10-D17-exm-PA0302

St.27 status event code: A-1-2-D10-D16-exm-PA0302

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

D14-X000 Search report completed

St.27 status event code: A-1-2-D10-D14-srh-X000

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

T11-X000 Administrative time limit extension requested

St.27 status event code: U-3-3-T10-T11-oth-X000

E90F Notification of reason for final refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

T11-X000 Administrative time limit extension requested

St.27 status event code: U-3-3-T10-T11-oth-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

P14-X000 Amendment of ip right document requested

St.27 status event code: A-5-5-P10-P14-nap-X000

P16-X000 Ip right document amended

St.27 status event code: A-5-5-P10-P16-nap-X000

Q16-X000 A copy of ip right certificate issued

St.27 status event code: A-4-4-Q10-Q16-nap-X000

FPAY Annual fee payment

Payment date: 20121122

Year of fee payment: 4

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 4

FPAY Annual fee payment

Payment date: 20131217

Year of fee payment: 5

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 5

FPAY Annual fee payment

Payment date: 20141205

Year of fee payment: 6

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 6

LAPS Lapse due to unpaid annual fee
PC1903 Unpaid annual fee

St.27 status event code: A-4-4-U10-U13-oth-PC1903

Not in force date: 20151215

Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

PC1903 Unpaid annual fee

St.27 status event code: N-4-6-H10-H13-oth-PC1903

Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

Not in force date: 20151215

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R13-asn-PN2301

St.27 status event code: A-5-5-R10-R11-asn-PN2301

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000