KR101040305B1 - Image Searching Device and Target Determination Method Using the Same - Google Patents
Image Searching Device and Target Determination Method Using the Same Download PDFInfo
- Publication number
- KR101040305B1 KR101040305B1 KR1020100119033A KR20100119033A KR101040305B1 KR 101040305 B1 KR101040305 B1 KR 101040305B1 KR 1020100119033 A KR1020100119033 A KR 1020100119033A KR 20100119033 A KR20100119033 A KR 20100119033A KR 101040305 B1 KR101040305 B1 KR 101040305B1
- Authority
- KR
- South Korea
- Prior art keywords
- target
- sample
- image
- modeling
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F42—AMMUNITION; BLASTING
- F42B—EXPLOSIVE CHARGES, e.g. FOR BLASTING, FIREWORKS, AMMUNITION
- F42B15/00—Self-propelled projectiles or missiles, e.g. rockets; Guided missiles
- F42B15/01—Arrangements thereon for guidance or control
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G3/00—Aiming or laying means
- F41G3/22—Aiming or laying means for vehicle-borne armament, e.g. on aircraft
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G7/00—Direction control systems for self-propelled missiles
- F41G7/20—Direction control systems for self-propelled missiles based on continuous observation of target position
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Chemical & Material Sciences (AREA)
- Aviation & Aerospace Engineering (AREA)
- Combustion & Propulsion (AREA)
- Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
Abstract
본 발명은 영상 탐색 장치에 관한 것으로서, 다양한 표적에 대한 정보를 포함한 샘플 영상 데이터로부터 샘플 표적의 분할을 통해 샘플 표적 영상을 생성하는 표적 분할부와, 상기 생성된 샘플 표적 영상을 픽셀의 밝기에 근거한 함수 형태로 모델링하는 모델링부와, 상기 함수로부터 고유 모델을 모델링하고, 모델링된 고유 모델에 대한 평균 벡터를 생성하는 고유 모델링부와, 상기 고유 모델로부터 샘플 표적의 특징점을 추출하는 특징점 추출부와, 표적 탐지에 의한 탐지 영상 데이터로부터 상기 고유 모델과의 연산을 위한 고유 벡터를 획득하고, 상기 고유 벡터와 상기 평균 벡터와의 거리값을 연산하는 고유 벡터 연산부와, 상기 연산된 거리값과 상기 추출된 특징점을 사용하여 표적을 결정하고, 결정된 표적의 결정 영상 데이터를 출력하는 표적 결정부를 구성한다. 상기와 같은 영상 탐색 장치 및 이를 이용한 표적 결정 방법에 의하면, 복수의 샘플 영상을 사용하여 표적을 결정함으로서, 표적을 정확하게 결정할 수 있는 효과가 있다. 아울러, 표적 결정의 신뢰도를 향상시킬 수 있다.The present invention relates to an image search device, comprising: a target divider configured to generate a sample target image by dividing a sample target from sample image data including information on various targets, and generating the sample target image based on the brightness of pixels. A modeling unit for modeling in a functional form, a eigen modeling unit for modeling a eigen model from the function, and generating an average vector of the modeled eigen model, a feature point extracting unit for extracting feature points of a sample target from the eigen model; An eigenvector calculation unit for obtaining an eigenvector for calculation with the eigen model from detection image data by target detection, and calculating a distance value between the eigenvector and the average vector, the calculated distance value and the extracted A target that uses a feature point to determine a target and outputs determined image data of the determined target. Constitute the government. According to the image search apparatus and the target determination method using the same, the target can be determined accurately by using a plurality of sample images. In addition, the reliability of the target decision can be improved.
Description
본 발명은 영상 탐색 장치에 관한 것으로서, 좀 더 상세하게는 표적을 결정하기 위한 영상 탐색 장치 및 이를 이용한 표적 결정 방법에 관한 것이다.The present invention relates to an image search apparatus, and more particularly, to an image search apparatus for determining a target and a target determination method using the same.
표적을 요격하기 위한 장치들 중 하나로 유도탄(Missile)은 목표에 도달할 때까지 특정 방법에 의해 유도되는 장치를 갖는 무기이다. 유도탄은 추진력을 갖는 비행 물체이고, 탄두 등을 운반하는 군사용 로켓 등이 될 수 있다.As one of the devices for intercepting a target, a missile is a weapon with a device guided by a particular method until the target is reached. A missile is a flying object with propulsion, and may be a military rocket carrying a warhead or the like.
유도탄을 발사하는 발사점부터 표적까지 유도탄을 정확하게 보내기 위해서 유도탄과 표적의 정보를 획득 처리하고 유도 명령을 계산하여 전달하는 유도 방법은 사용 목적, 운용 개념, 요구 성능 등에 따라 다양할 수 있다.The guided method of acquiring and processing information of the guided missile and the target, and calculating and transmitting the guided command in order to accurately send the guided missile from the firing point of firing the guided missile to the target may vary depending on the intended use, operational concept, and required performance.
유도탄에는 표적 추적을 위한 다양한 영상 탐색 장치가 탑재되어 있다. 유도 탄이 스스로 표적을 추적하기 위한 표적 영상 데이터를 영상 탐색 장치로부터 획득할 수 있다.The missile is equipped with a variety of image navigation devices for target tracking. The missile may acquire target image data from the image search apparatus for tracking the target by itself.
영상 탐색 장치는 유도탄에 표적에 관련된 표적 영상 데이터를 생성하기 위해 표적을 결정하여야 한다. 영상 내에는 복수개의 표적 대상이 존재할 수 있다. 이러한 표적 대상들 중에서 표적을 정확히 결정해야 할 필요성이 있었다.The image search device must determine the target to generate target image data related to the target in the missile. There may be a plurality of target objects in the image. Among these target objects, there was a need to accurately determine the target.
본 발명의 목적은 표적을 결정하기 위한 영상 탐색 장치를 제공하는 데 있다.It is an object of the present invention to provide an image search apparatus for determining a target.
본 발명의 다른 목적은 상기 영상 탐색 장치를 이용한 표적 결정 방법을 제공하는 데 있다.Another object of the present invention is to provide a method for determining a target using the image search apparatus.
상술한 본 발명의 목적에 따른 영상 탐색 장치는 다양한 표적에 대한 정보를 포함한 샘플 영상 데이터로부터 샘플 표적의 분할을 통해 샘플 표적 영상을 생성하는 표적 분할부와, 상기 생성된 샘플 표적 영상을 픽셀의 밝기에 근거한 함수 형태로 모델링하는 모델링부와, 상기 함수로부터 고유 모델을 모델링하고, 모델링된 고유 모델에 대한 평균 벡터를 생성하는 고유 모델링부와, 상기 고유 모델로부터 샘플 표적의 특징점을 추출하는 특징점 추출부와, 표적 탐지에 의한 탐지 영상 데이터로부터 상기 고유 모델과의 연산을 위한 고유 벡터를 획득하고, 상기 고유 벡터와 상기 평균 벡터와의 거리값을 연산하는 고유 벡터 연산부와, 상기 연산된 거리값과 상기 추출된 특징점을 사용하여 표적을 결정하고, 결정된 표적의 결정 영상 데이터를 출력하는 표적 결정부를 포함한다. 여기에서, 상기 표적 분할부는 상기 샘플 영상 데이터로부터 최대 밝기값을 중심으로 하는 가우시안 형태의 샘플 표적 영상을 생성한다. 그리고 상기 모델링부는 상기 표적 영상을 다음의 수학식 의 2차원 함수로 모델링하고, 상기 는 행(row)이고, 상기 는 열(column)이고, 상기 는 최대 밝기값이고, 상기 와 상기 는 표적의 모델 분산(표준 편차)이다. 그리고 상기 모델링부는 상기 표적 영상을 다음의 수학식 의 3차원 함수로 모델링하고, 상기 는 행(row)이고, 상기 는 열(column)이고, 상기 은 3차 다항식을 구성하는 기저 집합(basis set)이고, 상기 는 계수 집합(coefficient set)이다. 한편, 상기 평균 벡터는 표적으로부터 획득된 표적 평균 벡터와 상기 평균 벡터는 비표적으로부터 획득된 비표적 평균 벡터를 포함한다.According to an aspect of the present invention, an image search apparatus includes a target segmentation unit configured to generate a sample target image by dividing a sample target from sample image data including information on various targets, and the brightness of the pixel by using the generated sample target image. A modeling unit for modeling in the form of a function based on the eigen model, an eigen modeling unit for modeling an eigen model from the function, generating an average vector of the modeled eigen model, and a feature point extraction unit for extracting feature points of a sample target from the eigen model An eigenvector calculation unit for obtaining an eigenvector for calculation with the eigen model from detection image data by target detection, and calculating a distance value between the eigenvector and the average vector, and the calculated distance value and the A table that uses the extracted feature points to determine the target and outputs the determined image data of the determined target. It includes an enemy decision unit. Here, the target dividing unit generates a Gaussian-type sample target image centered on the maximum brightness value from the sample image data. And the modeling unit converts the target image into the following equation. Modeled as a two-dimensional function of Is a row, and Is a column, and Is the maximum brightness value, And above Is the model variance (standard deviation) of the target. And the modeling unit converts the target image into the following equation. Modeled as a three-dimensional function of Is a row, and Is a column, and Is a basis set constituting the cubic polynomial, and Is a coefficient set. Meanwhile, the mean vector includes a target mean vector obtained from a target and the mean vector includes a non-target mean vector obtained from a non-target.
상술한 본 발명의 다른 목적에 따른 영상 탐색 장치를 이용한 표적 결정 방법은 다양한 표적에 대한 정보를 포함한 샘플 영상 데이터로부터 샘플 표적의 분할을 통해 샘플 표적 영상을 생성하는 단계와, 상기 생성된 샘플 표적 영상을 픽셀의 밝기에 근거한 함수로 모델링하는 단계와, 상기 모델링된 함수로부터 고유 모델을 모델링하고, 모델링된 고유 모델에 대한 평균 벡터를 생성하는 단계와, 상기 모델링된 고유 모델로부터 샘플 표적의 특징점을 추출하는 단계와, 표적 탐지에 의한 탐지 영상 데이터로부터 상기 고유 모델과의 연산을 위한 고유 벡터를 획득하고, 상기 획득된 고유 벡터와 상기 생성된 평균 벡터와의 거리값을 연산하는 단계와, 상기 연산된 거리값과 상기 추출된 특징점을 이용하여 표적을 결정하고, 결정된 표적의 결정 영상 데이터를 출력하는 단계를 포함한다. 여기에서, 상기 모델링하는 단계는, 상기 표적 영상을 다음의 수학식 의 2차원 함수로 모델링하는 단계를 포함하고, 상기 는 행(row)이고, 상기 는 열(column)이고, 상기 는 최대 밝기값이고, 상기 와 상기 는 표적의 모델 분산(표준 편차)이다. 그리고 상기 모델링하는 단계는, 상기 표적 영상을 다음의 수학식 의 3차원 함수로 모델링하는 단계를 포함하고, 상기 는 행(row)이고, 상기 는 열(column)이고, 상기 은 3차 다항식을 구성하는 기저 집합(basis set)이고, 상기 는 계수 집합(coefficient set)이다.According to another aspect of the present invention, there is provided a method for determining a target using an image search apparatus, comprising: generating a sample target image by dividing a sample target from sample image data including information on various targets, and generating the sample target image. Is modeled as a function based on the brightness of the pixel, modeling a eigen model from the modeled function, generating an average vector for the modeled eigen model, and extracting feature points of a sample target from the modeled eigen model Obtaining an eigenvector for calculation with the eigen model from detection image data by target detection, and calculating a distance value between the obtained eigenvector and the generated average vector; A target is determined using a distance value and the extracted feature point, and the determined image data of the determined target A and a step of outputting. In the modeling, the target image may be represented by the following equation. Modeling with a two-dimensional function of Is a row, and Is a column, and Is the maximum brightness value, And above Is the model variance (standard deviation) of the target. In the modeling, the target image may be represented by the following equation. Modeling with a three-dimensional function of Is a row, and Is a column, and Is a basis set constituting the cubic polynomial, and Is a coefficient set.
상기와 같은 영상 탐색 장치 및 이를 이용한 표적 결정 방법에 의하면, 복수의 샘플 영상을 사용하여 표적을 결정함으로써, 표적을 정확하게 결정할 수 있는 효과가 있다. 아울러 표적 결정의 신뢰도를 향상시킬 수 있다.According to the image search apparatus and the target determination method using the same, the target can be determined accurately by using a plurality of sample images. In addition, the reliability of the target decision can be improved.
도 1은 본 발명의 일 실시예에 따른 영상 탐색 장치를 사용하여 표적을 요격하는 유도탄을 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 유도탄의 구조도이다.
도 3은 본 발명의 일 실시예에 따른 영상 탐색 장치의 구조도이다.
도 4는 본 발명의 일 실시예에 따른 표적 결정부의 구조도이다.
도 5는 본 발명의 일 실시예에 따른 임계값에 따른 표적 분할을 설명하기 위한 도면이다.1 is a diagram illustrating a missile to intercept a target by using an image search apparatus according to an exemplary embodiment of the present invention.
2 is a structural diagram of a missile according to an embodiment of the present invention.
3 is a structural diagram of an image search apparatus according to an embodiment of the present invention.
4 is a structural diagram of a target determining unit according to an embodiment of the present invention.
5 is a diagram for describing target segmentation based on a threshold value according to an embodiment of the present invention.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. Like reference numerals are used for like elements in describing each drawing.
제 1, 제 2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, and B may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component. And / or < / RTI > includes any combination of a plurality of related listed items or any of a plurality of related listed items.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that there is no other component in between.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.
이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 설명한다.Hereinafter, preferred embodiments according to the present invention will be described with reference to the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른 표적 추적을 통해 표적을 요격하는 유도탄을 도시한 도면이다.1 is a diagram illustrating a missile for intercepting a target through target tracking according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시예에 따른 유도탄(100)은 영상 탐색 장치를 탑재할 수 있다. 유도탄(100)은 표적(10)을 요격하기 위해서 탑재된 영상 탐색 장치를 사용하여 표적(10)을 탐지 및 추적할 수 있다. 일예로, 표적(20)은 벙커, 건물, 경장갑 등이 될 수 있다.Referring to FIG. 1, the
유도탄(100)은 영상 탐색 장치에서 출력되는 표적 영상 데이터를 사용하여 표적(10)으로 유도할 수 있다. 일예로, 유도탄(100)은 로켓, 미사일 등을 포함할 수 있다.The
도 2는 본 발명의 일 실시예에 따른 유도탄의 구조도이다.2 is a structural diagram of a missile according to an embodiment of the present invention.
도 2를 참조하면, 유도탄(100)은 영상 탐색 장치(110), 유도 장치(120), 조종 장치(130), 구동 장치(140), 및 조종 센서(150)를 포함한다.Referring to FIG. 2, the
영상 탐색 장치(110)는 유도탄의 비행 운동에 따른 지형, 지물들로부터 표적의 탐지, 결정 및 포착 등을 통해 표적 영상 데이터를 생성한다. 영상 탐색 장치는 구동 장치(140)로부터 피드백되는 유도탄의 구동 정보를 이용하여 표적 영상 데이터를 생성할 수 있다. 영상 탐색 장치(110)는 표적 영상 데이터를 유도 장치(120)로 출력한다.The
유도 장치(120)는 표적 영상 데이터에 따라 유도탄의 운동을 표적으로 유도하기 위한 유도 명령을 생성한다. 유도 장치(120)는 내부 메모리 등에 저장된 항법 정보 또는 외부로부터 수신된 항법 정보를 사용하여 유도 명령을 생성할 수 있다. 유도 장치(120)는 유도 명령을 조종 장치(130)로 출력한다.The
조종 장치(130)는 유도 정보에 따라 로켓의 구동을 위한 조종 명령을 생성한다. 또한, 조종 명령 생성 시에 조종 장치(130)는 조종 센서(150)에 의해 피드백되는 조종 제어 정보를 이용할 수 있다. 조종 장치(130)는 조종 명령을 구동 장치(140)로 출력한다.The
구동 장치(140)는 로켓 구동을 위한 추진체 등을 포함한다. 구동 장치(140)는 구동 명령을 수신하고, 구동 명령에 따라 유도탄(100)의 비행 운동을 위해 추진체를 구동할 수 있다. 구동 장치(140)는 유도탄(100)의 비행 운동에 따른 구동 정보를 생성하여 조종 센서(150) 또는 영상 탐색 장치(110)로 피드백할 수 있다.The
조종 센서(150)는 구동 정보를 사용하여 조종 장치로 유도탄(100)의 비행 운동에 따른 조종 제어 정보를 생성한다. 즉, 유도탄(100)을 표적으로 정확히 유도하기 위해, 조종 센서(140)는 조종 제어 정보를 통해 유도탄(100)의 실시간 구동 정보를 비행 운동에 반영할 수 있다.The
또한, 유도탄(100)은 탄두를 탑재하기 위한 공간을 구비하거나 탄두를 포함할 수 있다.In addition, the
도 3은 본 발명의 일 실시예에 따른 영상 탐색 장치의 구조도이다.3 is a structural diagram of an image search apparatus according to an embodiment of the present invention.
도 3을 참조하면, 영상 탐색 장치(110)는 표적 탐지부(111), 표적 결정부(112), 및 표적 추적부(113)를 포함한다.Referring to FIG. 3, the
표적 탐지부(111)는 영상 정보 센싱을 통해 영상 정보를 획득하고, 수신된 영상 정보로부터 표적을 탐지한다. 표적 탐지부(111)는 표적을 탐지한 탐지 영상 데이터를 표적 결정부(112)로 출력한다.The
표적 결정부(112)는 탐지 영상 데이터로부터 표적을 결정한다. 표적 결정부(112)는 표적을 결정한 결정 영상 데이터를 표적 추적부(113)로 출력한다.The
표적 추적부(113)는 결정 영상 데이터로부터 표적을 추적하여 표적 영상 데이터를 생성한다. 표적 추적부는 유도 장치(120)로 표적 데이터(고각, 방위각, 속도 정보, 가속도 정보)를 출력한다.The
표적 탐지부(111), 표적 결정부(112), 및 표적 추적부(113) 중 적어도 하나는 표적의 탐지, 결정, 및 추적을 위해 구동 정보(일예로, 유도탄의 속도 정보, 가속도 정보 등)를 수신하고, 수신된 구동 정보를 이용할 수 있다.At least one of the
본 발명에서는 표적 결정부(111)의 표적 결정 동작을 상세히 설명하기로 한다.In the present invention, the target determination operation of the
도 4는 본 발명의 일 실시예에 따른 표적 결정부의 구조도이다.4 is a structural diagram of a target determining unit according to an embodiment of the present invention.
도 4를 참조하면, 표적 결정부(112)는 표적 분할부(210), 모델링부(220), 고유 모델링부(230), 특징점 추출부(240), 고유 벡터 연산부(250), 및 결정 영상 생성부(260)를 포함한다.Referring to FIG. 4, the
표적 분할부(210)는 샘플 영상 데이터로부터 표적 분할을 통해 표적 정보를 추출한다. 샘플 영상 데이터는 영상 탐색 장치(110) 내부의 메모리 또는 표적 결정부(112) 내부의 메모리 등에 미리 저장될 수 있다. 여기서, 샘플 영상 데이터는 다양한 표적에 대한 정보를 포함한 영상 데이터들로부터 획득된 데이터이다.The
표적 분할부(210)는 최대 밝기값을 갖는 지점(이하, '최대 밝기점'이라 칭하기로 함)을 검색한다. 표적 분할부(210)는 샘플 영상 데이터에서 최대 밝기값을 갖는 지점으로부터 임계 밝기값(threshold)까지의 밝기값을 갖는 영역(또는, 픽셀)을 샘플 표적으로 분할할 수 있다. 일예로, 샘플 표적을 전차라 가정하면, 최대 밝기점은 전차의 엔진부(열 측정을 통해 획득된 영상인 경우)가 될 수 있다.The
표적 분할부(210)는 영상 전체의 히스토그램과 공간 정보를 사용하여 샘플 표적을 분할할 수 있다. 이를 통해, 표적 분할부(210)는 샘플 표적의 밝기 및 크기를 정규화할 수 있다.The
또한, 표적 분할부(210)에서 샘플 표적의 분할을 위한 임계 밝기값을 설정하는 동작을 하기의 도 5에서 설명한다.In addition, the operation of setting the threshold brightness value for dividing the sample target in the
표적 분할부(210)는 분할된 샘플 표적 영상을 모델링부(220)로 출력한다.The
모델링부(220)는 샘플 표적 영상을 픽셀의 밝기에 근거한 함수 형태로 모델링한다. 모델링부는 샘플 표적 영상을 2차원 함수 또는 3차원 함수로 모델링할 수 있다.The modeling unit 220 models the sample target image in the form of a function based on the brightness of the pixel. The modeling unit may model the sample target image as a 2D function or a 3D function.
모델링부(220)는 최대 밝기값을 중심으로 가우시안 형태의 밝기값 분포를 갖는 샘플 표적을 모델링한다. 가우시안 형태는 최대값을 기준으로 최대값으로부터 멀어질수록 밝기값이 점차 감소하는 형태이다. 모델링부(220)는 전체 영상에서 주변보다 밝기값이 밝은 밝기 분포를 갖는 영역을 샘플 표적으로 확인하고 모델링할 수 있다.The modeling unit 220 models a sample target having a Gaussian-type brightness value distribution around the maximum brightness value. In the Gaussian form, the brightness value gradually decreases away from the maximum value with respect to the maximum value. The modeling unit 220 may identify and model an area having a brightness distribution in which the brightness value is brighter than the surroundings in the entire image as a sample target.
모델링부(220)는 샘플 표적 영상을 픽셀의 밝기를 나타내는 2차원 함수로 모델링할 수 있다. 이때, 모델링부(220)에서 모델링한 2차원 함수는 하기의 수학식 1에 나타내었다.The modeling unit 220 may model the sample target image as a two-dimensional function representing the brightness of the pixel. In this case, the two-dimensional function modeled by the modeling unit 220 is shown in Equation 1 below.
여기서, 는 행(row)이고, 는 열(column)이다. 는 최대 밝기값이고, 와 는 표적의 모델 분산(표준 편차)이다.here, Is a row, Is a column. Is the maximum brightness value, Wow Is the model variance (standard deviation) of the target.
모델링부(220)는 샘플 표적 영상을 픽셀의 밝기를 나타내는 3차원 함수로 모델링할 수 있다. 이때, 모델링부(220)에서 모델링한 3차원 함수는 하기의 수학식 2에 나타내었다.The modeling unit 220 may model the sample target image as a 3D function representing the brightness of the pixel. In this case, the three-dimensional function modeled by the modeling unit 220 is shown in Equation 2 below.
여기서, 는 행(row)이고, 는 열(column)이다. 은 3차 다항식을 구성하는 기저 집합(basis set)이고, 는 계수 집합(coefficient set)이다.here, Is a row, Is a column. Is the basis set that constitutes the cubic polynomial, Is a coefficient set.
모델링부(220)는 3차원 함수에 대해 이산 직교 다항식(DOP: Discrete Orthogonal Polynomial)을 사용한다고 가정한다. 이때, 샘플 표적 영상이 11x11 크기를 갖는 경우, 인덱스 집합은 하기의 수학식 3에 나타내었다.The modeling unit 220 assumes that a Discrete Orthogonal Polynomial (DOP) is used for the 3D function. In this case, when the sample target image has a size of 11 × 11, the index set is shown in Equation 3 below.
이때, 모델링부(220)는 3차원 함수를 하기의 수학식 4과 같이 모델링할 수 있다.In this case, the modeling unit 220 may model the 3D function as in Equation 4 below.
여기서, 는 2차원 직교 이산 직교 다항식의 계수 집합이다. 객체(표적)인 가 로 정의될 때, 계수 은 하기의 수학식 5에 나타내었다.here, Is a set of coefficients of a two-dimensional orthogonal discrete orthogonal polynomial. Object (target) end When defined as Is shown in Equation 5 below.
또한, 표적 영상이 5x5 크기를 갖는 경우, 인덱스 집합은 하기의 수학식 6에 나타내었다.In addition, when the target image has a size of 5x5, the index set is shown in Equation 6 below.
이때, 모델링부(220)는 3차원 함수를 하기의 수학식 7과 같이 모델링할 수 있다.In this case, the modeling unit 220 may model the 3D function as in Equation 7 below.
모델링부(220)는 2차원 함수 형태와 3차원 함수 형태 중 하나를 사용할 수 있다. 하지만, 3차원 함수 형태가 2차원 함수 형태에 비해 평균 제곱 오차(MSE: Mean Square Error) 성능이 우수하다.The modeling unit 220 may use one of a two-dimensional function form and a three-dimensional function form. However, the three-dimensional function form has a better mean square error (MSE) performance than the two-dimensional function form.
모델링부(220)는 모델링된 함수를 고유 모델링부(230)로 출력한다.The modeling unit 220 outputs the modeled function to the
고유 모델링부(230)는 함수로부터 고유 모델(eigen model)을 생성한다. 샘플 표적에 대응되는 고유 모델이 생성되므로, 고유 모델링부(230)는 샘플 표적들에 따라 복수개의 고유 모델들을 생성할 수 있다.The
고유 모델링부(230)는 생성된 고유 모델을 특징점 추출부(240)로 출력한다.The
고유 모델링부(230)는 고유 모델들을 평균하여 표적(또는, 비표적)에 대해 평균 벡터를 획득할 수 있다. 고유 모델링부는 표적(또는 비표적)에 대한 평균 벡터를 고유 벡터 연산부(250)로 출력한다. 여기서, 비표적에 대한 평균 벡터는 비표적 샘플 영상을 표적 분할부(210) 등에 입력시켜 획득할 수 있다.The
특징점 추출부(240)는 고유 모델로부터 샘플 표적의 특징점을 추출한다. 샘플 표적의 특징점은 표적의 이동, 크기, 회전 변화에 관계없이 일정한 값을 갖는 영상의 좌표(또는 모멘트)이다.The feature point extractor 240 extracts the feature point of the sample target from the unique model. The feature point of the sample target is the coordinate (or moment) of the image having a constant value regardless of the change in the movement, size, or rotation of the target.
고유 벡터 연산부(250)는 표적을 탐지한 탐지 영상 데이터로부터 고유 벡터를 획득한다. 고유 벡터 연산부는 표적 탐지부(111)에 의해 탐지된 표적 영상을 수신한다.The
고유 벡터 연산부(250)는 탐지 영상 데이터에서 표적 영상에 대한 고유 벡터를 획득할 수 있다. 고유 벡터 연산부(250)는 고유 벡터와 평균 벡터와의 비교를 통해 벡터들 간의 거리값을 획득할 수 있다. 여기서, 평균 벡터는 샘플 표적으로부터 획득된 표적 평균 벡터와 샘플 비표적으로부터 획득된 비표적 평균 벡터를 포함한다. 고유 벡터 연산부(250)는 표적 결정을 위한 거리값을 표적 결정부(260)로 출력한다.The
표적 결정부(250)는 거리값들을 수신하고, 고유 벡터가 평균 벡터와의 거리가 상대적으로 가까운 경우, 고유 벡터에 해당하는 표적 영상을 표적으로 결정할 수 있다. 고유 벡터가 평균 벡터와의 거리가 상대적으로 먼 경우, 고유 벡터에 해당하는 표적 영상을 비표적으로 결정할 수 있다.The
표적 결정부(250)는 결정된 표적에 대해서 특징점을 이용하여 결정 영상 데이터를 생성한다. 표적 결정부(250)는 결정된 표적 영상을 표적 추적부(113)로 출력할 수 있다.The
본 발명의 표적 결정부(112)는 다양한 샘플 표적 영상을 모델링하여 획득한 평균 벡터와 연산을 통해 표적을 결정함으로서, 정확한 표적 결정을 할 수 있다. 또한, 본 발명의 표적 결정부(112)는 표적 결정의 신뢰도를 향상시킬 수 있다.The
도 5는 본 발명의 일 실시예에 따른 임계값에 따른 표적 분할을 설명하기 위한 도면이다.5 is a diagram for describing target segmentation based on a threshold value according to an embodiment of the present invention.
도 5를 참조하면, 표적 분할부(210)는 원본 영상(또는, 샘플 영상)으로부터 표적을 분할하기 위해 다양한 임계값, 즉 임계 밝기값을 사용할 수 있다. 일예로, 중심 밝기값이 159이고, 평균 밝기값이 94이고, 밝기 표준값이 14.98인 경우를 가정하기로 한다.Referring to FIG. 5, the
첫 번째 영상은 임계 밝기값이 0.05인 경우의 표적 영상이다. 두 번째 영상은 임계 밝기값이 0.1인 경우의 표적 영상이다. 세 번째 영상은 임계 밝기값이 0.15인 경우의 표적 영상이다. 네 번째 영상은 임계 밝기값이 0.2인 경우의 표적 영상이다.The first image is the target image when the threshold brightness value is 0.05. The second image is the target image when the threshold brightness value is 0.1. The third image is the target image when the threshold brightness value is 0.15. The fourth image is the target image when the threshold brightness value is 0.2.
따라서, 표적 분할부(210)는 임계 밝기값 설정 시 표적에 가장 가까운 표적 영상을 갖는 세 번째 영상에 대응되는 임계 밝기값을 설정할 수 있다. 즉, 임계 밝기값에 따라 표적의 영상 분할 결과가 다르게 나타날 수 있다.Therefore, the
표적 분할부(210)는 임계 밝기값의 설정에 따른 표적 분할 결과를 확인하기 위해 하기의 수학식 8을 사용할 수 있다.The
수학식 8은 두 개의 영역 A와 B에 대해서 두 영역의 중복 비율(Overapping(A, B))을 나타낸다. 표적 분할부(210)는 두 개의 영역이 동일하면, 1에 가까운 값을 갖고, 두 개의 영역이 다르면, 1에 먼 값을 갖는다. 즉, 중복 비율이 작을수록 다른 값이다.Equation 8 shows the overlapping ratio (Overapping (A, B)) of the two areas for the two areas A and B. The
표적 분할부(210)는 수학식 8을 통해 최적의 임계 밝기값을 사용할 수 있다.The
이상 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although described with reference to the embodiments above, those skilled in the art will understand that the present invention can be variously modified and changed without departing from the spirit and scope of the invention as set forth in the claims below. Could be.
Claims (8)
상기 생성된 샘플 표적 영상을 픽셀의 밝기에 근거한 함수 형태로 모델링하는 모델링부;
상기 함수로부터 고유 모델을 모델링하고, 모델링된 고유 모델에 대한 평균 벡터를 생성하는 고유 모델링부;
상기 고유 모델로부터 샘플 표적의 특징점을 추출하는 특징점 추출부;
표적 탐지에 의한 탐지 영상 데이터로부터 상기 고유 모델과의 연산을 위한 고유 벡터를 획득하고, 상기 고유 벡터와 상기 평균 벡터와의 거리값을 연산하는 고유 벡터 연산부 및
상기 연산된 거리값과 상기 추출된 특징점을 사용하여 표적을 결정하고, 결정된 표적의 결정 영상 데이터를 출력하는 표적 결정부를 포함하고,
상기 평균 벡터는 표적으로부터 획득된 표적 평균 벡터와 비표적으로부터 획득된 비표적 평균 벡터를 포함하는 것을 특징으로 하는 영상 탐색 장치.A target divider configured to generate a sample target image by dividing the sample target from sample image data including information about various targets;
A modeling unit modeling the generated sample target image in the form of a function based on brightness of a pixel;
An eigen modeling unit modeling an eigen model from the function and generating an average vector of the modeled eigen model;
A feature point extraction unit for extracting feature points of a sample target from the unique model;
An eigenvector calculator for obtaining an eigenvector for computation with the eigenmodel from detection image data by target detection, and calculating a distance value between the eigenvector and the average vector;
A target determination unit configured to determine a target using the calculated distance value and the extracted feature point, and output determination image data of the determined target;
And the mean vector comprises a target mean vector obtained from a target and a non-target mean vector obtained from a non-target.
수학식 1은 이고, 상기 는 행(row)이고, 상기 는 열(column)이고, 상기 는 최대 밝기값이고, 상기 와 상기 는 표적의 모델 분산(표준 편차)인 영상 탐색 장치.The method of claim 1, wherein the modeling unit models the target image as a two-dimensional function of Equation 1 below.
Equation 1 is And Is a row, and Is a column, and Is the maximum brightness value, And above Is a model variance (standard deviation) of the target.
수학식 2는 이고, 상기 는 행(row)이고, 상기 는 열(column)이고, 상기 은 3차 다항식을 구성하는 기저 집합(basis set)이고, 상기 는 계수 집합(coefficient set)인 영상 탐색 장치. The method of claim 1, wherein the modeling unit models the target image as a three-dimensional function of Equation 2 below.
Equation 2 is And Is a row, and Is a column, and Is a basis set constituting the cubic polynomial, and Is a coefficient set.
상기 생성된 샘플 표적 영상을 픽셀의 밝기에 근거한 함수로 모델링하는 단계;
상기 모델링된 함수로부터 고유 모델을 모델링하고, 모델링된 고유 모델에 대한 평균 벡터를 생성하는 단계;
상기 모델링된 고유 모델로부터 샘플 표적의 특징점을 추출하는 단계;
표적 탐지에 의한 탐지 영상 데이터로부터 상기 고유 모델과의 연산을 위한 고유 벡터를 획득하고, 상기 획득된 고유 벡터와 상기 생성된 평균 벡터와의 거리값을 연산하는 단계 및
상기 연산된 거리값과 상기 추출된 특징점을 이용하여 표적을 결정하고, 결정된 표적의 결정 영상 데이터를 출력하는 단계를 포함하고,
상기 생성된 샘플 표적 영상을 픽셀의 밝기에 근거한 함수로 모델링하는 단계가, 상기 표적 영상을 하기의 수학식 1의 2차원 함수로 모델링하는 단계를 포함하고,
수학식 1은 이고, 상기 는 행(row)이고, 상기 는 열(column)이고, 상기 는 최대 밝기값이고, 상기 와 상기 는 표적의 모델 분산(표준 편차)인 영상 탐색 장치의 표적 결정 방법.Generating a sample target image by segmenting the sample target from sample image data including information about various targets;
Modeling the generated sample target image as a function based on brightness of a pixel;
Modeling an eigen model from the modeled function and generating an average vector for the modeled eigen model;
Extracting feature points of a sample target from the modeled unique model;
Obtaining an eigenvector for calculation with the eigenmodel from detection image data by target detection, and calculating a distance value between the obtained eigenvector and the generated average vector; and
Determining a target by using the calculated distance value and the extracted feature point, and outputting the determined image data of the determined target,
The modeling of the generated sample target image as a function based on the brightness of the pixel may include modeling the target image as a two-dimensional function of Equation 1 below.
Equation 1 is And Is a row, and Is a column, and Is the maximum brightness value, And above Is a model variance (standard deviation) of the target.
상기 표적 영상을 하기의 수학식 2의 3차원 함수로 모델링하는 단계를 포함하고,
수학식 2는 이고, 상기 는 행(row)이고, 상기 는 열(column)이고, 상기 은 3차 다항식을 구성하는 기저 집합(basis set)이고, 상기 는 계수 집합(coefficient set)인 영상 탐색 장치의 표적 결정 방법.The method of claim 6, wherein the modeling of the generated sample target image as a function based on the brightness of the pixel comprises:
Modeling the target image by a three-dimensional function of Equation 2 below;
Equation 2 is And Is a row, and Is a column, and Is a basis set constituting the cubic polynomial, and Is a coefficient set (coefficient set).
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020100119033A KR101040305B1 (en) | 2010-11-26 | 2010-11-26 | Image Searching Device and Target Determination Method Using the Same |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020100119033A KR101040305B1 (en) | 2010-11-26 | 2010-11-26 | Image Searching Device and Target Determination Method Using the Same |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| KR101040305B1 true KR101040305B1 (en) | 2011-06-10 |
Family
ID=44405340
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020100119033A Expired - Fee Related KR101040305B1 (en) | 2010-11-26 | 2010-11-26 | Image Searching Device and Target Determination Method Using the Same |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR101040305B1 (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101568398B1 (en) * | 2014-02-11 | 2015-11-12 | 동서대학교산학협력단 | Lazer shooting system for extracting target impact point, and method for extracting target impact point using the same |
| CN113112406A (en) * | 2021-04-12 | 2021-07-13 | 南方科技大学 | Feature determination method and device, electronic equipment and storage medium |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR940006841A (en) * | 1992-09-17 | 1994-04-25 | 전성원 | Car seat back and forth |
| US20080308670A1 (en) | 2007-06-12 | 2008-12-18 | The Boeing Company | Systems and methods for optimizing the aimpoint for a missile |
| KR20100092413A (en) * | 2010-07-29 | 2010-08-20 | 엘아이지넥스원 주식회사 | Apparatus and method for extracting target, and the recording media storing the program performing the said method |
-
2010
- 2010-11-26 KR KR1020100119033A patent/KR101040305B1/en not_active Expired - Fee Related
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR940006841A (en) * | 1992-09-17 | 1994-04-25 | 전성원 | Car seat back and forth |
| US20080308670A1 (en) | 2007-06-12 | 2008-12-18 | The Boeing Company | Systems and methods for optimizing the aimpoint for a missile |
| KR20100092413A (en) * | 2010-07-29 | 2010-08-20 | 엘아이지넥스원 주식회사 | Apparatus and method for extracting target, and the recording media storing the program performing the said method |
Non-Patent Citations (1)
| Title |
|---|
| 논문1 |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101568398B1 (en) * | 2014-02-11 | 2015-11-12 | 동서대학교산학협력단 | Lazer shooting system for extracting target impact point, and method for extracting target impact point using the same |
| CN113112406A (en) * | 2021-04-12 | 2021-07-13 | 南方科技大学 | Feature determination method and device, electronic equipment and storage medium |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10807236B2 (en) | System and method for multimodal mapping and localization | |
| Pandey et al. | An approach for object tracking, categorization, and autopilot guidance for passive homing missiles | |
| US8686326B1 (en) | Optical-flow techniques for improved terminal homing and control | |
| Chen et al. | Drogue tracking using 3D flash lidar for autonomous aerial refueling | |
| JP6782903B2 (en) | Self-motion estimation system, control method and program of self-motion estimation system | |
| JP2005528707A (en) | Feature mapping between data sets | |
| JP6905390B2 (en) | Own vehicle position estimation environment map generator, own vehicle position estimation device, own vehicle position estimation environment map generation program, and own vehicle position estimation program | |
| Kechagias-Stamatis et al. | A new passive 3-D automatic target recognition architecture for aerial platforms | |
| KR101052038B1 (en) | Image Searching Device and Target Tracking Method Using the Same | |
| Masselli et al. | A cross-platform comparison of visual marker based approaches for autonomous flight of quadrocopters | |
| Li et al. | Topological similarity-based multi-target correlation localization for aerial-ground systems | |
| KR101040305B1 (en) | Image Searching Device and Target Determination Method Using the Same | |
| US9721352B1 (en) | Method and apparatus for computer vision analysis of cannon-launched artillery video | |
| KR20200047585A (en) | GBIAS for rate-based autopilot | |
| KR102252823B1 (en) | Apparatus and method for tracking targets and releasing warheads | |
| KR101040306B1 (en) | Image tracking device and target detection method using same | |
| Sharma et al. | Target identification and control model of autopilot for passive homing missiles | |
| JP3566182B2 (en) | Target position estimation device | |
| US11221194B2 (en) | IMUless flight control system | |
| KR101944631B1 (en) | Free rocket aiming device and method for calibrating aiming error of shooter | |
| Decker et al. | An automated method for computer vision analysis of cannon-launched projectile video | |
| AU785510B1 (en) | A method of a weapon guidance by target state estimation | |
| Garg et al. | Automated detection, locking and hitting a fast moving aerial object by image processing (suitable for guided missile) | |
| US12333743B2 (en) | Data processing apparatus, data processing method, and computer readable medium | |
| Indelman et al. | Real-time mosaic-aided aerial navigation: I. motion estimation |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| A201 | Request for examination | ||
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| A302 | Request for accelerated examination | ||
| PA0302 | Request for accelerated examination |
St.27 status event code: A-1-2-D10-D17-exm-PA0302 St.27 status event code: A-1-2-D10-D16-exm-PA0302 |
|
| D13-X000 | Search requested |
St.27 status event code: A-1-2-D10-D13-srh-X000 |
|
| D14-X000 | Search report completed |
St.27 status event code: A-1-2-D10-D14-srh-X000 |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| E13-X000 | Pre-grant limitation requested |
St.27 status event code: A-2-3-E10-E13-lim-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R11-asn-PN2301 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R14-asn-PN2301 |
|
| FPAY | Annual fee payment |
Payment date: 20140602 Year of fee payment: 4 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 4 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R13-asn-PN2301 St.27 status event code: A-5-5-R10-R11-asn-PN2301 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| FPAY | Annual fee payment |
Payment date: 20150601 Year of fee payment: 5 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 5 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 6 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R13-asn-PN2301 St.27 status event code: A-5-5-R10-R11-asn-PN2301 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 7 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 8 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 9 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R13-asn-PN2301 St.27 status event code: A-5-5-R10-R11-asn-PN2301 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 10 |
|
| R17-X000 | Change to representative recorded |
St.27 status event code: A-5-5-R10-R17-oth-X000 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 11 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 12 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 13 |
|
| PC1903 | Unpaid annual fee |
St.27 status event code: A-4-4-U10-U13-oth-PC1903 Not in force date: 20240603 Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| PC1903 | Unpaid annual fee |
St.27 status event code: N-4-6-H10-H13-oth-PC1903 Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE Not in force date: 20240603 |