[go: up one dir, main page]

KR101040305B1 - Image Searching Device and Target Determination Method Using the Same - Google Patents

Image Searching Device and Target Determination Method Using the Same Download PDF

Info

Publication number
KR101040305B1
KR101040305B1 KR1020100119033A KR20100119033A KR101040305B1 KR 101040305 B1 KR101040305 B1 KR 101040305B1 KR 1020100119033 A KR1020100119033 A KR 1020100119033A KR 20100119033 A KR20100119033 A KR 20100119033A KR 101040305 B1 KR101040305 B1 KR 101040305B1
Authority
KR
South Korea
Prior art keywords
target
sample
image
modeling
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR1020100119033A
Other languages
Korean (ko)
Inventor
박장한
이완재
윤동준
Original Assignee
삼성탈레스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성탈레스 주식회사 filed Critical 삼성탈레스 주식회사
Priority to KR1020100119033A priority Critical patent/KR101040305B1/en
Application granted granted Critical
Publication of KR101040305B1 publication Critical patent/KR101040305B1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F42AMMUNITION; BLASTING
    • F42BEXPLOSIVE CHARGES, e.g. FOR BLASTING, FIREWORKS, AMMUNITION
    • F42B15/00Self-propelled projectiles or missiles, e.g. rockets; Guided missiles
    • F42B15/01Arrangements thereon for guidance or control
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/22Aiming or laying means for vehicle-borne armament, e.g. on aircraft
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Combustion & Propulsion (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)

Abstract

본 발명은 영상 탐색 장치에 관한 것으로서, 다양한 표적에 대한 정보를 포함한 샘플 영상 데이터로부터 샘플 표적의 분할을 통해 샘플 표적 영상을 생성하는 표적 분할부와, 상기 생성된 샘플 표적 영상을 픽셀의 밝기에 근거한 함수 형태로 모델링하는 모델링부와, 상기 함수로부터 고유 모델을 모델링하고, 모델링된 고유 모델에 대한 평균 벡터를 생성하는 고유 모델링부와, 상기 고유 모델로부터 샘플 표적의 특징점을 추출하는 특징점 추출부와, 표적 탐지에 의한 탐지 영상 데이터로부터 상기 고유 모델과의 연산을 위한 고유 벡터를 획득하고, 상기 고유 벡터와 상기 평균 벡터와의 거리값을 연산하는 고유 벡터 연산부와, 상기 연산된 거리값과 상기 추출된 특징점을 사용하여 표적을 결정하고, 결정된 표적의 결정 영상 데이터를 출력하는 표적 결정부를 구성한다. 상기와 같은 영상 탐색 장치 및 이를 이용한 표적 결정 방법에 의하면, 복수의 샘플 영상을 사용하여 표적을 결정함으로서, 표적을 정확하게 결정할 수 있는 효과가 있다. 아울러, 표적 결정의 신뢰도를 향상시킬 수 있다.The present invention relates to an image search device, comprising: a target divider configured to generate a sample target image by dividing a sample target from sample image data including information on various targets, and generating the sample target image based on the brightness of pixels. A modeling unit for modeling in a functional form, a eigen modeling unit for modeling a eigen model from the function, and generating an average vector of the modeled eigen model, a feature point extracting unit for extracting feature points of a sample target from the eigen model; An eigenvector calculation unit for obtaining an eigenvector for calculation with the eigen model from detection image data by target detection, and calculating a distance value between the eigenvector and the average vector, the calculated distance value and the extracted A target that uses a feature point to determine a target and outputs determined image data of the determined target. Constitute the government. According to the image search apparatus and the target determination method using the same, the target can be determined accurately by using a plurality of sample images. In addition, the reliability of the target decision can be improved.

Figure R1020100119033
Figure R1020100119033

Description

영상 탐색 장치 및 이를 이용한 표적 결정 방법{IMAGING SEEKER APPARATUS AND METHOD FOR DETERMINING TARGET USING THE APPARATUS}Image Searching Apparatus and Target Determination Method Using the Same {IMAGING SEEKER APPARATUS AND METHOD FOR DETERMINING TARGET USING THE APPARATUS}

본 발명은 영상 탐색 장치에 관한 것으로서, 좀 더 상세하게는 표적을 결정하기 위한 영상 탐색 장치 및 이를 이용한 표적 결정 방법에 관한 것이다.The present invention relates to an image search apparatus, and more particularly, to an image search apparatus for determining a target and a target determination method using the same.

표적을 요격하기 위한 장치들 중 하나로 유도탄(Missile)은 목표에 도달할 때까지 특정 방법에 의해 유도되는 장치를 갖는 무기이다. 유도탄은 추진력을 갖는 비행 물체이고, 탄두 등을 운반하는 군사용 로켓 등이 될 수 있다.As one of the devices for intercepting a target, a missile is a weapon with a device guided by a particular method until the target is reached. A missile is a flying object with propulsion, and may be a military rocket carrying a warhead or the like.

유도탄을 발사하는 발사점부터 표적까지 유도탄을 정확하게 보내기 위해서 유도탄과 표적의 정보를 획득 처리하고 유도 명령을 계산하여 전달하는 유도 방법은 사용 목적, 운용 개념, 요구 성능 등에 따라 다양할 수 있다.The guided method of acquiring and processing information of the guided missile and the target, and calculating and transmitting the guided command in order to accurately send the guided missile from the firing point of firing the guided missile to the target may vary depending on the intended use, operational concept, and required performance.

유도탄에는 표적 추적을 위한 다양한 영상 탐색 장치가 탑재되어 있다. 유도 탄이 스스로 표적을 추적하기 위한 표적 영상 데이터를 영상 탐색 장치로부터 획득할 수 있다.The missile is equipped with a variety of image navigation devices for target tracking. The missile may acquire target image data from the image search apparatus for tracking the target by itself.

영상 탐색 장치는 유도탄에 표적에 관련된 표적 영상 데이터를 생성하기 위해 표적을 결정하여야 한다. 영상 내에는 복수개의 표적 대상이 존재할 수 있다. 이러한 표적 대상들 중에서 표적을 정확히 결정해야 할 필요성이 있었다.The image search device must determine the target to generate target image data related to the target in the missile. There may be a plurality of target objects in the image. Among these target objects, there was a need to accurately determine the target.

본 발명의 목적은 표적을 결정하기 위한 영상 탐색 장치를 제공하는 데 있다.It is an object of the present invention to provide an image search apparatus for determining a target.

본 발명의 다른 목적은 상기 영상 탐색 장치를 이용한 표적 결정 방법을 제공하는 데 있다.Another object of the present invention is to provide a method for determining a target using the image search apparatus.

상술한 본 발명의 목적에 따른 영상 탐색 장치는 다양한 표적에 대한 정보를 포함한 샘플 영상 데이터로부터 샘플 표적의 분할을 통해 샘플 표적 영상을 생성하는 표적 분할부와, 상기 생성된 샘플 표적 영상을 픽셀의 밝기에 근거한 함수 형태로 모델링하는 모델링부와, 상기 함수로부터 고유 모델을 모델링하고, 모델링된 고유 모델에 대한 평균 벡터를 생성하는 고유 모델링부와, 상기 고유 모델로부터 샘플 표적의 특징점을 추출하는 특징점 추출부와, 표적 탐지에 의한 탐지 영상 데이터로부터 상기 고유 모델과의 연산을 위한 고유 벡터를 획득하고, 상기 고유 벡터와 상기 평균 벡터와의 거리값을 연산하는 고유 벡터 연산부와, 상기 연산된 거리값과 상기 추출된 특징점을 사용하여 표적을 결정하고, 결정된 표적의 결정 영상 데이터를 출력하는 표적 결정부를 포함한다. 여기에서, 상기 표적 분할부는 상기 샘플 영상 데이터로부터 최대 밝기값을 중심으로 하는 가우시안 형태의 샘플 표적 영상을 생성한다. 그리고 상기 모델링부는 상기 표적 영상을 다음의 수학식

Figure 112010077720794-pat00001
의 2차원 함수로 모델링하고, 상기
Figure 112010077720794-pat00002
는 행(row)이고, 상기
Figure 112010077720794-pat00003
는 열(column)이고, 상기
Figure 112010077720794-pat00004
는 최대 밝기값이고, 상기
Figure 112010077720794-pat00005
와 상기
Figure 112010077720794-pat00006
는 표적의 모델 분산(표준 편차)이다. 그리고 상기 모델링부는 상기 표적 영상을 다음의 수학식
Figure 112010077720794-pat00007
의 3차원 함수로 모델링하고, 상기
Figure 112010077720794-pat00008
는 행(row)이고, 상기
Figure 112010077720794-pat00009
는 열(column)이고, 상기
Figure 112010077720794-pat00010
은 3차 다항식을 구성하는 기저 집합(basis set)이고, 상기
Figure 112010077720794-pat00011
는 계수 집합(coefficient set)이다. 한편, 상기 평균 벡터는 표적으로부터 획득된 표적 평균 벡터와 상기 평균 벡터는 비표적으로부터 획득된 비표적 평균 벡터를 포함한다.According to an aspect of the present invention, an image search apparatus includes a target segmentation unit configured to generate a sample target image by dividing a sample target from sample image data including information on various targets, and the brightness of the pixel by using the generated sample target image. A modeling unit for modeling in the form of a function based on the eigen model, an eigen modeling unit for modeling an eigen model from the function, generating an average vector of the modeled eigen model, and a feature point extraction unit for extracting feature points of a sample target from the eigen model An eigenvector calculation unit for obtaining an eigenvector for calculation with the eigen model from detection image data by target detection, and calculating a distance value between the eigenvector and the average vector, and the calculated distance value and the A table that uses the extracted feature points to determine the target and outputs the determined image data of the determined target. It includes an enemy decision unit. Here, the target dividing unit generates a Gaussian-type sample target image centered on the maximum brightness value from the sample image data. And the modeling unit converts the target image into the following equation.
Figure 112010077720794-pat00001
Modeled as a two-dimensional function of
Figure 112010077720794-pat00002
Is a row, and
Figure 112010077720794-pat00003
Is a column, and
Figure 112010077720794-pat00004
Is the maximum brightness value,
Figure 112010077720794-pat00005
And above
Figure 112010077720794-pat00006
Is the model variance (standard deviation) of the target. And the modeling unit converts the target image into the following equation.
Figure 112010077720794-pat00007
Modeled as a three-dimensional function of
Figure 112010077720794-pat00008
Is a row, and
Figure 112010077720794-pat00009
Is a column, and
Figure 112010077720794-pat00010
Is a basis set constituting the cubic polynomial, and
Figure 112010077720794-pat00011
Is a coefficient set. Meanwhile, the mean vector includes a target mean vector obtained from a target and the mean vector includes a non-target mean vector obtained from a non-target.

상술한 본 발명의 다른 목적에 따른 영상 탐색 장치를 이용한 표적 결정 방법은 다양한 표적에 대한 정보를 포함한 샘플 영상 데이터로부터 샘플 표적의 분할을 통해 샘플 표적 영상을 생성하는 단계와, 상기 생성된 샘플 표적 영상을 픽셀의 밝기에 근거한 함수로 모델링하는 단계와, 상기 모델링된 함수로부터 고유 모델을 모델링하고, 모델링된 고유 모델에 대한 평균 벡터를 생성하는 단계와, 상기 모델링된 고유 모델로부터 샘플 표적의 특징점을 추출하는 단계와, 표적 탐지에 의한 탐지 영상 데이터로부터 상기 고유 모델과의 연산을 위한 고유 벡터를 획득하고, 상기 획득된 고유 벡터와 상기 생성된 평균 벡터와의 거리값을 연산하는 단계와, 상기 연산된 거리값과 상기 추출된 특징점을 이용하여 표적을 결정하고, 결정된 표적의 결정 영상 데이터를 출력하는 단계를 포함한다. 여기에서, 상기 모델링하는 단계는, 상기 표적 영상을 다음의 수학식

Figure 112010077720794-pat00012
의 2차원 함수로 모델링하는 단계를 포함하고, 상기
Figure 112010077720794-pat00013
는 행(row)이고, 상기
Figure 112010077720794-pat00014
는 열(column)이고, 상기
Figure 112010077720794-pat00015
는 최대 밝기값이고, 상기
Figure 112010077720794-pat00016
와 상기
Figure 112010077720794-pat00017
는 표적의 모델 분산(표준 편차)이다. 그리고 상기 모델링하는 단계는, 상기 표적 영상을 다음의 수학식
Figure 112010077720794-pat00018
의 3차원 함수로 모델링하는 단계를 포함하고, 상기
Figure 112010077720794-pat00019
는 행(row)이고, 상기
Figure 112010077720794-pat00020
는 열(column)이고, 상기
Figure 112010077720794-pat00021
은 3차 다항식을 구성하는 기저 집합(basis set)이고, 상기
Figure 112010077720794-pat00022
는 계수 집합(coefficient set)이다.According to another aspect of the present invention, there is provided a method for determining a target using an image search apparatus, comprising: generating a sample target image by dividing a sample target from sample image data including information on various targets, and generating the sample target image. Is modeled as a function based on the brightness of the pixel, modeling a eigen model from the modeled function, generating an average vector for the modeled eigen model, and extracting feature points of a sample target from the modeled eigen model Obtaining an eigenvector for calculation with the eigen model from detection image data by target detection, and calculating a distance value between the obtained eigenvector and the generated average vector; A target is determined using a distance value and the extracted feature point, and the determined image data of the determined target A and a step of outputting. In the modeling, the target image may be represented by the following equation.
Figure 112010077720794-pat00012
Modeling with a two-dimensional function of
Figure 112010077720794-pat00013
Is a row, and
Figure 112010077720794-pat00014
Is a column, and
Figure 112010077720794-pat00015
Is the maximum brightness value,
Figure 112010077720794-pat00016
And above
Figure 112010077720794-pat00017
Is the model variance (standard deviation) of the target. In the modeling, the target image may be represented by the following equation.
Figure 112010077720794-pat00018
Modeling with a three-dimensional function of
Figure 112010077720794-pat00019
Is a row, and
Figure 112010077720794-pat00020
Is a column, and
Figure 112010077720794-pat00021
Is a basis set constituting the cubic polynomial, and
Figure 112010077720794-pat00022
Is a coefficient set.

상기와 같은 영상 탐색 장치 및 이를 이용한 표적 결정 방법에 의하면, 복수의 샘플 영상을 사용하여 표적을 결정함으로써, 표적을 정확하게 결정할 수 있는 효과가 있다. 아울러 표적 결정의 신뢰도를 향상시킬 수 있다.According to the image search apparatus and the target determination method using the same, the target can be determined accurately by using a plurality of sample images. In addition, the reliability of the target decision can be improved.

도 1은 본 발명의 일 실시예에 따른 영상 탐색 장치를 사용하여 표적을 요격하는 유도탄을 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 유도탄의 구조도이다.
도 3은 본 발명의 일 실시예에 따른 영상 탐색 장치의 구조도이다.
도 4는 본 발명의 일 실시예에 따른 표적 결정부의 구조도이다.
도 5는 본 발명의 일 실시예에 따른 임계값에 따른 표적 분할을 설명하기 위한 도면이다.
1 is a diagram illustrating a missile to intercept a target by using an image search apparatus according to an exemplary embodiment of the present invention.
2 is a structural diagram of a missile according to an embodiment of the present invention.
3 is a structural diagram of an image search apparatus according to an embodiment of the present invention.
4 is a structural diagram of a target determining unit according to an embodiment of the present invention.
5 is a diagram for describing target segmentation based on a threshold value according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. Like reference numerals are used for like elements in describing each drawing.

제 1, 제 2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, and B may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component. And / or < / RTI > includes any combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that there is no other component in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.

이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 설명한다.Hereinafter, preferred embodiments according to the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 표적 추적을 통해 표적을 요격하는 유도탄을 도시한 도면이다.1 is a diagram illustrating a missile for intercepting a target through target tracking according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 유도탄(100)은 영상 탐색 장치를 탑재할 수 있다. 유도탄(100)은 표적(10)을 요격하기 위해서 탑재된 영상 탐색 장치를 사용하여 표적(10)을 탐지 및 추적할 수 있다. 일예로, 표적(20)은 벙커, 건물, 경장갑 등이 될 수 있다.Referring to FIG. 1, the missile 100 according to an embodiment of the present invention may be equipped with an image search apparatus. The missile 100 may detect and track the target 10 using an on-board image search device to intercept the target 10. For example, the target 20 may be a bunker, a building, light gloves, or the like.

유도탄(100)은 영상 탐색 장치에서 출력되는 표적 영상 데이터를 사용하여 표적(10)으로 유도할 수 있다. 일예로, 유도탄(100)은 로켓, 미사일 등을 포함할 수 있다.The missile 100 may be directed to the target 10 using target image data output from the image search apparatus. For example, the missile 100 may include a rocket, a missile, or the like.

도 2는 본 발명의 일 실시예에 따른 유도탄의 구조도이다.2 is a structural diagram of a missile according to an embodiment of the present invention.

도 2를 참조하면, 유도탄(100)은 영상 탐색 장치(110), 유도 장치(120), 조종 장치(130), 구동 장치(140), 및 조종 센서(150)를 포함한다.Referring to FIG. 2, the missile 100 includes an image search device 110, a guide device 120, a steering device 130, a driving device 140, and a steering sensor 150.

영상 탐색 장치(110)는 유도탄의 비행 운동에 따른 지형, 지물들로부터 표적의 탐지, 결정 및 포착 등을 통해 표적 영상 데이터를 생성한다. 영상 탐색 장치는 구동 장치(140)로부터 피드백되는 유도탄의 구동 정보를 이용하여 표적 영상 데이터를 생성할 수 있다. 영상 탐색 장치(110)는 표적 영상 데이터를 유도 장치(120)로 출력한다.The image search apparatus 110 generates target image data by detecting, determining, and capturing a target from terrain and features according to a flight motion of the missile. The image search apparatus may generate target image data by using driving information of the missiles fed back from the driving unit 140. The image search apparatus 110 outputs target image data to the induction apparatus 120.

유도 장치(120)는 표적 영상 데이터에 따라 유도탄의 운동을 표적으로 유도하기 위한 유도 명령을 생성한다. 유도 장치(120)는 내부 메모리 등에 저장된 항법 정보 또는 외부로부터 수신된 항법 정보를 사용하여 유도 명령을 생성할 수 있다. 유도 장치(120)는 유도 명령을 조종 장치(130)로 출력한다.The guidance device 120 generates an instruction to guide the movement of the missile to the target according to the target image data. The derivation device 120 may generate a derivation command by using navigation information stored in an internal memory or the like or navigation information received from the outside. The induction device 120 outputs an induction command to the steering device 130.

조종 장치(130)는 유도 정보에 따라 로켓의 구동을 위한 조종 명령을 생성한다. 또한, 조종 명령 생성 시에 조종 장치(130)는 조종 센서(150)에 의해 피드백되는 조종 제어 정보를 이용할 수 있다. 조종 장치(130)는 조종 명령을 구동 장치(140)로 출력한다.The steering device 130 generates a steering command for driving the rocket according to the guidance information. In addition, when generating a steering command, the steering apparatus 130 may use the steering control information fed back by the steering sensor 150. The steering device 130 outputs a steering command to the driving device 140.

구동 장치(140)는 로켓 구동을 위한 추진체 등을 포함한다. 구동 장치(140)는 구동 명령을 수신하고, 구동 명령에 따라 유도탄(100)의 비행 운동을 위해 추진체를 구동할 수 있다. 구동 장치(140)는 유도탄(100)의 비행 운동에 따른 구동 정보를 생성하여 조종 센서(150) 또는 영상 탐색 장치(110)로 피드백할 수 있다.The driving device 140 includes a propellant for driving a rocket. The driving device 140 may receive a driving command and drive the propellant for the flight movement of the missile 100 according to the driving command. The driving device 140 may generate driving information according to the flight motion of the missile 100 and feed it back to the steering sensor 150 or the image search device 110.

조종 센서(150)는 구동 정보를 사용하여 조종 장치로 유도탄(100)의 비행 운동에 따른 조종 제어 정보를 생성한다. 즉, 유도탄(100)을 표적으로 정확히 유도하기 위해, 조종 센서(140)는 조종 제어 정보를 통해 유도탄(100)의 실시간 구동 정보를 비행 운동에 반영할 수 있다.The steering sensor 150 generates steering control information according to the flight movement of the missile 100 using the driving information. That is, in order to accurately guide the missile 100 to the target, the steering sensor 140 may reflect the real-time driving information of the missile 100 in flight movement through the steering control information.

또한, 유도탄(100)은 탄두를 탑재하기 위한 공간을 구비하거나 탄두를 포함할 수 있다.In addition, the missile 100 may have a space for mounting a warhead or may include a warhead.

도 3은 본 발명의 일 실시예에 따른 영상 탐색 장치의 구조도이다.3 is a structural diagram of an image search apparatus according to an embodiment of the present invention.

도 3을 참조하면, 영상 탐색 장치(110)는 표적 탐지부(111), 표적 결정부(112), 및 표적 추적부(113)를 포함한다.Referring to FIG. 3, the image search apparatus 110 includes a target detector 111, a target determiner 112, and a target tracker 113.

표적 탐지부(111)는 영상 정보 센싱을 통해 영상 정보를 획득하고, 수신된 영상 정보로부터 표적을 탐지한다. 표적 탐지부(111)는 표적을 탐지한 탐지 영상 데이터를 표적 결정부(112)로 출력한다.The target detector 111 obtains image information through image information sensing and detects a target from the received image information. The target detector 111 outputs the detection image data of detecting the target to the target determiner 112.

표적 결정부(112)는 탐지 영상 데이터로부터 표적을 결정한다. 표적 결정부(112)는 표적을 결정한 결정 영상 데이터를 표적 추적부(113)로 출력한다.The target determiner 112 determines a target from the detection image data. The target determiner 112 outputs the determined image data determining the target to the target tracker 113.

표적 추적부(113)는 결정 영상 데이터로부터 표적을 추적하여 표적 영상 데이터를 생성한다. 표적 추적부는 유도 장치(120)로 표적 데이터(고각, 방위각, 속도 정보, 가속도 정보)를 출력한다.The target tracking unit 113 generates a target image data by tracking a target from the determined image data. The target tracking unit outputs target data (elevation, azimuth, velocity information, acceleration information) to the induction device 120.

표적 탐지부(111), 표적 결정부(112), 및 표적 추적부(113) 중 적어도 하나는 표적의 탐지, 결정, 및 추적을 위해 구동 정보(일예로, 유도탄의 속도 정보, 가속도 정보 등)를 수신하고, 수신된 구동 정보를 이용할 수 있다.At least one of the target detector 111, the target determiner 112, and the target tracker 113 includes driving information (eg, speed information of the missile, acceleration information, etc.) for detecting, determining, and tracking the target. Can be received, and the received driving information can be used.

본 발명에서는 표적 결정부(111)의 표적 결정 동작을 상세히 설명하기로 한다.In the present invention, the target determination operation of the target determination unit 111 will be described in detail.

도 4는 본 발명의 일 실시예에 따른 표적 결정부의 구조도이다.4 is a structural diagram of a target determining unit according to an embodiment of the present invention.

도 4를 참조하면, 표적 결정부(112)는 표적 분할부(210), 모델링부(220), 고유 모델링부(230), 특징점 추출부(240), 고유 벡터 연산부(250), 및 결정 영상 생성부(260)를 포함한다.Referring to FIG. 4, the target determiner 112 includes a target divider 210, a modeler 220, a unique modeler 230, a feature point extractor 240, an eigenvector calculator 250, and a determined image. The generation unit 260 is included.

표적 분할부(210)는 샘플 영상 데이터로부터 표적 분할을 통해 표적 정보를 추출한다. 샘플 영상 데이터는 영상 탐색 장치(110) 내부의 메모리 또는 표적 결정부(112) 내부의 메모리 등에 미리 저장될 수 있다. 여기서, 샘플 영상 데이터는 다양한 표적에 대한 정보를 포함한 영상 데이터들로부터 획득된 데이터이다.The target dividing unit 210 extracts target information through target dividing from the sample image data. The sample image data may be previously stored in a memory inside the image search apparatus 110 or a memory inside the target determiner 112. Here, the sample image data is data obtained from image data including information on various targets.

표적 분할부(210)는 최대 밝기값을 갖는 지점(이하, '최대 밝기점'이라 칭하기로 함)을 검색한다. 표적 분할부(210)는 샘플 영상 데이터에서 최대 밝기값을 갖는 지점으로부터 임계 밝기값(threshold)까지의 밝기값을 갖는 영역(또는, 픽셀)을 샘플 표적으로 분할할 수 있다. 일예로, 샘플 표적을 전차라 가정하면, 최대 밝기점은 전차의 엔진부(열 측정을 통해 획득된 영상인 경우)가 될 수 있다.The target dividing unit 210 searches for a point having a maximum brightness value (hereinafter, referred to as a 'maximum brightness point'). The target dividing unit 210 may divide an area (or a pixel) having a brightness value from a point having a maximum brightness value to a threshold brightness value (threshold) in the sample image data into a sample target. For example, assuming that the sample target is a tank, the maximum brightness point may be the engine unit of the tank (when the image is obtained through thermal measurement).

표적 분할부(210)는 영상 전체의 히스토그램과 공간 정보를 사용하여 샘플 표적을 분할할 수 있다. 이를 통해, 표적 분할부(210)는 샘플 표적의 밝기 및 크기를 정규화할 수 있다.The target dividing unit 210 may divide the sample target by using the histogram and the spatial information of the entire image. Through this, the target divider 210 may normalize the brightness and the size of the sample target.

또한, 표적 분할부(210)에서 샘플 표적의 분할을 위한 임계 밝기값을 설정하는 동작을 하기의 도 5에서 설명한다.In addition, the operation of setting the threshold brightness value for dividing the sample target in the target dividing unit 210 will be described with reference to FIG. 5.

표적 분할부(210)는 분할된 샘플 표적 영상을 모델링부(220)로 출력한다.The target divider 210 outputs the split sample target image to the modeling unit 220.

모델링부(220)는 샘플 표적 영상을 픽셀의 밝기에 근거한 함수 형태로 모델링한다. 모델링부는 샘플 표적 영상을 2차원 함수 또는 3차원 함수로 모델링할 수 있다.The modeling unit 220 models the sample target image in the form of a function based on the brightness of the pixel. The modeling unit may model the sample target image as a 2D function or a 3D function.

모델링부(220)는 최대 밝기값을 중심으로 가우시안 형태의 밝기값 분포를 갖는 샘플 표적을 모델링한다. 가우시안 형태는 최대값을 기준으로 최대값으로부터 멀어질수록 밝기값이 점차 감소하는 형태이다. 모델링부(220)는 전체 영상에서 주변보다 밝기값이 밝은 밝기 분포를 갖는 영역을 샘플 표적으로 확인하고 모델링할 수 있다.The modeling unit 220 models a sample target having a Gaussian-type brightness value distribution around the maximum brightness value. In the Gaussian form, the brightness value gradually decreases away from the maximum value with respect to the maximum value. The modeling unit 220 may identify and model an area having a brightness distribution in which the brightness value is brighter than the surroundings in the entire image as a sample target.

모델링부(220)는 샘플 표적 영상을 픽셀의 밝기를 나타내는 2차원 함수로 모델링할 수 있다. 이때, 모델링부(220)에서 모델링한 2차원 함수는 하기의 수학식 1에 나타내었다.The modeling unit 220 may model the sample target image as a two-dimensional function representing the brightness of the pixel. In this case, the two-dimensional function modeled by the modeling unit 220 is shown in Equation 1 below.

Figure 112010077720794-pat00023
Figure 112010077720794-pat00023

여기서,

Figure 112010077720794-pat00024
는 행(row)이고,
Figure 112010077720794-pat00025
는 열(column)이다.
Figure 112010077720794-pat00026
는 최대 밝기값이고,
Figure 112010077720794-pat00027
Figure 112010077720794-pat00028
는 표적의 모델 분산(표준 편차)이다.here,
Figure 112010077720794-pat00024
Is a row,
Figure 112010077720794-pat00025
Is a column.
Figure 112010077720794-pat00026
Is the maximum brightness value,
Figure 112010077720794-pat00027
Wow
Figure 112010077720794-pat00028
Is the model variance (standard deviation) of the target.

모델링부(220)는 샘플 표적 영상을 픽셀의 밝기를 나타내는 3차원 함수로 모델링할 수 있다. 이때, 모델링부(220)에서 모델링한 3차원 함수는 하기의 수학식 2에 나타내었다.The modeling unit 220 may model the sample target image as a 3D function representing the brightness of the pixel. In this case, the three-dimensional function modeled by the modeling unit 220 is shown in Equation 2 below.

Figure 112010077720794-pat00029
Figure 112010077720794-pat00029

여기서,

Figure 112010077720794-pat00030
는 행(row)이고,
Figure 112010077720794-pat00031
는 열(column)이다.
Figure 112010077720794-pat00032
은 3차 다항식을 구성하는 기저 집합(basis set)이고,
Figure 112010077720794-pat00033
는 계수 집합(coefficient set)이다.here,
Figure 112010077720794-pat00030
Is a row,
Figure 112010077720794-pat00031
Is a column.
Figure 112010077720794-pat00032
Is the basis set that constitutes the cubic polynomial,
Figure 112010077720794-pat00033
Is a coefficient set.

모델링부(220)는 3차원 함수에 대해 이산 직교 다항식(DOP: Discrete Orthogonal Polynomial)을 사용한다고 가정한다. 이때, 샘플 표적 영상이 11x11 크기를 갖는 경우, 인덱스 집합은 하기의 수학식 3에 나타내었다.The modeling unit 220 assumes that a Discrete Orthogonal Polynomial (DOP) is used for the 3D function. In this case, when the sample target image has a size of 11 × 11, the index set is shown in Equation 3 below.

Figure 112010077720794-pat00034
Figure 112010077720794-pat00034

이때, 모델링부(220)는 3차원 함수를 하기의 수학식 4과 같이 모델링할 수 있다.In this case, the modeling unit 220 may model the 3D function as in Equation 4 below.

Figure 112010077720794-pat00035
Figure 112010077720794-pat00035

여기서,

Figure 112010077720794-pat00036
는 2차원 직교 이산 직교 다항식의 계수 집합이다. 객체(표적)인
Figure 112010077720794-pat00037
Figure 112010077720794-pat00038
로 정의될 때, 계수
Figure 112010077720794-pat00039
은 하기의 수학식 5에 나타내었다.here,
Figure 112010077720794-pat00036
Is a set of coefficients of a two-dimensional orthogonal discrete orthogonal polynomial. Object (target)
Figure 112010077720794-pat00037
end
Figure 112010077720794-pat00038
When defined as
Figure 112010077720794-pat00039
Is shown in Equation 5 below.

Figure 112010077720794-pat00040
Figure 112010077720794-pat00040

또한, 표적 영상이 5x5 크기를 갖는 경우, 인덱스 집합은 하기의 수학식 6에 나타내었다.In addition, when the target image has a size of 5x5, the index set is shown in Equation 6 below.

Figure 112010077720794-pat00041
Figure 112010077720794-pat00041

이때, 모델링부(220)는 3차원 함수를 하기의 수학식 7과 같이 모델링할 수 있다.In this case, the modeling unit 220 may model the 3D function as in Equation 7 below.

Figure 112010077720794-pat00042
Figure 112010077720794-pat00042

모델링부(220)는 2차원 함수 형태와 3차원 함수 형태 중 하나를 사용할 수 있다. 하지만, 3차원 함수 형태가 2차원 함수 형태에 비해 평균 제곱 오차(MSE: Mean Square Error) 성능이 우수하다.The modeling unit 220 may use one of a two-dimensional function form and a three-dimensional function form. However, the three-dimensional function form has a better mean square error (MSE) performance than the two-dimensional function form.

모델링부(220)는 모델링된 함수를 고유 모델링부(230)로 출력한다.The modeling unit 220 outputs the modeled function to the unique modeling unit 230.

고유 모델링부(230)는 함수로부터 고유 모델(eigen model)을 생성한다. 샘플 표적에 대응되는 고유 모델이 생성되므로, 고유 모델링부(230)는 샘플 표적들에 따라 복수개의 고유 모델들을 생성할 수 있다.The unique modeling unit 230 generates an eigen model from the function. Since a unique model corresponding to the sample target is generated, the unique modeling unit 230 may generate a plurality of unique models according to the sample targets.

고유 모델링부(230)는 생성된 고유 모델을 특징점 추출부(240)로 출력한다.The unique modeling unit 230 outputs the generated unique model to the feature point extractor 240.

고유 모델링부(230)는 고유 모델들을 평균하여 표적(또는, 비표적)에 대해 평균 벡터를 획득할 수 있다. 고유 모델링부는 표적(또는 비표적)에 대한 평균 벡터를 고유 벡터 연산부(250)로 출력한다. 여기서, 비표적에 대한 평균 벡터는 비표적 샘플 영상을 표적 분할부(210) 등에 입력시켜 획득할 수 있다.The unique modeling unit 230 may obtain the average vector with respect to the target (or non-target) by averaging the unique models. The eigen modeling unit outputs an average vector of the target (or non-target) to the eigenvector calculator 250. Here, the average vector for the non-target may be obtained by inputting the non-target sample image to the target divider 210 or the like.

특징점 추출부(240)는 고유 모델로부터 샘플 표적의 특징점을 추출한다. 샘플 표적의 특징점은 표적의 이동, 크기, 회전 변화에 관계없이 일정한 값을 갖는 영상의 좌표(또는 모멘트)이다.The feature point extractor 240 extracts the feature point of the sample target from the unique model. The feature point of the sample target is the coordinate (or moment) of the image having a constant value regardless of the change in the movement, size, or rotation of the target.

고유 벡터 연산부(250)는 표적을 탐지한 탐지 영상 데이터로부터 고유 벡터를 획득한다. 고유 벡터 연산부는 표적 탐지부(111)에 의해 탐지된 표적 영상을 수신한다.The eigenvector calculator 250 obtains the eigenvector from the detection image data of detecting the target. The eigenvector calculator receives the target image detected by the target detector 111.

고유 벡터 연산부(250)는 탐지 영상 데이터에서 표적 영상에 대한 고유 벡터를 획득할 수 있다. 고유 벡터 연산부(250)는 고유 벡터와 평균 벡터와의 비교를 통해 벡터들 간의 거리값을 획득할 수 있다. 여기서, 평균 벡터는 샘플 표적으로부터 획득된 표적 평균 벡터와 샘플 비표적으로부터 획득된 비표적 평균 벡터를 포함한다. 고유 벡터 연산부(250)는 표적 결정을 위한 거리값을 표적 결정부(260)로 출력한다.The eigenvector calculator 250 may obtain an eigenvector for the target image from the detection image data. The eigenvector calculator 250 may obtain a distance value between the vectors by comparing the eigenvector and the average vector. Here, the mean vector includes a target mean vector obtained from a sample target and a non-target mean vector obtained from a sample nontarget. The eigenvector calculator 250 outputs the distance value for the target determination to the target determiner 260.

표적 결정부(250)는 거리값들을 수신하고, 고유 벡터가 평균 벡터와의 거리가 상대적으로 가까운 경우, 고유 벡터에 해당하는 표적 영상을 표적으로 결정할 수 있다. 고유 벡터가 평균 벡터와의 거리가 상대적으로 먼 경우, 고유 벡터에 해당하는 표적 영상을 비표적으로 결정할 수 있다.The target determiner 250 receives the distance values, and when the eigenvector is relatively close to the average vector, may determine the target image corresponding to the eigenvector as a target. When the eigenvector is relatively far from the mean vector, the target image corresponding to the eigenvector may be non-targeted.

표적 결정부(250)는 결정된 표적에 대해서 특징점을 이용하여 결정 영상 데이터를 생성한다. 표적 결정부(250)는 결정된 표적 영상을 표적 추적부(113)로 출력할 수 있다.The target determiner 250 generates the determined image data using the feature point for the determined target. The target determiner 250 may output the determined target image to the target tracker 113.

본 발명의 표적 결정부(112)는 다양한 샘플 표적 영상을 모델링하여 획득한 평균 벡터와 연산을 통해 표적을 결정함으로서, 정확한 표적 결정을 할 수 있다. 또한, 본 발명의 표적 결정부(112)는 표적 결정의 신뢰도를 향상시킬 수 있다.The target determiner 112 of the present invention may determine the target by determining the target through an average vector and an operation obtained by modeling various sample target images. In addition, the target determination unit 112 of the present invention may improve the reliability of the target determination.

도 5는 본 발명의 일 실시예에 따른 임계값에 따른 표적 분할을 설명하기 위한 도면이다.5 is a diagram for describing target segmentation based on a threshold value according to an embodiment of the present invention.

도 5를 참조하면, 표적 분할부(210)는 원본 영상(또는, 샘플 영상)으로부터 표적을 분할하기 위해 다양한 임계값, 즉 임계 밝기값을 사용할 수 있다. 일예로, 중심 밝기값이 159이고, 평균 밝기값이 94이고, 밝기 표준값이 14.98인 경우를 가정하기로 한다.Referring to FIG. 5, the target dividing unit 210 may use various threshold values, that is, threshold brightness values, for dividing a target from an original image (or a sample image). As an example, it is assumed that the center brightness value is 159, the average brightness value is 94, and the brightness standard value is 14.98.

첫 번째 영상은 임계 밝기값이 0.05인 경우의 표적 영상이다. 두 번째 영상은 임계 밝기값이 0.1인 경우의 표적 영상이다. 세 번째 영상은 임계 밝기값이 0.15인 경우의 표적 영상이다. 네 번째 영상은 임계 밝기값이 0.2인 경우의 표적 영상이다.The first image is the target image when the threshold brightness value is 0.05. The second image is the target image when the threshold brightness value is 0.1. The third image is the target image when the threshold brightness value is 0.15. The fourth image is the target image when the threshold brightness value is 0.2.

따라서, 표적 분할부(210)는 임계 밝기값 설정 시 표적에 가장 가까운 표적 영상을 갖는 세 번째 영상에 대응되는 임계 밝기값을 설정할 수 있다. 즉, 임계 밝기값에 따라 표적의 영상 분할 결과가 다르게 나타날 수 있다.Therefore, the target dividing unit 210 may set the threshold brightness value corresponding to the third image having the target image closest to the target when the threshold brightness value is set. That is, the image segmentation result of the target may appear differently according to the threshold brightness value.

표적 분할부(210)는 임계 밝기값의 설정에 따른 표적 분할 결과를 확인하기 위해 하기의 수학식 8을 사용할 수 있다.The target dividing unit 210 may use Equation 8 below to check the target dividing result according to the setting of the threshold brightness value.

Figure 112010077720794-pat00043
Figure 112010077720794-pat00043

수학식 8은 두 개의 영역 A와 B에 대해서 두 영역의 중복 비율(Overapping(A, B))을 나타낸다. 표적 분할부(210)는 두 개의 영역이 동일하면, 1에 가까운 값을 갖고, 두 개의 영역이 다르면, 1에 먼 값을 갖는다. 즉, 중복 비율이 작을수록 다른 값이다.Equation 8 shows the overlapping ratio (Overapping (A, B)) of the two areas for the two areas A and B. The target divider 210 has a value close to 1 if the two regions are the same, and has a value far from 1 if the two regions are different. In other words, the smaller the overlap ratio, the different the value.

표적 분할부(210)는 수학식 8을 통해 최적의 임계 밝기값을 사용할 수 있다.The target dividing unit 210 may use an optimal threshold brightness value through Equation 8.

이상 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although described with reference to the embodiments above, those skilled in the art will understand that the present invention can be variously modified and changed without departing from the spirit and scope of the invention as set forth in the claims below. Could be.

Claims (8)

다양한 표적에 대한 정보를 포함한 샘플 영상 데이터로부터 샘플 표적의 분할을 통해 샘플 표적 영상을 생성하는 표적 분할부;
상기 생성된 샘플 표적 영상을 픽셀의 밝기에 근거한 함수 형태로 모델링하는 모델링부;
상기 함수로부터 고유 모델을 모델링하고, 모델링된 고유 모델에 대한 평균 벡터를 생성하는 고유 모델링부;
상기 고유 모델로부터 샘플 표적의 특징점을 추출하는 특징점 추출부;
표적 탐지에 의한 탐지 영상 데이터로부터 상기 고유 모델과의 연산을 위한 고유 벡터를 획득하고, 상기 고유 벡터와 상기 평균 벡터와의 거리값을 연산하는 고유 벡터 연산부 및
상기 연산된 거리값과 상기 추출된 특징점을 사용하여 표적을 결정하고, 결정된 표적의 결정 영상 데이터를 출력하는 표적 결정부를 포함하고,
상기 평균 벡터는 표적으로부터 획득된 표적 평균 벡터와 비표적으로부터 획득된 비표적 평균 벡터를 포함하는 것을 특징으로 하는 영상 탐색 장치.
A target divider configured to generate a sample target image by dividing the sample target from sample image data including information about various targets;
A modeling unit modeling the generated sample target image in the form of a function based on brightness of a pixel;
An eigen modeling unit modeling an eigen model from the function and generating an average vector of the modeled eigen model;
A feature point extraction unit for extracting feature points of a sample target from the unique model;
An eigenvector calculator for obtaining an eigenvector for computation with the eigenmodel from detection image data by target detection, and calculating a distance value between the eigenvector and the average vector;
A target determination unit configured to determine a target using the calculated distance value and the extracted feature point, and output determination image data of the determined target;
And the mean vector comprises a target mean vector obtained from a target and a non-target mean vector obtained from a non-target.
제 1 항에 있어서, 상기 표적 분할부는 상기 샘플 영상 데이터로부터 최대 밝기값을 중심으로 하는 가우시안 형태의 샘플 표적 영상을 생성하는 영상 탐색 장치.The image searching apparatus of claim 1, wherein the target dividing unit generates a Gaussian-type sample target image centered on a maximum brightness value from the sample image data. 제 1 항에 있어서, 상기 모델링부는 상기 표적 영상을 하기의 수학식 1의 2차원 함수로 모델링하고,
수학식 1은
Figure 112011019628899-pat00044
이고, 상기
Figure 112011019628899-pat00045
는 행(row)이고, 상기
Figure 112011019628899-pat00046
는 열(column)이고, 상기
Figure 112011019628899-pat00047
는 최대 밝기값이고, 상기
Figure 112011019628899-pat00048
와 상기
Figure 112011019628899-pat00049
는 표적의 모델 분산(표준 편차)인 영상 탐색 장치.
The method of claim 1, wherein the modeling unit models the target image as a two-dimensional function of Equation 1 below.
Equation 1 is
Figure 112011019628899-pat00044
And
Figure 112011019628899-pat00045
Is a row, and
Figure 112011019628899-pat00046
Is a column, and
Figure 112011019628899-pat00047
Is the maximum brightness value,
Figure 112011019628899-pat00048
And above
Figure 112011019628899-pat00049
Is a model variance (standard deviation) of the target.
제 1 항에 있어서, 상기 모델링부는 상기 표적 영상을 하기의 수학식 2의 3차원 함수로 모델링하고,
수학식 2는
Figure 112011019628899-pat00050
이고, 상기
Figure 112011019628899-pat00051
는 행(row)이고, 상기
Figure 112011019628899-pat00052
는 열(column)이고, 상기
Figure 112011019628899-pat00053
은 3차 다항식을 구성하는 기저 집합(basis set)이고, 상기
Figure 112011019628899-pat00054
는 계수 집합(coefficient set)인 영상 탐색 장치.
The method of claim 1, wherein the modeling unit models the target image as a three-dimensional function of Equation 2 below.
Equation 2 is
Figure 112011019628899-pat00050
And
Figure 112011019628899-pat00051
Is a row, and
Figure 112011019628899-pat00052
Is a column, and
Figure 112011019628899-pat00053
Is a basis set constituting the cubic polynomial, and
Figure 112011019628899-pat00054
Is a coefficient set.
삭제delete 다양한 표적에 대한 정보를 포함한 샘플 영상 데이터로부터 샘플 표적의 분할을 통해 샘플 표적 영상을 생성하는 단계;
상기 생성된 샘플 표적 영상을 픽셀의 밝기에 근거한 함수로 모델링하는 단계;
상기 모델링된 함수로부터 고유 모델을 모델링하고, 모델링된 고유 모델에 대한 평균 벡터를 생성하는 단계;
상기 모델링된 고유 모델로부터 샘플 표적의 특징점을 추출하는 단계;
표적 탐지에 의한 탐지 영상 데이터로부터 상기 고유 모델과의 연산을 위한 고유 벡터를 획득하고, 상기 획득된 고유 벡터와 상기 생성된 평균 벡터와의 거리값을 연산하는 단계 및
상기 연산된 거리값과 상기 추출된 특징점을 이용하여 표적을 결정하고, 결정된 표적의 결정 영상 데이터를 출력하는 단계를 포함하고,
상기 생성된 샘플 표적 영상을 픽셀의 밝기에 근거한 함수로 모델링하는 단계가, 상기 표적 영상을 하기의 수학식 1의 2차원 함수로 모델링하는 단계를 포함하고,
수학식 1은
Figure 112011019628899-pat00071
이고, 상기
Figure 112011019628899-pat00072
는 행(row)이고, 상기
Figure 112011019628899-pat00073
는 열(column)이고, 상기
Figure 112011019628899-pat00074
는 최대 밝기값이고, 상기
Figure 112011019628899-pat00075
와 상기
Figure 112011019628899-pat00076
는 표적의 모델 분산(표준 편차)인 영상 탐색 장치의 표적 결정 방법.
Generating a sample target image by segmenting the sample target from sample image data including information about various targets;
Modeling the generated sample target image as a function based on brightness of a pixel;
Modeling an eigen model from the modeled function and generating an average vector for the modeled eigen model;
Extracting feature points of a sample target from the modeled unique model;
Obtaining an eigenvector for calculation with the eigenmodel from detection image data by target detection, and calculating a distance value between the obtained eigenvector and the generated average vector; and
Determining a target by using the calculated distance value and the extracted feature point, and outputting the determined image data of the determined target,
The modeling of the generated sample target image as a function based on the brightness of the pixel may include modeling the target image as a two-dimensional function of Equation 1 below.
Equation 1 is
Figure 112011019628899-pat00071
And
Figure 112011019628899-pat00072
Is a row, and
Figure 112011019628899-pat00073
Is a column, and
Figure 112011019628899-pat00074
Is the maximum brightness value,
Figure 112011019628899-pat00075
And above
Figure 112011019628899-pat00076
Is a model variance (standard deviation) of the target.
삭제delete 제 6 항에 있어서, 상기 생성된 샘플 표적 영상을 픽셀의 밝기에 근거한 함수로 모델링하는 단계는,
상기 표적 영상을 하기의 수학식 2의 3차원 함수로 모델링하는 단계를 포함하고,
수학식 2는
Figure 112011019628899-pat00061
이고, 상기
Figure 112011019628899-pat00062
는 행(row)이고, 상기
Figure 112011019628899-pat00063
는 열(column)이고, 상기
Figure 112011019628899-pat00064
은 3차 다항식을 구성하는 기저 집합(basis set)이고, 상기
Figure 112011019628899-pat00065
는 계수 집합(coefficient set)인 영상 탐색 장치의 표적 결정 방법.
The method of claim 6, wherein the modeling of the generated sample target image as a function based on the brightness of the pixel comprises:
Modeling the target image by a three-dimensional function of Equation 2 below;
Equation 2 is
Figure 112011019628899-pat00061
And
Figure 112011019628899-pat00062
Is a row, and
Figure 112011019628899-pat00063
Is a column, and
Figure 112011019628899-pat00064
Is a basis set constituting the cubic polynomial, and
Figure 112011019628899-pat00065
Is a coefficient set (coefficient set).
KR1020100119033A 2010-11-26 2010-11-26 Image Searching Device and Target Determination Method Using the Same Expired - Fee Related KR101040305B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100119033A KR101040305B1 (en) 2010-11-26 2010-11-26 Image Searching Device and Target Determination Method Using the Same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100119033A KR101040305B1 (en) 2010-11-26 2010-11-26 Image Searching Device and Target Determination Method Using the Same

Publications (1)

Publication Number Publication Date
KR101040305B1 true KR101040305B1 (en) 2011-06-10

Family

ID=44405340

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100119033A Expired - Fee Related KR101040305B1 (en) 2010-11-26 2010-11-26 Image Searching Device and Target Determination Method Using the Same

Country Status (1)

Country Link
KR (1) KR101040305B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101568398B1 (en) * 2014-02-11 2015-11-12 동서대학교산학협력단 Lazer shooting system for extracting target impact point, and method for extracting target impact point using the same
CN113112406A (en) * 2021-04-12 2021-07-13 南方科技大学 Feature determination method and device, electronic equipment and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR940006841A (en) * 1992-09-17 1994-04-25 전성원 Car seat back and forth
US20080308670A1 (en) 2007-06-12 2008-12-18 The Boeing Company Systems and methods for optimizing the aimpoint for a missile
KR20100092413A (en) * 2010-07-29 2010-08-20 엘아이지넥스원 주식회사 Apparatus and method for extracting target, and the recording media storing the program performing the said method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR940006841A (en) * 1992-09-17 1994-04-25 전성원 Car seat back and forth
US20080308670A1 (en) 2007-06-12 2008-12-18 The Boeing Company Systems and methods for optimizing the aimpoint for a missile
KR20100092413A (en) * 2010-07-29 2010-08-20 엘아이지넥스원 주식회사 Apparatus and method for extracting target, and the recording media storing the program performing the said method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
논문1

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101568398B1 (en) * 2014-02-11 2015-11-12 동서대학교산학협력단 Lazer shooting system for extracting target impact point, and method for extracting target impact point using the same
CN113112406A (en) * 2021-04-12 2021-07-13 南方科技大学 Feature determination method and device, electronic equipment and storage medium

Similar Documents

Publication Publication Date Title
US10807236B2 (en) System and method for multimodal mapping and localization
Pandey et al. An approach for object tracking, categorization, and autopilot guidance for passive homing missiles
US8686326B1 (en) Optical-flow techniques for improved terminal homing and control
Chen et al. Drogue tracking using 3D flash lidar for autonomous aerial refueling
JP6782903B2 (en) Self-motion estimation system, control method and program of self-motion estimation system
JP2005528707A (en) Feature mapping between data sets
JP6905390B2 (en) Own vehicle position estimation environment map generator, own vehicle position estimation device, own vehicle position estimation environment map generation program, and own vehicle position estimation program
Kechagias-Stamatis et al. A new passive 3-D automatic target recognition architecture for aerial platforms
KR101052038B1 (en) Image Searching Device and Target Tracking Method Using the Same
Masselli et al. A cross-platform comparison of visual marker based approaches for autonomous flight of quadrocopters
Li et al. Topological similarity-based multi-target correlation localization for aerial-ground systems
KR101040305B1 (en) Image Searching Device and Target Determination Method Using the Same
US9721352B1 (en) Method and apparatus for computer vision analysis of cannon-launched artillery video
KR20200047585A (en) GBIAS for rate-based autopilot
KR102252823B1 (en) Apparatus and method for tracking targets and releasing warheads
KR101040306B1 (en) Image tracking device and target detection method using same
Sharma et al. Target identification and control model of autopilot for passive homing missiles
JP3566182B2 (en) Target position estimation device
US11221194B2 (en) IMUless flight control system
KR101944631B1 (en) Free rocket aiming device and method for calibrating aiming error of shooter
Decker et al. An automated method for computer vision analysis of cannon-launched projectile video
AU785510B1 (en) A method of a weapon guidance by target state estimation
Garg et al. Automated detection, locking and hitting a fast moving aerial object by image processing (suitable for guided missile)
US12333743B2 (en) Data processing apparatus, data processing method, and computer readable medium
Indelman et al. Real-time mosaic-aided aerial navigation: I. motion estimation

Legal Events

Date Code Title Description
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

A201 Request for examination
PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

A302 Request for accelerated examination
PA0302 Request for accelerated examination

St.27 status event code: A-1-2-D10-D17-exm-PA0302

St.27 status event code: A-1-2-D10-D16-exm-PA0302

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

D14-X000 Search report completed

St.27 status event code: A-1-2-D10-D14-srh-X000

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R11-asn-PN2301

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R14-asn-PN2301

FPAY Annual fee payment

Payment date: 20140602

Year of fee payment: 4

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 4

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R13-asn-PN2301

St.27 status event code: A-5-5-R10-R11-asn-PN2301

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

FPAY Annual fee payment

Payment date: 20150601

Year of fee payment: 5

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 5

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 6

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R13-asn-PN2301

St.27 status event code: A-5-5-R10-R11-asn-PN2301

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 7

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 8

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 9

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R13-asn-PN2301

St.27 status event code: A-5-5-R10-R11-asn-PN2301

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 10

R17-X000 Change to representative recorded

St.27 status event code: A-5-5-R10-R17-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 11

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 12

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 13

PC1903 Unpaid annual fee

St.27 status event code: A-4-4-U10-U13-oth-PC1903

Not in force date: 20240603

Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

PC1903 Unpaid annual fee

St.27 status event code: N-4-6-H10-H13-oth-PC1903

Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

Not in force date: 20240603