KR20240049116A - Method for converting near infrared image to rgb image and apparatus for same - Google Patents
Method for converting near infrared image to rgb image and apparatus for same Download PDFInfo
- Publication number
- KR20240049116A KR20240049116A KR1020230011746A KR20230011746A KR20240049116A KR 20240049116 A KR20240049116 A KR 20240049116A KR 1020230011746 A KR1020230011746 A KR 1020230011746A KR 20230011746 A KR20230011746 A KR 20230011746A KR 20240049116 A KR20240049116 A KR 20240049116A
- Authority
- KR
- South Korea
- Prior art keywords
- network
- image
- rgb
- infrared
- infrared image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4046—Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
Abstract
Description
본 발명은 근적외선 영상을 RGB 영상으로 변환하는 방법 및 이를 위한 장치에 관한 것이다. 보다 자세하게는 지식 증류 학습을 활용하여 근적외선 영상을 RGB 영상으로 변환하되, 영상의 질감은 보존하면서 오브젝트의 본래 색상을 충실하게 복원할 수 있는 방법 및 이를 위한 장치에 관한 것이다. The present invention relates to a method and device for converting a near-infrared image into an RGB image. More specifically, it relates to a method and device for converting a near-infrared image into an RGB image using knowledge distillation learning, while preserving the texture of the image and faithfully restoring the original color of the object.
근적외선 영상은 700nm 내지 1000nm 파장 대역의 영상으로써, RGB 영상과 달리 노이즈가 적고 저조도 환경에서도 영상의 질감과 디테일을 유지할 수 있다는 장점으로 인해 야간 투시나 감시용으로 널리 활용되고 있으나, RGB 영상과 달리 색상 정보를 보유하고 있지 않기 때문에 눈에 보이지 않아 사람이 인지하기에 적합하지 않으며, 컴퓨터 비전 알고리즘에도 바로 적용할 수 없다는 문제점 존재한다. Near-infrared images are images in the 700nm to 1000nm wavelength band. Unlike RGB images, near-infrared images are widely used for night vision and surveillance due to their advantages of having less noise and maintaining the texture and details of images even in low-light environments. However, unlike RGB images, they are widely used in color. Because it does not contain information, it is invisible and is not suitable for human perception, and there is a problem in that it cannot be directly applied to computer vision algorithms.
이를 해결하기 위해 근적외선 영상을 장점을 유지한 상태에서 단일 밴드 근적외선 영상을RGB 영상으로 변환하고자 하는 다양한 연구가 진행되고 있으나, 근적외선 영상 자체가 색상 정보를 보유하고 있지 않기 때문에 이로부터 원래의 색상 정보를 성공적으로 복원하는 것은 매우 어려운 난제로 취급받고 있으며, 일부 연구는 근적외선 영상으로부터 RGB 영상으로의 변환이라는 개념 자체가 명백하게 잘못된 문제라고 언급하기도 했던바, 아직까지 뚜렷한 연구 성과물이 도출되지 못하고 있는 실정이다. To solve this problem, various studies are being conducted to convert single-band near-infrared images into RGB images while maintaining the advantages of near-infrared images. However, since the near-infrared images themselves do not contain color information, the original color information is Successful restoration is considered a very difficult challenge, and some studies have even stated that the concept of converting from near-infrared images to RGB images is a clearly incorrect problem, so no clear research results have been derived yet.
본 발명이 해결하고자 하는 기술적 과제는 색상 정보를 보유하고 있지 않은 근적외선 영상을 색상 정보를 보유한 RGB 영상으로 효과적으로 변환할 수 있는 근적외선 영상을 RGB 영상으로 변환하는 방법 및 이를 위한 장치를 제공하는 것이다. The technical problem to be solved by the present invention is to provide a method and device for converting a near-infrared image into an RGB image that can effectively convert a near-infrared image without color information into an RGB image with color information.
본 발명이 해결하고자 하는 또 다른 기술적 과제는 노이즈가 적고 저조도 환경에서도 영상의 질감과 디테일을 유지할 수 있다는 근적외선 영상의 장점을 그대로 유지한 상태에서 근적외선 영상의 색상 정보를 효과적으로 복원한 고품질 RGB 영상으로 변환할 수 있는 근적외선 영상을 RGB 영상으로 변환하는 방법 및 이를 위한 장치를 제공하는 것이다.Another technical problem that the present invention aims to solve is converting the near-infrared image into a high-quality RGB image that effectively restores the color information of the near-infrared image while maintaining the advantage of the near-infrared image, which is low noise and can maintain the texture and details of the image even in a low-light environment. The aim is to provide a method for converting a near-infrared image into an RGB image and a device for this.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below.
상기 기술적 과제를 달성하기 위한 본 발명의 일 실시 예에 따른 제1 네트워크 및 제2 네트워크를 포함하는 장치가 근적외선 영상을 RGB 영상으로 변환하는 방법은 (a) RGB 영상으로 변환하고자 하는 근적외선 영상 데이터를 입력 받아 제1 네트워크에 입력하는 단계, (b) 상기 제1 네트워크가 상기 입력 받은 근적외선 영상 데이터에서 근적외선 영상의 특징 데이터를 추출하는 단계 및 (c) 상기 제1 네트워크가 상기 추출한 근적외선 영상의 특징 데이터를 이용하여 상기 입력 받은 근적외선 영상 데이터를 RGB 영상으로 변환하도록 추정한 RGB 영상을 출력하는 단계를 포함하며, 상기 제1 네트워크는, 학습 데이터인 근적외선 영상 데이터 및 해당 근적외선 영상을 촬영할 당시에 동시에 촬영한 RGB 영상 데이터를 함께 입력 받은 제2 네트워크로부터 근적외선 영상의 특징 데이터 및 RGB 영상의 특징 데이터 추출에 관한 특징 추출 행동을 모방하도록 지식을 전달 받아 지식증류(Knowledge Distillation)학습을 수행한 네트워크이다. A method of converting a near-infrared image into an RGB image by a device including a first network and a second network according to an embodiment of the present invention for achieving the above technical problem is (a) near-infrared image data to be converted into an RGB image. receiving input and inputting it to a first network, (b) extracting feature data of the near-infrared image from the received near-infrared image data by the first network, and (c) feature data of the extracted near-infrared image by the first network. Outputting an estimated RGB image to convert the input near-infrared image data into an RGB image using This is a network that performs knowledge distillation learning by receiving knowledge to imitate the feature extraction behavior for extracting feature data of near-infrared images and feature data of RGB images from a second network that also receives image data.
일 실시 예에 따르면, 상기 (a) 단계에서의 근적외선 영상 데이터 및 상기 학습 데이터인 근적외선 영상 데이터는, 다중 밴드 근적외선 영상 데이터이며, 복수 개의 상이한 광학 필터로 취득한 영상 데이터일 수 있다. According to one embodiment, the near-infrared image data in step (a) and the near-infrared image data that is the learning data are multi-band near-infrared image data and may be image data acquired through a plurality of different optical filters.
일 실시 예에 따르면, 상기 복수 개의 상이한 광학 필터는, 최고 파장이 785nm, 850nm 및 940nm인 세 개의 광 밴드 패스 필터일 수 있다. According to one embodiment, the plurality of different optical filters may be three optical band-pass filters with maximum wavelengths of 785 nm, 850 nm, and 940 nm.
일 실시 예에 따르면, 상기 제1 네트워크 및 제2 네트워크는, 하나의 인코더 및 두 개의 병렬 디코더를 포함하는 동일 구조의 네트워크일 수 있다. According to one embodiment, the first network and the second network may be networks of the same structure including one encoder and two parallel decoders.
일 실시 예에 따르면, 상기 제1 네트워크는, 상기 제2 네트워크가 근적외선 영상의 특징 데이터 및 RGB 영상의 특징 데이터를 추출하고, 이를 이용하여 상기 학습 데이터인 근적외선 영상 데이터 및 RGB 영상 데이터로부터 흑백 영상 및 RGB 영상 출력에 관한 영상 추정 행동을 모방하도록 지식을 전달 받아 지식증류학습을 수행한 네트워크일 수 있다. According to one embodiment, the first network, the second network extracts feature data of the near-infrared image and feature data of the RGB image, and uses this to produce a black-and-white image and It may be a network that receives knowledge and performs knowledge distillation learning to imitate image estimation behavior regarding RGB image output.
일 실시 예에 따르면, 상기 (c) 단계 이후에, (d) 상기 (c) 단계에서 출력한 추정 RGB 영상에 제1 손실함수(Lrgb)를 적용하여 최종적인 RGB 영상을 출력하는 단계를 더 포함하며, 상기 제1 손실함수는 하기와 같이 세 개의 손실함수의 합일 수 있다. According to one embodiment, after step (c), (d) applying a first loss function (L rgb ) to the estimated RGB image output in step (c) to output a final RGB image is further performed. Included, the first loss function may be the sum of three loss functions as follows.
제1 손실함수(Lrgb) = Lcontent + Lperceptual + Langular First loss function (L rgb ) = L content + L perceptual + L angular
여기서 상기 Lcontent는 최종적인 RGB 영상과 정답 RGB 영상 사이의 L1 norm, 상기 Lperceptual은 최종적인 RGB 영상의 디테일과 텍스처 일관성 평가 항목, 상기 Langular는 최종적인 RGB 영상의 색상 복원 품질을 향상하기 위한 각도 오차임Reminder here L content is the L1 norm between the final RGB image and the correct RGB image, L perceptual is the detail and texture consistency evaluation item of the final RGB image, L angular is an angle error to improve the color restoration quality of the final RGB image.
일 실시 예에 따르면, 상기 지식증류학습은 제2 손실함수(Lkd)를 적용하여 이루어지며, 상기 제2 손실함수는 하기와 같은 손실함수일 수 있다. According to one embodiment, the knowledge distillation learning is performed by applying a second loss function (L kd ), and the second loss function may be a loss function as follows.
제2 손실함수(Lkd) = 2 Second loss function (L kd ) = 2
여기서 제2 손실함수는 제2 네트워크의 특징맵인 FT와 제1 네트워크의 특징맵인 FS 사이의 L2 norm이며, α는 제2 네트워크의 특징맵을 제1 네트워크 학습에 보다 유용하게 만들기 위해 수행하는 예시적인 추가 연산임Here, the second loss function is the L2 norm between F T , the feature map of the second network, and F S , the feature map of the first network, and α is used to make the feature map of the second network more useful for learning the first network. This is an example additional operation to perform.
일 실시 예에 따르면, 상기 (b) 단계 및 (c) 단계 사이에, (b′) 상기 제1 네트워크가 상기 추출한 상기 추출한 근적외선 영상의 특징 데이터를 이용하여 상기 입력 받은 근적외선 영상 데이터를 흑백 영상으로 변환하도록 추정한 흑백 영상을 출력하는 단계를 더 포함할 수 있다. According to one embodiment, between steps (b) and (c), (b′) the first network converts the input near-infrared image data into a black and white image using the extracted feature data of the near-infrared image. A step of outputting the black and white image estimated to be converted may be further included.
일 실시 예에 따르면, 상기 (b′) 단계와 (c) 단계 사이에, (b″) 상기 (b′) 단계에서 출력한 추정 흑백 영상에 제3 손실함수(Lgray)를 적용하여 최종적인 흑백 영상을 출력하는 단계를 더 포함하며, 상기 제3 손실함수는 하기와 같이 두 개의 손실함수의 합일 수 있다. According to one embodiment, between steps (b′) and (c), (b″) a third loss function (L gray ) is applied to the estimated black and white image output in step (b′) to obtain the final result. It further includes the step of outputting a black-and-white image, and the third loss function may be the sum of two loss functions as follows.
제3 손실함수(Lgray) = Lstruct + LSSIM Third loss function (L gray ) = L struct + L SSIM
여기서 상기 Lstruct 는 최종적인 흑백 영상과 정답 흑백 영상 사이의 L1 norm, 상기 LSSIM는 최종적인 흑백 영상과 정답 흑백 영상 사이의 구조적 유사성을 높이기 위한 손실함수임Here, L struct is the L1 norm between the final black-and-white image and the correct black-and-white image, and L SSIM is a loss function to increase the structural similarity between the final black-and-white image and the correct black-and-white image.
상기 기술적 과제를 달성하기 위한 본 발명의 또 다른 실시 예에 따른 근적외선 영상을 RGB 영상으로 변환하는 장치는 하나 이상의 프로세서, 네트워크 인터페이스, 상기 프로세서에 의해 수행되는 컴퓨터 프로그램을 로드(Load)하는 메모리 및 대용량 네트워크 데이터 및 상기 컴퓨터 프로그램을 저장하는 스토리지를 포함하되, 상기 컴퓨터 프로그램은 상기 하나 이상의 프로세서에 의해, (A) 인공지능 분류 모델을 학습시키는 오퍼레이션, (A) RGB 영상으로 변환하고자 하는 근적외선 영상 데이터를 입력 받아 제1 네트워크에 입력하는 오퍼레이션, (B) 상기 제1 네트워크가 상기 입력 받은 근적외선 영상 데이터에서 근적외선 영상의 특징 데이터를 추출하는 오퍼레이션 및 (C) 상기 제1 네트워크가 상기 추출한 근적외선 영상의 특징 데이터를 이용하여 상기 입력 받은 근적외선 영상 데이터를 RGB 영상으로 변환하도록 추정한 RGB 영상을 출력하는 오퍼레이션을 실행하며, 상기 제1 네트워크는, 학습 데이터인 근적외선 영상 데이터 및 해당 근적외선 영상을 촬영할 당시에 동시에 촬영한 RGB 영상 데이터를 함께 입력 받은 제2 네트워크로부터 근적외선 영상의 특징 데이터 및 RGB 영상의 특징 데이터 추출에 관한 특징 추출 행동을 모방하도록 지식을 전달 받아 지식증류(Knowledge Distillation)학습을 수행한 네트워크이다. A device for converting a near-infrared image into an RGB image according to another embodiment of the present invention for achieving the above technical problem includes one or more processors, a network interface, a memory for loading a computer program executed by the processor, and a large capacity. Storage for storing network data and the computer program, wherein the computer program performs (A) an operation for learning an artificial intelligence classification model, (A) near-infrared image data to be converted to an RGB image by the one or more processors. An operation for receiving input and inputting it to the first network, (B) an operation for the first network to extract feature data of the near-infrared image from the received near-infrared image data, and (C) feature data of the near-infrared image extracted from the first network. An operation is performed to output an estimated RGB image to convert the input near-infrared image data into an RGB image, and the first network uses the near-infrared image data, which is learning data, and the RGB image simultaneously captured at the time of shooting the near-infrared image. This is a network that performs knowledge distillation learning by receiving knowledge to imitate the feature extraction behavior for extracting feature data of near-infrared images and feature data of RGB images from a second network that also receives image data.
상기 기술적 과제를 달성하기 위한 본 발명의 또 다른 실시 예에 따른 매체에 저장된 컴퓨터 프로그램은 컴퓨팅 장치와 결합하여, (AA) RGB 영상으로 변환하고자 하는 근적외선 영상 데이터를 입력 받아 제1 네트워크에 입력하는 단계, (BB) 상기 제1 네트워크가 상기 입력 받은 근적외선 영상 데이터에서 근적외선 영상의 특징 데이터를 추출하는 단계, (CC) 상기 제1 네트워크가 상기 추출한 근적외선 영상의 특징 데이터를 이용하여 상기 입력 받은 근적외선 영상 데이터를 RGB 영상으로 변환하도록 추정한 RGB 영상을 출력하는 단계를 실행하며, 상기 제1 네트워크는, 학습 데이터인 근적외선 영상 데이터 및 해당 근적외선 영상을 촬영할 당시에 동시에 촬영한 RGB 영상 데이터를 함께 입력 받은 제2 네트워크로부터 근적외선 영상의 특징 데이터 및 RGB 영상의 특징 데이터 추출에 관한 특징 추출 행동을 모방하도록 지식을 전달 받아 지식증류(Knowledge Distillation)학습을 수행한 네트워크인이다.A computer program stored in a medium according to another embodiment of the present invention for achieving the above technical problem is combined with a computing device, receiving near-infrared image data to be converted into (AA) RGB image and inputting it to the first network. , (BB) the first network extracting feature data of the near-infrared image from the input near-infrared image data, (CC) the first network using the extracted feature data of the near-infrared image data A step of outputting an RGB image estimated to be converted to an RGB image is performed, wherein the first network is a second network that receives near-infrared image data as learning data and RGB image data taken at the same time as the near-infrared image. This is a networker who performed knowledge distillation learning by receiving knowledge to imitate feature extraction behavior regarding feature data extraction of near-infrared images and feature data of RGB images.
상기와 같은 본 발명에 따르면, 공격의 종류와 무관한 CPU Execution Port의 포트 출력값을 모니터링하여 이상 행위 발생 여부를 탐지하는바, 모든 종류의 공격에 대하여 CPU의 이상 발생 여부를 신속하게 탐지할 수 있다는 효과가 있다. According to the present invention as described above, the port output value of the CPU Execution Port, which is independent of the type of attack, is monitored to detect whether abnormal behavior has occurred, and it is possible to quickly detect whether the CPU abnormality has occurred for all types of attacks. It works.
또한, 모니터링하고자하는 CPU CORE, 더 나아가 해당 CPU CORE에 대한 CPU Execution Port까지 사용자가 자유롭게 설정하여 모니터링을 진행할 수 있는바, 이상 행위가 발생한 근원을 정확하게 탐지할 수 있다는 효과가 있다. In addition, the user can freely set the CPU CORE to be monitored and even the CPU Execution Port for the CPU CORE to proceed with the monitoring, which has the effect of accurately detecting the source of abnormal behavior.
또한, 모니터링하고자하는 CPU CORE 및 이에 대한 CPU Execution Port의 설정뿐만 아니라, 이상 탐지 결과까지 사용자가 원하는 방식으로 선택하여 출력할 수 있으므로 사용자 편의성이 비약적으로 향상될 수 있다는 효과가 있다.In addition, not only the settings of the CPU CORE to be monitored and the corresponding CPU Execution Port, but also the abnormality detection results can be selected and output in the desired way, which has the effect of dramatically improving user convenience.
또한, 이상 탐지를 반복적으로 수행하면 할수록 인공지능 분류 모델의 학습 정확도가 향상함으로써 보다 정확한 이상 탐지 결과를 제공할 수 있다는 효과가 있다. In addition, the more repeatedly anomaly detection is performed, the more the learning accuracy of the artificial intelligence classification model improves, which has the effect of providing more accurate anomaly detection results.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해 될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.
도 1은 본 발명의 제1 실시 예에 따른 근적외선 영상을 RGB 영상으로 변환하는 장치가 포함하는 전체 구성을 예시적으로 도시한 도면이다.
도 2는 본 발명의 제2 실시 예에 따른 근적외선 영상을 RGB 영상으로 변환하는 방법의 대표적인 단계를 나타낸 순서도이다.
도 3은 하나의 RGB 영상에 대하여 최고 파장이 785nm, 850nm 및 940nm인 세 개의 광 밴드 패스 필터로 취득한 다중 밴드 근적외선 영상을 예시적으로 도시한 도면이다.
도 4는 본 발명의 제2 실시 예에 따른 근적외선 영상을 RGB 영상으로 변환하는 방법에 있어서, 제1 네트워크 및 제2 네트워크의 내부 구조를 예시적으로 도시한 도면이다.
도 5는 도 4에 도시된 제1 네트워크 및 제2 네트워크가 입력 데이터를 입력 받는 모습을 예시적으로 도시한 도면이다.
도 6은 본 발명의 제2 실시 예에 따른 근적외선 영상을 RGB 영상으로 변환하는 방법에 있어서, 제1 네트워크 및 제2 네트워크 전체의 학습 순서도이다.
도 7은 본 발명의 제2 실시 예에 따른 근적외선 영상을 RGB 영상으로 변환하는 방법에 있어서 제2 네트워크의 학습 순서도이다.
도 8은 본 발명의 제2 실시 예에 따른 근적외선 영상을 RGB 영상으로 변환하는 방법에 있어서, 제1 네트워크의 학습 순서도이다.
도 9는 입력 데이터인 근적외선 영상 데이터와 RGB 영상 데이터를 장치에 입력함으로써 중간 산출물인 추정 흑백 영상및 추정 RGB 영상, 최종 산출물인 최종적인 흑백 영상 및 최종적인 RGB 영상을 출력하는 모습과 각각의 연산 과정에서 적용되는 손실함수를 예시적으로 도시한 도면이다.
도 10은 본 발명의 제2 실시 예에 따른 근적외선 영상을 RGB 영상으로 변환하는 방법의 성능에 대한 종래 기술과의 비교 결과 1을 예시적으로 도시한 도면이다.
도 11은 본 발명의 제2 실시 예에 따른 근적외선 영상을 RGB 영상으로 변환하는 방법의 성능에 대한 종래 기술과의 비교 결과 2를 예시적으로 도시한 도면이다. Figure 1 is a diagram illustrating the overall configuration of a device for converting a near-infrared image into an RGB image according to a first embodiment of the present invention.
Figure 2 is a flowchart showing representative steps of a method for converting a near-infrared image to an RGB image according to a second embodiment of the present invention.
Figure 3 is a diagram illustrating an example of a multi-band near-infrared image acquired by three optical band-pass filters with the highest wavelengths of 785 nm, 850 nm, and 940 nm for one RGB image.
FIG. 4 is a diagram illustrating the internal structures of a first network and a second network in a method for converting a near-infrared image to an RGB image according to a second embodiment of the present invention.
FIG. 5 is a diagram illustrating the first network and the second network shown in FIG. 4 receiving input data.
Figure 6 is a learning flowchart of the entire first network and second network in the method for converting a near-infrared image to an RGB image according to the second embodiment of the present invention.
Figure 7 is a learning flowchart of the second network in the method for converting a near-infrared image to an RGB image according to the second embodiment of the present invention.
Figure 8 is a learning flowchart of the first network in the method for converting a near-infrared image to an RGB image according to the second embodiment of the present invention.
Figure 9 shows the input data of near-infrared image data and RGB image data into the device, outputting the intermediate output estimated black-and-white image and estimated RGB image, and the final output, the final black-and-white image and final RGB image, and the respective calculation processes. This is a diagram illustrating the loss function applied in .
Figure 10 is a diagram illustrating result 1 of comparison with the prior art regarding the performance of the method for converting a near-infrared image to an RGB image according to the second embodiment of the present invention.
FIG. 11 is a diagram illustrating result 2 of comparison with the prior art regarding the performance of the method for converting a near-infrared image to an RGB image according to the second embodiment of the present invention.
본 발명의 목적과 기술적 구성 및 그에 따른 작용 효과에 관한 자세한 사항은 본 발명의 명세서에 첨부된 도면에 의거한 이하의 상세한 설명에 의해 보다 명확하게 이해될 것이다. 첨부된 도면을 참조하여 본 발명에 따른 실시 예를 상세하게 설명한다.Details regarding the purpose and technical configuration of the present invention and its operational effects will be more clearly understood by the following detailed description based on the drawings attached to the specification of the present invention. Embodiments according to the present invention will be described in detail with reference to the attached drawings.
본 명세서에서 개시되는 실시 예들은 본 발명의 범위를 한정하는 것으로 해석되거나 이용되지 않아야 할 것이다. 이 분야의 통상의 기술자에게 본 명세서의 실시 예를 포함한 설명은 다양한 응용을 갖는다는 것이 당연하다. 따라서, 본 발명의 상세한 설명에 기재된 임의의 실시 예들은 본 발명을 보다 잘 설명하기 위한 예시적인 것이며 본 발명의 범위가 실시 예들로 한정되는 것을 의도하지 않는다.The embodiments disclosed in this specification should not be construed or used as limiting the scope of the present invention. It is obvious to those skilled in the art that the description, including embodiments, of this specification has various applications. Accordingly, any embodiments described in the detailed description of the present invention are illustrative to better explain the present invention and are not intended to limit the scope of the present invention to the embodiments.
도면에 표시되고 아래에 설명되는 기능 블록들은 가능한 구현의 예들일 뿐이다. 다른 구현들에서는 상세한 설명의 사상 및 범위를 벗어나지 않는 범위에서 다른 기능 블록들이 사용될 수 있다. 또한, 본 발명의 하나 이상의 기능 블록이 개별 블록들로 표시되지만, 본 발명의 기능 블록들 중 하나 이상은 동일 기능을 실행하는 다양한 하드웨어 및 소프트웨어 구성들의 조합일 수 있다.The functional blocks shown in the drawings and described below are only examples of possible implementations. Other functional blocks may be used in other implementations without departing from the spirit and scope of the detailed description. Additionally, although one or more functional blocks of the present invention are shown as individual blocks, one or more of the functional blocks of the present invention may be a combination of various hardware and software components that perform the same function.
또한, 어떤 구성요소들을 포함한다는 표현은 "개방형"의 표현으로서 해당 구성요소들이 존재하는 것을 단순히 지칭할 뿐이며, 추가적인 구성요소들을 배제하는 것으로 이해되어서는 안 된다.Additionally, the expression including certain components is an “open” expression and simply refers to the presence of the corresponding components, and should not be understood as excluding additional components.
나아가 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급될 때에는, 그 다른 구성요소에 직접적으로 연결 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 한다.Furthermore, when a component is referred to as being “connected” or “connected” to another component, it should be understood that although it may be directly connected or connected to the other component, other components may exist in between. do.
이하에서는 도면들을 참조하여 본 발명의 세부적인 실시 예들에 대해 살펴보도록 한다. Hereinafter, detailed embodiments of the present invention will be looked at with reference to the drawings.
도 1은 본 발명의 제1 실시 예에 따른 근적외선 영상을 RGB 영상으로 변환하는 장치(100)가 포함하는 전체 구성을 예시적으로 도시한 도면이다. FIG. 1 is a diagram illustrating the overall configuration of an apparatus 100 for converting a near-infrared image into an RGB image according to a first embodiment of the present invention.
그러나 이는 본 발명의 목적을 달성하기 위한 바람직한 실시 예일 뿐이며, 필요에 따라 일부 구성이 추가되거나 삭제될 수 있고, 어느 한 구성이 수행하는 역할을 다른 구성이 함께 수행할 수도 있음은 물론이다. However, this is only a preferred embodiment for achieving the purpose of the present invention, and some components may be added or deleted as needed, and of course, the role played by one component may be performed by another component.
본 발명의 제1 실시 예에 따른 근적외선 영상을 RGB 영상으로 변환하는 장치(100)는 프로세서(10), 네트워크 인터페이스(20), 메모리(30), 스토리지(40) 및 이들을 연결하는 데이터 버스(50)를 포함할 수 있으며, 기타 본 발명의 목적을 달성함에 있어 요구되는 부가적인 구성들을 더 포함할 수 있음은 물론이라 할 것이다. The device 100 for converting a near-infrared image into an RGB image according to the first embodiment of the present invention includes a processor 10, a network interface 20, a memory 30, a storage 40, and a data bus 50 connecting them. ), and of course, it may also include other additional components required to achieve the purpose of the present invention.
프로세서(10)는 각 구성의 전반적인 동작을 제어한다. 프로세서(10)는 CPU(Central Processing Unit), MPU(Micro Processer Unit), MCU(Micro Controller Unit) 또는 본 발명이 속하는 기술 분야에서 널리 알려져 있는 형태의 인공지능 프로세서 중 어느 하나일 수 있다. 아울러, 프로세서(10)는 본 발명의 제2 실시 예에 따른 근적외선 영상을 RGB 영상으로 변환하는 방법을 수행하기 위한 적어도 하나의 애플리케이션 또는 프로그램에 대한 연산을 수행할 수 있는바, 이를 위해 프로세서(10)는 지식증류학습을 수행하는 제1 네트워크(11) 및 제2 네트워크(12)를 포함하고, 학습 데이터를 통해 이들을 학습시킬 수 있으나, 이에 대해서는 후술하도록 한다. The processor 10 controls the overall operation of each component. The processor 10 may be one of a central processing unit (CPU), a micro processor unit (MPU), a micro controller unit (MCU), or an artificial intelligence processor of a type widely known in the technical field to which the present invention pertains. In addition, the processor 10 may perform operations on at least one application or program to perform the method of converting a near-infrared image into an RGB image according to the second embodiment of the present invention. For this purpose, the processor 10 ) includes a first network 11 and a second network 12 that perform knowledge distillation learning, and these can be trained through learning data, which will be described later.
네트워크 인터페이스(20)는 본 발명의 제1 실시 예에 따른 근적외선 영상을 RGB 영상으로 변환하는 장치(100)의 유무선 인터넷 통신을 지원하며, 그 밖의 공지의 통신 방식을 지원할 수도 있다. 따라서 네트워크 인터페이스(20)는 그에 따른 통신 모듈을 포함하여 구성될 수 있다.The network interface 20 supports wired and wireless Internet communication of the device 100 for converting a near-infrared image to an RGB image according to the first embodiment of the present invention, and may also support other known communication methods. Accordingly, the network interface 20 may be configured to include a corresponding communication module.
메모리(30)는 각종 정보, 명령 및/또는 정보를 저장하며, 본 발명의 제2 실시 예에 따른 근적외선 영상을 RGB 영상으로 변환하는 방법을 수행하기 위해 스토리지(40)로부터 하나 이상의 컴퓨터 프로그램(41)을 로드할 수 있다. 도 1에서는 메모리(30)의 하나로 RAM을 도시하였으나 이와 더불어 다양한 저장 매체를 메모리(30)로 이용할 수 있음은 물론이다. The memory 30 stores various information, commands, and/or information, and one or more computer programs 41 are stored in the storage 40 to perform the method of converting a near-infrared image into an RGB image according to the second embodiment of the present invention. ) can be loaded. In FIG. 1, RAM is shown as one of the memories 30, but of course, various storage media can also be used as the memory 30.
스토리지(40)는 하나 이상의 컴퓨터 프로그램(41) 및 대용량 네트워크 정보(42)를 비임시적으로 저장할 수 있다. 이러한 스토리지(40)는 ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리 등과 같은 비휘발성 메모리, 하드 디스크(HDD), 보조 저장 매치(SSD), 착탈형 디스크, 또는 본 발명이 속하는 기술 분야에서 널리 알려져 있는 임의의 형태의 컴퓨터로 읽을 수 있는 기록 매체 중 어느 하나일 수 있다. Storage 40 may non-temporarily store one or more computer programs 41 and large-capacity network information 42. This storage 40 includes non-volatile memory such as Read Only Memory (ROM), Erasable Programmable ROM (EPROM), Electrically Erasable Programmable ROM (EEPROM), flash memory, hard disk (HDD), secondary storage match (SSD), and removable memory. It may be a disk or any type of computer-readable recording medium widely known in the technical field to which the present invention pertains.
컴퓨터 프로그램(41)은 메모리(30)에 로드되어, 하나 이상의 프로세서(10)에 의해, (A) RGB 영상으로 변환하고자 하는 근적외선 영상 데이터를 입력 받아 제1 네트워크에 입력하는 오퍼레이션, (B) 상기 제1 네트워크가 상기 입력 받은 근적외선 영상 데이터에서 근적외선 영상의 특징 데이터를 추출하는 오퍼레이션 및 (C) 상기 제1 네트워크가 상기 추출한 근적외선 영상의 특징 데이터를 이용하여 상기 입력 받은 근적외선 영상 데이터를 RGB 영상으로 변환하도록 추정한 RGB 영상을 출력하는 오퍼레이션을 실행할 수 있다. The computer program 41 is loaded into the memory 30 and performs (A) an operation of receiving near-infrared image data to be converted into an RGB image and inputting it to the first network by one or more processors 10, (B) the above An operation in which the first network extracts characteristic data of the near-infrared image from the received near-infrared image data, and (C) the first network converts the received near-infrared image data into an RGB image using the extracted feature data of the near-infrared image. You can execute an operation that outputs the estimated RGB image.
이상 간단하게 언급한 컴퓨터 프로그램(41)이 수행하는 오퍼레이션은 컴퓨터 프로그램(41)의 일 기능으로 볼 수 있으며, 보다 자세한 설명은 본 발명의 제2 실시 예에 따른 근적외선 영상을 RGB 영상으로 변환하는 방법에 대한 설명에서 후술하도록 한다. The operation performed by the computer program 41 briefly mentioned above can be viewed as a function of the computer program 41, and a more detailed description is provided for the method of converting a near-infrared image into an RGB image according to the second embodiment of the present invention. This will be described later in the explanation.
데이터 버스(50)는 이상 설명한 프로세서(10), 네트워크 인터페이스(20), 메모리(30) 및 스토리지(40) 사이의 명령 및/또는 정보의 이동 경로가 된다. The data bus 50 serves as a path for moving instructions and/or information between the processor 10, network interface 20, memory 30, and storage 40 described above.
이상 설명한 본 발명의 제1 실시 예에 따른 근적외선 영상을 RGB 영상으로 변환하는 장치(100)는 독립된 디바이스의 형태, 예를 들어 전자 기기나 서버(클라우드 포함)의 형태일 수 있으며, 여기서 전자 기기는 한 장소에 고정 설치되어 사용하는 데스크톱 PC, 서버 디바이스 등과 같은 기기 뿐만 아니라, 스마트폰, 태블릿 PC, 노트북 PC, PDA, PMP 등과 같이 휴대가 용이한 포터블 기기 등이라도 무방한바, 프로세서(10)에 해당하는 CPU 등이 설치되고 네트워크 기능만 보유하고 있는 전자 기기라면 어떠한 것이라도 무방하다 할 것이다. The device 100 for converting a near-infrared image into an RGB image according to the first embodiment of the present invention described above may be in the form of an independent device, for example, an electronic device or a server (including a cloud), where the electronic device is Not only devices such as desktop PCs and server devices that are fixedly installed and used in one place, but also portable devices that are easy to carry, such as smartphones, tablet PCs, laptop PCs, PDAs, and PMPs, are applicable to the processor 10. Any electronic device that has a network function and a CPU installed can be used.
이하, 본 발명의 제1 실시 예에 따른 근적외선 영상을 RGB 영상으로 변환하는 장치(100)가 독립된 디바이스인 전자 기기 형태 중, "서버"의 형태임을 전제로 근적외선 영상을 RGB 영상으로 변환하고자 하는 사용자의 사용자 단말(미도시)에 설치된 전용 어플리케이션을 통해 본 발명의 제2 실시 예에 따른 근적외선 영상을 RGB 영상으로 변환하는 방법을 제공하는 과정에 대하여 도 2 내지 도 11을 참조하여 설명하도록 한다. Hereinafter, on the premise that the device 100 for converting a near-infrared image into an RGB image according to the first embodiment of the present invention is in the form of a "server" among the electronic devices that are independent devices, a user who wants to convert a near-infrared image into an RGB image The process of providing a method for converting a near-infrared image into an RGB image according to the second embodiment of the present invention through a dedicated application installed on a user terminal (not shown) will be described with reference to FIGS. 2 to 11.
도 2는 본 발명의 제2 실시 예에 따른 근적외선 영상을 RGB 영상으로 변환하는 방법의 대표적인 단계를 나타낸 순서도이다. Figure 2 is a flowchart showing representative steps of a method for converting a near-infrared image to an RGB image according to a second embodiment of the present invention.
그러나 이는 본 발명의 목적을 달성함에 있어서 바람직한 실시 예일 뿐이며, 필요에 따라 일부 단계가 추가 또는 삭제될 수 있음은 물론이고, 어느 한 단계가 다른 단계에 포함되어 수행될 수도 있다. However, this is only a preferred embodiment in achieving the purpose of the present invention, and some steps may be added or deleted as needed, and one step may be performed by being included in another step.
한편, 각 단계는 본 발명의 제1 실시 예에 따른 근적외선 영상을 RGB 영상으로 변환하는 장치(100)를 통해 이루어지는 것을 전제로 하며, 본 발명의 제1 실시 예에 따른 근적외선 영상을 RGB 영상으로 변환하는 장치(100)가 "서버"의 형태임을 전제로 하였기 때문에 사용자 단말(미도시)에 설치된 전용 어플리케이션을 본 발명의 제1 실시 예에 따른 근적외선 영상을 RGB 영상으로 변환하는 장치(100)와 동일한 의미로 볼 것이고, 설명의 편의를 위해 이들 모두를 "장치(100)"로 명명하도록 한다. Meanwhile, it is assumed that each step is performed through the device 100 for converting a near-infrared image into an RGB image according to the first embodiment of the present invention, and converting the near-infrared image into an RGB image according to the first embodiment of the present invention. Since it was assumed that the device 100 is in the form of a “server,” the dedicated application installed on the user terminal (not shown) is the same as the device 100 for converting a near-infrared image into an RGB image according to the first embodiment of the present invention. This will be viewed as meaning, and for convenience of explanation, all of these will be named “device 100.”
아울러, 이하 사용할 단어 중, "영상"과 "이미지"는 동일한 의미로 혼용되어 사용될 수 있을 것인바, 특정 시점에서의 영상이 이미지이며, 특정 시점에서의 이미지를 모든 시점에 대하여 연결한 것이 영상이기에 원칙적으로 서로 구별되는 개념이기는 하나, 본 발명의 제2 실시 예에 따른 근적외선 영상을 RGB 영상으로 변환하는 방법 내에서 이들의 활용은 동일한 취급을 받기 때문이다. In addition, among the words to be used below, "video" and "image" may be used interchangeably with the same meaning, since a video from a specific viewpoint is an image, and an image is a connection of images from a specific viewpoint to all viewpoints. Although they are in principle distinct concepts, their utilization is treated the same within the method of converting a near-infrared image into an RGB image according to the second embodiment of the present invention.
우선, 장치(100)가 RGB 영상으로 변환하고자 하는 근적외선 영상 데이터를 입력 받아 제1 네트워크(11)에 입력한다(S210). First, the device 100 receives near-infrared image data to be converted into an RGB image and inputs it to the first network 11 (S210).
여기서 RGB 영상으로 변환하고자 하는 근적외선 영상 데이터는 종래 기술과 같이 단일 밴드 근적외선 영상 데이터가 아닌, 700nm 내지 1000nm 사이의 근적외선 영역에 대하여 복수 개의 상이한 광학 필터로 취득한 영상 데이터, 예를 들어, 최고 파장이 785nm, 850nm 및 940nm인 세 개의 광 밴드 패스 필터로 취득한 다중 밴드 근적외선 영상 데이터일 수 있다. Here, the near-infrared image data to be converted to an RGB image is not single-band near-infrared image data as in the prior art, but image data acquired through a plurality of different optical filters for the near-infrared region between 700 nm and 1000 nm, for example, the highest wavelength is 785 nm. , may be multi-band near-infrared image data acquired with three optical band-pass filters of 850 nm and 940 nm.
본 발명의 제2 실시 예에 따른 근적외선 영상을 RGB 영상으로 변환하는 장치는 이와 같이 입력 데이터로 다중 밴드 근적외선 영상 데이터를 이용하는바, 다중 밴드 근적외선 영상 데이터는 단일 밴드 근적외선 영상 데이터보다 포함하고 있는 정보가 많기에, 각각의 근적외선 밴드와 RGB 스펙트럼 사이의 상관 관계를 찾는데 유용하기 때문이다. The device for converting a near-infrared image into an RGB image according to the second embodiment of the present invention uses multi-band near-infrared image data as input data, and the multi-band near-infrared image data contains more information than single-band near-infrared image data. Because there are many, it is useful for finding correlations between each near-infrared band and RGB spectrum.
장치(100)는 이와 같은 다중 밴드 근적외선 영상 데이터를 입력 받을 수 있으며, 여기서 입력은 장치(100)와 별개의 장치인 전용 카메라(미도시), 예를 들어 근적외선 영상과 RGB 영상을 동시에 촬영이 가능한 JAI사의 AD-130GE 등과 같은 카메라가 촬영한 다중 밴드 근적외선 영상 데이터를 직접 입력 받거나 네트워크를 통해 수신하는 경우를 모두 포함하는 광의의 개념이며, 장치(100) 자체가 서버의 형태가 아니라 카메라를 일 구성으로 포함하는 전자 기기의 경우, 카메라가 촬영한 다중 밴드 근적외선 영상 데이터를 처리하기 위해 카메라 모듈로부터 넘겨 받는 경우를 포함하는 개념이라 할 것이다. The device 100 can receive such multi-band near-infrared image data, where the input is a dedicated camera (not shown), which is a separate device from the device 100, for example, capable of shooting near-infrared images and RGB images simultaneously. It is a broad concept that includes both cases of receiving multi-band near-infrared image data captured by a camera such as JAI's AD-130GE directly or through a network, and the device 100 itself is not in the form of a server but constitutes a camera. In the case of electronic devices including, the concept includes cases where multi-band near-infrared image data captured by a camera is received from a camera module in order to be processed.
도 3에 하나의 RGB 영상에 대하여 최고 파장이 785nm, 850nm 및 940nm인 세 개의 광 밴드 패스 필터로 취득한 다중 밴드 근적외선 영상(NIR)을 예시적으로 도시한 도면인바, 색상 정보를 포함하는 RGB 영상에 대하여 세 개의 근적외선 영상 모두는 흑백으로 RGB 영상과 같은 색상 정보를 포함하고 있지 않음을 확인할 수 있다. Figure 3 is an exemplary diagram showing a multi-band near-infrared image (NIR) acquired with three optical band-pass filters with the highest wavelengths of 785 nm, 850 nm, and 940 nm for one RGB image. The RGB image including color information is shown in Figure 3. Regarding this, it can be confirmed that all three near-infrared images are black and white and do not contain color information like the RGB images.
장치(100)는 RGB 영상으로 변환하고자 하는 근적외선 영상 데이터를 제1 네트워크에 입력하는바, 제1 네트워크(11)는 프로세서(10)가 포함하고 있는 네트워크이기 때문에 제1 네트워크(11)에 입력하는 것은 프로세서(10)에 의해 RGB 영상으로 변환하는 처리가 시작되는 것으로 볼 수 있다. 이하, 앞서 설명을 보유한 제1 네트워(11)크 및 제2 네트워크(12)에 대하여 설명하도록 한다. The device 100 inputs near-infrared image data to be converted into an RGB image into the first network. Since the first network 11 is a network included in the processor 10, it is input to the first network 11. This can be seen as the process of converting an RGB image by the processor 10 to start. Hereinafter, the first network 11 and the second network 12, which have been previously described, will be described.
도 4는 본 발명의 제2 실시 예에 따른 근적외선 영상을 RGB 영상으로 변환하는 방법에 있어서, 제1 네트워크(11) 및 제2 네트워크(12)의 내부 구조를 예시적으로 도시한 도면이다. FIG. 4 is a diagram illustrating the internal structure of the first network 11 and the second network 12 in the method of converting a near-infrared image into an RGB image according to a second embodiment of the present invention.
도 4를 참조하면, 제1 네트워크(11) 및 제2 네트워크(12)는 하나의 인코더(11-1, 12-1)와 두 개의 병렬 디코더(11-2-1/11-2-2, 12-2-1/12-2-2)를 포함하는 동일한 구조의 네트워크임을 확인할 수 있으며(물론, 병렬 디코더의 마지막 예측 계층은 상이할 수 있음), 제1 네트워크(11) 및 제2 네트워크(12)는 어느 한 네트워크가 학습을 통해 습득한 지식을 다른 네트워크에게 전달하여 학습하게 하는 지식증류(Knowledge Distillation)학습을 수행하기에 어느 하나가 선생 네트워크(Teacher Network)이고, 나머지 하나가 학생 네트워크(Student Network)일 수 있다. Referring to FIG. 4, the first network 11 and the second network 12 include one encoder (11-1, 12-1) and two parallel decoders (11-2-1/11-2-2, It can be confirmed that it is a network of the same structure including 12-2-1/12-2-2) (of course, the last prediction layer of the parallel decoder may be different), the first network 11 and the second network ( 12) performs Knowledge Distillation learning in which one network transfers the knowledge acquired through learning to another network to learn, so one network is the Teacher Network and the other is the Student Network ( Student Network).
여기서 지식증류학습이란 지식증류 기법을 적용한 학습 방식으로써, 학습된 기본 모델을 통해 새로운 모델 생성 시 파라미터 값을 활용하여 학습 시간을 줄일 수 있음과 동시에 알고리즘의 경량화까지 이룰 수 있는 공지된 학습 방식인바, 모바일이나 IoT 디바이스 등 경량화된 사용자 단말에 최적화된 딥러닝 모델 구현에 적합하며, 스스로 학습한 지식을 다른 네트워크로 전달하는 네트워크를 선생 네트워크, 다른 네트워크가 학습한 지식을 전달 받아 자신의 지식으로 학습하는 네트워크를 학생 네트워크라 한다. Here, knowledge distillation learning is a learning method that applies the knowledge distillation technique. It is a known learning method that can reduce the learning time by utilizing parameter values when creating a new model through the learned basic model and can also achieve lightweighting of the algorithm. It is suitable for implementing a deep learning model optimized for lightweight user terminals such as mobile or IoT devices. A network that transfers self-learned knowledge to other networks is a teacher network, and a network that receives knowledge learned by other networks and learns with its own knowledge The network is called the student network.
본 발명의 제2 실시 예에 따른 근적외선 영상을 RGB 영상으로 변환하는 방법에서는 제1 네트워크(11)를 학생 네트워크로, 제2 네트워크(12)를 선생 네트워크로 규정하도록 하며, 두 네트워크는 내부 구조는 동일하나, 도 5에 예시적으로 도시된 바와 같이 학생 네트워크인 제1 네트워크(11)는 다중 밴드 근적외선 영상 데이터만을 입력 데이터로 입력 받고, 선생 네트워크인 제2 네트워크(12)는 다중 밴드 근적외선 영상 데이터와 더불어 해당 근적외선 영상 데이터를 촬영할 당시에 동시에 촬영한 RGB 영상 데이터를 입력 데이터로 함께 입력 받는다는 차이점을 보유하고 있으며, 두 네트워크 모두 RGB 영상을 출력할 수 있다. In the method of converting a near-infrared image into an RGB image according to the second embodiment of the present invention, the first network 11 is defined as a student network and the second network 12 is defined as a teacher network, and the internal structures of the two networks are defined as However, as exemplarily shown in FIG. 5, the first network 11, which is a student network, receives only multi-band near-infrared image data as input data, and the second network 12, which is a teacher network, receives multi-band near-infrared image data. In addition, the difference is that RGB image data captured at the same time as the near-infrared image data is received as input data, and both networks can output RGB images.
도 6은 본 발명의 제2 실시 예에 따른 근적외선 영상을 RGB 영상으로 변환하는 방법에 있어서, 제1 네트워크(11) 및 제2 네트워크(12) 전체의 학습 순서도, 도 7은 제2 네트워크(12)의 학습 순서도, 도 8은 제1 네트워크(11)의 학습 순서도이다. Figure 6 is a learning flowchart of the entire first network 11 and the second network 12 in the method for converting a near-infrared image to an RGB image according to the second embodiment of the present invention, and Figure 7 is a learning flowchart of the second network 12 ), FIG. 8 is a learning flowchart of the first network 11.
그러나 이는 본 발명의 목적을 달성함에 있어서 바람직한 실시 예일 뿐이며, 필요에 따라 일부 단계가 추가 또는 삭제될 수 있음은 물론이고, 어느 한 단계가 다른 단계에 포함되어 수행될 수도 있다. However, this is only a preferred embodiment in achieving the purpose of the present invention, and some steps may be added or deleted as needed, and one step may be performed by being included in another step.
도 6을 참조하면 우선, 선생 네트워크인 제2 네트워크(12)가 학습을 수행한다(S610). 이를 구체적으로 도시한 도 7을 참조하면, 제2 네트워크(12)가 입력 데이터로 다중 밴드 근적외선 영상 데이터 및 해당 근적외선 영상 데이터를 촬영할 당시에 동시에 촬영한 RGB 영상 데이터를 입력 받아(S610-1) 인코더(12-1)가 이로부터 근적외선 영상의 특징 데이터 및 RGB 영상의 특징 데이터(다중 밴드 근적외선 영상과 RGB 스펙트럼과의 상관 관계)를 추출하여 학습하고(S610-2), 이를 기초로 두 개의 병렬 디코더(12-2-1/12-2-2) 각각이 다중 밴드 근적외선 영상의 질감이 보존된 흑백 영상과 마찬가지로 다중 밴드 근적외선 영상의 질감이 보존됨과 동시에 오브젝트 본래의 색상을 복원한 RGB 영상을 추정하여 출력하고, 이를 학습한다(S610-3, S610-3-1/S610-3-2). Referring to FIG. 6, first, the second network 12, which is a teacher network, performs learning (S610). Referring to FIG. 7 illustrating this in detail, the second network 12 receives multi-band near-infrared image data and RGB image data taken simultaneously when shooting the near-infrared image data as input data (S610-1) and encodes the encoder ( 12-1) extracts and learns the feature data of the near-infrared image and the feature data of the RGB image (correlation between the multi-band near-infrared image and the RGB spectrum) from this (S610-2), and based on this, two parallel decoders ( 12-2-1/12-2-2) Similar to the black and white image in which the texture of each multi-band near-infrared image is preserved, the texture of the multi-band near-infrared image is preserved and at the same time, an RGB image in which the original color of the object is restored is estimated and output. and learn it (S610-3, S610-3-1/S610-3-2).
이후, 학생 네트워크인 제1 네트워크(11)가 지식증류학습을 이용하여 학습을 수행한다(S620). 이를 구체적으로 도시한 도 8을 참조하면, 제1 네트워크는 선생 네트워크인 제2 네트워크(12)와 동일한 데이터 세트로 학습을 수행하나, 입력 데이터로 RGB 영상 데이터를 입력 받지는 않고 다중 밴드 근적외선 영상 데이터만을 입력 받으며(S620-1), 먼저 학습을 수행한 제2 네트워크(12)로부터 근적외선 영상의 특징 데이터 및 RGB 영상의 특징 데이터 추출에 관한 특징 추출 행동을 모방하도록 하는 지식을 전달받아 학습함으로써 근적외선 영상 데이터의 특징을 추출하고(S620-2), 제2 네트워크(12)로부터 해당 지식을 이용하여 학습 데이터인 근적외선 영상 데이터 및 RGB 영상 데이터로부터 흑백 영상 및 RGB 영상 출력에 관한 영상 추정 행동을 모방하도록 하는 지식을 전달받아 학습함으로써 다중 밴드 근적외선 영상의 질감이 보존된 흑백 영상 및 다중 밴드 근적외선 영상의 질감은 보존하면서 오브젝트 본래의 색상을 충실하게 복원한 RGB 영상을 추정하여 출력할 수 있다(S620-3, S620-3-1/S620-3-2).Afterwards, the first network 11, which is a student network, performs learning using knowledge distillation learning (S620). Referring to FIG. 8 specifically showing this, the first network performs learning with the same data set as the second network 12, which is a teacher network, but does not receive RGB image data as input data, but multi-band near-infrared image data. receives only the input (S620-1), and learns the near-infrared image by receiving knowledge to imitate the feature extraction behavior for extracting the feature data of the near-infrared image and the feature data of the RGB image from the second network 12 that first performed learning. Extract the features of the data (S620-2) and use the corresponding knowledge from the second network 12 to imitate the image estimation behavior for black-and-white image and RGB image output from the near-infrared image data and RGB image data, which are learning data. By receiving and learning knowledge, it is possible to estimate and output a black-and-white image with the texture of the multi-band near-infrared image preserved and an RGB image with the original color of the object faithfully restored while preserving the texture of the multi-band near-infrared image (S620-3, S620-3-1/S620-3-2).
이와 같이 학생 네트워크인 제1 네트워크(11)가 선생 네트워크인 제2 네트워크(12)가 학습한 지식을 전달 받아 학습하기에 학습 시간이 비약적으로 단축될 수 있으며, 학습 알고리즘 역시 경량화될 수 있다. 이는 제2 네트워크(12)가 입력 받는 입력 데이터가 근적외선 영상 데이터뿐만 아니라 RGB 영상 데이터를 함께 포함하기 때문인바, 이로 인해 제2 네트워크(12)는 근적외선 영상 데이터만을 입력 데이터로 입력 받는 경우 보다 다양하고 풍부한 지식을 보유하게 되며, 해당 지식을 제1 네트워크(11)에 그대로 전달함으로써 제1 네트워크(11)는 RGB 영상 데이터의 입력 없이도 제2 네트워크(12)에 따른 RGB 영상의 디테일과 색상 품질 향상을 위한 지식을 보유하게 되기 때문이다. In this way, since the first network 11, which is a student network, receives and learns the knowledge learned by the second network 12, which is a teacher network, the learning time can be drastically shortened, and the learning algorithm can also be lightweight. This is because the input data that the second network 12 receives includes not only near-infrared image data but also RGB image data. As a result, the second network 12 is more diverse than when it receives only near-infrared image data as input data. It possesses abundant knowledge, and by transmitting the knowledge as is to the first network 11, the first network 11 improves the detail and color quality of the RGB image according to the second network 12 without inputting RGB image data. This is because you will have the knowledge to do so.
한편, 제2 네트워크(12)가 제1 네트워크(11)에 전달한 지식의 학습, 보다 구체적으로 지식증류학습은 제2 손실함수(Lkd)를 적용하여 이루어질 수 있으며, 제2 손실함수는 다음과 같다. Meanwhile, learning of the knowledge transmitted by the second network 12 to the first network 11, more specifically knowledge distillation learning, can be achieved by applying the second loss function (L kd ), and the second loss function is as follows: same.
제2 손실함수(Lkd) = 2 Second loss function (L kd ) = 2
여기서 제2 손실함수는 제2 네트워크(12)의 특징맵인 FT와 제1 네트워크(11)의 특징맵인 FS 사이의 L2 norm이며, α는 제2 네트워크(12)의 특징맵을 제1 네트워(11)크 학습에 보다 유용하게 만들기 위해 수행하는 예시적인 추가 연산임Here, the second loss function is the L2 norm between F T , which is the feature map of the second network 12, and F S, which is the feature map of the first network 11, and α is the feature map of the second network 12. 1 This is an example additional operation performed to make network (11) more useful for network learning.
이와 별개로 학생 네트워크인 제1 네트워크(11)의 학습 과정에서 선생 네트워크인 제2 네트워크(12)의 학습은 추가로 수행되지 않으며, 제1 네트워크(11)에게 지식을 전달한 그 상태 그대로를 유지하고, 제2 네트워크(12)로부터 전달 받은 지식에 대한 학습은 S620-1 단계 이전에 수행될 수도 있고, S620-2 단계에서 근적외선 영상 데이터의 특징을 추출하거나 S620-3-1, S620-3-2 단계에서 흑백 영상과 RGB 영상을 추정하여 출력하는 단계에서 함께 수행될 수도 있다 할 것인바, 어느 단계에서 학습을 수행하는지에 관하여 의미가 있다기 보다 제2 네트워크(12)로부터 전달 받은 지식을 효과적으로 학습한다는 점에 기술적 의미를 두어야 할 것이다. Separately from this, during the learning process of the first network 11, which is a student network, the learning of the second network 12, which is a teacher network, is not additionally performed, and the knowledge is maintained in the same state in which the knowledge was transferred to the first network 11. , Learning about the knowledge received from the second network 12 may be performed before step S620-1, or extract features of near-infrared image data in step S620-2 or S620-3-1 and S620-3-2. It may be performed together in the step of estimating and outputting the black-and-white image and the RGB image, and it is not meaningful as to which step the learning is performed, but rather effectively learning the knowledge received from the second network 12. Technical meaning should be attached to the fact that it does so.
다시 도 2에 대한 설명으로 돌아가도록 한다. Let us return to the description of FIG. 2 again.
근적외선 영상 데이터를 입력 받아 제1 네트워크(11)에 입력했다면, 장치(100)가 제1 네트워크(11)가 입력 받은 근적외선 영상 데이터에서 근적외선 영상의 특징 데이터를 추출한다(S220). If near-infrared image data is received and input into the first network 11, the device 100 extracts feature data of the near-infrared image from the near-infrared image data received by the first network 11 (S220).
여기서 근적외선 영상의 특징 데이터를 추출함에 있어 제1 네트워크(11)는 앞서 설명한 제2 네트워크(12)로부터 전달 받은 지식, 보다 구체적으로 제2 네트워크(12)로부터 근적외선 영상의 특징 데이터 및 RGB 영상의 특징 데이터 추출에 관한 특징 추출 행동을 모방하도록 전달 받은 지식을 활용할 수 있으며, 중복 서술을 방지하기 위해 자세한 설명은 생략하도록 한다. Here, in extracting the feature data of the near-infrared image, the first network 11 uses the knowledge received from the second network 12 described above, more specifically, the feature data of the near-infrared image and the features of the RGB image from the second network 12. The received knowledge can be used to imitate feature extraction behavior regarding data extraction, and detailed explanations are omitted to prevent redundant description.
한편, S220 단계 이후, S230 단계로 넘어가기 이전에 장치(100)가 제1 네트워크(11)가 추출한 근적외선 영상의 특징 데이터를 이용하여 입력 받은 근적외선 영상 데이터를 흑백 영상으로 변환하도록 추정한 흑백 영상을 출력할 수 있다(S225). Meanwhile, after step S220 and before proceeding to step S230, the device 100 converts the input near-infrared image data into a black-and-white image using the feature data of the near-infrared image extracted by the first network 11. Can be printed (S225).
이는 제1 네트워크(11)가 흑백 영상을 추정하여 출력하는 것이므로 앞서 제1 네트워크(11)의 학습에 관한 도 8을 참조하여 설명한 다중 밴드 근적외선 영상의 질감이 보존된 흑백 영상을 추정하여 출력하는 S620-3-1 단계와 동일한바, 중복 서술을 방지하기 위해 자세한 설명은 생략하도록 하며, 근적외선 영상을 RGB 영상으로 변환한 영상을 추정하여 출력하기 위한 제1 네트워크(11)에 있어서 RGB 영상과 더불어 흑백 영상을 추정하여 출력함으로써 RGB 영상 추정 성능 향상에 이바지할 수 있다. Since this is because the first network 11 estimates and outputs a black-and-white image, S620 estimates and outputs a black-and-white image with the texture of the multi-band near-infrared image preserved, which was previously described with reference to FIG. 8 regarding learning of the first network 11. -It is the same as step 3-1, and detailed description will be omitted to prevent redundant description. In the first network 11 for estimating and outputting the image converted from the near-infrared image to the RGB image, the black and white image is used in addition to the RGB image. By estimating and outputting the image, it can contribute to improving RGB image estimation performance.
여기서 더 나아가, 장치(100)는 S225 단계에서 출력한 추정 흑백 영상에 제3 손실함수(Lgray)를 적용하여 최종적인 흑백 영상을 출력할 수 있다(S227). Furthermore, the device 100 may output a final black-and-white image by applying the third loss function (L gray ) to the estimated black-and-white image output in step S225 (S227).
여기서 제3 손실함수는 다음과 같이 두 개의 손실함수의 합일 수 있다. Here, the third loss function may be the sum of two loss functions as follows.
제3 손실함수(Lgray) = Lstruct + LSSIM Third loss function (L gray ) = L struct + L SSIM
여기서 Lstruct 는 최종적인 흑백 영상과 정답 흑백 영상 사이의 L1 norm이며, Lstruct 를 L1 norm으로 사용함으로써 L2 norm 보다 블러링이 적은 흑백 영상을 획득할 수 있는바, 다음과 같이 나타낼 수 있다. Here, L struct is the L1 norm between the final black and white image and the correct black and white image. By using L struct as the L1 norm, a black and white image with less blurring than the L2 norm can be obtained, which can be expressed as follows.
Lstruct = - 1 L struct = - One
LSSIM는 최종적인 흑백 영상과 정답 흑백 영상 사이의 구조적 유사성을 높이기 위한 손실함수이며, 다음과 같이 나타낼 수 있다. L SSIM is a loss function to increase the structural similarity between the final black and white image and the correct black and white image, and can be expressed as follows.
LSSIM = 1 - SSIM(, Igray)L SSIM = 1 - SSIM( , I gray )
이상과 같은 두 개의 손실함수의 합인 제3 손실함수는 흑백 영상을 추정하여 출력하는데 이용되는 손실함수로 볼 수 있을 것이다. The third loss function, which is the sum of the above two loss functions, can be viewed as a loss function used to estimate and output a black and white image.
근적외선 영상의 특징 데이터까지 추출했다면, 장치(100)가 제1 네트워크(11)가 추출한 근적외선 영상의 특징 데이터를 이용하여 입력 받은 근적외선 영상 데이터를 RGB 영상으로 변환하도록 추정한 RGB 영상을 출력한다(S230). If the feature data of the near-infrared image has been extracted, the device 100 uses the feature data of the near-infrared image extracted by the first network 11 to output an estimated RGB image to convert the input near-infrared image data into an RGB image (S230) ).
여기서 RGB 영상을 추정하여 출력함에 있어 제1 네트워크(11)는 앞서 설명한 제2 네트워크(12)로부터 전달 받은 지식, 보다 구체적으로 제2 네트워크(12)로부터 해당 지식(특징 추출 행동을 모방하도록 전달 받은 지식)을 이용하여 학습 데이터인 근적외선 영상 데이터 및 RGB 영상 데이터로부터 흑백 영상 및 RGB 영상 출력에 관한 영상 추정 행동을 모방하도록 전달 받은 지식을 활용할 수 있으며, 중복 서술을 방지하기 위해 자세한 설명은 생략하도록 한다. Here, in estimating and outputting the RGB image, the first network 11 uses the knowledge received from the second network 12 described above, more specifically, the knowledge received from the second network 12 (received to imitate feature extraction behavior). Knowledge) can be used to use the knowledge received to imitate image estimation behavior for black-and-white and RGB image output from the near-infrared image data and RGB image data, which are learning data. Detailed explanations will be omitted to prevent redundant description. .
더 나아가, 장치(100)는 S230 단계에서 출력한 추정 RGB 영상에 제1 손실함수(Lrgb)를 적용하여 최종적인 RGB 영상을 출력할 수 있다(S235).Furthermore, the device 100 may apply the first loss function (L rgb ) to the estimated RGB image output in step S230 and output the final RGB image (S235).
여기서 제1 손실함수는 다음과 같이 두 개의 손실함수의 합일 수 있다. Here, the first loss function may be the sum of two loss functions as follows.
제1 손실함수(Lrgb) = Lcontent + Lperceptual + Langular First loss function (L rgb ) = L content + L perceptual + L angular
여기서 Lcontent는 최종적인 RGB 영상과 정답 RGB 영상 사이의 L1 norm이며, Lstruct 를 L1 norm으로 사용함으로써 L2 norm 보다 블러링이 적은 RGB 영상을 획득할 수 있는바, 다음과 같이 나타낼 수 있다.Here, L content is the L1 norm between the final RGB image and the correct RGB image. By using L struct as the L1 norm, an RGB image with less blurring than the L2 norm can be obtained, which can be expressed as follows.
Lcontent = - 1 L content = - One
Lperceptual은 최종적인 RGB 영상의 디테일과 텍스처의 일관성 평가 항목이며, 다음과 같이 나타낼 수 있다. L perceptua l is an evaluation item for consistency of detail and texture of the final RGB image, and can be expressed as follows.
Lperceptual = rgb) - layer L perceptual = rgb ) - layer
Langular는 최종적인 RGB 영상의 색상 복원 품질을 향상시키기 위한 각도 오차이며, 다음과 같이 나타낼 수 있다. L angular is the angular error to improve the color restoration quality of the final RGB image, and can be expressed as follows.
Langular = arcos( )L angular = arcos( )
이상과 같은 세 개의 손실함수의 합인 제1 손실함수는 RGB 영상을 추정하여 출력하는데 이용되는 손실함수로 볼 수 있을 것이다. The first loss function, which is the sum of the three loss functions above, can be viewed as a loss function used to estimate and output an RGB image.
도 9는 입력 데이터인 근적외선 영상 데이터(Inir)와 RGB 영상 데이터(Irgb)를 장치(100)에 입력함으로써 중간 산출물인 추정 흑백 영상( gray) 및 추정 RGB 영상( rgb), 최종 산출물인 최종적인 흑백 영상(Igray) 및 최종적인 RGB 영상(Irgb)를 출력하는 모습과 각각의 연산 과정에서 적용되는 손실함수를 예시적으로 도시한 도면인바, 도 9 및 이상의 설명에 따라 장치(100) 전체적으로 적용되는 전체 손실함수(Ltotal)는 다음과 같이 제1 손실함수, 제2 손실함수 및 제3 손실함수의 합으로 나타낼 수 있다 할 것이다. Figure 9 shows an estimated black and white image, which is an intermediate product, by inputting near-infrared image data (I nir ) and RGB image data (I rgb ), which are input data, into the device 100. gray ) and estimated RGB image ( rgb ), the output of the final black-and-white image (I gray ) and the final RGB image (I rgb ), which are the final output, and the loss function applied in each calculation process, as shown in Figures 9 and above. According to the description, the total loss function (L total ) applied to the entire device 100 can be expressed as the sum of the first loss function, the second loss function, and the third loss function as follows.
전체 손실함수(Ltotal) = Lkd + Lgray + Lrgb Total loss function (L total ) = L kd + L gray + L rgb
지금까지 본 발명의 제2 실시 예에 따른 근적외선 영상을 RGB 영상으로 변환하는 방법에 대하여 설명하였다. 본 발명에 따르면, 지식증류학습을 적용함으로써 선생 네트워크인 제2 네트워크(12)가 근적외선 영상 데이터뿐만 아니라 해당 근적외선 영상 데이터를 촬영할 당시에 동시에 촬영한 RGB 영상 데이터를 입력 데이터로 함께 입력 받고, 이로부터 근적외선 영상의 특징 데이터 및 RGB 영상의 특징 데이터 추출에 관한 특징 추출 행동을 모방하도록 하는 지식 및 이를 이용하여 근적외선 영상 데이터 및 RGB 영상 데이터로부터 흑백 영상 및 RGB 영상 출력에 관한 영상 추정 행동을 모방하도록 하는 지식을 학생 네트워크인 제1 네트워크(11)에게 전달하여 신속하고 효율적으로 학습하게 하는바, 색상 정보를 보유하고 있지 않은 근적외선 영상만을 입력 데이터로 입력 받는 경우라 할지라도 색상 정보를 보유한 RGB 영상으로 효과적으로 변환할 수 있다. 또한, 지식증류학습을 위한 손실함수, 최종적인 흑백 영상 추정을 위한 손실함수 및 최종적인 RGB 영상 추정을 위한 손실함수까지 적용함으로써 영상 변환의 품질을 향상시키고자 하는바, 다중 밴드 근적외선 영상의 질감과 디테일을 유지하면서 오브젝트의 본래 색상을 충실하게 복원하는 고품질 RGB 영상 변환을 도모할 수 있다. 아울러, 단일 밴드 근적외선 영상이 아니라 세 개의 서로 상이한 광 밴드 패스 필터로 취득한 다중 밴드 근적외선 영상을 활용함으로써 보다 상세한 정보를 획득할 수 있으므로 각각의 근적외선 밴드와 RGB 스펙트럼 사이의 상관 관계를 찾는데 유용한바, 네트워크의 학습 효율이 향상될 수 있다. So far, a method for converting a near-infrared image into an RGB image according to the second embodiment of the present invention has been described. According to the present invention, by applying knowledge distillation learning, the second network 12, which is a teacher network, receives as input data not only near-infrared image data but also RGB image data taken at the same time as the near-infrared image data, and from this, near-infrared image data is received. Knowledge to imitate feature extraction behavior related to extracting feature data of images and feature data of RGB images, and knowledge to use this to imitate image estimation behavior related to black-and-white image and RGB image output from near-infrared image data and RGB image data. It is transmitted to the first network (11), which is the student network, to learn quickly and efficiently. Even if only a near-infrared image that does not contain color information is received as input data, it can be effectively converted to an RGB image that contains color information. You can. In addition, we aim to improve the quality of image conversion by applying a loss function for knowledge distillation learning, a loss function for final black-and-white image estimation, and a loss function for final RGB image estimation. It is possible to achieve high-quality RGB image conversion that faithfully restores the original color of the object while maintaining detail. In addition, more detailed information can be obtained by using multi-band near-infrared images acquired with three different optical band pass filters rather than single-band near-infrared images, which is useful for finding correlations between each near-infrared band and RGB spectrum. Learning efficiency can be improved.
도 10은 본 발명의 제2 실시 예에 따른 근적외선 영상을 RGB 영상으로 변환하는 방법에 있어서, 좌측부터 입력 데이터인 근적외선 영상과 정답 RGB 영상, 종래 기술에 해당하는 U-Net, S-Net 및 Structure-Aware의 추정 영상 출력 결과, 마지막으로 본 발명에 따른 추정 RGB 영상 출력 결과를 도시한 도면이다. 정답 RGB 영상과 비교하여 종래 기술에 해당하는 U-Net의 결과는 글자의 가독성과 질감 정보 손실이 많이 발생하는 것을 확인할 수 있으며, S-Net 및 Structure-Arare의 결과는 국소 영역에서 시각적으로 부자연스러운 색상 왜곡 또는 질감 정보의 손실이 발생하는 것을 확인할 수 있음에 반해, 본 발명의 제2 실시 예에 따른 근적외선 영상을 RGB 영상으로 변환하는 방법에 따르면 글자의 가독성과 질감 정보를 잘 보존하면서도 색상 복원 품질이 뛰어난 RGB 영상을 출력하고 있는바, 뛰어난 영상 변환 품질을 보유하고 있음을 확인할 수 있다. Figure 10 shows the method for converting a near-infrared image into an RGB image according to the second embodiment of the present invention, from the left, the near-infrared image as input data, the correct answer RGB image, U-Net, S-Net, and Structure corresponding to the prior art. -Aware's estimated image output results, and finally, a diagram showing the estimated RGB image output results according to the present invention. In comparison with the correct answer RGB image, it can be seen that the results of U-Net, which corresponds to the prior art, cause a lot of loss of text readability and texture information, and the results of S-Net and Structure-Arare show visually unnatural effects in local areas. While it can be confirmed that color distortion or loss of texture information occurs, according to the method of converting a near-infrared image into an RGB image according to the second embodiment of the present invention, the readability and texture information of letters are well preserved while color restoration quality is improved. Since this excellent RGB video is being output, it can be confirmed that it has excellent video conversion quality.
도 11은 본 발명의 제2 실시 예에 따른 근적외선 영상을 RGB 영상으로 변환하는 방법에 있어서, 좌측 상단 및 하단이 입력 데이터인 근적외선 영상과 정답 RGB 영상이며, 상단 중앙은 지식증류학습을 수행하지 않은 경우의 추정 영상 출력 결과, 우측 상단은 인코더 사이에서만 지식증류학습을 적용한 경우(특징 추출 행동 모방)의 추정 영상 출력 결과, 하단 중앙은 디코더 사이에서만 지식증류학습을 적용한 경우(영상 추정 행동 모방)의 추정 영상 출력 결과, 우측 하단은 본 발명에 따른 추정 RGB 영상 출력 결과를 도시한 도면이다. 지식증류학습을 수행하지 않은 경우는 인코더 사이 또는 디코더 사이에서만 지식증류학습을 적용한 경우와 비교했을 때, 질감이 제대로 보존되지 않으며, 색상 복원 품질 역시 떨어짐을 확인할 수 있는바, 이는 지식증류학습이 근적외선 영상의 RGB 변환 품질 향상에 도움이 되는 증거에 해당하며, 본 발명의 제2 실시 예에 따른 근적외선 영상을 RGB 영상으로 변환하는 방법은 인코더 및 디코더 사이에서 지식증류학습을 모두 적용한 경우인바, 정답 RGB 영상과 비교하여 가장 우수한 영상 변환 품질을 보유하고 있음을 확인할 수 있다. Figure 11 shows the method of converting a near-infrared image into an RGB image according to the second embodiment of the present invention, where the upper and lower left sides are the near-infrared image as input data and the correct answer RGB image, and the upper center is the image where knowledge distillation learning was not performed. The estimated video output result in this case, the upper right is the estimated video output result when knowledge distillation learning is applied only between encoders (feature extraction behavior imitation), and the bottom center is the estimated video output result when knowledge distillation learning is applied only between decoders (image estimation behavior imitation). As for the estimated image output result, the bottom right is a diagram showing the estimated RGB image output result according to the present invention. In the case where knowledge distillation learning is not performed, compared to the case where knowledge distillation learning is applied only between encoders or between decoders, it can be seen that the texture is not properly preserved and the quality of color restoration is also poor. This is evidence that helps improve the quality of RGB conversion of images, and the method of converting near-infrared images into RGB images according to the second embodiment of the present invention is a case of applying both knowledge distillation learning between the encoder and decoder, so the correct answer is RGB Compared to video, it can be confirmed that it has the best video conversion quality.
한편, 본 발명의 제1 실시 예에 따른 근적외선 영상을 RGB 영상으로 변환하는 장치(100)와 본 발명의 제2 실시 예에 따른 근적외선 영상을 RGB 영상으로 변환하는 방법은 본 발명의 제3 실시 예에 따른 컴퓨터로 판독 가능한 매체에 저장된 컴퓨터 프로그램으로 구현할 수도 있는바, 이 경우 컴퓨팅 장치와 결합하여 (AA) RGB 영상으로 변환하고자 하는 근적외선 영상 데이터를 입력 받아 제1 네트워크에 입력하는 단계, (BB) 상기 제1 네트워크가 상기 입력 받은 근적외선 영상 데이터에서 근적외선 영상의 특징 데이터를 추출하는 단계, (CC) 상기 제1 네트워크가 상기 추출한 근적외선 영상의 특징 데이터를 이용하여 상기 입력 받은 근적외선 영상 데이터를 RGB 영상으로 변환하도록 추정한 RGB 영상을 출력하는 단계를 실행할 수 있을 것이며, 중복 서술을 위해 자세히 기재하지는 않았지만 본 발명의 제1 실시 예에 따른 근적외선 영상을 RGB 영상으로 변환하는 장치(100) 및 본 발명의 제2 실시 예에 따른 근적외선 영상을 RGB 영상으로 변환하는 방법에 적용된 모든 기술적 특징은 본 발명의 제3 실시 예에 따른 컴퓨터로 판독 가능한 매체에 저장된 컴퓨터 프로그램에 모두 동일하게 적용될 수 있음은 물론이라 할 것이다. Meanwhile, the device 100 for converting a near-infrared image into an RGB image according to the first embodiment of the present invention and the method for converting a near-infrared image into an RGB image according to the second embodiment of the present invention are the third embodiment of the present invention. It may be implemented as a computer program stored in a computer-readable medium according to the following, in this case, receiving near-infrared image data to be converted into an RGB image by combining with a computing device (AA) and inputting it to the first network, (BB) Extracting characteristic data of the near-infrared image from the received near-infrared image data by the first network, (CC) the first network converts the received near-infrared image data into an RGB image using the extracted feature data of the near-infrared image. The step of outputting the RGB image estimated to be converted can be performed, and although not described in detail for redundant description, the device 100 for converting a near-infrared image into an RGB image according to the first embodiment of the present invention and the device 100 of the present invention It goes without saying that all technical features applied to the method for converting a near-infrared image to an RGB image according to the second embodiment can be equally applied to the computer program stored in the computer-readable medium according to the third embodiment of the present invention. .
이상 첨부된 도면을 참조하여 본 발명의 실시 예들을 설명하였지만, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.Although embodiments of the present invention have been described above with reference to the attached drawings, those skilled in the art will understand that the present invention can be implemented in other specific forms without changing its technical idea or essential features. You will be able to understand it. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive.
10: 프로세서
11: 제1 네트워크
12: 제2 네트워크
11-1. 12-1: 인코더
11-2-1, 11-2-2, 12-2-1, 12-2-2: 디코더
20: 네트워크 인터페이스
30: 메모리
40: 스토리지
41: 컴퓨터 프로그램
50: 정보 버스
100: 근적외선 영상을 RGB 영상으로 변환하는 장치10: processor
11: first network
12: Second network
11-1. 12-1: Encoder
11-2-1, 11-2-2, 12-2-1, 12-2-2: Decoder
20: network interface
30: memory
40: storage
41: computer program
50: Information Bus
100: Device that converts near-infrared images into RGB images
Claims (11)
(a) RGB 영상으로 변환하고자 하는 근적외선 영상 데이터를 입력 받아 제1 네트워크에 입력하는 단계;
(b) 상기 제1 네트워크가 상기 입력 받은 근적외선 영상 데이터에서 근적외선 영상의 특징 데이터를 추출하는 단계; 및
(c) 상기 제1 네트워크가 상기 추출한 근적외선 영상의 특징 데이터를 이용하여 상기 입력 받은 근적외선 영상 데이터를 RGB 영상으로 변환하도록 추정한 RGB 영상을 출력하는 단계;
를 포함하며,
상기 제1 네트워크는,
학습 데이터인 근적외선 영상 데이터 및 해당 근적외선 영상을 촬영할 당시에 동시에 촬영한 RGB 영상 데이터를 함께 입력 받은 제2 네트워크로부터 근적외선 영상의 특징 데이터 및 RGB 영상의 특징 데이터 추출에 관한 특징 추출 행동을 모방하도록 지식을 전달 받아 지식증류(Knowledge Distillation)학습을 수행한 네트워크인,
근적외선 영상을 RGB 영상으로 변환하는 방법.In a method where a device including a first network and a second network converts a near-infrared image into an RGB image,
(a) receiving near-infrared image data to be converted into an RGB image and inputting it to a first network;
(b) the first network extracting feature data of a near-infrared image from the received near-infrared image data; and
(c) outputting an estimated RGB image by the first network to convert the input near-infrared image data into an RGB image using feature data of the extracted near-infrared image;
Includes,
The first network is,
Knowledge is transferred to imitate the feature extraction behavior of extracting the feature data of the near-infrared image and the feature data of the RGB image from the second network that receives the learning data, the near-infrared image data, and the RGB image data taken at the same time as the near-infrared image. A network that performed knowledge distillation learning,
How to convert near-infrared images to RGB images.
상기 (a) 단계에서의 근적외선 영상 데이터 및 상기 학습 데이터인 근적외선 영상 데이터는,
다중 밴드 근적외선 영상 데이터이며,
복수 개의 상이한 광학 필터로 취득한 영상 데이터인,
근적외선 영상을 RGB 영상으로 변환하는 방법.According to paragraph 1,
The near-infrared image data in step (a) and the near-infrared image data that are the learning data,
It is multi-band near-infrared image data,
Image data acquired with a plurality of different optical filters,
How to convert near-infrared images to RGB images.
상기 복수 개의 상이한 광학 필터는,
최고 파장이 785nm, 850nm 및 940nm인 세 개의 광 밴드 패스 필터인,
근적외선 영상을 RGB 영상으로 변환하는 방법.According to paragraph 2,
The plurality of different optical filters,
Three optical band pass filters with peak wavelengths of 785nm, 850nm and 940nm,
How to convert near-infrared images to RGB images.
상기 제1 네트워크 및 제2 네트워크는,
하나의 인코더 및 두 개의 병렬 디코더를 포함하는 동일 구조의 네트워크인,
근적외선 영상을 RGB 영상으로 변환하는 방법.According to paragraph 1,
The first network and the second network are,
A network of the same structure including one encoder and two parallel decoders,
How to convert near-infrared images to RGB images.
상기 제1 네트워크는,
상기 제2 네트워크가 근적외선 영상의 특징 데이터 및 RGB 영상의 특징 데이터를 추출하고, 이를 이용하여 상기 학습 데이터인 근적외선 영상 데이터 및 RGB 영상 데이터로부터 흑백 영상 및 RGB 영상 출력에 관한 영상 추정 행동을 모방하도록 지식을 전달 받아 지식증류학습을 수행한 네트워크인,
근적외선 영상을 RGB 영상으로 변환하는 방법.According to paragraph 1,
The first network is,
The second network extracts feature data of the near-infrared image and feature data of the RGB image, and uses this to imitate image estimation behavior regarding black-and-white image and RGB image output from the near-infrared image data and RGB image data, which are the learning data. A network that received information and performed knowledge distillation learning,
How to convert near-infrared images to RGB images.
상기 (c) 단계 이후에,
(d) 상기 (c) 단계에서 출력한 추정 RGB 영상에 제1 손실함수(Lrgb)를 적용하여 최종적인 RGB 영상을 출력하는 단계;
를 더 포함하며,
상기 제1 손실함수는 하기와 같이 세 개의 손실함수의 합인,
근적외선 영상을 RGB 영상으로 변환하는 방법.
제1 손실함수(Lrgb) = Lcontent + Lperceptual + Langular
여기서 상기 Lcontent는 최종적인 RGB 영상과 정답 RGB 영상 사이의 L1 norm, 상기 Lperceptual은 최종적인 RGB 영상의 디테일과 텍스처 일관성 평가 항목, 상기 Langular는 최종적인 RGB 영상의 색상 복원 품질을 향상하기 위한 각도 오차임According to paragraph 1,
After step (c) above,
(d) applying a first loss function (L rgb ) to the estimated RGB image output in step (c) to output a final RGB image;
It further includes,
The first loss function is the sum of three loss functions as follows,
How to convert near-infrared images to RGB images.
First loss function (L rgb ) = L content + L perceptual + L angular
Reminder here L content is the L1 norm between the final RGB image and the correct RGB image, L perceptual is the detail and texture consistency evaluation item of the final RGB image, L angular is an angle error to improve the color restoration quality of the final RGB image.
상기 지식증류학습은 제2 손실함수(Lkd)를 적용하여 이루어지며,
상기 제2 손실함수는 하기와 같은 손실함수인,
근적외선 영상을 RGB 영상으로 변환하는 방법.
제2 손실함수(Lkd) = 2
여기서 제2 손실함수는 제2 네트워크의 특징맵인 FT와 제1 네트워크의 특징맵인 FS 사이의 L2 norm이며, α는 제2 네트워크의 특징맵을 제1 네트워크 학습에 보다 유용하게 만들기 위해 수행하는 예시적인 추가 연산임According to paragraph 1,
The knowledge distillation learning is performed by applying the second loss function (L kd ),
The second loss function is a loss function as follows,
How to convert near-infrared images to RGB images.
Second loss function (L kd ) = 2
Here, the second loss function is the L2 norm between F T , the feature map of the second network, and F S , the feature map of the first network, and α is used to make the feature map of the second network more useful for learning the first network. This is an example additional operation to perform.
상기 (b) 단계 및 (c) 단계 사이에,
(b′) 상기 제1 네트워크가 상기 추출한 상기 추출한 근적외선 영상의 특징 데이터를 이용하여 상기 입력 받은 근적외선 영상 데이터를 흑백 영상으로 변환하도록 추정한 흑백 영상을 출력하는 단계;
를 더 포함하는 근적외선 영상을 RGB 영상으로 변환하는 방법.According to paragraph 1,
Between steps (b) and (c),
(b′) outputting an estimated black-and-white image by the first network to convert the input near-infrared image data into a black-and-white image using the extracted feature data of the near-infrared image;
A method of converting a near-infrared image to an RGB image further comprising:
상기 (b′) 단계와 (c) 단계 사이에,
(b″) 상기 (b′) 단계에서 출력한 추정 흑백 영상에 제3 손실함수(Lgray)를 적용하여 최종적인 흑백 영상을 출력하는 단계;
를 더 포함하며,
상기 제3 손실함수는 하기와 같이 두 개의 손실함수의 합인,
근적외선 영상을 RGB 영상으로 변환하는 방법.
제3 손실함수(Lgray) = Lstruct + LSSIM
여기서 상기 Lstruct 는 최종적인 흑백 영상과 정답 흑백 영상 사이의 L1 norm, 상기 LSSIM는 최종적인 흑백 영상과 정답 흑백 영상 사이의 구조적 유사성을 높이기 위한 손실함수임According to clause 8,
Between steps (b′) and (c),
(b″) applying a third loss function (L gray ) to the estimated black-and-white image output in step (b′) to output a final black-and-white image;
It further includes,
The third loss function is the sum of two loss functions as follows,
How to convert near-infrared images to RGB images.
Third loss function (L gray ) = L struct + L SSIM
Here, L struct is the L1 norm between the final black-and-white image and the correct black-and-white image, and L SSIM is a loss function to increase the structural similarity between the final black-and-white image and the correct black-and-white image.
네트워크 인터페이스;
상기 프로세서에 의해 수행되는 컴퓨터 프로그램을 로드(Load)하는 메모리; 및
대용량 네트워크 데이터 및 상기 컴퓨터 프로그램을 저장하는 스토리지를 포함하되,
상기 컴퓨터 프로그램은 상기 하나 이상의 프로세서에 의해,
(A) RGB 영상으로 변환하고자 하는 근적외선 영상 데이터를 입력 받아 제1 네트워크에 입력하는 오퍼레이션;
(B) 상기 제1 네트워크가 상기 입력 받은 근적외선 영상 데이터에서 근적외선 영상의 특징 데이터를 추출하는 오퍼레이션; 및
(C) 상기 제1 네트워크가 상기 추출한 근적외선 영상의 특징 데이터를 이용하여 상기 입력 받은 근적외선 영상 데이터를 RGB 영상으로 변환하도록 추정한 RGB 영상을 출력하는 오퍼레이션;
을 실행하며,
상기 제1 네트워크는,
학습 데이터인 근적외선 영상 데이터 및 해당 근적외선 영상을 촬영할 당시에 동시에 촬영한 RGB 영상 데이터를 함께 입력 받은 제2 네트워크로부터 근적외선 영상의 특징 데이터 및 RGB 영상의 특징 데이터 추출에 관한 특징 추출 행동을 모방하도록 지식을 전달 받아 지식증류(Knowledge Distillation)학습을 수행한 네트워크인,
근적외선 영상을 RGB 영상으로 변환하는 장치.One or more processors;
network interface;
a memory that loads a computer program executed by the processor; and
Including storage for storing large-capacity network data and the computer program,
The computer program is operated by the one or more processors,
(A) An operation of receiving near-infrared image data to be converted into an RGB image and inputting it to a first network;
(B) an operation in which the first network extracts feature data of a near-infrared image from the received near-infrared image data; and
(C) an operation in which the first network outputs an estimated RGB image to convert the input near-infrared image data into an RGB image using feature data of the extracted near-infrared image;
Execute ,
The first network is,
Knowledge is transferred to imitate the feature extraction behavior of extracting the feature data of the near-infrared image and the feature data of the RGB image from the second network that receives the learning data, the near-infrared image data, and the RGB image data taken at the same time as the near-infrared image. A network that performed knowledge distillation learning,
A device that converts near-infrared images into RGB images.
(AA) RGB 영상으로 변환하고자 하는 근적외선 영상 데이터를 입력 받아 제1 네트워크에 입력하는 단계;
(BB) 상기 제1 네트워크가 상기 입력 받은 근적외선 영상 데이터에서 근적외선 영상의 특징 데이터를 추출하는 단계;
(CC) 상기 제1 네트워크가 상기 추출한 근적외선 영상의 특징 데이터를 이용하여 상기 입력 받은 근적외선 영상 데이터를 RGB 영상으로 변환하도록 추정한 RGB 영상을 출력하는 단계;
를 실행하며,
상기 제1 네트워크는,
학습 데이터인 근적외선 영상 데이터 및 해당 근적외선 영상을 촬영할 당시에 동시에 촬영한 RGB 영상 데이터를 함께 입력 받은 제2 네트워크로부터 근적외선 영상의 특징 데이터 및 RGB 영상의 특징 데이터 추출에 관한 특징 추출 행동을 모방하도록 지식을 전달 받아 지식증류(Knowledge Distillation)학습을 수행한 네트워크인,
컴퓨터로 판독 가능한 매체에 저장된 컴퓨터 프로그램. In combination with a computing device,
(AA) receiving near-infrared image data to be converted into an RGB image and inputting it to the first network;
(BB) extracting feature data of a near-infrared image from the received near-infrared image data by the first network;
(CC) outputting, by the first network, an estimated RGB image to convert the input near-infrared image data into an RGB image using feature data of the extracted near-infrared image;
Execute ,
The first network is,
Knowledge is transferred to imitate the feature extraction behavior of extracting the feature data of the near-infrared image and the feature data of the RGB image from the second network that receives the learning data, the near-infrared image data, and the RGB image data taken at the same time as the near-infrared image. A network that performed knowledge distillation learning,
A computer program stored on a computer-readable medium.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US18/375,696 US20240119633A1 (en) | 2022-10-07 | 2023-10-02 | Method for converting near infrared image to rgb image and apparatus for same |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR20220128374 | 2022-10-07 | ||
| KR1020220128374 | 2022-10-07 |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| KR20240049116A true KR20240049116A (en) | 2024-04-16 |
| KR102709426B1 KR102709426B1 (en) | 2024-09-25 |
| KR102709426B9 KR102709426B9 (en) | 2025-01-09 |
Family
ID=90882557
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020230011746A Active KR102709426B1 (en) | 2022-10-07 | 2023-01-30 | Method for converting near infrared image to rgb image and apparatus for same |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR102709426B1 (en) |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20170103707A (en) | 2017-03-22 | 2017-09-13 | 이영종 | Night vision device for vehicle with the substrate doped infrared to visible light conversion nanoparticle |
-
2023
- 2023-01-30 KR KR1020230011746A patent/KR102709426B1/en active Active
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20170103707A (en) | 2017-03-22 | 2017-09-13 | 이영종 | Night vision device for vehicle with the substrate doped infrared to visible light conversion nanoparticle |
Non-Patent Citations (4)
| Title |
|---|
| Himanshu Kumar et al., "ParaColorizer: Realistic Image Colorization using Parallel Generative Networks", Computer Vision and Pattern Recognition, (2022.08.17.)* * |
| Min-Je Park et al., "Multi-Band NIR Colorization Using Structure-Aware Network", Proceedings, APSIPA Annual Summit and Conference 2021, (2021.12.14-17.)* * |
| Qiang Chi et al., "A Novel Knowledge Distillation Method for Self-Supervised Hyperspectral Image Classification", remote sensing, (2022.09.10.)* * |
| Tian Sun et al., "NIR Image Colorization Using SPADE Generator and Grayscale Approximated Self-Reconstruction", Proceedings of the 2020 IEEE International Conference on VCIP, (2020.12.1-4.)* * |
Also Published As
| Publication number | Publication date |
|---|---|
| KR102709426B9 (en) | 2025-01-09 |
| KR102709426B1 (en) | 2024-09-25 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12266211B2 (en) | Forgery detection of face image | |
| US11107205B2 (en) | Techniques for convolutional neural network-based multi-exposure fusion of multiple image frames and for deblurring multiple image frames | |
| CN113129236B (en) | Single low-light image enhancement method and system based on Retinex and convolutional neural network | |
| CN113066005B (en) | Image processing method, device, electronic device and readable storage medium | |
| CN112465727A (en) | Low-illumination image enhancement method without normal illumination reference based on HSV color space and Retinex theory | |
| EP4109392A1 (en) | Image processing method and image processing device | |
| CN112529150A (en) | Model structure, model training method, image enhancement method and device | |
| US9659352B2 (en) | Image denoising system and method | |
| Saleh et al. | Adaptive uncertainty distribution in deep learning for unsupervised underwater image enhancement | |
| WO2021077140A2 (en) | Systems and methods for prior knowledge transfer for image inpainting | |
| US11798254B2 (en) | Bandwidth limited context based adaptive acquisition of video frames and events for user defined tasks | |
| US20200210688A1 (en) | Image data processing system and method | |
| CN113469092B (en) | Character recognition model generation method, device, computer equipment and storage medium | |
| CN115115540B (en) | Unsupervised low-light image enhancement method and device based on illumination information guidance | |
| CN111696196B (en) | Three-dimensional face model reconstruction method and device | |
| EP3874404A1 (en) | Video recognition using multiple modalities | |
| CN114581318B (en) | A low-lighting image enhancement method and system | |
| CN112102200A (en) | Image completion model initialization method, training method and image completion method | |
| CN113012073A (en) | Training method and device for video quality improvement model | |
| Karthikeyan et al. | Lightweight deep hybrid CNN with attention mechanism for enhanced underwater image restoration | |
| Wang et al. | UP‐GAN: Channel‐spatial attention‐based progressive generative adversarial network for underwater image enhancement | |
| Verma et al. | F2UIE: feature transfer-based underwater image enhancement using multi-stackcnn | |
| CN114066914A (en) | Image processing method and related equipment | |
| CN115700731A (en) | Underwater image enhancement method based on dual-channel convolutional neural network | |
| CN116977243A (en) | Method, device and equipment for converting unsupervised infrared image into visible light image |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| D13-X000 | Search requested |
St.27 status event code: A-1-2-D10-D13-srh-X000 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-2-2-P10-P22-nap-X000 |
|
| D14-X000 | Search report completed |
St.27 status event code: A-1-2-D10-D14-srh-X000 |
|
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| E13-X000 | Pre-grant limitation requested |
St.27 status event code: A-2-3-E10-E13-lim-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-2-2-P10-P22-nap-X000 |
|
| PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| PG1701 | Publication of correction |
St.27 status event code: A-5-5-P10-P19-oth-PG1701 Patent document republication publication date: 20250109 Republication note text: Request for Correction Notice (Document Request) Gazette number: 1027094260000 Gazette reference publication date: 20240925 |