[go: up one dir, main page]

JP2023107583A - Image encoding device, image decoding device, control method and program thereof - Google Patents

Image encoding device, image decoding device, control method and program thereof Download PDF

Info

Publication number
JP2023107583A
JP2023107583A JP2022008847A JP2022008847A JP2023107583A JP 2023107583 A JP2023107583 A JP 2023107583A JP 2022008847 A JP2022008847 A JP 2022008847A JP 2022008847 A JP2022008847 A JP 2022008847A JP 2023107583 A JP2023107583 A JP 2023107583A
Authority
JP
Japan
Prior art keywords
image data
image
infrared filter
data
color filters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022008847A
Other languages
Japanese (ja)
Inventor
大輔 坂本
Daisuke Sakamoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022008847A priority Critical patent/JP2023107583A/en
Publication of JP2023107583A publication Critical patent/JP2023107583A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】 3原色に加え、赤外線成分を持つRAW画像データを効率良く符号化する。【解決手段】可視光波長領域のR,G、Bの3原色フィルタと、赤外線フィルタを有する撮像センサで得た画像を符号化する画像符号化装置であって、赤外線フィルタの透過波長の強度分布に応じて決定される3原色フィルタのいずれかの画像データと、赤外線フィルタを介して得た画像データとの差分を示す差分データを生成する生成部と、3原色フィルタそれぞれの画像データと、差分データを符号化する符号化部とを有する。【選択図】 図1An object of the present invention is to efficiently encode RAW image data having an infrared component in addition to three primary colors. Kind Code: A1 An image encoding device for encoding an image obtained by an imaging sensor having three primary color filters of R, G, and B in the visible light wavelength region and an infrared filter, the intensity distribution of transmission wavelengths of the infrared filter. a generator for generating difference data indicating the difference between the image data of any of the three primary color filters determined according to and the image data obtained through the infrared filter; the image data of each of the three primary color filters; and an encoding unit that encodes data. [Selection diagram] Fig. 1

Description

本発明は、画像の符号化技術に関するものである。 The present invention relates to image coding technology.

昨今、デジタルカメラやデジタルカムコーダー等に代表される撮像装置では、撮像素子にCCDセンサまたはCMOSセンサを採用している。それらのセンサは、センサ表面にカラーフィルターアレイ(以下、CFAと呼称する)が形成され、1画素につき1色成分を検出する。代表的なCFAは、図3に示すような2×2画素(1つの赤(R)、2つの緑(G0、G1)、1つの青(B))が周期的に配置されたベイヤ配列である。ベイヤ配列のセンサから、当然ベイヤ配列の画像データ(以下、RAWデータ)が得られる。 2. Description of the Related Art In recent years, imaging apparatuses represented by digital cameras, digital camcorders, and the like employ CCD sensors or CMOS sensors as imaging elements. These sensors have a color filter array (hereinafter referred to as CFA) formed on the sensor surface and detect one color component per pixel. A typical CFA is a Bayer array in which 2×2 pixels (one red (R), two green (G0, G1), and one blue (B)) are periodically arranged as shown in FIG. be. Bayer array image data (hereinafter referred to as RAW data) is naturally obtained from the Bayer array sensor.

人間の視覚特性は輝度成分に対し、高い感度を持っていることから、一般的なベイヤ配列においては、図3に示すように輝度成分に多く含まれる緑成分を、赤成分や青成分に対し2倍の画素数を割り当てる構成を用いている。RAWデータは、1画素に1つの色成分の情報しか持たないため、デモザイクと呼ばれる処理を用いて、1画素に対して赤、青、緑の情報を生成する必要がある。一般には、デモザイクによって得られたRGB信号、あるいはRGB信号から変換して得られたYUV信号の画像データを符号化して記録する。しかしながら、デモザイクによって1画素に3つの色成分を持つことになり、RAWデータに対し3倍のデータ量を必要とするため、デモザイク前のRAWデータを直接、符号化して記録する方法が提案されている。 Since human visual characteristics are highly sensitive to luminance components, in general Bayer arrays, green components, which are abundant in luminance components, are compared to red and blue components, as shown in Fig. 3. A configuration that allocates twice the number of pixels is used. Since RAW data has only one color component information per pixel, it is necessary to generate red, blue, and green information per pixel using a process called demosaicing. In general, image data of RGB signals obtained by demosaicing or YUV signals obtained by converting from RGB signals are encoded and recorded. However, due to demosaicing, one pixel has three color components, requiring a data amount three times larger than that of RAW data. Therefore, a method of directly encoding and recording RAW data before demosaicing has been proposed. there is

例えば、特許文献1には、RAWデータをR、G0、B、G1を4つのプレーンに分離した後に符号化をする方法が示されている。また、特許文献2には、RAWデータを特許文献1と同様にR、G0、B、G1の4つのプレーンに分離した後、近似的に輝度(Y)、色差(Co、Cg、Dg)に変換し符号化する方法が示されている。 For example, Patent Literature 1 discloses a method of encoding RAW data after separating it into four planes R, G0, B, and G1. Further, in Patent Document 2, RAW data is separated into four planes of R, G0, B, and G1 in the same manner as in Patent Document 1, and then approximately divided into luminance (Y) and color differences (Co, Cg, Dg). A method for transforming and encoding is shown.

一方、監視、検品などの用途を目的とし、カラー画像と赤外線画像を同時に撮影可能なセンサが開発されている。これらのセンサは図3とは異なり、図4のようにR,G,Bに加え、IR(赤外線)画素を持った画素並びとなっている。 On the other hand, a sensor capable of simultaneously capturing a color image and an infrared image has been developed for purposes such as monitoring and inspection. Unlike FIG. 3, these sensors are arrayed with IR (infrared) pixels in addition to R, G, and B pixels as shown in FIG.

特開2003-125209号公報JP-A-2003-125209 特開2006-121669号公報JP 2006-121669 A

特許文献1、特許文献2で示したプレーン変換方式は図3に示したベイヤ配列を前提としており、図4のようなRGBに加えIRを有する画素並びに対応していない。 The plane conversion methods disclosed in Patent Documents 1 and 2 are premised on the Bayer array shown in FIG. 3, and are not compatible with pixels having IR in addition to RGB as shown in FIG.

本発明ではRGBに加え、可視光外の成分を有する画素配列のRAWを効率的に符号化する技術を提供しようとするものである。 An object of the present invention is to provide a technique for efficiently encoding RAW of a pixel array having components other than visible light in addition to RGB.

この課題を解決するため、例えば本発明の画像符号化装置は以下の構成を備える。すなわち、
可視光波長領域のR,G、Bの3原色フィルタと、赤外線フィルタを有する撮像センサで得た画像を符号化する画像符号化装置であって、
前記赤外線フィルタの透過波長の強度分布に応じて決定される前記3原色フィルタのいずれかの画像データと、前記赤外線フィルタを介して得た画像データとの差分を示す差分データを生成する生成手段と、
前記3原色フィルタそれぞれの画像データと、前記差分データを符号化する符号化手段とを有する。
In order to solve this problem, for example, the image encoding device of the present invention has the following configuration. i.e.
An image encoding device for encoding an image obtained by an imaging sensor having three primary color filters of R, G, and B in the visible light wavelength region and an infrared filter,
generating means for generating difference data indicating a difference between the image data of any one of the three primary color filters determined according to the intensity distribution of the transmission wavelength of the infrared filter and the image data obtained through the infrared filter; ,
It has image data for each of the three primary color filters and encoding means for encoding the difference data.

本発明によれば、3原色に加え、赤外線成分を持つRAW画像データを効率良く符号化することができる。 According to the present invention, RAW image data having infrared components in addition to three primary colors can be efficiently encoded.

第1の実施形態に係る画像符号化装置の構成例を示すブロック図。1 is a block diagram showing a configuration example of an image encoding device according to a first embodiment; FIG. 第1の実施形態に係る画像復号装置の構成例を示すブロック図。1 is a block diagram showing a configuration example of an image decoding device according to a first embodiment; FIG. ベイヤ配列を示す図。The figure which shows a Bayer array. RGB-IR配列を示す図。The figure which shows an RGB-IR arrangement|sequence. 第1の実施形態に係る三つの異なる波長強度分布を有する赤外線の一例および紫外線、可視光線の波長との関係を説明するための図。FIG. 4 is a diagram for explaining an example of infrared rays having three different wavelength intensity distributions and the relationship between the wavelengths of ultraviolet rays and visible rays according to the first embodiment; ウェーブレット変換について説明するための図。A diagram for explaining a wavelet transform. 第2の実施形態において、使用されるIRの有効波長領域がIR1とIR2の中間であるケースを説明するための図。FIG. 10 is a diagram for explaining a case in which the effective wavelength region of IR used is between IR1 and IR2 in the second embodiment; RGB-NIR-FIR配列を示す図。A diagram showing an RGB-NIR-FIR arrangement. 第2の実施形態において、使用されIRの有効波長領域がIR1とIR2の間かつIR1寄りであるケースを説明するための図。FIG. 10 is a diagram for explaining a case in which the effective wavelength region of IR used is between IR1 and IR2 and near IR1 in the second embodiment; 第3の実施形態におけるIRHプレーンを説明するための図。FIG. 11 is a diagram for explaining an IRH plane in the third embodiment; FIG. 第1の実施形態の変形例における情報処理装置のハードウェア構成図。FIG. 2 is a hardware configuration diagram of an information processing apparatus according to a modification of the first embodiment; 画像符号化の処理手順を示すフローチャート。4 is a flowchart showing a processing procedure of image encoding; 画像復号の処理手順を示すフローチャート。4 is a flowchart showing a processing procedure of image decoding;

以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものでない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. It should be noted that the following embodiments do not limit the invention according to the scope of claims. Although multiple features are described in the embodiments, not all of these multiple features are essential to the invention, and multiple features may be combined arbitrarily. Furthermore, in the accompanying drawings, the same or similar configurations are denoted by the same reference numerals, and redundant description is omitted.

[第1の実施形態]
図1は、第1の実施形態に係る画像符号化装置のブロック構成図である。
[First Embodiment]
FIG. 1 is a block configuration diagram of an image encoding device according to the first embodiment.

図1に示すように、画像符号化装置は、撮像部100、RAW符号化部110、及び、これらを制御する制御部150を有する。RAW符号化部110は、プレーン変換部101、周波数変換部102、量子化部103、及び、エントロピー符号化部104を含む。また、制御部150は、CPU、CPUが実行するプログラムを格納したROM、CPUがワークエリアとして使用するRAMで構成される。 As shown in FIG. 1, the image encoding device has an imaging unit 100, a RAW encoding unit 110, and a control unit 150 that controls them. RAW encoding section 110 includes plane transform section 101 , frequency transform section 102 , quantization section 103 and entropy encoding section 104 . The control unit 150 includes a CPU, a ROM storing programs executed by the CPU, and a RAM used as a work area by the CPU.

また、本実施形態では、符号化方式の一例としてJPEG2000を用いて説明するが、特に符号化方式の種類は問わない。 Also, in this embodiment, JPEG2000 is used as an example of the encoding method, but the type of encoding method does not matter.

上記構成において、入力画像の符号化処理を、図1を参照して説明する。 In the above configuration, encoding processing of an input image will be described with reference to FIG.

撮像部100は、光学レンズ、絞り機構、シャッター機構、イメージャなどから構成される一般的な撮像光学部である。イメージャは、色分解して撮像するタイプのもので、例えば、表面に色分解用のカラーフィルタを有するCCD型又はMOS型である。このイメージャは、結像された光学像を色分解し、光量に応じた電気信号に変換する。実施形態におけるイメージャの色分解用カラーフィルタは、図4に示すRGB-IR(Infrared Ray)配列のフィルタであるものとして説明する。図示のR、G,Bが可視光波長領域の3原色フィルタを示し、IRが赤外線フィルタを示している。 The imaging unit 100 is a general imaging optical unit including an optical lens, a diaphragm mechanism, a shutter mechanism, an imager, and the like. The imager is of a type that performs color separation for imaging, and is, for example, a CCD type or MOS type having a color filter for color separation on its surface. This imager separates the colors of the formed optical image and converts them into electrical signals corresponding to the amount of light. The color separation color filter of the imager in the embodiment will be explained as a filter of RGB-IR (Infrared Ray) arrangement shown in FIG. R, G, and B in the drawing indicate three primary color filters in the visible light wavelength region, and IR indicates an infrared filter.

プレーン変換部101は、図4のようにRGB-IR画素配列のRAW画像データを、Rプレーン、Gプレーン、Bプレーン、及びIRプレーンに分離する。Rプレーンは、単一のR成分で構成されるプレーン、Bプレーンは単一のB成分で構成されるプレーン、Gプレーンは単一のG成分で構成されるプレーン、IRプレーンは単一のIR成分で構成されるプレーンである。RAW画像の水平方向の画素数をW,垂直方向の画素数をHとするとき、Rプレーン、Gプレーン、Bプレーン、及びIRプレーンは同じサイズで、水平方向W/2画素、垂直方向H/2画素のサイズとなる。そして、プレーン変換部101は、分解して得たR,G、Bの各プレーンを出力する。そして、プレーン変換部101は、IRプレーンについては、制御部150からの指示に従い、他の色成分の色プレーンとIRプレーンとの差分データを示すIRHプレーンを生成し、出力する。 The plane conversion unit 101 separates the RAW image data of the RGB-IR pixel array into the R plane, G plane, B plane, and IR plane as shown in FIG. The R plane is a plane composed of a single R component, the B plane is a plane composed of a single B component, the G plane is a plane composed of a single G component, and the IR plane is a single IR. A plane composed of components. Let W be the number of pixels in the horizontal direction of the RAW image, and H be the number of pixels in the vertical direction. It has a size of 2 pixels. Then, the plane conversion unit 101 outputs the R, G, and B planes obtained by the decomposition. As for the IR plane, the plane conversion unit 101 follows an instruction from the control unit 150 to generate and output an IRH plane indicating difference data between the color plane of another color component and the IR plane.

図5に、三つの異なる波長強度分布を有する赤外線の一例および紫外線、可視光線の波長との関係を示す。図5においてBの波長領域に強度(高い透過性)を持っているのがB成分のフィルタであり、Gの波長領域に強度を持っているのがG成分のフィルタであり、Rの波長領域に強度を持っているのがR成分のフィルタであることを示す。 FIG. 5 shows an example of infrared light having three different wavelength intensity distributions and the relationship with the wavelengths of ultraviolet light and visible light. In FIG. 5, the B component filter has strength (high transmittance) in the B wavelength region, the G component filter has strength in the G wavelength region, and the R wavelength region. indicates that it is the filter of the R component that has the intensity at .

また、IR波長領域は、3つの波長領域IR1,IR2,IR3を含む。そして、波長領域IR1に強度を持っているフィルタをIR1成分のフィルタとする。IR1は、Rの波長領域に接する領域に波長強度分布を有する。波長領域IR2は、波長領域IR1の次にRの波長領域近い領域の赤外線領域であり、波長領域IR2に強度を持つフィルタをIR2成分のフィルタとする。波長領域IR3は、IR波長領域の中の、R成分から最も遠い波長領域に波長強度分布を有する。この波長領域IR3に強度を持つフィルタをIR3成分のフィルタとする。なお、実施形態における波長領域IR1の透過中心波長は780nm近傍、波長領域IR2の透過中心波長は870nm近傍、波長領域IR3の透過中心波長は940nm近傍とする。また、実施形態においては、波長強度分布の半値全幅は、それぞれ約50nmである。波長領域IR1はRと、波長領域IR2はBと、波長領域IR3はGと高い相関を持っている。 Also, the IR wavelength region includes three wavelength regions IR1, IR2, IR3. A filter having an intensity in the wavelength region IR1 is defined as an IR1 component filter. IR1 has a wavelength intensity distribution in a region adjacent to the R wavelength region. The wavelength region IR2 is an infrared region near the wavelength region of R next to the wavelength region IR1, and a filter having an intensity in the wavelength region IR2 is a filter of the IR2 component. The wavelength region IR3 has a wavelength intensity distribution in the wavelength region furthest from the R component in the IR wavelength region. A filter having an intensity in the wavelength region IR3 is defined as an IR3 component filter. In the embodiment, the transmission center wavelength of the wavelength region IR1 is around 780 nm, the transmission center wavelength of the wavelength region IR2 is around 870 nm, and the transmission center wavelength of the wavelength region IR3 is around 940 nm. Also, in an embodiment, the full widths at half maximum of the wavelength intensity distributions are each about 50 nm. The wavelength region IR1 has a high correlation with R, the wavelength region IR2 has a high correlation with B, and the wavelength region IR3 has a high correlation with G.

制御部150が、例えば不図示の操作部を介して、撮像部100のIRフィルタが波長強度分布IR1の波長領域に強度を持つことを示す情報を取得したとする。この場合、制御部150は、プレーン変換部101に対して、IRプレーンについては、Rプレーンとの差分を求めるように設定する。これを受け、プレーン変換部101は、次式(1)に従って差分プレーン、すなわち、IRHプレーンを算出する。
IRH = R -IR×ir_gain1 …(1)
Assume that the control unit 150 acquires information indicating that the IR filter of the imaging unit 100 has an intensity in the wavelength region of the wavelength intensity distribution IR1, for example, via an operation unit (not shown). In this case, the control unit 150 sets the plane conversion unit 101 to calculate the difference between the IR plane and the R plane. In response to this, the plane conversion unit 101 calculates a difference plane, ie, an IRH plane, according to the following equation (1).
IRH=R-IR×ir_gain1 (1)

先に説明したようにIR1はRと高い相関関係を有する。そこで、プレーン変換部101は、IRのレベルを、Rに合わせるためのゲインirgain1を用いゲイン調整を行う。そして、プレーン変換部101は、Rプレーンと、調整後のIRプレーン「IR×ir_gain1」との差分を示すIRHプレーンを算出する。IRHプレーンを構成する値(差分画素値)は、正負の符号を有するものの、ゼロに近い小さな値が多く出現し、高い圧縮率が期待できる。 IR1 has a high correlation with R as explained above. Therefore, the plane conversion unit 101 performs gain adjustment using a gain irgain1 for matching the IR level to R. Then, the plane conversion unit 101 calculates an IRH plane indicating the difference between the R plane and the adjusted IR plane "IR×ir_gain1". Although the values (differential pixel values) forming the IRH plane have positive and negative signs, many small values close to zero appear, and a high compression rate can be expected.

また、制御部150に対して、撮像部100のIRフィルタが波長強度分布IR2の波長領域に強度を持つことを示す情報が設定されたとする。この場合、制御部150は、プレーン分割部101に対して、IRプレーンについては、Bプレーンとの差分を求めるように設定する。これを受け、プレーン変換部101は、次式(2)に従って、IRHプレーンを算出する。
IRH = B -IR×ir_gain2 …(2)
先に説明したようにIR2はBと高い相関関係を有する。そこで、プレーン変換部101は、IRのレベルを、Bに合わせるためのゲインirgain2を用いゲイン調整を行う。そして、プレーン変換部101は、Bプレーンと、調整後のIRプレーン「IR×ir_gain2」との差分を表すIRHプレーンを算出する。IRHプレーンを構成する値(差分画素値)は、正負の符号を有するものの、ゼロに近い小さな値が多く出現し、高い圧縮率が期待できる。
Also, assume that information indicating that the IR filter of the imaging unit 100 has an intensity in the wavelength region of the wavelength intensity distribution IR2 is set to the control unit 150 . In this case, the control unit 150 sets the plane dividing unit 101 to calculate the difference between the IR plane and the B plane. In response to this, the plane conversion unit 101 calculates the IRH plane according to the following equation (2).
IRH=B-IR×ir_gain2 (2)
IR2 has a high correlation with B as explained above. Therefore, the plane conversion unit 101 performs gain adjustment using a gain irgain2 for adjusting the IR level to B. FIG. Then, the plane conversion unit 101 calculates an IRH plane representing the difference between the B plane and the adjusted IR plane "IR×ir_gain2". Although the values (differential pixel values) forming the IRH plane have positive and negative signs, many small values close to zero appear, and a high compression rate can be expected.

更に、制御部150に対して、撮像部100のIRフィルタが波長強度分布IR3の波長領域に強度を持つことを示す情報が設定された場合、制御部150は、プレーン変換部101に対して、IRプレーンについては、Gプレーンとの差分を求めるように設定する。これを受け、プレーン変換部101は、次式(3)に従って、IRHプレーンを算出する。
IRH = G -IR×ir_gain3 …(3)
先に説明したようにIR3はGと高い相関関係を有する。そこで、プレーン変換部101は、IRのレベルを、Gに合わせるためのゲインirgain3を用いゲイン調整を行う。そして、プレーン変換部101は、Gプレーンと、調整後のIRプレーン「IR×ir_gain3」との差分を表すIRHプレーンを算出する。IRHプレーンを構成する値(差分画素値)は、正負の符号を有するものの、ゼロに近い小さな値が多く出現し、高い圧縮率が期待できる。
Further, when information indicating that the IR filter of the imaging unit 100 has an intensity in the wavelength region of the wavelength intensity distribution IR3 is set to the control unit 150, the control unit 150 causes the plane conversion unit 101 to: The IR plane is set so as to obtain the difference from the G plane. In response to this, the plane conversion unit 101 calculates the IRH plane according to the following equation (3).
IRH=G-IR×ir_gain3 (3)
As explained earlier, IR3 has a high correlation with G. Therefore, the plane conversion unit 101 performs gain adjustment using a gain irgain3 for adjusting the IR level to G. Then, the plane conversion unit 101 calculates an IRH plane representing the difference between the G plane and the adjusted IR plane "IR×ir_gain3". Although the values (differential pixel values) forming the IRH plane have positive and negative signs, many small values close to zero appear, and a high compression rate can be expected.

プレーン変換部101は、上記のように、撮像部100のIRフィルタの有効波長領域によって、差分を求める色成分を決定し、差分を表すIRHプレーンを生成する。そして、プレーン変換部101は、R,G,Bプレーン、及び、IRHプレーンを周波数変換部102に供給する。 As described above, the plane conversion unit 101 determines the color component for which the difference is to be obtained, according to the effective wavelength region of the IR filter of the imaging unit 100, and generates the IRH plane representing the difference. The plane converter 101 then supplies the R, G, B planes and the IRH plane to the frequency converter 102 .

周波数変換部102は、プレーン変換部101から供給された各プレーンに対し、周波数変換(実施形態ではウェーブレット変換)を実行することで、複数のサブバンドを得る。そして、周波数変換部102は、各サブバンド内の変換係数を量子化部104に送る。 The frequency transform unit 102 obtains a plurality of subbands by performing frequency transform (wavelet transform in the embodiment) on each plane supplied from the plane transform unit 101 . Frequency transform section 102 then sends transform coefficients in each subband to quantization section 104 .

ここでウェーブレット変換について図6を参照して説明する。図6はJPEG2000でも採用されている方式であり、サブバンド分解を1レベル(1度)だけ行うウェーブレット変換の例である。図6に示すように、入力プレーン400は、垂直成分に対する垂直ローパスフィルタ401と垂直ハイパスフィルタ402を用いて、低周波成分と高周波成分のデータに分割される。垂直ローパスフィルタ401及び垂直ハイパスフィルタ402を通して抽出されたデータはダウンサンプリング回路403、404を介して各々2:1ダウンサンプリングされる。この結果、ダウンサンプリング回路403、404は、垂直解像度が半分になったデータを出力される。ダウンサンプリング回路403、404から出力されたデータは、水平ローパスフィルタ405と水平ハイパスフィルタ406、水平ローパスフィルタ407と水平ハイパスフィルタ408を用いて、低周波成分と高周波成分のデータに分割される。更にダウンサンプリング回路409、410、411,412を介して各々2:1ダウンサンプリングされる。その結果、出力画像413を得ることができる。出力画像413は、上記フィルタ処理を通してそれぞれ得られるブロックLL、ブロックHL、ブロックLH、ブロックHHから構成される。なお、表記簡略化を期して、これらのブロックに関しては、以下では必要に応じてLL、HL、LH、HHのように記載する。また、Lは低周波領域、Hは高周波領域を示している。例えば、HHは水平方向、垂直方向ともに高周波領域のサブバンドを示している。出力画像413は、LLの領域では、入力画像400の解像度を垂直、水平各々半分に縮小した画像になっている。またHH、HL、LHの領域は高周波領域である。図示のLL,HL,LH,HHの領域は、一般にサブバンドと呼ばれる。なお、サブバンドLLに対して再帰的にウェーブレット変換を行っても良い。 Here, wavelet transform will be described with reference to FIG. FIG. 6 shows an example of wavelet transform, which is also adopted in JPEG2000, and performs subband decomposition at only one level (once). As shown in FIG. 6, an input plane 400 is split into low frequency component and high frequency component data using a vertical low pass filter 401 and a vertical high pass filter 402 for the vertical component. Data extracted through vertical low-pass filter 401 and vertical high-pass filter 402 are down-sampled by 2:1 through down-sampling circuits 403 and 404, respectively. As a result, the downsampling circuits 403 and 404 output data with half the vertical resolution. The data output from the down-sampling circuits 403 and 404 are divided into low frequency component data and high frequency component data using horizontal low pass filter 405, horizontal high pass filter 406, horizontal low pass filter 407 and horizontal high pass filter 408, respectively. Further, they are down-sampled by 2:1 through down-sampling circuits 409, 410, 411, and 412, respectively. As a result, an output image 413 can be obtained. The output image 413 is composed of blocks LL, HL, LH, and HH respectively obtained through the filtering process described above. For the sake of simplification of notation, these blocks will be referred to as LL, HL, LH, and HH as necessary below. Also, L indicates a low frequency region, and H indicates a high frequency region. For example, HH indicates a high-frequency subband in both horizontal and vertical directions. The output image 413 is an image obtained by reducing the resolution of the input image 400 by half vertically and horizontally in the LL area. Regions HH, HL, and LH are high frequency regions. The illustrated LL, HL, LH, and HH regions are commonly referred to as sub-bands. Note that wavelet transform may be performed recursively on subband LL.

量子化部104は、周波数変換部102から送られた変換係数を、予め設定されたサブバンド毎の量子化パラメータを用いて、各プレーンデータのサブバンドに含まれる変換係数を量子化し、その量子化後の変換係数をエントロピー符号化部105に供給する。 The quantization unit 104 quantizes the transform coefficients sent from the frequency transform unit 102 using a preset quantization parameter for each subband, and quantizes the transform coefficients included in the subbands of each plane data. Entropy encoding section 105 is supplied with the transform coefficients after encoding.

エントロピー符号化部105は、量子化部104で量子化されたウェーブレット係数および量子化パラメータに対してサブバンドごとに、EBCOT(Embedded Block Coding with Optimized Truncation)などのエントロピー符号化を施す。そして、エントロピー符号化部105は、復号に必要な情報を含む、ヘッダを生成する。そして、エントロピー符号化部105は、このヘッダに後続するように、符号化データを出力する。ヘッダに格納する情報には、RAW画像のサイズ、1成分当たりビット数が含まれるが、本実施形態の場合は、更に、撮像部100のIRフィルタが、IR1乃至IR3フィルタのいずれであるかを示す情報(もしくは、IRHプレーンが、IRプレーンとどの色成分プレーンとの差分であるかを示す情報でも良い)が含まれる。なお、エントロピー符号化部105の出力対象は、特に問わないが、例えばHDDやメモリカード等の記憶媒体である。 Entropy coding section 105 performs entropy coding such as EBCOT (Embedded Block Coding with Optimized Truncation) on the wavelet coefficients and quantization parameters quantized by quantization section 104 for each subband. Then, entropy coding section 105 generates a header containing information necessary for decoding. Entropy coding section 105 then outputs the coded data following this header. The information stored in the header includes the size of the RAW image and the number of bits per component. information (or information indicating that the IRH plane is the difference between the IR plane and which color component plane) is included. Note that the output target of the entropy encoding unit 105 is not particularly limited, but is, for example, a storage medium such as an HDD or a memory card.

続いて上記手順で生成された符号化画像データの復号法について説明する。 Next, a method of decoding the encoded image data generated by the above procedure will be described.

図2は、実施形態における画像復号装置のブロック構成図である。図示のように、画像復号装置は、エントロピー復号部200、逆量子化部201、周波数逆変換部202、プレーン逆変換部203、ヘッダ解析部204、及び、装置全体の制御を司る制御部250を有する。 FIG. 2 is a block configuration diagram of the image decoding device in the embodiment. As illustrated, the image decoding device includes an entropy decoding unit 200, an inverse quantization unit 201, a frequency inverse transform unit 202, a plane inverse transform unit 203, a header analysis unit 204, and a control unit 250 that controls the entire apparatus. have.

ヘッダ解析部204は、復号対象の符号化ストリームのヘッダ(ファイルヘッダ)を解析する。そして、ヘッダ解析部204は、復号対象の画像を撮像した際に用いられた撮像素子(撮像部100)のIRフィルタが、IR1乃至IR3フィルのいずれのフィルタであるかを示す情報を抽出し、プレーン逆変換部203にその情報を供給する。 The header analysis unit 204 analyzes the header (file header) of the encoded stream to be decoded. Then, the header analysis unit 204 extracts information indicating which of IR1 to IR3 filters the IR filter of the imaging device (imaging unit 100) used when capturing the image to be decoded is, The information is supplied to the plane inverse transformation unit 203 .

エントロピー復号部200は、ヘッダに後続する符号化データ、すなわち、EBCOT(Embedded Block Coding with Optimized Truncation)などによって符号化されたウェーブレット係数および量子化パラメータの符号化データを復号し、逆量子化部101に転送する。 The entropy decoding unit 200 decodes the encoded data following the header, that is, the encoded data of the wavelet coefficients and quantization parameters encoded by EBCOT (Embedded Block Coding with Optimized Truncation) or the like, and the inverse quantization unit 101 transfer to

逆量子化部201は、エントロピー復号部200から供給されたデータ(量子化後の周波数変換係数)を、量子化パラメータを用いて逆量子化することで、周波数変換係数を生成する。そして、逆量子化部201は、周波数変換係数を、周波数逆変換部202に供給する。 The inverse quantization unit 201 inversely quantizes the data (quantized frequency transform coefficients) supplied from the entropy decoding unit 200 using a quantization parameter to generate frequency transform coefficients. The inverse quantization unit 201 then supplies the frequency transform coefficients to the inverse frequency transform unit 202 .

周波数逆変換部202は、逆量子化部201からの供給された周波数変換係数に対し、周波数逆変換(実施形態では逆ウェーブレット変換)を施し、R,G,B及びIRHプレーンを生成する。そして、周波数逆変換部202は、R,G,B及びIRHプレーンを、プレーン逆変換部203に供給する。 The inverse frequency transform unit 202 applies inverse frequency transform (inverse wavelet transform in the embodiment) to the frequency transform coefficients supplied from the inverse quantization unit 201 to generate R, G, B and IRH planes. The frequency inverse transforming unit 202 then supplies the R, G, B and IRH planes to the plane inverse transforming unit 203 .

プレーン逆変換部203は、周波数逆変換部202から供給されたR,G,B及びIRHプレーンを対して逆プレーン変換を行い、RGB-IR配列のRAW画像データを再構成し、出力する。以下に逆プレーン変換の詳細を説明する。 The plane inverse transform unit 203 performs inverse plane transform on the R, G, B, and IRH planes supplied from the frequency inverse transform unit 202, reconstructs and outputs RAW image data in the RGB-IR array. Details of the inverse plane transform are described below.

プレーン逆変換部203は、ヘッダ解析部204から供給された情報、すなわち、復号対象の画像を撮像する際に用いた撮像素子(撮像部100)のIRフィルタがIR1乃至IR3フィルのいずれのフィルタであるかを示す情報に基づき、IRHプレーンからIRプレーンを生成する。
・IR1フィルタが利用された場合
プレーン逆変換部203は、RプレーンおよびIRHプレーンから、次式(4)に従って、IRプレーンを復元する
IR = (R-IRH)/ irgain1 …(4)
・IR2フィルタが利用された場合
プレーン逆変換部203は、RプレーンおよびIRHプレーンから、次式(5)に従って、IRプレーンを復元する
IR = (B-IRH)/ irgain2 …(5)
・IR3フィルタが利用された場合
プレーン逆変換部203は、GプレーンおよびIRHプレーンから、次式(6)に従って、IRプレーンを復元する
IR = (G-IRH)/ irgain3 …(6)
The plane inverse transform unit 203 receives the information supplied from the header analysis unit 204, that is, the IR filter of the imaging device (imaging unit 100) used when capturing the image to be decoded. An IR plane is generated from the IRH plane based on the information indicating whether there is any.
When the IR1 filter is used The plane inverse transform unit 203 restores the IR plane from the R plane and the IRH plane according to the following equation (4): IR = (R-IRH)/irgain1 (4)
When the IR2 filter is used The plane inverse conversion unit 203 restores the IR plane from the R plane and the IRH plane according to the following equation (5): IR = (B-IRH)/irgain2 (5)
When the IR3 filter is used The plane inverse transform unit 203 restores the IR plane from the G plane and the IRH plane according to the following equation (6): IR = (G-IRH)/irgain3 (6)

プレーン逆変換部203は、上記のように、いずれかでIRプレーンを復元する。この後、プレーン逆変換部203は、R,G,B,及びIRプレーン内の各画素を、図4に示すように並べることで、RAW画像データを生成する。 The plane inverse transform unit 203 restores the IR plane either as described above. After that, the plane inverse conversion unit 203 generates RAW image data by arranging the pixels in the R, G, B, and IR planes as shown in FIG.

以上説明したように、本実施形態によれば、RGB-IR配列のRAW画像データのIRに対し、相関の高い色成分との差分を取ってから符号化することとで高効率な符号化が可能になる。なお、実施形態では、IRに対してゲイン調整を行って差分を取っているが、RGBに対してゲイン調整を行ってから差分を取るようにしても良い。 As described above, according to the present embodiment, high-efficiency encoding is achieved by taking the difference between the IR of the RAW image data in the RGB-IR array and the highly correlated color component before encoding. be possible. In the embodiment, gain adjustment is performed on IR to obtain the difference, but the difference may be obtained after gain adjustment is performed on RGB.

なお、上記では、画像復号装置が、画像符号化装置で利用するゲインirgain1,irgain2,orgain3を有するものとして説明した。しかし、画像符号化装置が符号化データを生成する際、利用したゲインをヘッダに格納するようにしても良い。 In the above description, it is assumed that the image decoding device has gains irgain1, irgain2, and orgain3 that are used by the image encoding device. However, when the image encoding device generates encoded data, the gain used may be stored in the header.

[第1の実施形態の変形例]
上記第1の実施形態の画像符号化処理を、パーソナルコンピュータに代表される情報処理装置のアプリケーションプログラムで実現する例を、第1の実施形態の変形例として説明する。

図11は、変形例における情報処理装置のハードウェア構成図である。情報処理装置は、CPU1101、ROM1102,RAM1103,HDD1104,操作部(キーボードやマウス等)1105、表示部1106,I/F1107を有する。
[Modification of First Embodiment]
An example in which the image encoding process of the first embodiment is realized by an application program of an information processing apparatus represented by a personal computer will be described as a modification of the first embodiment.

FIG. 11 is a hardware configuration diagram of an information processing apparatus in a modified example. The information processing apparatus has a CPU 1101, a ROM 1102, a RAM 1103, an HDD 1104, an operation unit (keyboard, mouse, etc.) 1105, a display unit 1106, and an I/F 1107.

上記構成において、装置の電源がONになると、CPU1101はROM1102のブートプログラムを実行し、HDD1104からOS(オペレーティングシステム)をRAM1103にロードし、処理をOSに移すことで、操作部1105を介して、各種処理を行うことが可能になる。そして、ユーザによる操作部1105からの指示に従って、HDD1104から画像符号化アプリケーション、もしくは画像復号アプリケーションをRAM1103にロードし、OSの下でそのアプリケーションを実行することで、本装置は画像符号化装置、もしくは、画像復号装置として機能することになる。 In the above configuration, when the apparatus is powered on, the CPU 1101 executes the boot program in the ROM 1102, loads the OS (operating system) from the HDD 1104 into the RAM 1103, and transfers the processing to the OS. Various processing can be performed. Then, according to the user's instruction from the operation unit 1105, the image encoding application or the image decoding application is loaded from the HDD 1104 to the RAM 1103, and the application is executed under the OS. , functions as an image decoding device.

ここで、情報処理装置が、画像符号化装置として機能した場合の、CPU1101の処理手順を図12のフローチャートを参照して説明する。なお、符号化対象のRGB-IR配列のRAW画像データファイルは、I/F1107を介して、外部の撮像装置から受信し、既にHDD1104に格納されているものとする。また、そのファイルが符号化対象ファイルとして選択されているものとする。 Here, the processing procedure of the CPU 1101 when the information processing device functions as the image encoding device will be described with reference to the flowchart of FIG. Note that the RGB-IR array RAW image data file to be encoded is received from an external imaging device via the I/F 1107 and is already stored in the HDD 1104 . It is also assumed that the file is selected as an encoding target file.

S1201にて、CPU1101は、HDD1104から符号化対象のRAW画像データファイルを読み出し、RAW画像データを入力する。そして、S1202にて、CPU1101は、入力したRAW画像データから、R,G,B及びIRプレーンを生成し、RAM103に格納する。 In S1201, the CPU 1101 reads the RAW image data file to be encoded from the HDD 1104 and inputs the RAW image data. In step S<b>1202 , the CPU 1101 generates R, G, B, and IR planes from the input RAW image data and stores them in the RAM 103 .

S1203にて、CPU1101は、RAW画像データを撮影した際に利用された撮像装置の撮像部のIRフィルタが、IR1乃至IR3フィルタのいずれであるかを判定する。RAW画像データのファイルヘッダにIRフィルタを特定する情報が格納されている場合はその情報から判定する。また、ユーザが、IR1乃至IR3フィルタのいずれかの選択操作に応じて判定して良い。 In S1203, the CPU 1101 determines which of the IR1 to IR3 filters is the IR filter of the imaging unit of the imaging apparatus used when capturing the RAW image data. If information specifying an IR filter is stored in the file header of the RAW image data, determination is made from that information. Alternatively, the user may make the determination according to the selection operation of any one of the IR1 to IR3 filters.

CPU1101は、IR1フィルタが使用されていると判定した場合は処理をS1204、IR2フィルタが使用されていると判定した場合は処理をS1205,IR3フィルタが使用されていると判定した場合は処理をS1205に分岐する。 If the CPU 1101 determines that the IR1 filter is used, the process proceeds to S1204; if it determines that the IR2 filter is used, the process proceeds to S1205; and if it determines that the IR3 filter is used, the process proceeds to S1205. branch to

S1204に処理が分岐した場合、CPU1101は、先に示した式(1)に従いIRHプレーンを生成する。S1205に処理が分岐した場合、CPU1101は、先に示した式(2)に従いIRHプレーンを生成する。そして、S1206に処理が分岐した場合、CPU1101は、先に示した式(3)に従いIRHプレーンを生成する。 When the process branches to S1204, the CPU 1101 generates an IRH plane according to the formula (1) shown above. When the process branches to S1205, the CPU 1101 generates an IRH plane according to equation (2) shown above. Then, when the process branches to S1206, the CPU 1101 generates an IRH plane according to the formula (3) shown above.

S1207にて、CPU1101は、R,G,B及びIRHプレーンそれぞれに対して周波数変換(実施形態ではウェーブレット変換)を実行し、変換係数を生成させる。そして、S1208にて、CPU1101は、各プレーンの変換係数に対して量子化処理を行う。S1209にて、CPU1101は、量子化後の変換係数をエントロピー符号化し、符号化データを生成する。 In S1207, the CPU 1101 executes frequency transform (wavelet transform in this embodiment) on each of the R, G, B, and IRH planes to generate transform coefficients. Then, in S1208, the CPU 1101 performs quantization processing on the transform coefficients of each plane. In S1209, the CPU 1101 entropy-encodes the quantized transform coefficients to generate encoded data.

最後に、S1210にて、CPU1101は、IRフィルタの種類を示す情報等の復号に必要な情報を含むファイルヘッダを、HDD1104に作成し、そのファイルヘッダに後続するように、各プレーンの符号化データ(IRHの符号化データを最後にすることが望椎)をHDD1104に格納することで、符号化画像データファイルを作成する。
る。
Finally, in S1210, the CPU 1101 creates in the HDD 1104 a file header containing information necessary for decoding, such as information indicating the type of IR filter, and writes encoded data of each plane so as to follow the file header. (It is desirable that the encoded data of the IRH be last) is stored in the HDD 1104 to create an encoded image data file.
be.

次に、情報処理装置が、画像復号装置として機能した場合の、CPU1101の処理手順を図13のフローチャートを参照して説明する。なお、HDD1104内の復号対象の符号化画像データファイルは既にユーザにより選択されているものとする。また、復号して得たRAW画像データは、ファイルとしてHDD1104に格納する例を説明する。なお、赤外線画像を表示部1106に表示する場合は、復号して得たIRプレーンをモノクロ画像として表示すれば良い。また、RGBカラー画像を表示する場合には、復号して得たR,G,Bプレーンから1画素につきR,G,Bの3色成分の画像を生成した後、表示すれば良い。 Next, the processing procedure of the CPU 1101 when the information processing device functions as the image decoding device will be described with reference to the flowchart of FIG. It is assumed that the encoded image data file to be decoded in the HDD 1104 has already been selected by the user. Also, an example in which the RAW image data obtained by decoding is stored in the HDD 1104 as a file will be described. When displaying an infrared image on the display unit 1106, the IR plane obtained by decoding may be displayed as a monochrome image. When an RGB color image is to be displayed, an image of three color components of R, G, and B may be generated for each pixel from the R, G, and B planes obtained by decoding, and then displayed.

S1301にて、CPU1101は、復号対象の符号化画像データファイルのヘッダを解析し、IR1乃至IR3のいずれのフィルタを使用して撮影されたのかを判定する。津に、S1302にて、CPU1101は、復号対象の符号化画像データファイルから符号化データを読み出し、エントロピー復号処理を行って、R,G,B、IRHのプレーンそれぞれの量子化変換係数を得る。S1303にて、CPU1101は、逆量子化処理を行い、R,G,B、IRHのプレーンそれぞれの周波数変換係数を得る。そして、S1304にて、CPU1101は、R,G,B、IRHのプレーンそれぞれの周波数変換係数に対して逆周波数変換(実施形態では逆ウェーブレット変換)を行い、R,G,B及びIRHプレーンを復元する。 In S1301, the CPU 1101 analyzes the header of the encoded image data file to be decoded, and determines which of the IR1 to IR3 filters was used to capture the image. Then, in S1302, the CPU 1101 reads encoded data from the encoded image data file to be decoded, performs entropy decoding processing, and obtains quantized transform coefficients for each of the R, G, B, and IRH planes. In S1303, the CPU 1101 performs inverse quantization processing to obtain frequency transform coefficients for each of the R, G, B, and IRH planes. Then, in S1304, the CPU 1101 performs inverse frequency transform (inverse wavelet transform in the embodiment) on the frequency transform coefficients of the R, G, B, and IRH planes to restore the R, G, B, and IRH planes. do.

S1305にて、CPU1101は、先のS1301の解析結果に基づき、復号対象の画像のIRフィルタはIR1乃至IR3のいずれであるかを判定する。CPU1101は、IR1フィルタが使用されていると判定した場合は処理をS1306、IR2フィルタが使用されていると判定した場合は処理をS1307,IR3フィルタが使用されていると判定した場合は処理をS1308に分岐する。

S1306に処理が分岐した場合、CPU1101は、先に示した式(4)に従いIRプレーンを生成する。S1307に処理が分岐した場合、CPU1101は、先に示した式(5)に従いIRプレーンを生成する。そして、S1308に処理が分岐した場合、CPU1101は、先に示した式(3)に従いIRプレーンを生成する。
In S1305, the CPU 1101 determines which one of IR1 to IR3 is the IR filter of the image to be decoded based on the analysis result of S1301. If the CPU 1101 determines that the IR1 filter is used, the process proceeds to S1306; if it determines that the IR2 filter is used, the process proceeds to S1307; and if it determines that the IR3 filter is used, the process proceeds to S1308. branch to

When the process branches to S1306, the CPU 1101 generates an IR plane according to equation (4) shown above. When the process branches to S1307, the CPU 1101 generates an IR plane according to Equation (5) shown above. Then, when the process branches to S1308, the CPU 1101 generates an IR plane according to the formula (3) shown above.

S1309にて、CPU1101は、S1306乃至S1308のいずれかで生成したIRプレーンと、S1304で復元したR、G,Bプレーンの各画素を、図4に示すように配置することで、RGB-IR配列のRAW画像データを再構成する。 In S1309, the CPU 1101 arranges the pixels of the IR plane generated in any one of S1306 to S1308 and the R, G, and B planes restored in S1304 as shown in FIG. RAW image data is reconstructed.

そして、S1310にて、CPU1101は、再構成したRAW画像データを、HDDにファイルとして格納する。この際、ファイルヘッダには、IRフィルタの種類を示す情報も格納する。 Then, in S1310, the CPU 1101 stores the reconstructed RAW image data in the HDD as a file. At this time, information indicating the type of IR filter is also stored in the file header.

以上説明したように、第1の実施形態に相当する処理を、CPUがコンピュータプログラムを実行することで実現することが可能である。なお、以降に説明する第2、第3の実施形態を、CPUがコンピュータプログラムを実行することで実現できることを付言する。 As described above, the processing corresponding to the first embodiment can be realized by the CPU executing a computer program. It should be added that the second and third embodiments described below can be realized by the CPU executing a computer program.

[第2の実施形態]
続いて、第2の実施形態である画像符号化装置について図1、図4および図7を参照して説明する。本第2の実施形態において、画像符号化装置の構成は第1の実施形態と同様であるが、プレーン変換部101による変換処理が第1の実施形態と異なる。なお、それ以外の動作については第1の実施形態と同様であるものとし、その説明は省略する。
[Second embodiment]
Next, an image coding apparatus according to a second embodiment will be described with reference to FIGS. 1, 4 and 7. FIG. In the second embodiment, the configuration of the image coding apparatus is the same as in the first embodiment, but the conversion processing by the plane conversion unit 101 is different from that in the first embodiment. Other operations are assumed to be the same as those of the first embodiment, and description thereof will be omitted.

本第2の実施形態においては、RGB-IR配列のIRの有効波長領域は、図7に示すようにIR1とIR2の中間(透過波長の強度分布の中心波長が780nm乃至870nmの範囲のほぼ中央の820nm近傍)となっている例を用いて説明する。 In the second embodiment, the effective IR wavelength region of the RGB-IR arrangement is the middle of IR1 and IR2 (the center wavelength of the intensity distribution of the transmission wavelength is approximately the middle of the range of 780 nm to 870 nm), as shown in FIG. 820 nm) will be described.

プレーン変換部101は、図4のようにRGB-IR画素配列のRAW画像データから、R,G,IRプレーンを生成した上で、次式(7)に従って、IRHプレーンを算出する。
IRH=(R+B)/2- IR×irgain4 …(7)
ここで、irgain4は、IRのレベルを、「(R+B)/2」に合わせるためのゲインである。
The plane conversion unit 101 generates the R, G, and IR planes from the RAW image data of the RGB-IR pixel array as shown in FIG. 4, and then calculates the IRH plane according to the following equation (7).
IRH=(R+B)/2−IR×irgain4 (7)
Here, irgain4 is a gain for adjusting the IR level to "(R+B)/2".

以降の符号化に係る処理は、第1実施形態と同様であるため、その説明は省略する。ただし、生成される符号化画像データファイルのヘッダには、IRフィルタが図4に示すような特定を持つことを示す情報を格納することになる。 Since the processing related to subsequent encoding is the same as in the first embodiment, the description thereof will be omitted. However, in the header of the generated encoded image data file, information indicating that the IR filter has a specificity as shown in FIG. 4 is stored.

また、復号処理に係る構成も、第1の実施形態の図2と同じで良い。つまり、復号する際には、ヘッダに格納されたIRに関する情報が図7を表している場合は、復号装置は、復元したR,B,IRHプレーンから、次式(8)に従ってIRプレーンを再生成することになる。
IR={(R+B)/2-IRH} / irgain4 …(8)
RGB-IR配列のRAW画像データのIRの有効波長領域がIR1とIR2の中間に属する場合は、IR1に相関の強いRとIR2に相関の強いBとの比率を考慮してプレーン変換を行う。本実施形態では、IR1とIR2の中間に位置するケースを例に説明したが、図9のようにIR1側に有効波長領域が寄っている場合には、例えば次式(9)のようにRにより強い比率を掛けてプレーン変換を行う。
IRH=(R×0.7+B×0.3)-IR×irgain5 …(9)
なお、この場合、復号の際には先に復号したR、B、IRHプレーンを用いて、次式(10)に従ってIRプレーンを再生成すれば良い。
IR={(R×0.7+B×0.3)-IRH}/irgain5 …(10)
また、式(9)、(10)で示す重みづけ係数は、有効波長領域がIR1,IR2のいずれにどれだけ寄っているかで異なる。従ってIR2に寄っている場合には、Bにより強い重みづけ係数を掛けてプレーン変換を行う。
Also, the configuration related to the decoding process may be the same as that of FIG. 2 of the first embodiment. That is, when decoding, if the information about IR stored in the header represents FIG. will be formed.
IR={(R+B)/2-IRH}/irgain4 (8)
If the IR effective wavelength region of the RAW image data of the RGB-IR array belongs to the middle between IR1 and IR2, plane conversion is performed in consideration of the ratio of R that has a strong correlation to IR1 and B that has a strong correlation to IR2. In the present embodiment, the case of being located between IR1 and IR2 has been described as an example, but when the effective wavelength region is closer to IR1 as shown in FIG. Multiply by a stronger ratio to perform a plane transform.
IRH=(R×0.7+B×0.3)−IR×irgain5 (9)
In this case, when decoding, the IR plane can be regenerated according to the following equation (10) using the previously decoded R, B, and IRH planes.
IR={(R×0.7+B×0.3)−IRH}/irgain5 (10)
Also, the weighting coefficients shown in equations (9) and (10) differ depending on how much the effective wavelength region is closer to IR1 or IR2. Therefore, when it is closer to IR2, plane conversion is performed by multiplying B by a stronger weighting factor.

また、本第2の実施形態では、IRの有効波長領域がIR1とIR2の間にあるケースで説明したが、IR2とIR3の間、つまり、赤外線フィルタの透過中心波長が870nm乃至940nmの範囲内にあるケースであってもの同様の考えが適用可能である。 In addition, in the second embodiment, the effective wavelength region of IR is between IR1 and IR2. The same idea can be applied even in the case of

[第3の実施形態]
第3の実施形態の画像符号化装置について図1、図8、図10を参照して説明する。本第3の実施形態において、画像符号化装置の構成は第1実施例と同様であるが、プレーン変換部101で行う変換処理が、第1の実施形態と異なる。また、撮像センサには、第1の実施形態、第2の実施形態と異なり、近赤外線フィルタ(NIR:Near Infrared Ray)に加え、遠赤外線フィルタ(FIR:Far Infrared Ray)の2種類を用いている点が異なる。NIRフィルタを用いることで暗所での視認性を高め、FIRフィルタを用いることで侵入を検知する人感センサとしての役割も果たすため、より監視性能を高めることが期待できる。
[Third Embodiment]
An image coding apparatus according to the third embodiment will be described with reference to FIGS. 1, 8, and 10. FIG. In the third embodiment, the configuration of the image coding apparatus is the same as in the first embodiment, but the conversion processing performed by the plane conversion unit 101 is different from that in the first embodiment. In addition, unlike the first embodiment and the second embodiment, the imaging sensor uses two types of filters: a near infrared filter (NIR: Near Infrared Ray) and a far infrared filter (FIR: Far Infrared Ray). There is a difference. The use of the NIR filter increases the visibility in dark places, and the use of the FIR filter also serves as a human sensor that detects intrusion, so it is expected that the monitoring performance will be further improved.

なお、それ以外の動作については第1の実施形態と同様であるため説明を省く。また、本第3の実施形態においてはNIRの有効波長領域としてIR1を使用している例を示す。 Since other operations are the same as those of the first embodiment, description thereof is omitted. Also, in the third embodiment, an example in which IR1 is used as the effective wavelength region of NIR is shown.

図8は本第3の実施形態におけるセンサの画素配列を示している。図4と同様、R,G,Bに加え、IR(赤外線)画素を持った画素並びとなっているが、近赤外線(NIR)、遠赤外線(FIR)画素を交互に入れている点が異なっている。 FIG. 8 shows the pixel array of the sensor in the third embodiment. Similar to FIG. 4, in addition to R, G, and B, the pixels are arranged with IR (infrared) pixels, but the difference is that the near infrared (NIR) and far infrared (FIR) pixels are alternately arranged. ing.

プレーン変換部101は、このセンサを採用していること示す情報を制御部150から受信している場合、RGB-IR配列のRAW画像データから、R、G、Bプレーンと、FIR+NIRプレーンとに離した上、次式(11)、(12)に従って、差分プレーンを表すIRHを算出する。
・IR画素がNIRの位置にある場合
IRHr=R-NIR×irgain1 …(11)
・IR画素がFIRの位置にある場合
IRHg=G-FIR×irgain6 …(12)
When the plane conversion unit 101 receives information indicating that this sensor is used from the control unit 150, the plane conversion unit 101 separates the RAW image data of the RGB-IR arrangement into the R, G, B planes and the FIR+NIR plane. Then, IRH representing the difference plane is calculated according to the following equations (11) and (12).
・If the IR pixel is at the NIR position, IRHr=R−NIR×irgain1 (11)
・If the IR pixel is located at the FIR position, IRHg=G-FIR×irgain6 (12)

プレーン変換部101は、上記のように使用するNIRかFIRかによって差分をとる色成分を決定し、図10のように演算したIRHr、IRgが混在した形でIRHプレーンを形成し、R、G、B、IRHを周波数変換部102に供給する。以降の処理は第1の実施形態と同様のため、説明を省く。 The plane conversion unit 101 determines the color component for which the difference is to be taken depending on whether it is NIR or FIR to be used as described above, forms an IRH plane in a mixed form of IRHr and IRg calculated as shown in FIG. , B, and IRH to the frequency conversion unit 102 . Since subsequent processing is the same as that of the first embodiment, description thereof is omitted.

また、復号の際には先に復号して得たR,G,IRHプレーンを用いて次式(13)、(14)に従ってIR成分を再生成する。
・復号画素位置がNIRの場合、
NIR={R-IRHr}/irgain1 …(13)
・復号画素位置がFIRの場合、
FIR={G-IRHg}/irgain6 …(14)
During decoding, the R, G, and IRH planes previously decoded are used to regenerate IR components according to the following equations (13) and (14).
・When the decoded pixel position is NIR,
NIR={R-IRHr}/irgain1 (13)
・When the decoded pixel position is FIR,
FIR={G-IRHg}/irgain6 (14)

以上のようにNIRとFIRが混在する画素配列の場合は、IR画素がNIRかFIRRかに応じて差分を取る色成分を変える。また、形成するプレーンを別に形成するのではなく、異なる演算した結果が混在したIRHプレーンを形成し、プレーン変換以降の処理を行う。このように、異なる演算結果が混在したIRHプレーンを形成することでR,G,B、IRHで処理しなければならない画素数が同一となる。そのため、プレーン変換以降の処理を並列化して実行するような場合において、処理を均一化することができる。 As described above, in the case of a pixel array in which NIR and FIR are mixed, the color component for taking the difference is changed depending on whether the IR pixel is NIR or FIR. Also, instead of forming a separate plane, an IRH plane in which different calculation results are mixed is formed, and processing after plane conversion is performed. By forming an IRH plane in which different calculation results are mixed in this way, the number of pixels to be processed in R, G, B, and IRH becomes the same. Therefore, in a case where the processing after plane conversion is parallelized and executed, the processing can be made uniform.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the embodiments described above, and various modifications and variations are possible without departing from the spirit and scope of the invention. Accordingly, the claims are appended to make public the scope of the invention.

100…撮像部、101…プレーン変換部、102…周波数変換部、103…量子化部、104…エントロピー符号化部、110…RAW符号化部、150…制御部、204…ヘッダ解析部、200…エントロピー復号部、201…逆量子化部、202…逆周波数変換部、203…プレーン逆変換部、250…制御部 DESCRIPTION OF SYMBOLS 100... Imaging part 101... Plane conversion part 102... Frequency conversion part 103... Quantization part 104... Entropy encoding part 110... RAW encoding part 150... Control part 204... Header analysis part 200... Entropy decoding unit 201 Inverse quantization unit 202 Inverse frequency transform unit 203 Inverse plane transform unit 250 Control unit

Claims (10)

可視光波長領域のR,G、Bの3原色フィルタと、赤外線フィルタを有する撮像センサで得た画像を符号化する画像符号化装置であって、
前記赤外線フィルタの透過波長の強度分布に応じて決定される前記3原色フィルタのいずれかの画像データと、前記赤外線フィルタを介して得た画像データとの差分を示す差分データを生成する生成手段と、
前記3原色フィルタそれぞれの画像データと、前記差分データを符号化する符号化手段と
を有することを特徴とする画像符号化装置。
An image encoding device for encoding an image obtained by an imaging sensor having three primary color filters of R, G, and B in the visible light wavelength region and an infrared filter,
generating means for generating difference data indicating a difference between the image data of any one of the three primary color filters determined according to the intensity distribution of the transmission wavelength of the infrared filter and the image data obtained through the infrared filter; ,
An image encoding apparatus comprising: image data for each of the three primary color filters; and encoding means for encoding the difference data.
前記3原色フィルタのうち前記差分データを生成するために用いたフィルタの種類に応じたゲインで、前記赤外線フィルタで得た画像データを調整する調整手段を有し、
前記生成手段は、前記調整手段による調整後の前記赤外線フィルタで得た画像データを用いて前記差分データを生成する
ことを特徴とする請求項1に記載の画像符号化装置。
adjusting means for adjusting the image data obtained by the infrared filter with a gain corresponding to the type of filter used to generate the difference data among the three primary color filters;
2. The image encoding apparatus according to claim 1, wherein said generating means generates said difference data using image data obtained by said infrared filter after being adjusted by said adjusting means.
前記生成手段は、
前記赤外線フィルタの透過中心波長が780nm近傍の場合は、前記3原色のR成分の画像データを用いて前記差分データを生成し、
前記赤外線フィルタの透過中心波長が870nm近傍の場合は、前記3原色のB成分の画像データを用いて前記差分データを生成し、
前記赤外線フィルタの透過中心波長が940nm近傍の場合は、前記3原色のG成分の画像データを用いて前記差分データを生成する
ことを特徴とする請求項1又は2に記載の画像符号化装置。
The generating means is
when the central transmission wavelength of the infrared filter is near 780 nm, generating the difference data using the R component image data of the three primary colors;
when the central transmission wavelength of the infrared filter is near 870 nm, generating the difference data using the image data of the B component of the three primary colors;
3. The image encoding apparatus according to claim 1, wherein when the central transmission wavelength of the infrared filter is around 940 nm, the difference data is generated using the image data of the G component of the three primary colors.
前記生成手段は、
前記赤外線フィルタの透過中心波長が780nm乃至870nmの範囲内にある場合は、前記3原色のR成分と画像データとB成分の画像データの重みづけ平均の画像データを用いて前記差分データを生成し、
前記赤外線フィルタの透過中心波長が870nm乃至940nmの範囲内にある場合は、前記3原色のB成分と画像データとG成分の画像データの重みづけ平均の画像データを用いて前記差分データを生成する
ことを特徴とする請求項1又は2に記載の画像符号化装置。
The generating means is
When the central transmission wavelength of the infrared filter is in the range of 780 nm to 870 nm, the difference data is generated using the image data of the weighted average of the R component image data and the B component image data of the three primary colors. ,
When the central transmission wavelength of the infrared filter is in the range of 870 nm to 940 nm, the difference data is generated using weighted average image data of the B component and image data of the three primary colors and the image data of the G component. 3. The image coding apparatus according to claim 1, wherein:
前記撮像センサにおける前記赤外線フィルタは、近赤外線フィルタと遠赤外線フィルタの2種類を含み、
前記生成手段は、前記近赤外線フィルタを透過して得た画素については前記R成分のフィルタを透過して得た画素との差分を算出し、前記遠赤外線フィルタを透過して得た画素については前記G成分のフィルタを透過して得た画素との差分を算出することで、前記差分データを生成する
ことを特徴とする請求項1又は2に記載の画像符号化装置。
The infrared filters in the imaging sensor include two types of near-infrared filters and far-infrared filters,
The generating means calculates the difference between the pixels obtained by passing through the near-infrared filter and the pixels obtained by passing through the R component filter, and the pixels obtained by passing through the far-infrared filter: 3. The image coding apparatus according to claim 1, wherein the differential data is generated by calculating a difference from pixels obtained through the G component filter.
可視光波長領域のR,G、Bの3原色フィルタと、赤外線フィルタを有する撮像センサで得たRAW画像データの符号化データを復号する画像復号装置であって、
前記符号化データのヘッダを解析し、前記赤外線フィルタの透過波長の強度分布を表す情報を取得する取得する取得手段と、
前記符号化データを復号し、前記3原色フィルタそれぞれの画像データ、及び、前記赤外線フィルタの差分データを生成する復号手段と、
前記取得手段で得た情報で特定される前記3原色フィルタのいずれかの画像データと、前記差分データとから、前記赤外線フィルタから得た画像データを復元する復元手段と、
前記復号手段で得た前記3原色フィルタそれぞれの画像データと、前記復元手段で得た前記赤外線フィルタで得た画像データとをRAW画像データとして出力する出力手段と
を有することを特徴とする画像復号装置。
An image decoding device for decoding coded data of RAW image data obtained by an imaging sensor having three primary color filters of R, G, and B in the visible light wavelength region and an infrared filter,
Acquisition means for analyzing the header of the encoded data and acquiring information representing the intensity distribution of the transmission wavelength of the infrared filter;
decoding means for decoding the encoded data to generate image data for each of the three primary color filters and differential data for the infrared filter;
a restoring means for restoring the image data obtained from the infrared filter from the image data of any one of the three primary color filters specified by the information obtained by the obtaining means and the difference data;
and output means for outputting the image data of each of the three primary color filters obtained by the decoding means and the image data obtained by the infrared filter obtained by the restoration means as RAW image data. Device.
可視光波長領域のR,G、Bの3原色フィルタと、赤外線フィルタを有する撮像センサで得た画像を符号化する画像符号化装置の制御方法であって、
前記赤外線フィルタの透過波長の強度分布に応じて決定される前記3原色フィルタのいずれかの画像データと、前記赤外線フィルタを介して得た画像データとの差分を示す差分データを生成する生成工程と、
前記3原色フィルタそれぞれの画像データと、前記差分データを符号化する符号化工程と
を有することを特徴とする画像符号化装置の制御方法。
A control method for an image encoding device that encodes an image obtained by an imaging sensor having three primary color filters of R, G, and B in the visible light wavelength region and an infrared filter,
a generating step of generating difference data indicating a difference between the image data of any one of the three primary color filters determined according to the intensity distribution of the transmission wavelength of the infrared filter and the image data obtained through the infrared filter; ,
A control method for an image encoding device, comprising: image data of each of the three primary color filters; and an encoding step of encoding the difference data.
可視光波長領域のR,G、Bの3原色フィルタと、赤外線フィルタを有する撮像センサで得たRAW画像データの符号化データを復号する画像復号装置であって、
前記符号化データのヘッダを解析し、前記赤外線フィルタの透過波長の強度分布を表す情報を取得する取得する取得工程と、
前記符号化データを復号し、前記3原色フィルタそれぞれの画像データ、及び、前記赤外線フィルタの差分データを生成する復号工程と、
前記取得工程で得た情報で特定される前記3原色フィルタのいずれかの画像データと、前記差分データとから、前記赤外線フィルタから得た画像データを復元する復元工程と、
前記復号工程で得た前記3原色フィルタそれぞれの画像データと、前記復元工程で得た前記赤外線フィルタで得た画像データとをRAW画像データとして出力する出力工程と
を有することを特徴とする画像復号装置の制御方法。
An image decoding device for decoding coded data of RAW image data obtained by an imaging sensor having three primary color filters of R, G, and B in the visible light wavelength region and an infrared filter,
an acquiring step of analyzing the header of the encoded data and acquiring information representing the intensity distribution of the transmission wavelength of the infrared filter;
a decoding step of decoding the encoded data to generate image data of each of the three primary color filters and differential data of the infrared filter;
a restoring step of restoring the image data obtained from the infrared filter from the image data of any one of the three primary color filters specified by the information obtained in the obtaining step and the difference data;
and an output step of outputting the image data of each of the three primary color filters obtained in the decoding step and the image data obtained by the infrared filter obtained in the restoration step as RAW image data. How to control the device.
コンピュータが読み込み実行することで、前記コンピュータに、請求項7に記載の画像符号化装置の制御方法が有する各工程を実行させるためのコンピュータプログラム。 A computer program which, when read and executed by a computer, causes the computer to execute each step of the method for controlling an image encoding apparatus according to claim 7. コンピュータが読み込み実行することで、前記コンピュータに、請求項8に記載の画像復号装置の制御方法が有する各工程を実行させるためのコンピュータプログラム。 A computer program which, when read and executed by a computer, causes the computer to execute each step of the control method for an image decoding apparatus according to claim 8.
JP2022008847A 2022-01-24 2022-01-24 Image encoding device, image decoding device, control method and program thereof Pending JP2023107583A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022008847A JP2023107583A (en) 2022-01-24 2022-01-24 Image encoding device, image decoding device, control method and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022008847A JP2023107583A (en) 2022-01-24 2022-01-24 Image encoding device, image decoding device, control method and program thereof

Publications (1)

Publication Number Publication Date
JP2023107583A true JP2023107583A (en) 2023-08-03

Family

ID=87474810

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022008847A Pending JP2023107583A (en) 2022-01-24 2022-01-24 Image encoding device, image decoding device, control method and program thereof

Country Status (1)

Country Link
JP (1) JP2023107583A (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012019113A (en) * 2010-07-08 2012-01-26 Panasonic Corp Solid-state imaging device
JP2015216619A (en) * 2014-04-25 2015-12-03 パナソニックIpマネジメント株式会社 Imaging system, imaging device, imaging method and encoding method
JP2019004360A (en) * 2017-06-16 2019-01-10 ルネサスエレクトロニクス株式会社 Video encoding apparatus and video decoding apparatus
JP2019184724A (en) * 2018-04-05 2019-10-24 キヤノン株式会社 Imaging device and imaging device control method
CN111383230A (en) * 2018-12-27 2020-07-07 中科星图股份有限公司 Remote sensing image river extraction device and method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012019113A (en) * 2010-07-08 2012-01-26 Panasonic Corp Solid-state imaging device
JP2015216619A (en) * 2014-04-25 2015-12-03 パナソニックIpマネジメント株式会社 Imaging system, imaging device, imaging method and encoding method
JP2019004360A (en) * 2017-06-16 2019-01-10 ルネサスエレクトロニクス株式会社 Video encoding apparatus and video decoding apparatus
JP2019184724A (en) * 2018-04-05 2019-10-24 キヤノン株式会社 Imaging device and imaging device control method
CN111383230A (en) * 2018-12-27 2020-07-07 中科星图股份有限公司 Remote sensing image river extraction device and method

Similar Documents

Publication Publication Date Title
US5412427A (en) Electronic camera utilizing image compression feedback for improved color processing
CN101689357B (en) Video camera
CN110612722B (en) Method and apparatus for encoding and decoding digital light field images
JPH04502996A (en) Compression method and apparatus for single sensor color imaging system
Salomon Coding for data and computer communications
JP2001516515A (en) Method and apparatus for decoding a spatial color multiplexed color image using predetermined coefficients
JPH11502082A (en) Method and apparatus for compressing and decompressing digital color images
JP3864748B2 (en) Image processing apparatus, electronic camera, and image processing program
TW201143353A (en) Resolution based formatting of compressed image data
JPH04284087A (en) electronic still camera
WO2019237659A1 (en) Blind compressive sampling method, apparatus and imaging system
JP2001144967A (en) Image processing apparatus and method
WO1999013429A1 (en) A method for directly compressing a color image and tailoring the compression based on the color filter array, optics, and sensor characteristics
US11785352B2 (en) Image encoding apparatus, method for controlling the same, and non-transitory computer-readable storage medium
US12069306B2 (en) Image encoding apparatus and method for controlling the same and non-transitory computer-readable storage medium
JP2023107583A (en) Image encoding device, image decoding device, control method and program thereof
JP6775339B2 (en) Image coding device and its control method
CN110896432A (en) Image processing method and system
JP3556447B2 (en) Color solid-state imaging camera system
JP7181759B2 (en) Image processing device and image processing method
JP2891246B2 (en) Digital camera
JP2005005925A (en) Image compressing device and image processing system
JP2017085556A (en) Image processing apparatus, imaging apparatus, image processing method, and program
US10032253B2 (en) Imaging apparatus, imaging system, imaging method, and recording medium
JP2008124530A (en) Raw data compression method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20241122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250826

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250919