JP2017041763A - Image processing system and image processing method - Google Patents
Image processing system and image processing method Download PDFInfo
- Publication number
- JP2017041763A JP2017041763A JP2015162353A JP2015162353A JP2017041763A JP 2017041763 A JP2017041763 A JP 2017041763A JP 2015162353 A JP2015162353 A JP 2015162353A JP 2015162353 A JP2015162353 A JP 2015162353A JP 2017041763 A JP2017041763 A JP 2017041763A
- Authority
- JP
- Japan
- Prior art keywords
- image
- restoration filter
- image restoration
- gain
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、画像処理装置、および画像処理方法に関する。 The present invention relates to an image processing apparatus and an image processing method.
撮像光学系で発生する回折や収差等の影響により、被写体の1点から発生した光は1点に収束せず、微小な広がりを持つ。このような微小な広がりを持つ分布を点像強度分布関数(PSF,Point Spread Function)と呼ぶ。撮像光学系の影響により、撮影画像は、被写体像にPSFが畳み込まれて形成されることになり、画像がぼけて解像度が劣化する。 Due to the influence of diffraction, aberration, etc. generated in the imaging optical system, light generated from one point of the subject does not converge to one point but has a very small spread. A distribution having such a small spread is called a point spread function (PSF). Due to the influence of the imaging optical system, the captured image is formed by convolving the PSF with the subject image, and the image is blurred and the resolution is deteriorated.
近年、撮影画像を電子データとして保持することが一般的になり、画像処理によって光学系による画像劣化を補正する技術(以下、画像回復技術という)が提案されている。しかしながら、画像処理によって画像回復する場合、特に劣化が大きい場合には補正量が大きくなり回復処理と同時にノイズデータも増幅してしまうという問題がある。そのため、もとの画像のノイズ量によっては回復処理を行うことでかえって好ましくない結果になることがある。 In recent years, it has become common to hold captured images as electronic data, and a technique for correcting image degradation due to an optical system by image processing (hereinafter referred to as an image restoration technique) has been proposed. However, when recovering an image by image processing, there is a problem that the amount of correction increases and noise data is amplified simultaneously with the recovery processing, particularly when deterioration is large. For this reason, depending on the amount of noise in the original image, performing the recovery process may result in undesirable results.
特許文献1では、光学劣化情報のうち、PTF(Phase Transfer Function)成分を画像回復処理で補正し、MTF(Modulation Transfer Function)成分をシャープネス処理で補正する方法が開示されている。また、特許文献2では、画像回復処理によって補正した画像の品質を一定に保つために、画像回復時のフィルタゲインを一定に保つように設定する方法や、回復ゲインの値に応じて品質判定の基準値を変更する方法が開示されている。 Patent Document 1 discloses a method of correcting a PTF (Phase Transfer Function) component of optical deterioration information by image restoration processing and correcting an MTF (Modulation Transfer Function) component by sharpness processing. Further, in Patent Document 2, in order to keep the quality of the image corrected by the image restoration processing constant, a method for setting the filter gain at the time of image restoration to be constant, or a quality determination according to the value of the restoration gain. A method for changing the reference value is disclosed.
しかしながら、特許文献1の方法では、位相成分(PTF)は改善されるが、振幅成分(MTF)はシャープネス処理に依存してしまう。特に、ノイズの多い画像の場合はエッジ検出精度が低くなり、所望の回復効果は得られない。また、特許文献2の方法では、デジタルカメラのように様々な撮影状態で撮影されるものに対しては最適な結果を得られることはできない。 However, in the method of Patent Document 1, the phase component (PTF) is improved, but the amplitude component (MTF) depends on the sharpness processing. In particular, in the case of an image having a lot of noise, the edge detection accuracy is lowered, and a desired recovery effect cannot be obtained. Also, with the method of Patent Document 2, it is not possible to obtain an optimum result with respect to an image taken in various shooting states such as a digital camera.
このような課題に鑑みて、本発明は、光学特性に応じて、回復効果を維持するとともに良好な補正画像を取得可能な画像処理装置、撮像装置、プログラム、記憶媒体、および画像処理方法を提供する。 In view of such a problem, the present invention provides an image processing device, an imaging device, a program, a storage medium, and an image processing method capable of maintaining a recovery effect and obtaining a good corrected image according to optical characteristics. To do.
本発明の一側面としての画像処理装置は、撮影画像の撮影条件を取得する第1の取得手段と、前記撮影条件に基づいて画像回復フィルタ、および前記画像回復フィルタに対応する特定の周波数のゲインを取得する第2の取得手段と、前記撮影条件のうちノイズ特性に関する情報、および前記ゲインに基づいて、前記撮影画像と前記画像回復フィルタを用いて補正された画像を所定の割合で足し合わせる処理手段と、を有することを特徴とする。 An image processing apparatus according to an aspect of the present invention includes a first acquisition unit that acquires a shooting condition of a captured image, an image restoration filter based on the shooting condition, and a gain at a specific frequency corresponding to the image restoration filter. And a process of adding the captured image and the image corrected by using the image restoration filter at a predetermined ratio based on the information on noise characteristics in the photographing condition and the gain. And means.
また、本発明の他の側面としての画像処理方法は、撮影画像の撮影条件を取得するステップと、前記撮影条件に基づいて画像回復フィルタ、および前記画像回復フィルタに対応する特定の周波数のゲインを取得するステップと、前記撮影条件のうちノイズ特性に関する情報、および前記ゲインに基づいて、前記撮影画像と前記画像回復フィルタを用いて補正された画像とを所定の割合で足し合わせるステップと、を有することを特徴とする。 According to another aspect of the present invention, there is provided an image processing method comprising: obtaining a photographing condition of a photographed image; an image restoration filter based on the photographing condition; and a gain at a specific frequency corresponding to the image restoration filter. And a step of adding the photographed image and the image corrected by using the image restoration filter at a predetermined ratio based on information on noise characteristics in the photographing condition and the gain. It is characterized by that.
本発明によれば、光学特性に応じて、回復効果を維持するとともに良好な補正画像を取得可能な画像処理装置、撮像装置、プログラム、記憶媒体、および画像処理方法を提供することができる。 According to the present invention, it is possible to provide an image processing device, an imaging device, a program, a storage medium, and an image processing method capable of maintaining a recovery effect and obtaining a good corrected image according to optical characteristics.
以下、本発明の実施形態について、図面を参照しながら詳細に説明する。各図において、同一の部材については同一の参照番号を付し、重複する説明は省略する。 まず、本実施形態で説明される用語の定義および画像回復処理(画像処理方法)について説明する。ここで説明する画像回復処理は、後述の各実施形態において適宜用いられる。
[入力画像]
入力画像は、撮像光学系を介して撮像素子で受光することで得られたデジタル画像(撮影画像)であり、レンズと各種の光学フィルタ類を含む撮像光学系の収差による光学伝達関数OTFにより劣化している。撮像光学系は、レンズだけでなく曲率を有するミラー(反射面)を用いて構成することもできる。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In each figure, the same members are denoted by the same reference numerals, and redundant description is omitted. First, definitions of terms and image restoration processing (image processing method) described in the present embodiment will be described. The image restoration processing described here is used as appropriate in each embodiment described later.
[Input image]
The input image is a digital image (photographed image) obtained by receiving light with an image pickup device via an image pickup optical system, and is deteriorated by an optical transfer function OTF due to aberration of the image pickup optical system including a lens and various optical filters. doing. The imaging optical system can be configured using not only a lens but also a mirror (reflection surface) having a curvature.
入力画像の色成分は、例えばRGB色成分の情報を有する。色成分としては、これ以外にもLCHで表現される明度、色相、彩度や、YCbCrで表現される輝度、色差信号など一般に用いられている色空間を選択して用いることができる。その他の色空間として、XYZ,Lab,Yuv,JChを用いることが可能である。更に、色温度を用いてもよい。 The color component of the input image has information on RGB color components, for example. As the color component, other commonly used color spaces such as brightness, hue, and saturation expressed in LCH, luminance expressed in YCbCr, and color difference signals can be selected and used. XYZ, Lab, Yuv, and JCh can be used as other color spaces. Further, a color temperature may be used.
入力画像や出力画像には、レンズの焦点距離、絞り値、撮影距離などの撮影条件や、この画像を補正するための各種の補正情報を付帯することができる。撮像装置から別の画像処理装置に画像を受け渡して補正処理を行う場合、撮影画像に撮影条件や補正に関する情報を付帯することが好ましい。撮影条件や補正に関する情報の他の受け渡し方法として、撮像装置と画像処理装置を直接または間接的に接続して受け渡すようにしてもよい。
[画像回復処理]
続いて、画像回復処理の概要について説明する。撮影画像(劣化画像)をg(x,y)、もとの画像をf(x,y)、光学伝達関数OTFのフーリエペアである点像分布関数PSFをh(x,y)としたとき、以下の式(1)が成立する。
The input image and the output image can be accompanied by shooting conditions such as the focal length of the lens, aperture value, shooting distance, and various correction information for correcting this image. When the image is transferred from the imaging apparatus to another image processing apparatus and correction processing is performed, it is preferable to add information regarding shooting conditions and correction to the captured image. As another delivery method of information regarding imaging conditions and correction, the imaging apparatus and the image processing apparatus may be directly or indirectly connected to be delivered.
[Image recovery processing]
Next, an outline of the image restoration process will be described. When the captured image (degraded image) is g (x, y), the original image is f (x, y), and the point spread function PSF that is a Fourier pair of the optical transfer function OTF is h (x, y). The following formula (1) is established.
g(x,y)=h(x,y)*f(x,y) … (1)
ここで、*はコンボリューション(畳み込み積分、積和)、(x,y)は撮影画像上の座標である。
g (x, y) = h (x, y) * f (x, y) (1)
Here, * is convolution (convolution integration, sum of products), and (x, y) are coordinates on the captured image.
また、式(1)をフーリエ変換して周波数面での表示形式に変換すると、周波数ごとの積で表される式(2)が得られる。 Moreover, if Formula (1) is Fourier-transformed and converted into a display format on the frequency plane, Formula (2) represented by the product for each frequency is obtained.
G(u,v)=H(u,v)・F(u,v) (2)
ここで、Hは点像分布関数PSF(h)をフーリエ変換することにより得られた光学伝達関数OTFであり、G,Fはそれぞれ劣化した画像g、もとの画像fをフーリエ変換して得られた関数である。(u,v)は2次元周波数面での座標、すなわち周波数である。
G (u, v) = H (u, v) · F (u, v) (2)
Here, H is an optical transfer function OTF obtained by Fourier transforming the point spread function PSF (h), and G and F are obtained by Fourier transforming the degraded image g and the original image f, respectively. Function. (U, v) is a coordinate on a two-dimensional frequency plane, that is, a frequency.
撮影された劣化画像gからもとの画像fを得るには、以下の式(3)のように両辺を光学伝達関数Hで除算すればよい。 In order to obtain the original image f from the photographed degraded image g, both sides may be divided by the optical transfer function H as shown in the following equation (3).
G(u,v)/H(u,v)=F(u,v) (3)
F(u,v)、すなわちG(u,v)/H(u,v)を逆フーリエ変換して実面に戻すことにより、もとの画像f(x,y)が回復画像として得られる。
G (u, v) / H (u, v) = F (u, v) (3)
The original image f (x, y) is obtained as a restored image by performing inverse Fourier transform on F (u, v), that is, G (u, v) / H (u, v), and returning it to the actual surface. .
H−1を逆フーリエ変換したものをRとすると、以下の式(4)のように実面での画像に対するコンボリューション処理を行うことで、同様にもとの画像f(x,y)を得ることができる。 When R is the result of inverse Fourier transform of H− 1 , the original image f (x, y) is similarly obtained by performing convolution processing on the actual image as in the following equation (4). Can be obtained.
g(x,y)*R(x,y)=f(x,y) (4)
ここで、R(x,y)は、画像回復フィルタと呼ばれる。画像が2次元画像である場合、一般的に、画像回復フィルタRも画像の各画素に対応したタップ(セル)を有する2次元フィルタとなる。また、画像回復フィルタRのタップ数(セルの数)は、一般的に多いほど回復精度が向上する。このため、要求画質、画像処理能力、収差の特性等に応じて実現可能なタップ数が設定される。画像回復フィルタRは、少なくとも収差の特性を反映している必要があるため、従来の水平垂直各3タップ程度のエッジ強調フィルタ(ハイパスフィルタ)などとは異なる。画像回復フィルタRは、光学伝達関数OTFに基づいて設定されるため、振幅成分および位相成分の劣化の両方を高精度に補正することができる。
g (x, y) * R (x, y) = f (x, y) (4)
Here, R (x, y) is called an image restoration filter. When the image is a two-dimensional image, generally, the image restoration filter R is also a two-dimensional filter having taps (cells) corresponding to each pixel of the image. In general, the greater the number of taps (number of cells) of the image recovery filter R, the higher the recovery accuracy. Therefore, the number of taps that can be realized is set according to the required image quality, image processing capability, aberration characteristics, and the like. Since the image restoration filter R needs to reflect at least aberration characteristics, it is different from a conventional edge enhancement filter (high-pass filter) of about 3 taps each in horizontal and vertical directions. Since the image restoration filter R is set based on the optical transfer function OTF, it is possible to correct both the amplitude component and the deterioration of the phase component with high accuracy.
また、実際の画像にはノイズ成分が含まれるため、上記のように光学伝達関数OTFの逆数をとって作成した画像回復フィルタRを用いると、劣化画像の回復とともにノイズ成分が大幅に増幅されてしまう。これは、画像の振幅成分にノイズの振幅が付加されている状態に対して、光学系のMTF(振幅成分)を全周波数に渡って1に戻すようにMTFを持ち上げるためである。光学系による振幅劣化であるMTFは1に戻るが、同時にノイズのパワースペクトルも持ち上がってしまい、結果的にMTFを持ち上げる度合(回復ゲイン)に応じてノイズが増幅されてしまう。 Since an actual image includes a noise component, using the image restoration filter R created by taking the reciprocal of the optical transfer function OTF as described above, the noise component is greatly amplified along with the restoration of the deteriorated image. End up. This is because the MTF is raised so that the MTF (amplitude component) of the optical system is returned to 1 over the entire frequency in a state where the amplitude of noise is added to the amplitude component of the image. The MTF, which is amplitude degradation due to the optical system, returns to 1, but at the same time, the noise power spectrum also rises. As a result, the noise is amplified according to the degree to which the MTF is raised (recovery gain).
したがって、ノイズが含まれる場合には、鑑賞用画像としては良好な画像は得られない。このことは、以下の式(5−1)、(5−2)で表される。 Therefore, when noise is included, a good image cannot be obtained as a viewing image. This is expressed by the following formulas (5-1) and (5-2).
G(u,v)=H(u,v)・F(u,v)+N(u,v) (5−1)
G(u,v)/H(u,v)=F(u,v)+N(u,v)/H(u,v)(5−2)
ここで、Nはノイズ成分である。
G (u, v) = H (u, v) .F (u, v) + N (u, v) (5-1)
G (u, v) / H (u, v) = F (u, v) + N (u, v) / H (u, v) (5-2)
Here, N is a noise component.
ノイズ成分が含まれる画像に関しては、例えば以下の式(6)で表されるウィナーフィルタのように、画像信号とノイズ信号の強度比SNRに応じて回復度合を制御する方法がある。 For an image including a noise component, there is a method of controlling the degree of recovery according to the intensity ratio SNR between the image signal and the noise signal, for example, as in the Wiener filter expressed by the following formula (6).
ここで、M(u,v)はウィナーフィルタの周波数特性、|H(u,v)|は光学伝達関数OTFの絶対値(MTF)、Cは定数である。この方法では、周波数ごとに、MTFが小さいほど回復ゲイン(回復度合)を小さくし、MTFが大きいほど回復ゲインを大きくする。一般的に、撮像光学系のMTFは低周波側が高く高周波側が低くなるため、この方法では、実質的に画像の高周波側の回復ゲインを低減することになる。 Here, M (u, v) is the frequency characteristic of the Wiener filter, | H (u, v) | is the absolute value (MTF) of the optical transfer function OTF, and C is a constant. In this method, for each frequency, the smaller the MTF, the smaller the recovery gain (degree of recovery), and the larger the MTF, the larger the recovery gain. In general, since the MTF of the imaging optical system is high on the low frequency side and low on the high frequency side, this method substantially reduces the recovery gain on the high frequency side of the image.
続いて、図2および図3を参照して、画像回復フィルタについて説明する。画像回復フィルタは、撮像光学系の収差特性や要求される回復精度に応じてそのタップ数が決定される。図2の画像回復フィルタは、一例として、11×11タップの2次元フィルタである。図2では、各タップ内の値(係数)を省略しているが、この画像回復フィルタの一断面を図3に示す。画像回復フィルタの各タップの値(係数値)の分布は、収差により空間的に広がった信号値(PSF)を、理想的には元の1点に戻す機能を有する。 Next, the image restoration filter will be described with reference to FIGS. The number of taps of the image restoration filter is determined according to the aberration characteristics of the imaging optical system and the required restoration accuracy. The image restoration filter in FIG. 2 is an 11 × 11 tap two-dimensional filter as an example. In FIG. 2, values (coefficients) in each tap are omitted, but a cross section of this image restoration filter is shown in FIG. The distribution of the values (coefficient values) of each tap of the image restoration filter has a function of returning the signal value (PSF) spatially spread due to aberration to the original one point ideally.
画像回復フィルタの各タップは、画像の各画素に対応して画像回復処理の工程でコンボリューション処理(畳み込み積分、積和)される。コンボリューション処理では、所定の画素の信号値を改善するために、その画素を画像回復フィルタの中心と一致させる。そして、画像と画像回復フィルタの対応画素ごとに画像の信号値とフィルタの係数値の積をとり、その総和を中心画素の信号値として置き換える。 Each tap of the image restoration filter is subjected to convolution processing (convolution integration, product sum) in the image restoration processing corresponding to each pixel of the image. In the convolution process, in order to improve the signal value of a predetermined pixel, the pixel is matched with the center of the image restoration filter. Then, the product of the signal value of the image and the coefficient value of the filter is taken for each corresponding pixel of the image and the image restoration filter, and the sum is replaced with the signal value of the central pixel.
続いて、図4および図5を参照して、画像回復の実空間と周波数空間での特性について説明する。図4は点像分布関数PSFの説明図であり、(a)は画像回復前の点像分布関数PSF、(b)は画像回復後の点像分布関数PSFを示している。図5は、光学伝達関数OTFの振幅成分MTF(図5(a))と位相成分PTF(図5(b))の説明図である。図5(a)中の破線(A)は画像回復前のMTF、一点鎖線(B)は画像回復後のMTFを示す。また、図5(b)中の破線(A)は画像回復前のPTF、一点鎖線(B)は画像回復後のPTFを示す。図4(a)に示されるように、画像回復前の点像分布関数PSFは、非対称な広がりを有し、この非対称性により位相成分PTFは周波数に対して非直線的な値を有する。画像回復処理は、振幅成分MTFを増幅し、位相成分PTFがゼロになるように補正するため、画像回復後の点像分布関数PSFは対称で先鋭な形状になる。 Next, with reference to FIGS. 4 and 5, the characteristics of the image restoration in the real space and the frequency space will be described. 4A and 4B are explanatory diagrams of the point spread function PSF. FIG. 4A shows the point spread function PSF before image restoration, and FIG. 4B shows the point spread function PSF after image restoration. FIG. 5 is an explanatory diagram of the amplitude component MTF (FIG. 5A) and the phase component PTF (FIG. 5B) of the optical transfer function OTF. In FIG. 5A, the broken line (A) indicates the MTF before image recovery, and the alternate long and short dash line (B) indicates the MTF after image recovery. Also, the broken line (A) in FIG. 5B indicates the PTF before image recovery, and the alternate long and short dash line (B) indicates the PTF after image recovery. As shown in FIG. 4A, the point spread function PSF before image restoration has an asymmetric spread, and the phase component PTF has a non-linear value with respect to the frequency due to this asymmetry. Since the image restoration process amplifies the amplitude component MTF and corrects the phase component PTF to be zero, the point spread function PSF after the image restoration has a symmetrical and sharp shape.
このように画像回復フィルタは、撮像光学系の光学伝達関数OTFの逆関数に基づいて設計された関数を逆フーリエ変換して得ることができる。本実施形態で用いられる画像回復フィルタは適宜変更可能であり、例えば上述のようなウィナーフィルタを用いることができる。ウィナーフィルタを用いる場合、式(6)を逆フーリエ変換することで、実際に画像に畳み込む実空間の画像回復フィルタを作成することが可能である。また、光学伝達関数OTFは1つの撮影状態においても撮像光学系の像高(画像の位置)に応じて変化する。このため、画像回復フィルタは像高に応じて変更して用いられる。
[撮像装置]
図1を参照して、本発明の実施形態に係る画像処理装置を備えた撮像装置200について説明する。図1は、撮像装置200の構成図である。撮像装置200には、撮影画像の画像回復処理を行う画像処理プログラムがインストールされており、この画像回復処理は撮像装置200の内部の画像処理部(画像処理装置)204により実行される。
As described above, the image restoration filter can be obtained by performing inverse Fourier transform on a function designed based on the inverse function of the optical transfer function OTF of the imaging optical system. The image restoration filter used in the present embodiment can be appropriately changed. For example, the above-described Wiener filter can be used. When using the Wiener filter, it is possible to create an image restoration filter in real space that is actually convolved with the image by performing inverse Fourier transform on Equation (6). In addition, the optical transfer function OTF changes according to the image height (image position) of the imaging optical system even in one shooting state. For this reason, the image restoration filter is changed and used according to the image height.
[Imaging device]
With reference to FIG. 1, an imaging apparatus 200 including an image processing apparatus according to an embodiment of the present invention will be described. FIG. 1 is a configuration diagram of the imaging apparatus 200. An image processing program for performing image restoration processing of a captured image is installed in the imaging device 200, and this image restoration processing is executed by an image processing unit (image processing device) 204 inside the imaging device 200.
撮像装置200は、撮像光学系(レンズ)201および撮像装置本体(カメラ本体)を備える。撮像光学系201は、絞り201aおよびフォーカスレンズ201bを備え、撮像装置本体(カメラ本体)と一体的に構成されている。ただし、本発明はこれに限定されるものではなく、撮像光学系201が撮像装置本体に対して交換可能に装着される撮像装置にも適用可能である。 The imaging apparatus 200 includes an imaging optical system (lens) 201 and an imaging apparatus main body (camera main body). The imaging optical system 201 includes a diaphragm 201a and a focus lens 201b, and is configured integrally with an imaging apparatus main body (camera main body). However, the present invention is not limited to this, and can also be applied to an imaging apparatus in which the imaging optical system 201 is replaceably attached to the imaging apparatus body.
撮像素子202は、CCDやCMOSセンサで構成され、撮像光学系201を介して得られた被写体像(結像光)を光電変換して撮影画像を生成する。すなわち、被写体像は、撮像素子202による光電変換でアナログ信号(電気信号)に変換される。そして、このアナログ信号はA/Dコンバータ203によりデジタル信号に変換され、このデジタル信号は画像処理部204に入力される。 The image sensor 202 is composed of a CCD or CMOS sensor, and generates a captured image by photoelectrically converting a subject image (imaging light) obtained via the imaging optical system 201. That is, the subject image is converted into an analog signal (electric signal) by photoelectric conversion by the image sensor 202. The analog signal is converted into a digital signal by the A / D converter 203, and the digital signal is input to the image processing unit 204.
画像処理部204は、デジタル信号に対して所定の処理を行うとともに、画像回復処理を行う。画像処理部204は、図1に示されるように、撮影条件取得部(第1の取得手段)204a、光学伝達関数取得部(第2の取得手段)、および処理部(処理手段)を備える。撮影条件取得部(取得手段)204aは、状態検出部207から撮像装置の撮影条件を取得する。撮影条件とは、絞り、撮影距離、または、ズームレンズの焦点距離等である。状態検出部207は、システムコントローラ210から直接撮影条件を取得してもよいし、撮像光学系制御部206から取得してもよい。 The image processing unit 204 performs predetermined processing on the digital signal and also performs image restoration processing. As shown in FIG. 1, the image processing unit 204 includes an imaging condition acquisition unit (first acquisition unit) 204a, an optical transfer function acquisition unit (second acquisition unit), and a processing unit (processing unit). The imaging condition acquisition unit (acquisition means) 204 a acquires the imaging conditions of the imaging apparatus from the state detection unit 207. The shooting conditions include an aperture, a shooting distance, a focal length of the zoom lens, and the like. The state detection unit 207 may acquire the imaging condition directly from the system controller 210 or may acquire it from the imaging optical system control unit 206.
光学伝達関数OTF、または光学伝達関数OTFの生成に必要な係数データは、記憶部(記憶手段)208に保持されている。記憶部208は、例えばROMで構成される。画像処理部204で処理した出力画像は、画像記録媒体209に所定のフォーマットで保存される。液晶モニタや有機ELディスプレイで構成された表示部205には、画像回復処理を行った画像に表示用の所定の処理を行った画像が表示される。ただし、表示部205に表示する画像はこれに限定されるものではなく、高速表示のために簡易処理を行った画像を表示部205に表示するようにしてもよい。 The optical transfer function OTF or coefficient data necessary for generating the optical transfer function OTF is held in the storage unit (storage means) 208. The storage unit 208 is configured by a ROM, for example. The output image processed by the image processing unit 204 is stored in the image recording medium 209 in a predetermined format. On the display unit 205 constituted by a liquid crystal monitor or an organic EL display, an image obtained by performing a predetermined display process on the image subjected to the image restoration process is displayed. However, the image displayed on the display unit 205 is not limited to this, and an image subjected to simple processing for high-speed display may be displayed on the display unit 205.
システムコントローラは、撮像装置200内の一連の制御を行う。撮像光学系201の機械的な駆動はシステムコントローラ210の指示に基づいて撮像光学系制御部206により行われる。撮像光学系制御部206は、Fナンバーの撮影状態設定として、絞り201aの開口径を制御する。また、撮像光学系制御部206は、被写体距離に応じてピント調整を行うため、不図示のオートフォーカス(AF)機構や手動のマニュアルフォーカス機構により、フォーカスレンズ201bの位置を制御する。なお、絞り201aの開口径制御やマニュアルフォーカスなどの機能は、撮像装置200の仕様に応じて実行しなくてもよい。 The system controller performs a series of controls in the imaging apparatus 200. The imaging optical system 201 is mechanically driven by the imaging optical system control unit 206 based on an instruction from the system controller 210. The imaging optical system control unit 206 controls the aperture diameter of the aperture 201a as the F number imaging state setting. In addition, the imaging optical system control unit 206 controls the position of the focus lens 201b by an unillustrated autofocus (AF) mechanism or manual manual focus mechanism in order to perform focus adjustment according to the subject distance. Note that functions such as aperture diameter control and manual focus of the aperture 201a may not be executed according to the specifications of the imaging apparatus 200.
なお、ローパスフィルタや赤外線カットフィルタ等の光学素子を撮像光学系201内に配置してもよいが、ローパスフィルタ等の光学伝達関数OTFの特性に影響を与える素子を用いる場合、画像回復フィルタを作成する時点での考慮が必要になる場合がある。赤外線カットフィルタに関しても、分光波長の点像分布関数(PSF)の積分値であるRGBチャンネルの各PSF、特にRチャンネルのPSFに影響するため、画像回復フィルタを作成する時点での考慮が必要になる場合がある。 An optical element such as a low-pass filter or an infrared cut filter may be arranged in the imaging optical system 201. However, when an element that affects the characteristics of the optical transfer function OTF such as a low-pass filter is used, an image restoration filter is created. It may be necessary to consider at the point of time. The infrared cut filter also affects each of the RGB channel PSFs, particularly the R channel PSF, which is the integral value of the spectral wavelength point spread function (PSF), and therefore needs to be considered at the time of creating the image restoration filter. There is a case.
なお、画像処理部204はASICで構成され、撮像光学系制御部206、状態検出部207、およびシステムコントローラ210はそれぞれCPUまたはMPUによって構成されている。また、これら画像処理部204、撮像光学系制御部206、状態検出部207、およびシステムコントローラ210のうちの1つ以上を、同じCPUあるいはMPUで兼用して構成するようにしてもよい。
[第1実施形態]
図6を参照して、本実施形態の画像回復処理について説明する。図6は、画像回復処理を示すフローチャートである。図6のフローチャートは、画像処理部204の指令に基づいて実行される。
The image processing unit 204 is configured by an ASIC, and the imaging optical system control unit 206, the state detection unit 207, and the system controller 210 are each configured by a CPU or MPU. One or more of the image processing unit 204, the imaging optical system control unit 206, the state detection unit 207, and the system controller 210 may be configured to be shared by the same CPU or MPU.
[First embodiment]
With reference to FIG. 6, the image restoration process of this embodiment will be described. FIG. 6 is a flowchart showing the image restoration process. The flowchart in FIG. 6 is executed based on a command from the image processing unit 204.
ステップS11では、撮影画像を取得する。撮影された画像は、記憶部208に保存される。また、撮影画像として、画像記録媒体209に保存されている画像を取得してもよい。 In step S11, a captured image is acquired. The captured image is stored in the storage unit 208. Further, an image stored in the image recording medium 209 may be acquired as a captured image.
ステップS12では、撮影条件取得部204aが撮影条件を取得する。撮影条件とは、撮像光学系201の焦点距離、絞り値、および、撮影距離等である。また、撮影時のノイズ特性(例えば、ISO感度)等も同時に取得する。レンズがカメラ本体に交換可能に装着される撮像装置の場合、撮影条件はさらにレンズIDやカメラIDを含む。撮影条件は、撮像装置から直接取得してもよいし、画像に付帯された情報から取得してもよい。 In step S12, the imaging condition acquisition unit 204a acquires the imaging conditions. The imaging conditions are a focal length, an aperture value, an imaging distance, and the like of the imaging optical system 201. In addition, noise characteristics (for example, ISO sensitivity) at the time of shooting are also acquired simultaneously. In the case of an imaging device in which a lens is replaceably attached to the camera body, the shooting conditions further include a lens ID and a camera ID. The shooting conditions may be acquired directly from the imaging device or may be acquired from information attached to the image.
ステップS13では、光学伝達関数取得部204bがステップS12で取得された撮影条件に適した光学伝達関数OTFを取得する。光学伝達関数OTFは、あらかじめ保持された複数の光学伝達関数OTFの中から選択する。また、光学伝達関数OTFを生成するための関数とその生成に用いられる係数群をあらかじめ保持しておき、撮影条件に適した光学伝達関数OTFを新たに生成してもよい。さらに、あらかじめ保持されている光学伝達関数OTFから補間処理により撮影条件に適した光学伝達関数OTFを生成してもよい。この場合、保持する画像回復フィルタのデータ量を低減することが可能である。補間処理としては、例えば、バイリニア補間(線形補間)やバイキュービック補間等が用いられるが、これらに限定されるものではない。 In step S13, the optical transfer function acquisition unit 204b acquires an optical transfer function OTF suitable for the imaging condition acquired in step S12. The optical transfer function OTF is selected from a plurality of optical transfer functions OTF held in advance. Further, a function for generating the optical transfer function OTF and a coefficient group used for generating the function may be stored in advance, and an optical transfer function OTF suitable for imaging conditions may be newly generated. Furthermore, an optical transfer function OTF suitable for the photographing conditions may be generated by interpolation processing from the optical transfer function OTF held in advance. In this case, it is possible to reduce the amount of data stored in the image restoration filter. As the interpolation processing, for example, bilinear interpolation (linear interpolation), bicubic interpolation, or the like is used, but is not limited thereto.
ステップS14では、ステップS12で取得された撮影条件のうちISO感度に応じて、記憶部208に保存されている図7の特性テーブルから撮影時に適用可能な最大ゲインを取得する。図7は、ISO感度と最大ゲインの関係の一例を示す図である。図7において、横軸はISO感度、縦軸は最大ゲインを表す。図7の特性テーブルは、システムで許容可能な最大ゲインGmax、効果を出すために最低限必要な最小ゲインGmin、およびこれらの値を切り替えるISO感度a,bが設定され、その間のISO感度は線形で補間される。 In step S14, the maximum gain applicable at the time of shooting is acquired from the characteristic table of FIG. 7 stored in the storage unit 208 according to the ISO sensitivity among the shooting conditions acquired in step S12. FIG. 7 is a diagram illustrating an example of the relationship between ISO sensitivity and maximum gain. In FIG. 7, the horizontal axis represents ISO sensitivity, and the vertical axis represents maximum gain. In the characteristic table of FIG. 7, a maximum gain Gmax allowable in the system, a minimum gain Gmin necessary for producing an effect, and ISO sensitivities a and b for switching these values are set, and the ISO sensitivity therebetween is linear. Is interpolated.
画像回復処理では、式(6)で表されるウィナーフィルタのような式を用いて回復フィルタ特性を算出する必要がある。通常は式(6)中の定数Cを決定することで、回復フィルタ特性を算出する。しかしながら、撮像装置200を使用する場合、撮像素子202の読み出し方法によって出力される画像のS/N比が変わってしまう可能性がある。S/N比が変わってしまう要因として、代表的なものにISO感度設定が挙げられる。ISO感度設定とは、例えば、暗い被写体を所定の絞り値やシャッター速度で撮影を行う場合、撮像素子202やA/Dコンバータ203で画像信号にゲインをかけることにより所望の明るさの画像が取得できる設定である。ゲインが大きくなると撮影画像に重畳されるノイズ信号が増幅され、出力画像はノイズが目立つざらついた画像になってしまう。ISO感度設定以外にも長秒撮影や動画撮影など駆動方法が変わるとS/N比が変わってしまうこともあるが、本実施形態では簡単のためISO感度設定の場合について説明する。所定の条件で決定された式(6)中の定数CをISO感度が変更された場合も使用した場合、画像回復フィルタが想定した条件よりもS/N比が悪い状態の画像に適用される場合がある。このとき、画像回復フィルタがノイズを増幅させてしまい、撮影画像には好ましくない。そのため、ISO感度に応じて、画像回復フィルタで設定できる最大ゲインを規定することが好ましい。 In the image restoration process, it is necessary to calculate the restoration filter characteristic using an expression such as a Wiener filter expressed by Expression (6). Usually, the recovery filter characteristic is calculated by determining the constant C in the equation (6). However, when the imaging apparatus 200 is used, there is a possibility that the S / N ratio of the output image changes depending on the readout method of the imaging element 202. A typical factor that changes the S / N ratio is the ISO sensitivity setting. ISO sensitivity setting means that, for example, when a dark subject is photographed at a predetermined aperture value or shutter speed, an image with a desired brightness is obtained by applying gain to the image signal by the image sensor 202 or the A / D converter 203. This setting is possible. When the gain increases, the noise signal superimposed on the captured image is amplified, and the output image becomes an image with a noticeable noise. In addition to the ISO sensitivity setting, the S / N ratio may change if the driving method changes such as long-time shooting or moving image shooting. In this embodiment, the case of ISO sensitivity setting will be described for simplicity. When the constant C in Expression (6) determined under a predetermined condition is used even when the ISO sensitivity is changed, the constant C is applied to an image having a worse S / N ratio than the condition assumed by the image restoration filter. There is a case. At this time, the image restoration filter amplifies noise, which is not preferable for a captured image. Therefore, it is preferable to define the maximum gain that can be set by the image restoration filter according to the ISO sensitivity.
なお、本実施形態ではISO感度と最大ゲインの特性テーブルを保存している場合について説明したが、撮影画像のOB(Optical Black)領域等から画像のノイズ成分を推測して最大ゲインを算出してもよい。その場合、記憶部208は、横軸が撮影画像のS/N、縦軸が最大ゲインのテーブルを保持しておけばよい。また、長秒撮影や動画撮影などの場合も同様の手法で最大ゲインを取得する。 In this embodiment, the ISO sensitivity and maximum gain characteristic table is stored. However, the maximum gain is calculated by estimating the noise component of the image from the OB (Optical Black) region of the captured image. Also good. In that case, the storage unit 208 may hold a table with the S / N of the captured image on the horizontal axis and the maximum gain on the vertical axis. Further, the maximum gain is acquired by the same method in the case of long-second shooting or moving image shooting.
ステップS15では、処理部204cが、撮像光学系201の光学伝達関数OTFを用いて、ISO感度に応じたゲイン特性を有する画像回復フィルタを生成する。生成された画像回復フィルタは、撮像素子202のノイズ特性という観点から光学伝達関数OTFの特性を加味して取得された画像回復フィルタである。 In step S15, the processing unit 204c generates an image restoration filter having a gain characteristic corresponding to the ISO sensitivity, using the optical transfer function OTF of the imaging optical system 201. The generated image restoration filter is an image restoration filter obtained in consideration of the characteristics of the optical transfer function OTF from the viewpoint of noise characteristics of the image sensor 202.
ここで、図8を参照して、画像回復フィルタの生成方法について説明する。図8(a)は、それぞれ異なる光学特性(A),(B)のMTF特性を示す図である。図8(a)において、横軸は空間周波数、縦軸は振幅特性(MTF)を表す。図8(b)は、式(6)で表されるウィナーフィルタで画像回復フィルタを生成した場合のゲイン特性を示す図である。図8(b)において、横軸は空間周波数、縦軸はゲインを表す。式(6)では高周波側でゲインを落とすように定数Cが組み込まれているが、図8(b)に示されるようにゲインの落ち方は元の光学特性によって異なる。図8(b)では、光学特性(A)の場合は周波数faで最大ゲインがGmax(A)、光学特性(B)の場合は周波数fbで最大ゲインがGmax(B)になる。この場合、高周波側でゲインは低減するが、最大ゲインは元の光学特性に影響されるため、最終的な画像のノイズ増幅の影響を管理することは難しい。 Here, a method for generating an image restoration filter will be described with reference to FIG. FIG. 8A is a diagram showing MTF characteristics of different optical characteristics (A) and (B). In FIG. 8A, the horizontal axis represents the spatial frequency, and the vertical axis represents the amplitude characteristic (MTF). FIG. 8B is a diagram illustrating gain characteristics when an image restoration filter is generated by the Wiener filter represented by Expression (6). In FIG. 8B, the horizontal axis represents the spatial frequency and the vertical axis represents the gain. In the equation (6), a constant C is incorporated so as to reduce the gain on the high frequency side, but the way of decreasing the gain differs depending on the original optical characteristics as shown in FIG. In FIG. 8B, in the case of the optical characteristic (A), the maximum gain is Gmax (A) at the frequency fa, and in the case of the optical characteristic (B), the maximum gain is Gmax (B) at the frequency fb. In this case, the gain is reduced on the high frequency side, but the maximum gain is affected by the original optical characteristics, so it is difficult to manage the influence of noise amplification of the final image.
そこで、本実施形態では、図8(c)に示されるように、元の光学特性に影響されないように、最大ゲインを所定値に規定する。図8(c)では、光学特性(A),(B)ともに最大ゲインがGmaxになっており、全周波数帯域においてGmax以上のゲインが掛からないように規定されている。このような特性を実現するために、式(6)の定数Cの代わりに式(7)に示される最大ゲインを規定する関数F(α)を追加する。 Therefore, in the present embodiment, as shown in FIG. 8C, the maximum gain is defined as a predetermined value so as not to be affected by the original optical characteristics. In FIG. 8C, the maximum gain is Gmax for both the optical characteristics (A) and (B), and it is defined that no gain greater than Gmax is applied in the entire frequency band. In order to realize such characteristics, a function F (α) that defines the maximum gain shown in Expression (7) is added instead of the constant C in Expression (6).
αは、最大ゲインを規定するための変数である。なお、式(7)で表した式は、最大ゲインを規定するための一例であり、他の式や手段によって規定してもよい。 α is a variable for defining the maximum gain. The expression represented by Expression (7) is an example for defining the maximum gain, and may be defined by other expressions or means.
本実施形態では、最大ゲインを規定した画像回復フィルタを生成することで、ノイズへの影響を制御することが可能になる。すなわち、撮像装置200のノイズ特性があらかじめわかっている場合は、ノイズ特性に応じた値で式(7)のαを決定することで、元の光学特性に依存されない最適な画像回復フィルタを生成することができる。 In this embodiment, it is possible to control the influence on noise by generating an image restoration filter that defines a maximum gain. That is, when the noise characteristics of the imaging apparatus 200 are known in advance, an optimal image restoration filter that does not depend on the original optical characteristics is generated by determining α in Expression (7) with a value corresponding to the noise characteristics. be able to.
ステップS16では、画像処理部204が、ステップS15で生成された画像回復フィルタを用いて撮影画像の画像回復処理を行う。すなわち、撮影画像に画像回復フィルタをコンボリューション(畳み込み)することで、撮影画像の画像回復処理を行う。 In step S <b> 16, the image processing unit 204 performs image restoration processing of the captured image using the image restoration filter generated in step S <b> 15. In other words, the image restoration process of the photographed image is performed by convolving the image restoration filter with the photographed image.
ステップS17では、ステップS16での画像回復処理の結果に基づいて回復画像(出力画像)を出力する。
[第2実施形態]
第1実施形態では、撮影条件に応じた最大ゲインを規定してフィルタ生成を行うことを説明した。図8(c)において、光学特性(A)では周波数fb’のときに最大ゲインに到達し、光学特性(B)では周波数fa’のときに最大ゲインに到達する。撮像素子202に発生するノイズは、ランダムな成分が主体的なため、ナイキスト周波数近傍の周波数が支配的である。第1実施形態で説明した手法は全周波数帯域での最大ゲインを管理することは可能だが、ターゲットとなるノイズの特定の周波数に対しては詳細に管理したフィルタの生成を行ったほうがノイズ抑制には効果的である。
In step S17, a recovered image (output image) is output based on the result of the image recovery process in step S16.
[Second Embodiment]
In the first embodiment, it has been described that filter generation is performed by defining a maximum gain according to imaging conditions. In FIG. 8C, the maximum gain is reached at the frequency fb ′ in the optical characteristic (A), and the maximum gain is reached at the frequency fa ′ in the optical characteristic (B). Since the noise generated in the image sensor 202 is mainly a random component, the frequency near the Nyquist frequency is dominant. Although the method described in the first embodiment can manage the maximum gain in the entire frequency band, it is more effective to generate a filter that is managed in detail for a specific frequency of the target noise. Is effective.
本実施形態の画像回復処理は、図6に示すフローに沿って実行される。本実施形態では、ステップS15において、第1実施形態よりもターゲットのノイズの周波数に対して詳細に管理して画像回復フィルタを生成する。他のステップは、第1実施形態と同様であるため、その説明は省略する。なお、第1実施形態と同様に、図6のフローチャートは、画像処理部204の指令に基づいて実行される。 The image restoration process of the present embodiment is executed along the flow shown in FIG. In this embodiment, in step S15, an image restoration filter is generated by managing the frequency of the target noise in more detail than in the first embodiment. Since other steps are the same as those in the first embodiment, the description thereof is omitted. As in the first embodiment, the flowchart of FIG. 6 is executed based on a command from the image processing unit 204.
図9は、周波数ごとの重みづけ・ターゲット周波数の説明図である。図9(a)は、所定の光学特性のMTF特性を示す図である。図9(b)は、図9(a)の特性を最大ゲインGmaxで規定した場合の画像回復フィルタのゲイン特性を示す図である。画像回復フィルタ(A)〜(C)は、重みづけする周波数を変更することで生成される。画像回復フィルタ(A)が最も低周波を重視し、画像回復フィルタ(B)が次に低周波を重視し、画像回復フィルタ(C)が最も高周波を重視している。このような画像回復フィルタはあらかじめ設定しておいてもよいし、動的なパラメータにより式(8)を用いて自動で生成できるようにしてもよい。 FIG. 9 is an explanatory diagram of weighting and target frequency for each frequency. FIG. 9A is a diagram illustrating the MTF characteristic of a predetermined optical characteristic. FIG. 9B is a diagram illustrating the gain characteristics of the image restoration filter when the characteristics of FIG. 9A are defined by the maximum gain Gmax. The image restoration filters (A) to (C) are generated by changing the frequency to be weighted. The image restoration filter (A) places the highest importance on the low frequency, the image restoration filter (B) puts the importance on the low frequency next, and the image restoration filter (C) puts the highest priority on the high frequency. Such an image restoration filter may be set in advance or may be automatically generated by using dynamic parameters using Expression (8).
式(8)は、式(7)のαにGmaxを設定し、周波数ごとに重みづけを与える関数G(u、v)が追加されている。なお、上記式でなくても同様のことが実現できるのであれば他の式や方法を用いてもよい。 In Expression (8), Gmax is set to α in Expression (7), and a function G (u, v) that gives weighting for each frequency is added. Note that other equations and methods may be used as long as the same can be realized without using the above equations.
図9(c)は、図9(b)の各画像回復フィルタで画像回復処理をした場合のMTF特性の変化を表した図である。元の特性に対し、画像回復フィルタ(A)は最も低周波で持ち上がり、画像回復フィルタ(C)は最も高周波で持ち上がる。 FIG. 9C is a diagram showing a change in MTF characteristics when image restoration processing is performed by each image restoration filter of FIG. 9B. In contrast to the original characteristics, the image restoration filter (A) is lifted at the lowest frequency, and the image restoration filter (C) is lifted at the highest frequency.
ターゲットの周波数F_targetが決定している場合、関数G(u、v)を変更して生成した画像回復フィルタのゲイン特性から周波数F_targetにかかるゲインを取得することができる。図9(b)では、画像回復フィルタA,B,Cの周波数F_targetにかかるゲインはそれぞれ、Ga,Gb,Gcである。このようにあらかじめ撮像素子202のノイズ特性により周波数F_targetにかかる最大ゲインを規定しておくことで、さらに詳細にノイズ低減を高精度に制御できる画像回復フィルタが生成可能となる。その場合、極端に低域や高域に重みづけするとリンギング等の弊害が発生する可能性があるため、関数G(u、v)はあらかじめ最適な範囲のものを規定しておく必要がある。また、ゲイン特性が極端に下がっている(特に1未満)場合には、LPF効果により画像が眠くなってしまうため、周波数F_targetにかかる最大ゲインとともに最小ゲインも規定しておくことが好ましい。
[第3実施形態]
第1,2実施形態では、取得した光学伝達関数OTFを逆フーリエ変換して画像回復フィルタを生成する方法について説明した。理想的には、第1,2実施形態のように周波数領域で処理を行うことが好ましいが、逆フーリエ変換を必要とするため、撮像装置200の演算スピードや、製品コストに見合わない場合、逆フーリエ変換処理の実行が難しい場合がある。その場合、あらかじめ外部で逆フーリエ変換を行い、演算した結果の空間フィルタを記憶部208に記憶しておき、撮影条件にあった画像回復フィルタを抽出して、画像回復処理を行うことが考えられる。その場合、ノイズ対策として必要となる空間フィルタも事前にすべて計算する必要があるが、撮影条件と最大ゲインの組合せで必要になってくるため、記憶部208の記憶量が膨大になってしまう。
When the target frequency F_target is determined, the gain relating to the frequency F_target can be acquired from the gain characteristic of the image restoration filter generated by changing the function G (u, v). In FIG. 9B, the gains applied to the frequency F_target of the image restoration filters A, B, and C are Ga, Gb, and Gc, respectively. Thus, by preliminarily specifying the maximum gain applied to the frequency F_target based on the noise characteristics of the image sensor 202, it is possible to generate an image restoration filter that can control noise reduction in more detail with high accuracy. In that case, if the weighting is extremely low or high, there is a possibility that harmful effects such as ringing may occur. Therefore, the function G (u, v) needs to be defined in an optimal range in advance. Further, when the gain characteristic is extremely lowered (particularly less than 1), the image becomes sleepy due to the LPF effect. Therefore, it is preferable to define the minimum gain as well as the maximum gain applied to the frequency F_target.
[Third embodiment]
In the first and second embodiments, the method of generating an image restoration filter by performing inverse Fourier transform on the acquired optical transfer function OTF has been described. Ideally, it is preferable to perform processing in the frequency domain as in the first and second embodiments. However, since inverse Fourier transform is required, if the calculation speed of the imaging apparatus 200 and the product cost are not met, It may be difficult to perform the inverse Fourier transform process. In this case, it is conceivable to perform an inverse Fourier transform externally in advance, store the calculated spatial filter in the storage unit 208, extract an image restoration filter that meets the imaging conditions, and perform an image restoration process. . In that case, it is necessary to calculate in advance all the spatial filters required as noise countermeasures, but the amount of storage in the storage unit 208 becomes enormous because it is necessary for the combination of the imaging conditions and the maximum gain.
本実施形態では、記憶部208から画像回復フィルタを取得する場合に、記憶部208が保存する容量を最小限に抑えながらノイズ対策も行う。図10を参照して、本実施形態の画像回復処理について説明する。図11は、本実施形態の画像回復処理を示すフローチャートである。図10のフローチャートは、画像処理部204の指令に基づいて実行される。 In this embodiment, when an image restoration filter is acquired from the storage unit 208, noise countermeasures are taken while minimizing the capacity stored in the storage unit 208. With reference to FIG. 10, the image restoration process of this embodiment is demonstrated. FIG. 11 is a flowchart showing image restoration processing according to the present embodiment. The flowchart in FIG. 10 is executed based on a command from the image processing unit 204.
ステップS111、ステップS112はそれぞれ、図6のステップS11、S12と同一のため、説明は省略する。 Steps S111 and S112 are the same as steps S11 and S12 in FIG.
ステップ113では、ステップS112で記憶部208から取得した撮影条件に応じた画像回復フィルタを取得する。第1実施形態では光学伝達関数OTFを取得したが、本実施形態では前述の通り光学伝達関数OTFを逆フーリエ変換した結果の画像回復フィルタを取得する。このとき、保存されていない撮影条件の画像回復フィルタとして、近傍の画像回復フィルタを流用してもよいし、周囲の画像回復フィルタから補間により生成してもよい。 In step 113, an image restoration filter corresponding to the photographing condition acquired from the storage unit 208 in step S112 is acquired. In the first embodiment, the optical transfer function OTF is acquired. However, in the present embodiment, as described above, an image restoration filter obtained as a result of inverse Fourier transform of the optical transfer function OTF is acquired. At this time, a nearby image restoration filter may be used as an image restoration filter for shooting conditions that are not stored, or may be generated by interpolation from surrounding image restoration filters.
ステップS114では、ステップS113で取得した画像回復フィルタでの最大ゲインを記憶部208から取得する。図11を参照して、最大ゲインについて説明する。図11は異なる光学特性(A),(B)の振幅特性を示す図であり、図11(b)は光学特性(A),(B)の最大ゲインを示す図である。光学特性(A)では最大ゲインはGa、光学特性(B)では最大ゲインはGbである。光学特性(A),(B)の画像回復フィルタを外部で生成するときにあらかじめ、設定しておいたターゲット周波数(F_target)のゲインの値を画像回復フィルタとリンクさせて記憶部208に記憶させておく。こうすることで、画像回復フィルタからだけでは判断できない周波数空間上のゲイン特性を後から確認できるようになる。この情報は1光学特性につき1つでよいので画像回復フィルタの大きさに比べると無視できるサイズであり、記憶部208に与える影響は極めて小さい。なお、画像回復フィルタが記憶されていない場合、最大ゲインとして、近傍の値を使用してもよいし、周囲の最大ゲインから補間により生成してもよい。 In step S114, the maximum gain in the image restoration filter acquired in step S113 is acquired from the storage unit 208. The maximum gain will be described with reference to FIG. FIG. 11 is a diagram illustrating amplitude characteristics of different optical characteristics (A) and (B), and FIG. 11 (b) is a diagram illustrating maximum gains of the optical characteristics (A) and (B). In the optical characteristic (A), the maximum gain is Ga, and in the optical characteristic (B), the maximum gain is Gb. When the image restoration filter having the optical characteristics (A) and (B) is generated outside, the gain value of the target frequency (F_target) set in advance is linked with the image restoration filter and stored in the storage unit 208. Keep it. By doing this, it becomes possible to confirm later the gain characteristics in the frequency space that cannot be determined only from the image restoration filter. Since one piece of information per optical characteristic is sufficient, the size is negligible compared to the size of the image restoration filter, and the influence on the storage unit 208 is extremely small. If no image restoration filter is stored, a neighboring value may be used as the maximum gain, or it may be generated by interpolation from the surrounding maximum gain.
ステップS115では、ステップS112で取得した撮影条件とステップS114で取得した最大ゲインから加重加算率を決定する。図12を参照して、加重加算率の決定方法の一例について説明する。図12は所定のISO感度における最大ゲイン情報に対する加重加算率を示す図である。図12では、最大ゲインが最大ゲインaより小さい場合は加重加算率が0%、つまり、画像回復フィルタを用いた補正後の画像がそのまま最終出力となる。一方、最大ゲインが最大ゲインbより大きい場合は加重加算率が80%、つまり、補正前の画像が8割、補正後の画像が2割の割合で加重平均される。こうすることで、簡易的ではあるが、ゲインが高い領域の場合は補正前の元信号を多く使用することによりノイズ悪化を軽減することが可能となる。このテーブルは設定可能なISO感度ごとに持つ必要があるが、代表的な条件の最大ゲインaと最大ゲインa,b間の傾きを所持しておき、残りのISO感度のテーブルは適宜数値演算によって生成してもよい。このように周波数空間上で処理ができない場合に関しては、簡易的にかつ、メモリの消費を最小限に抑えた形で実現することができる。なお、本実施形態もISO感度の例について説明を行ったが、第1,2実施形態と同様に画像のノイズ量を画像から推定して同様のことを行ってもよい。 In step S115, the weighted addition rate is determined from the imaging condition acquired in step S112 and the maximum gain acquired in step S114. With reference to FIG. 12, an example of a method for determining the weighted addition rate will be described. FIG. 12 is a diagram showing a weighted addition rate for maximum gain information at a predetermined ISO sensitivity. In FIG. 12, when the maximum gain is smaller than the maximum gain a, the weighted addition rate is 0%, that is, the image after correction using the image restoration filter becomes the final output as it is. On the other hand, when the maximum gain is greater than the maximum gain b, the weighted addition rate is 80%, that is, the weighted average is performed at a ratio of 80% for the uncorrected image and 20% for the corrected image. By doing this, although it is simple, in a region where the gain is high, it is possible to reduce noise deterioration by using a large number of original signals before correction. It is necessary to have this table for each ISO sensitivity that can be set. However, the maximum gain a under typical conditions and the slope between the maximum gains a and b are held, and the remaining ISO sensitivity table is appropriately calculated by numerical calculation. It may be generated. As described above, the case where the processing cannot be performed in the frequency space can be realized simply and with the memory consumption being minimized. In this embodiment, an example of ISO sensitivity has been described. However, similar to the first and second embodiments, the noise amount of an image may be estimated from the image and the same may be performed.
なお、本発明は、以下の処理を実行することによっても実現する。各実施形態の機能を実現するソフトウェア(プログラム)を、ネットワークまたは各種記録媒体を介してシステムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。 In addition, this invention is implement | achieved also by performing the following processes. Processing for supplying software (program) for realizing the functions of each embodiment to a system or apparatus via a network or various recording media, and for the computer (or CPU, MPU, etc.) of the system or apparatus to read and execute the program It is.
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.
204 画像処理部(画像処理装置)
204a 撮影条件取得部(第1の取得手段)
204b 光学伝達関数取得部(第2の取得手段)
204c 処理部(処理手段)
204 Image processing unit (image processing apparatus)
204a Imaging condition acquisition unit (first acquisition means)
204b Optical transfer function acquisition unit (second acquisition means)
204c Processing unit (processing means)
Claims (7)
前記撮影条件に基づいて画像回復フィルタ、および前記画像回復フィルタに対応する特定の周波数のゲインを取得する第2の取得手段と、
前記撮影条件のうちノイズ特性に関する情報、および前記ゲインに基づいて、前記撮影画像と前記画像回復フィルタを用いて補正された画像を所定の割合で足し合わせる処理手段と、を有することを特徴とする画像処理装置。 First acquisition means for acquiring shooting conditions of a shot image;
Second acquisition means for acquiring an image restoration filter based on the imaging condition and a gain of a specific frequency corresponding to the image restoration filter;
Processing means for adding the photographed image and the image corrected by using the image restoration filter at a predetermined ratio based on information on noise characteristics in the photographing condition and the gain. Image processing device.
前記撮影条件に基づいて画像回復フィルタ、および前記画像回復フィルタに対応する特定の周波数のゲインを取得するステップと、
前記撮影条件のうちノイズ特性に関する情報、および前記ゲインに基づいて、前記撮影画像と前記画像回復フィルタを用いて補正された画像とを所定の割合で足し合わせるステップと、を有することを特徴とする画像処理方法。 Obtaining the shooting conditions of the shot image;
Acquiring an image restoration filter based on the imaging condition, and a gain of a specific frequency corresponding to the image restoration filter;
A step of adding the photographed image and the image corrected using the image restoration filter at a predetermined ratio based on information on noise characteristics in the photographing condition and the gain. Image processing method.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015162353A JP2017041763A (en) | 2015-08-20 | 2015-08-20 | Image processing system and image processing method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015162353A JP2017041763A (en) | 2015-08-20 | 2015-08-20 | Image processing system and image processing method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2017041763A true JP2017041763A (en) | 2017-02-23 |
Family
ID=58203242
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2015162353A Pending JP2017041763A (en) | 2015-08-20 | 2015-08-20 | Image processing system and image processing method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2017041763A (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11120529B2 (en) | 2017-11-06 | 2021-09-14 | Canon Kabushiki Kaisha | Image processing apparatus, imaging apparatus, lens apparatus, image processing method, and recording medium |
-
2015
- 2015-08-20 JP JP2015162353A patent/JP2017041763A/en active Pending
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11120529B2 (en) | 2017-11-06 | 2021-09-14 | Canon Kabushiki Kaisha | Image processing apparatus, imaging apparatus, lens apparatus, image processing method, and recording medium |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6327922B2 (en) | Image processing apparatus, image processing method, and program | |
| JP5409829B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
| US8941762B2 (en) | Image processing apparatus and image pickup apparatus using the same | |
| JP5264968B2 (en) | Image processing apparatus, image processing method, imaging apparatus, and image processing program | |
| US8754957B2 (en) | Image processing apparatus and method | |
| JP6525718B2 (en) | Image processing apparatus, control method therefor, and control program | |
| JP5959976B2 (en) | Image processing method, image processing program, image processing apparatus, and imaging apparatus | |
| JP5546229B2 (en) | Image processing method, image processing apparatus, imaging apparatus, and image processing program | |
| US8866937B2 (en) | Image processing apparatus, image processing method, and program | |
| KR101536162B1 (en) | Image processing apparatus and method | |
| JP2011123589A5 (en) | ||
| JP5344648B2 (en) | Image processing method, image processing apparatus, imaging apparatus, and image processing program | |
| JP5653464B2 (en) | Imaging apparatus, image processing apparatus, image processing method, image processing program, and storage medium | |
| JP2020191034A (en) | Image processing device, imaging device, lens device, image processing system, image processing method, and program | |
| JP5268533B2 (en) | Image processing method, image processing apparatus, imaging apparatus, and image processing program | |
| JP6559011B2 (en) | Image processing apparatus and image processing method | |
| JP5645981B2 (en) | Imaging apparatus, image processing apparatus, image processing method, image processing program, and storage medium | |
| JP2012234484A (en) | Image processing method, image processor, imaging apparatus and image processing program | |
| JP5425136B2 (en) | Image processing method, image processing apparatus, imaging apparatus, and image processing program | |
| JP2017041763A (en) | Image processing system and image processing method | |
| JP7646427B2 (en) | IMAGE PROCESSING METHOD, IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, AND PROGRAM | |
| JP2012156714A (en) | Program, image processing device, image processing method, and imaging device | |
| JP6605009B2 (en) | Image processing apparatus, imaging apparatus, image processing method, image processing program, and recording medium | |
| JP2016092676A (en) | Image processing apparatus, imaging apparatus, camera system and image processing system |