JP2006295807A - Imaging apparatus, image processing method, program, and storage medium - Google Patents
Imaging apparatus, image processing method, program, and storage medium Download PDFInfo
- Publication number
- JP2006295807A JP2006295807A JP2005117133A JP2005117133A JP2006295807A JP 2006295807 A JP2006295807 A JP 2006295807A JP 2005117133 A JP2005117133 A JP 2005117133A JP 2005117133 A JP2005117133 A JP 2005117133A JP 2006295807 A JP2006295807 A JP 2006295807A
- Authority
- JP
- Japan
- Prior art keywords
- noise reduction
- imaging lens
- correction
- image
- reduction processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Studio Devices (AREA)
Abstract
【課題】 レンズ固有の特性によって生じる画像劣化を低減し、高画質な画像を得る。
【解決手段】 被写体からの光を映像信号に変換する撮像素子と、撮像レンズに関する情報を取得する撮像レンズ情報取得手段と、前記撮像レンズに関する情報に基づいて前記映像信号に生じる画質劣化を補正する補正手段と、前記補正手段の出力信号に対してノイズ低減処理を行うノイズ低減処理手段と、前記補正手段の出力信号から、前記ノイズ低減処理を行う着目画素が含まれる領域が、所定の特性を持つ領域か否かを判別する判別手段と、
を有し、前記判別手段において着目画素の含まれる領域が所定の特性を持つ領域であると判別された場合に、前記補正手段での補正量に基づいて、画面内の位置に応じて前記ノイズ低減処理におけるノイズの抑圧レベルを変える。
【選択図】 図1PROBLEM TO BE SOLVED: To obtain a high quality image by reducing image deterioration caused by a characteristic unique to a lens.
An imaging device that converts light from a subject into a video signal, imaging lens information acquisition means that acquires information related to the imaging lens, and image quality degradation that occurs in the video signal based on the information related to the imaging lens. A correction unit, a noise reduction processing unit that performs noise reduction processing on the output signal of the correction unit, and a region that includes a pixel of interest that performs the noise reduction processing from the output signal of the correction unit have predetermined characteristics. A discriminating means for discriminating whether or not the area has
And when the region including the target pixel is determined to be a region having a predetermined characteristic by the determination unit, the noise is determined according to the position in the screen based on the correction amount of the correction unit. Change the noise suppression level in the reduction process.
[Selection] Figure 1
Description
本発明は、撮像装置に関し、特に、光学レンズの特性による歪曲収差、及び、周辺光量落ちによる画質劣化を画像処理によって補正するようにした撮像装置及び画像処理方法に関する。 The present invention relates to an image pickup apparatus, and more particularly to an image pickup apparatus and an image processing method in which distortion due to characteristics of an optical lens and image quality deterioration due to a decrease in peripheral light amount are corrected by image processing.
光学系、撮像素子を介して被写体画像情報を取り込み、各種信号処理を行って映像信号を出力する撮像装置では、撮像面における画素位置が光軸中心から周辺に離れるほど、レンズの光学特性に依存した画質への悪影響が生じる。 In an imaging device that captures subject image information via an optical system or imaging device, and performs various signal processing and outputs a video signal, the pixel position on the imaging surface depends on the optical characteristics of the lens as the pixel position moves away from the center of the optical axis. Adversely affects the image quality.
具体的には、画像の周辺部ほど幾何学的な形状が歪曲する“光学歪み”現象と、画像の周辺部ほど光量が低下する、“周辺光量落ち”(シェーディング)現象が挙げられる。 Specifically, there are an “optical distortion” phenomenon in which the geometric shape is distorted toward the peripheral portion of the image, and a “peripheral light amount drop” (shading) phenomenon in which the light amount decreases toward the peripheral portion of the image.
従来、レンズによる“光学歪み”を補正するためには、映像信号をデジタル信号に変換して画像メモリに書き込み、歪み特性に応じて読み出して補間処理を行う撮像装置が提案されている(例えば、特許文献1参照。)。 Conventionally, in order to correct “optical distortion” caused by a lens, an imaging apparatus that converts a video signal into a digital signal, writes it in an image memory, reads out it according to distortion characteristics, and performs interpolation processing has been proposed (for example, (See Patent Document 1).
また、レンズによる“周辺光量落ち”を補正するために、光量の低下する周辺部分に関して、中心部分と同程度の光量になるように、中心からの距離に応じた補正値を乗じるデジタルカメラが提案されている(例えば、特許文献2参照。)。
しかしながら、上記従来例では、レンズの光学特性に起因する画質劣化(光学歪み、周辺光量落ち)をゲインアップ等で補正することによって、画面内でS/Nにばらつきが生じ、画質に悪影響が生じるということについては、考慮されていなかった。 However, in the above conventional example, by correcting image quality deterioration (optical distortion, peripheral light loss) caused by the optical characteristics of the lens by increasing the gain, the S / N varies within the screen, and the image quality is adversely affected. That was not taken into account.
例えば、特許文献1では、光学歪み補正を行うことにより、レンズの光学特性とは関係なく撮像素子上で発生するノイズにも補間処理が適用され、かつ、画面内の位置によって、歪みの方向と大きさが異なるために、ノイズに対する変調度が変わり、ノイズの粒状感にばらつきが生じ、画質が劣化するという問題があった。 For example, in Patent Document 1, by performing optical distortion correction, interpolation processing is also applied to noise generated on the image sensor regardless of the optical characteristics of the lens. Due to the difference in size, there is a problem that the degree of modulation with respect to noise changes, the graininess of noise varies, and image quality deteriorates.
また、特許文献2では、光量落ちした周辺部分をゲインアップすることにより、ノイズレベルも大きくなってしまい、画面の中心部分と周辺部分とでノイズのレベルにばらつきが出るという問題があった。
Further, in
いずれの場合も、レンズの光学特性に起因する画質劣化現象の補正の度合いに応じて、画面の中心部から周辺部に行くほど、S/Nが悪くなっていた。 In either case, the S / N deteriorated from the center of the screen to the periphery depending on the degree of correction of the image quality deterioration phenomenon caused by the optical characteristics of the lens.
本発明の撮像装置は、被写体からの光を映像信号に変換する撮像素子と、
撮像レンズに関する情報を取得する撮像レンズ情報取得手段と、
前記撮像レンズに関する情報に基づいて前記映像信号に生じる画質劣化を補正する補正手段と、
前記補正手段の出力信号に対してノイズ低減処理を行うノイズ低減処理手段と、
前記補正手段の出力信号から、前記ノイズ低減処理を行う着目画素が含まれる領域が、所定の特性を持つ領域か否かを判別する判別手段と、
を有し、
前記判別手段において着目画素の含まれる領域が所定の特性を持つ領域であると判別された場合に、
前記補正手段での補正量に基づいて、画面内の位置に応じて前記ノイズ低減処理におけるノイズの抑圧レベルを変えることを特徴とする。
An imaging device of the present invention includes an imaging device that converts light from a subject into a video signal;
Imaging lens information acquisition means for acquiring information about the imaging lens;
Correction means for correcting image quality degradation that occurs in the video signal based on information about the imaging lens;
Noise reduction processing means for performing noise reduction processing on the output signal of the correction means;
Discriminating means for discriminating whether or not an area including the target pixel for performing the noise reduction processing is an area having a predetermined characteristic from an output signal of the correcting means;
Have
When it is determined in the determining means that the region including the target pixel is a region having a predetermined characteristic,
The noise suppression level in the noise reduction processing is changed according to the position in the screen based on the correction amount in the correction means.
また、本発明の画像処理方法は、撮像レンズに関する情報を取得する撮像レンズ情報取得工程と、
前記撮像レンズに関する情報に基づいて撮像素子から得られる映像信号に生じる画質劣化を補正する補正工程と、
前記補正工程の出力信号に対してノイズ低減処理を行うノイズ低減処理工程と、
前記補正工程の出力信号から、ノイズ低減処理を行う着目画素が含まれる領域が、所定の特性を持つ領域であるか否かを判別する判別工程と、
前記判別工程において着目画素の含まれる領域が所定の特性を持つ領域であると判別された場合に、
前記補正工程での補正量に基づいて、前記ノイズ低減処理におけるノイズの抑圧レベルを画面内の位置に応じて変えることを特徴とする。
Further, the image processing method of the present invention includes an imaging lens information acquisition step of acquiring information related to the imaging lens,
A correction step of correcting image quality degradation that occurs in a video signal obtained from an image sensor based on information about the imaging lens;
A noise reduction processing step of performing noise reduction processing on the output signal of the correction step;
A determination step of determining whether or not the region including the target pixel for performing noise reduction processing is a region having a predetermined characteristic from the output signal of the correction step;
When it is determined in the determination step that the region including the target pixel is a region having a predetermined characteristic,
The noise suppression level in the noise reduction processing is changed according to the position in the screen based on the correction amount in the correction step.
本発明の撮像装置によれば、レンズ固有の特性による例えば、光学歪み補正や周辺光量落ちを画像処理で補正することによって生じる、画面内でのノイズの粒状感のばらつきやノイズレベルのばらつき等の画像劣化を低減し、高画質な画像を得ることができる。 According to the image pickup apparatus of the present invention, for example, due to lens-specific characteristics, for example, optical distortion correction and peripheral light loss correction are corrected by image processing. It is possible to reduce image degradation and obtain a high-quality image.
以下、図面を参照しながら本発明の好適な実施の形態を説明する。 Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
(第1の実施形態1)
図1に、本発明の第1の実施形態である撮像装置の概略構成ブロック図を示す。本実施形態は、レンズの光学歪み補正によって生じる、画面周辺部のS/N劣化を低減するための構成である。
(First Embodiment 1)
FIG. 1 shows a schematic block diagram of an imaging apparatus according to the first embodiment of the present invention. The present embodiment is a configuration for reducing S / N degradation at the periphery of the screen, which occurs due to optical distortion correction of the lens.
図1において、001は光学レンズ、002は撮像素子、003はA/D変換処理部、004は撮像素子駆動部である。撮像素子駆動部からの制御信号によって、所定のタイミングで撮像素子から画像信号を読み出し、A/D変換を行って、光学歪みを含んだデジタルの画像信号を得る。006はマイコンであり、レンズの位置制御(フォーカス、シフト制御)、および光学歪み補正処理とノイズ低減処理の制御を行う。
In FIG. 1, 001 is an optical lens, 002 is an image sensor, 003 is an A / D conversion processing unit, and 004 is an image sensor driving unit. An image signal is read from the image sensor at a predetermined timing by a control signal from the image sensor driving unit, and A / D conversion is performed to obtain a digital image signal including optical distortion.
007は補正手段としての光学歪み補正処理部であり、内部に1フレーム分の画像を保持するためのメモリ回路014と、補間回路015を有している。
008は、光学歪み補正処理後の画像信号に対し、補正の対象となる着目画素の含まれる被写体領域が、所定の特性を持った領域、すなわち平坦部であるか否かを判別する判別手段としての被写体領域判別処理部である。009はノイズ低減処理手段としての光学歪み補正処理後の映像信号に対して、ノイズ低減処理を行うノイズ低減処理部である。 008 is a discriminating means for discriminating whether or not the subject region including the target pixel to be corrected is a region having a predetermined characteristic, that is, a flat portion with respect to the image signal after the optical distortion correction processing. The subject area determination processing unit. Reference numeral 009 denotes a noise reduction processing unit that performs noise reduction processing on the video signal after the optical distortion correction processing as noise reduction processing means.
010はカメラ信号処理部であり、図示しない輝度色差信号生成処理、アパーチャ処理、ガンマ処理等を行い、最終的な映像信号を映像信号出力端子011から出力する。
次に、光学歪み補正処理部007での処理について図1と図15のフローを用いて説明する。
Next, processing in the optical distortion
光学歪み補正処理部007では、まず、A/D変換後の光学歪みを含む画像を、メモリ回路014に保持する(S151)。例えば、図2(a)に示すような被写体を撮影した場合、撮像レンズの収差によって、図2(b)に示すような糸巻き状に歪曲した被写体の像が、デジタル画像としてメモリ回路014に取り込まれる。尚、図2(b)において、x、yは、画像における各画素の位置を示す座標軸である。
In the optical distortion
次に、1画素目から順に全画素の読み出しが終了するまで(S152)メモリ回路014では、マイコンから入力される、歪み特性サンプリング情報に従って、光学歪み補正に必要な所定領域の画素値を読み出す(S153)。 Next, until reading of all pixels is completed in order from the first pixel (S152), the memory circuit 014 reads pixel values in a predetermined area necessary for optical distortion correction in accordance with distortion characteristic sampling information input from the microcomputer (S152). S153).
ここで、歪み特性サンプリング情報とは、メモリ回路014に格納された光学歪みを含む画像を、レンズ固有の歪み特性に沿ってサンプリングするための2次元のアドレスマップデータであり、撮像レンズに関する情報である005に格納されたレンズ固有の歪み補正特性データとレンズ制御(フォーカス、シフト)による位置情報を用いて撮像レンズ情報取得手段としてのマイコンで計算される。 Here, the distortion characteristic sampling information is two-dimensional address map data for sampling an image including optical distortion stored in the memory circuit 014 along the distortion characteristic peculiar to the lens, and is information regarding the imaging lens. It is calculated by a microcomputer as an imaging lens information acquisition unit using the lens-specific distortion correction characteristic data stored in a certain 005 and position information by lens control (focus, shift).
図2(b)に示す光学歪み画像の一部分を、歪み特性サンプリング情報に沿ってサンプリングした例を図3(a)に示す。図3(a)において、白丸は、歪み特性サンプリング情報に沿った歪み画像のサンプリング点を表して、メッシュの1マスは、画像の1画素に対応している。 FIG. 3A shows an example in which a part of the optical distortion image shown in FIG. 2B is sampled along the distortion characteristic sampling information. In FIG. 3A, a white circle represents a sampling point of the distorted image along the distortion characteristic sampling information, and one square of the mesh corresponds to one pixel of the image.
メモリ回路014では、歪み特性サンプリング情報で示されるサンプリング点について、近傍の複数画素を読み出す。例えば、図3(a)において、歪み特性サンプリング情報として点3aが指示されると、メモリ回路からは、点3aの近傍の4画素31、32、33、34が読み出される。
The memory circuit 014 reads a plurality of neighboring pixels for the sampling point indicated by the distortion characteristic sampling information. For example, in FIG. 3A, when a
次に、光学歪み補正量は、マイコンにより、005のレンズの歪み特性とレンズ制御の位置情報と画面内の光軸からの距離情報からと光学歪み補正量を演算して求める(S154)。 Next, the optical distortion correction amount is obtained by calculating the optical distortion correction amount from the distortion characteristics of the lens 005, the lens control position information, and the distance information from the optical axis in the screen by the microcomputer (S154).
次に、補間回路015において、S153でメモリ回路から読み出された画素とS154でマイコンによって算出された光学歪み補正量を用いて、光学歪み補正のための補間処理を行う(S155)。
Next, in the
図5に、光学歪み補正量と、光軸からの距離の関係の一例を示す。5a、5bは、それぞれ、レンズと撮像面との距離が近い場合と、離れている場合の特性を示している。 FIG. 5 shows an example of the relationship between the optical distortion correction amount and the distance from the optical axis. Reference numerals 5a and 5b indicate characteristics when the distance between the lens and the imaging surface is short and when the distance is long.
図5に示すように、光学歪み補正量は、光軸から離れるほど大きくなる。また、レンズと撮像面との距離によって、画面全体において光学歪みが必要な領域の大きさが変化する。 As shown in FIG. 5, the optical distortion correction amount increases as the distance from the optical axis increases. Further, the size of the area that requires optical distortion in the entire screen changes depending on the distance between the lens and the imaging surface.
図2(c)、図3(b)は、光学歪み補正後の画像であり、図2(c)において、破線で囲まれた領域を拡大した図が図3(b)である。画素3bは、図3(a)の光学歪み画像上での点3aに対応する光学歪み補正後の画素であり、点3a周辺の4画素31、32、33、34と、マイコンで算出された光学歪み補正量を用いた補間処理によって生成される。
FIGS. 2C and 3B are images after optical distortion correction, and FIG. 3B is an enlarged view of a region surrounded by a broken line in FIG. 2C. The pixel 3b is a pixel after optical distortion correction corresponding to the
以上のような処理を、全ての画素に対して行うことにより(S152)、図2(b)に示す糸巻き状に歪曲した画像から、図2(c)に示すように、歪みが補正された画像を得ることができる。 By performing the above processing on all the pixels (S152), the distortion is corrected as shown in FIG. 2C from the pincushioned image shown in FIG. 2B. An image can be obtained.
尚、本実施形態では、糸巻き型の光学歪みを例に説明したが、樽型の光学歪みの場合にも、同様の方法で光学歪み補正を行うことができる。 In the present embodiment, the pincushion type optical distortion has been described as an example. However, even in the case of a barrel type optical distortion, the optical distortion correction can be performed by the same method.
ところで、光学歪み補正処理部に入力される画像信号には、撮像素子や、A/D変換等、撮像レンズの後段の処理系で発生したノイズが重畳されている。このノイズ自体には、撮像レンズの収差による光学歪みはなく、図4(a)のように、画面一様に分布している。しかし、光学歪みを受ける被写体の画像データに重畳されているために、ノイズに対しても、上記のような光学歪み補正処理が適用される。 By the way, the image signal input to the optical distortion correction processing unit is superimposed with noise generated in a processing system subsequent to the imaging lens, such as an imaging element or A / D conversion. This noise itself has no optical distortion due to the aberration of the imaging lens, and is uniformly distributed on the screen as shown in FIG. However, since it is superimposed on the image data of the subject that receives optical distortion, the optical distortion correction process as described above is applied to noise.
例えば、糸巻き型の光学歪み補正が行われた場合には、画素位置に応じて、それぞれ、図4(b)の矢印で示される方向に補間処理が行われるため、補間によってノイズの形状が特定の方向に引き伸ばされたようになる。さらに、画素位置によって歪み補正量が異なるため、画面内における補間後のノイズ形状にばらつきが生じてしまう。 For example, when pincushion type optical distortion correction is performed, interpolation processing is performed in the direction indicated by the arrow in FIG. 4B according to the pixel position, so that the noise shape is identified by interpolation. As if stretched in the direction of. Furthermore, since the distortion correction amount differs depending on the pixel position, the noise shape after interpolation in the screen varies.
このようなノイズ形状のばらつきは、画像全体の品位を低下させるので、本実施形態では、図1に示すノイズ低減処理部9において、画素ごとに、光学歪み補正量に基づき、ノイズ低減処理のレベル(度合い)を変化させる制御を行う。 Such noise shape variations degrade the quality of the entire image. In the present embodiment, in the noise reduction processing unit 9 shown in FIG. 1, the noise reduction processing level for each pixel is based on the optical distortion correction amount. Control to change (degree) is performed.
次に、図1のノイズ低減処理部9での処理について図16のフローを用いて詳細に説明する。 Next, processing in the noise reduction processing unit 9 in FIG. 1 will be described in detail using the flow in FIG.
ノイズ低減処理部9では、まず、前述の光学歪み補正量をパラメータとして、ノイズ抑圧レベルを示す係数を算出する。 The noise reduction processing unit 9 first calculates a coefficient indicating the noise suppression level using the optical distortion correction amount as a parameter.
本実施形態では、図6に示すように、光学歪み補正量をD、ノイズ抑圧レベルを示す係数をNとして、以下の式によってノイズ抑圧レベルを算出している(S161)。
i)0≦D<D1のとき
N=n0+{(n1−n0)/D1}*D
ii)D1≦D<D2のとき
N=n1+{(n2−n1)/(D2−D1)}*(D−D1)
iii)D2≦D<D3のとき
N=n2+{(n3−n2)/(D3−D2)}*(D−D2)
iv)D3≦Dのとき
N=n3
In the present embodiment, as shown in FIG. 6, the noise suppression level is calculated by the following equation, where D is the optical distortion correction amount and N is the coefficient indicating the noise suppression level (S161).
i) When 0 ≦ D <D1, N = n0 + {(n1-n0) / D1} * D
ii) When D1 ≦ D <D2, N = n1 + {(n2-n1) / (D2-D1)} * (D-D1)
iii) When D2 ≦ D <D3 N = n2 + {(n3-n2) / (D3-D2)} * (D-D2)
iv) When D3 ≦ D, N = n3
図7は、光学歪み補正量をDに基づいたノイズ抑圧レベルNを画面上にマッピングしたものである。図7に示すように、画面の周辺部分に行くほど、ノイズ低減レベルは大きくなる。また、フォーカス制御によってレンズの光軸方向の位置を変化させると、図7で示される同心円状のノイズ抑圧レベルの分布が変化し、シフト制御によってレンズを撮像面に対して平行移動させると、図7で示される同心円の中心位置が変化する。 FIG. 7 is a diagram in which the noise suppression level N based on the optical distortion correction amount D is mapped on the screen. As shown in FIG. 7, the noise reduction level increases as it goes to the periphery of the screen. When the position of the lens in the optical axis direction is changed by focus control, the concentric noise suppression level distribution shown in FIG. 7 is changed. When the lens is translated with respect to the imaging surface by shift control, FIG. The center position of the concentric circle indicated by 7 changes.
ノイズ低減処理の具体例としては、ローパスフィルタによって、ノイズの高周波成分を抑圧する方法や、小振幅信号をノイズとみなしてベースクリップするという方法などが挙げられる。 Specific examples of the noise reduction process include a method of suppressing a high frequency component of noise by a low-pass filter and a method of base clipping by regarding a small amplitude signal as noise.
前者の手法であれば、光軸からの距離が大きくなるほど、より強くノイズ抑圧を行うため、前述のノイズ抑圧レベルをパラメータとして、ローパスフィルタの帯域を狭くしていくという制御を行う。 In the former method, as the distance from the optical axis increases, noise suppression is performed more strongly. Therefore, control is performed to narrow the band of the low-pass filter using the above-described noise suppression level as a parameter.
また、後者の手法であれば、光軸からの距離が大きくなるほど、より強くノイズ抑圧を行うため、前述のノイズ抑圧レベルをパラメータとして、ノイズとみなす信号の振幅レベルの閾値を大きくして、ベースクリップするという制御を行う。 In the latter method, noise suppression is more strongly performed as the distance from the optical axis increases. Therefore, the threshold of the amplitude level of a signal regarded as noise is increased using the above-described noise suppression level as a parameter, and the base Control to clip.
いずれの場合も、ノイズ抑圧レベルが大きくなるほど、画像をぼかす処理の度合いが強くなるので、ノイズだけに着目し、被写体情報を無視してこのようなノイズ低減処理制御を行うと、被写体によっては、光軸からの距離が大きくなるほど、解像感が落ちてしまうことになる。したがって、本実施形態では、図1の被写体領域判別処理部8において、着目画素の含まれる被写体領域が、ノイズ形状のばらつきが目立ちやすい平坦部分か否かを判別し、判別結果に応じて、光学歪み補正量に基づいたノイズ低減処理を適応的に制御している。 In either case, the greater the noise suppression level, the stronger the degree of processing that blurs the image, so paying attention only to noise and performing such noise reduction processing control ignoring subject information, depending on the subject, The greater the distance from the optical axis, the lower the resolution. Therefore, in the present embodiment, the subject region determination processing unit 8 in FIG. 1 determines whether or not the subject region including the pixel of interest is a flat portion where noise shape variation is conspicuous, and according to the determination result, The noise reduction processing based on the distortion correction amount is adaptively controlled.
ここで、図8、図9を参照し、S162における被写体領域判別処理部8の動作について説明する。 Here, with reference to FIG. 8 and FIG. 9, the operation of the subject region discrimination processing unit 8 in S162 will be described.
図8は、被写体領域判別処理部に入力される画像の一部分について、画素の並びを示す模式図である。被写体領域判別処理部008では、着目画素と周辺画素について、垂直、水平、斜め45°、斜め135°方向についての相関をそれぞれ検出し、いずれの方向にも相関が低い場合には、平坦な領域であると判定する。
FIG. 8 is a schematic diagram illustrating the arrangement of pixels in a part of an image input to the subject area determination processing unit. The subject area
例えば、図8に示すP4が着目画素である場合、周辺の8画素に対して、まず、以下のような演算を行う。ここで、Vdiff、Hdiff、D1diff、D2diffは、それぞれ、垂直、水平、斜め45°、斜め135°方向の相関値である。
Vdiff=|P1−P7|
Hdiff=|P3−P5|
D1diff=|P2−P6|
D2diff=|P0−P8|
For example, when P4 shown in FIG. 8 is the pixel of interest, first, the following calculation is performed on the surrounding eight pixels. Here, Vdiff, Hdiff, D1diff, and D2diff are correlation values in the vertical, horizontal, diagonal 45 °, and diagonal 135 ° directions, respectively.
Vdiff = | P1-P7 |
Hdiff = | P3-P5 |
D1diff = | P2-P6 |
D2diff = | P0−P8 |
次に、Vdiff、Hdiff、D1diff、D2diffのうち、最も値が大きい相関値Max_diffに対して、以下の閾値判定を行い、着目画素の含まれる被写体領域がどの程度平坦かを示す平坦度flを算出する。
i)0≦Max_diff<Th1のとき
fl=1.0
ii)Th1≦Max_diff<Th2のとき
fl=(Th1−Max_diff)/(Th2−Th1)+1
iii)Th2≦Max_diff
fl=0.0
相関値Max_diffと平坦度flとの関係は、図9のようになり、fl=1.0のときは、完全に平坦であり、fl=0.0のときは、エッジを含む被写体であるとみなす。
Next, the following threshold determination is performed on the correlation value Max_diff having the largest value among Vdiff, Hdiff, D1diff, and D2diff, and the flatness fl indicating how flat the subject region including the target pixel is calculated. To do.
i) When 0 ≦ Max_diff <Th1, fl = 1.0
ii) When Th1 ≦ Max_diff <Th2, fl = (Th1−Max_diff) / (Th2−Th1) +1
iii) Th2 ≦ Max_diff
fl = 0.0
The relationship between the correlation value Max_diff and the flatness fl is as shown in FIG. 9. When fl = 1.0, the relationship is completely flat, and when fl = 0.0, the subject includes an edge. I reckon.
図1のノイズ判別処理部9では、前述のノイズ抑圧レベルNに対し、被写体領域判別部から出力される平坦度flを掛けた値をパラメータとして、最終的なノイズ抑圧レベルを制御する。 The noise discrimination processing unit 9 in FIG. 1 controls the final noise suppression level using a value obtained by multiplying the above-described noise suppression level N by the flatness fl output from the subject region discrimination unit as a parameter.
したがって、平坦度fl=1.0、すなわち、着目画素がノイズ形状のばらつきが目立ちやすい平坦部に含まれていると推定された場合にのみ、光学歪み補正量を参照し、光軸と着目画素との距離が大きくなるほどノイズ抑圧のレベル(度合い)を強めるよう、ノイズ低減処理を行う(S163)。 Therefore, the optical distortion correction amount is referred to only when the flatness fl = 1.0, that is, when it is estimated that the pixel of interest is included in a flat portion where noise shape variation is conspicuous, and the optical axis and the pixel of interest The noise reduction processing is performed so that the level (degree) of noise suppression increases as the distance between and increases (S163).
また、平坦度fl=0.0、すなわち、着目画素の含まれる被写体領域が、画像のエッジ部分である場合には、解像感を優先して光学歪み補正量に基づいたノイズ低減処理を行わないようにすることができる。 Further, when the flatness fl = 0.0, that is, the subject area including the target pixel is an edge portion of the image, noise reduction processing based on the optical distortion correction amount is performed with priority on resolution. Can not be.
また、このとき平坦度flが0.0から1.0の間の値をとるときには、平坦度に応じて、光学歪み補正量に基づいたノイズ判別処理の適用度を可変するようにしても良い。 At this time, when the flatness fl takes a value between 0.0 and 1.0, the degree of application of the noise discrimination processing based on the optical distortion correction amount may be varied according to the flatness. .
以上により、レンズの収差に起因する光学歪み補正処理後の画像に対して、エッジ部分の解像感は保持しつつ、平坦部分では、光学歪み補正処理によるノイズ形状のばらつきを低減させるための適応的なノイズ低減処理を行うことができる。ノイズ低減処理後の画像は、カメラ信号処理を経て、最終的な映像信号として、映像信号出力端子から出力される(S164)。 As described above, for the image after the optical distortion correction processing due to the aberration of the lens, the resolution for the edge portion is maintained, while the flat portion is adapted to reduce the noise shape variation due to the optical distortion correction processing. Noise reduction processing can be performed. The image after the noise reduction processing is output from the video signal output terminal as a final video signal through camera signal processing (S164).
(第2の実施形態)
図10に、本発明の第二の実施形態である撮像装置の概略構成ブロック図を示す。
(Second Embodiment)
FIG. 10 shows a schematic block diagram of an imaging apparatus according to the second embodiment of the present invention.
本実施形態は、レンズの周辺光量落ち補正によって生じる、画面周辺部のS/N劣化を低減するための構成となっている。 The present embodiment is configured to reduce S / N degradation in the peripheral portion of the screen, which is caused by correction of the peripheral light amount of the lens.
図10において、101は撮像レンズ、102は撮像素子、103はA/D変換処理部、104は撮像素子駆動部である。撮像素子駆動部からの制御信号によって、所定のタイミングで撮像素子から画像信号を読み出し、A/D変換を行って、光学歪みを含んだデジタルの画像信号が得られる。106はマイコンであり、レンズの位置制御(フォーカス、シフト制御)、および周辺光量落ち補正処理とノイズ低減処理の制御を行う。 In FIG. 10, 101 is an imaging lens, 102 is an imaging device, 103 is an A / D conversion processing unit, and 104 is an imaging device driving unit. An image signal is read from the image sensor at a predetermined timing by a control signal from the image sensor driving unit, and A / D conversion is performed to obtain a digital image signal including optical distortion. Reference numeral 106 denotes a microcomputer that controls lens position control (focus and shift control), peripheral light amount drop correction processing, and noise reduction processing.
107は補正手段としての周辺光量落ち補正処理部であり、内部に1フレーム分の画像を保持するためのメモリ回路114と、増幅回路115を有している。 Reference numeral 107 denotes a peripheral light amount drop correction processing unit as correction means, and includes a memory circuit 114 for holding an image for one frame and an amplifier circuit 115 therein.
108は、周辺光量落ち補正処理後の画像信号に対し、着目画素の含まれる被写体領域が、所定の特性を持つ領域、すなわち平坦部であるか否かを判別する判別手段としての被写体領域判別処理部である。109は周辺光量落ち補正処理後の映像信号に対して、ノイズ低減処理を行うノイズ低減処理手段としてのノイズ低減処理部である。
Reference numeral 108 denotes a subject area determination process as a determination unit that determines whether or not the subject area including the target pixel is a region having a predetermined characteristic, that is, a flat portion, with respect to the image signal after the peripheral light amount drop correction process. Part.
110はカメラ信号処理部であり、図示しない輝度色差信号生成処理、アパーチャ処理、ガンマ処理等を行い、最終的な映像信号が、映像信号出力端子111から出力される。 A camera signal processing unit 110 performs luminance / chrominance signal generation processing, aperture processing, gamma processing, and the like (not shown), and a final video signal is output from the video signal output terminal 111.
次に、周辺光量落ち補正処理部107での処理について説明する。処理は、第1の実施形態の光学歪み補正を周辺光量落ち補正に変えたもので、図15のフローとほぼ同様であるので省略する。 Next, processing in the peripheral light amount drop correction processing unit 107 will be described. The processing is the same as the flow of FIG. 15 except that the optical distortion correction of the first embodiment is changed to the peripheral light amount drop correction, and is omitted.
まず、内部のメモリ回路114には、図11(a)に示すような、画像周辺の光量レベルが低下した画像が取り込まれる。尚、図11において、x、yは、画像における各画素の位置を示す座標軸である。 First, the internal memory circuit 114 captures an image with a reduced light amount level around the image as shown in FIG. In FIG. 11, x and y are coordinate axes indicating the position of each pixel in the image.
次に、メモリ回路114では、マイコン106から画素アドレス情報によって指定された画素のデータを、メモリから読み出し、後段の増幅回路115に送出する。 Next, in the memory circuit 114, the pixel data designated by the pixel address information from the microcomputer 106 is read from the memory and sent to the amplifier circuit 115 in the subsequent stage.
撮像レンズ情報取得手段としてのマイコン106では、撮像レンズに関する情報である撮像レンズの特性と撮像レンズと撮像素子との位置情報を用いて、光軸からの距離に応じた周辺光量落ち補正量を、画素ごとに算出する。周辺光量落ち補正量は、光軸からの距離に対して、図13に示すような特性となる。また、13a、13bは、それぞれ、レンズと撮像面との距離が近い場合と、離れている場合の特性を示している。
In the microcomputer 106 as the imaging lens information acquisition means, the peripheral light amount drop correction amount corresponding to the distance from the optical axis is calculated using the characteristics of the imaging lens, which is information about the imaging lens, and the positional information of the imaging lens and the imaging element. Calculate for each pixel. The peripheral light amount drop correction amount has characteristics as shown in FIG. 13 with respect to the distance from the optical axis.
画面内で光軸からの距離が大きくなるほど、周辺光量落ち補正量も大きくなる。また、レンズと撮像素子との位置関係によって、画面内において、周辺光量落ち補正が必要な領域の大きさが変わる。 As the distance from the optical axis in the screen increases, the peripheral light amount drop correction amount also increases. In addition, the size of the area in the screen that needs to be corrected for the decrease in peripheral light amount varies depending on the positional relationship between the lens and the image sensor.
次に、増幅回路115では、メモリ回路114から入力される画素について、対応する周辺光量落ち補正量をマイコンから読み込み、周辺光量落ち補正量に応じた増幅率で、着目画素の画素値にゲインをかける。その結果、図11(b)に示すように、レンズに起因する周辺光量落ちが補正され、画面全体の明るさがほぼ均一になる。 Next, the amplification circuit 115 reads the corresponding peripheral light amount drop correction amount from the microcomputer for the pixel input from the memory circuit 114, and gains the pixel value of the pixel of interest with an amplification factor according to the peripheral light amount drop correction amount. Call. As a result, as shown in FIG. 11B, the peripheral light amount drop caused by the lens is corrected, and the brightness of the entire screen becomes substantially uniform.
ところで、周辺光量落ち補正処理部に入力される画像信号には、撮像素子や、A/D変換等、撮像レンズの後段の処理系で、光量には依存せずに発生するノイズも重畳されている。撮像レンズの周辺光量落ちとは関係なく、図12(a)に示すように、画面全体に一様に存在しているノイズに対して、上記のような周辺光量落ち補正処理を適用すると、図12(b)のように、画面の周辺部分ほど、ノイズが増幅され、S/Nが悪くなってしまう。 By the way, the image signal that is input to the peripheral light amount drop correction processing unit is also superimposed with noise that does not depend on the light amount in the subsequent processing system of the imaging lens, such as an image sensor or A / D conversion. Yes. When the peripheral light amount drop correction process as described above is applied to noise that exists uniformly on the entire screen as shown in FIG. 12A regardless of the peripheral light amount drop of the imaging lens, As in 12 (b), noise is amplified in the peripheral portion of the screen, and the S / N becomes worse.
このようなノイズレベルのばらつきは、画像全体の品位を低下させるので、本実施形態では、図10に示すノイズ低減処理部109において、周辺光量落ち補正量に基づき、画素ごとにノイズ低減処理の抑圧レベル(度合い)を変化させる制御を行う。
Since such noise level variations degrade the quality of the entire image, in this embodiment, the noise
次に、ノイズ低減処理部109での処理について詳細に説明する。処理は、第1の実施形態の光学歪み補正を周辺光量落ち補正に変えたもので、図16のフローとほぼ同様であるので省略する。
Next, processing in the noise
ノイズ低減処理部109では、まず、前述の周辺光量落ち補正量をパラメータとして、ノイズ抑圧レベルを示す係数を算出する。
First, the noise
本実施形態では、周辺光量落ち補正量Lを用いて、以下の式によってノイズ抑圧レベルNを算出している。
i)0≦L<L1のとき
N=n0+{(n1−n0)/L1}*L
ii)L1≦L<L2のとき
N=n1+{(n2−n1)/(L2−L1)}*(L−L1)
iii)L2≦L<L3のとき
N=n2+{(n3−n2)/(L3−L2)}*(L−L2)
iv)L3≦Lのとき
N=n3
上記一連の式で計算されるノイズ抑圧レベルNと周辺光量落ち補正量Lの関係は、図14のグラフのようになる。
In the present embodiment, the noise suppression level N is calculated by the following equation using the peripheral light amount drop correction amount L.
i) When 0 ≦ L <L1, N = n0 + {(n1-n0) / L1} * L
ii) When L1 ≦ L <L2, N = n1 + {(n2−n1) / (L2−L1)} * (L−L1)
iii) When L2 ≦ L <L3 N = n2 + {(n3−n2) / (L3−L2)} * (L−L2)
iv) When L3 ≦ L, N = n3
The relationship between the noise suppression level N calculated by the above series of expressions and the peripheral light amount drop correction amount L is as shown in the graph of FIG.
また、周辺光量落ち補正量Lに基づいた、ノイズ抑圧レベルNを、画面上にマッピングすると、図7のようになり、画像の周辺部分ほど、ノイズ抑圧レベルが大きくなる。ここで、フォーカス制御によってレンズの光軸方向の位置を変化させると、図7で示される同心円状のノイズ抑圧レベルの分布が変化し、シフト制御によってレンズを撮像面に対して平行移動させると、図7で示される同心円の中心位置が変化する。 Further, when the noise suppression level N based on the peripheral light amount drop correction amount L is mapped on the screen, as shown in FIG. 7, the noise suppression level increases in the peripheral portion of the image. Here, when the position of the lens in the optical axis direction is changed by focus control, the distribution of concentric noise suppression levels shown in FIG. 7 is changed, and when the lens is moved parallel to the imaging surface by shift control, The center position of the concentric circle shown in FIG. 7 changes.
ノイズ低減処理部109で行われるノイズ低減処理の具体例は、実施形態1と同様に、ローパスフィルタや、小振幅信号のベースクリップ等による抑圧手法が挙げられる。
Specific examples of the noise reduction processing performed by the noise
いずれの場合も、ノイズ抑圧レベルが大きくなるほど、画像をぼかす処理の度合いが強くなるので、ノイズだけに着目し、被写体情報を無視してこのようなノイズ低減処理制御を行うと、被写体によっては、光軸からの距離が大きくなるほど、解像感が落ちてしまうことになる。したがって、本実施形態では、図10の被写体領域判別処理部108において、着目画素の含まれる被写体領域が、ノイズ形状のばらつきが目立ちやすい平坦部分か否かを推定し、判別結果に応じて、周辺光量落ち補正量に基づいたノイズ低減処理を適応的に制御している。 In either case, the greater the noise suppression level, the stronger the degree of processing that blurs the image, so paying attention only to noise and performing such noise reduction processing control ignoring subject information, depending on the subject, The greater the distance from the optical axis, the lower the resolution. Therefore, in the present embodiment, the subject region determination processing unit 108 in FIG. 10 estimates whether or not the subject region including the target pixel is a flat portion in which noise shape variation is conspicuous. The noise reduction processing based on the light amount drop correction amount is adaptively controlled.
ここで、被写体領域判別処理部8の動作について説明する。図8は、被写体領域判別処理部108に入力される画像の一部分について、画素の並びを示す模式図である。被写体領域判別処理部8では、図8に示すP4が着目画素である場合、周辺の8画素に対して、まず、以下のような演算を行う。ここで、Vdiff、Hdiff、D1diff、D2diffは、それぞれ、垂直、水平、斜め45°、斜め135°方向についての相関値を示す。
Vdiff=|P1−P7|
Hdiff=|P3−P5|
D1diff=|P2−P6|
D2diff=|P0−P8|
Here, the operation of the subject area discrimination processing unit 8 will be described. FIG. 8 is a schematic diagram illustrating the arrangement of pixels in a part of an image input to the subject area determination processing unit 108. In the subject area discrimination processing unit 8, when P4 shown in FIG. 8 is the target pixel, first, the following calculation is performed on the surrounding eight pixels. Here, Vdiff, Hdiff, D1diff, and D2diff represent correlation values in the vertical, horizontal, diagonal 45 °, and diagonal 135 ° directions, respectively.
Vdiff = | P1-P7 |
Hdiff = | P3-P5 |
D1diff = | P2-P6 |
D2diff = | P0−P8 |
ところで、周辺光量落ち補正処理後の画像は、画面の周辺部の画素ほど、ゲインアップされて、ノイズの振幅レベルが大きくなっているため、4方向の相関値Vdiff、Hdiff、D1diff、D2diffの大きさのみでは、平坦分に重畳された振幅レベルの大きいノイズと、特定の方向に連続したエッジとを区別することが難しい。そのため、本実施形態では、VdiffとHdiffの差分値HV_diff=|Vdiff−Hdiff|、D1diff、D2diffの差分値D12_diff=|D1diff−D2diff|を用いて、以下の判定を行い、着目画素の含まれる被写体領域がどの程度平坦かを示す平坦度flを算出する。
i)(HV_diff>Th_edgかつD12_diff>Th_edg)または(HV_diff≦Th_edgかつD12_diff≦Th_edg)のとき、
特定の方向に連続したエッジである可能性が低いので、
fl=1.0
ii)(HV_diff>Th_edgかつD12_diff≦Th_edg)または(HV_diff≦Th_edgかつD12_diff>Th_edg)のとき、
特定の方向に連続したエッジである可能性が高いので、Vdiff、Hdiff、D1diff、D2diffのうち、最も値が大きい相関値Max_diffとして、さらに、以下の判定を行い、平坦度flを算出する。
a)0≦Max_diff<Th1のとき
fl=1.0
b)Th1≦Max_diff<Th2のとき
fl=(Th1−Max_diff)/(Th2−Th1)+1
c)Th2≦Max_diff
fl=0.0
ここで、相関値Max_diffと平坦度flとの関係は、図9のようになり、fl=1.0のときは、完全に平坦であり、fl=0.0のときは、エッジを含む被写体であるとみなす。
By the way, the image after the peripheral light amount drop correction process is gained up and the noise amplitude level is increased as the pixels in the peripheral part of the screen, so the correlation values Vdiff, Hdiff, D1diff, and D2diff in four directions are large. With this alone, it is difficult to distinguish between noise with a large amplitude level superimposed on a flat portion and edges that are continuous in a specific direction. Therefore, in the present embodiment, the following determination is performed using the difference value HV_diff = | Vdiff−Hdiff |, D12diff = D1diff = D1diff−D2diff | A flatness fl indicating how flat the region is is calculated.
i) When (HV_diff> Th_edg and D12_diff> Th_edg) or (HV_diff ≦ Th_edg and D12_diff ≦ Th_edg),
Since it is unlikely that the edges are continuous in a specific direction,
fl = 1.0
ii) When (HV_diff> Th_edg and D12_diff ≦ Th_edg) or (HV_diff ≦ Th_edg and D12_diff> Th_edg),
Since there is a high possibility that the edges are continuous in a specific direction, the following determination is made as the correlation value Max_diff having the largest value among Vdiff, Hdiff, D1diff, and D2diff, and the flatness fl is calculated.
a) When 0 ≦ Max_diff <Th1, fl = 1.0
b) When Th1 ≦ Max_diff <Th2 fl = (Th1−Max_diff) / (Th2−Th1) +1
c) Th2 ≦ Max_diff
fl = 0.0
Here, the relationship between the correlation value Max_diff and the flatness fl is as shown in FIG. 9. When fl = 1.0, the relationship is completely flat, and when fl = 0.0, the subject includes an edge. It is considered.
図10のノイズ低減処理部109では、前述のノイズ抑圧レベルNに対し、被写体領域推定部から出力される平坦度flを掛けた値をパラメータとして、最終的なノイズ抑圧レベルを制御する。
The noise
したがって、平坦度fl=1.0、すなわち、着目画素が振幅レベルの大きいノイズの目立ちやすい平坦部分に含まれていると推定された場合にのみ、周辺光量落ち補正量を参照し、光軸と着目画素との距離が大きくなるほど、ノイズ抑圧のレベル(度合い)を強くなるよう、ノイズ低減処理を行うことができる。 Accordingly, only when it is estimated that the flatness fl = 1.0, that is, the pixel of interest is included in a flat portion where noise with a large amplitude level is conspicuous, the peripheral light amount drop correction amount is referred to and the optical axis and Noise reduction processing can be performed so that the level (degree) of noise suppression increases as the distance from the pixel of interest increases.
また、平坦度fl=0.0、すなわち、着目画素の含まれる被写体領域が、画像のエッジ部分である可能性が高い場合には、解像感を優先して周辺光量落ち補正量に基づいたノイズ低減処理を行わないようにすることができる。 Further, when the flatness fl = 0.0, that is, when the subject area including the target pixel is highly likely to be an edge portion of the image, the resolution is given priority and the amount of peripheral light loss is corrected. It is possible not to perform noise reduction processing.
また、平坦度flが0.0から1.0の間の値をとるときには、平坦度に応じて、周辺光量落ち補正量に基づいたノイズ低減処理の適用度を可変することができる。 When the flatness fl takes a value between 0.0 and 1.0, the degree of application of the noise reduction processing based on the peripheral light amount drop correction amount can be varied according to the flatness.
以上により、撮像レンズの特性に起因する周辺光量落ち補正処理後の画像に対して、エッジ部分の解像感は保持しつつ、平坦部分では、周辺光量落ち補正処理によるノイズレベルのばらつきを低減させるための、適応的なノイズ低減処理を行うことができる。ノイズ抑圧処理後の画像は、カメラ信号処理を経て、最終的な映像信号として映像信号出力端子から出力される。 As described above, with respect to the image after the peripheral light amount drop correction processing due to the characteristics of the imaging lens, the resolution of the edge portion is maintained, and the noise level variation due to the peripheral light amount drop correction processing is reduced in the flat portion. Therefore, adaptive noise reduction processing can be performed. The image after the noise suppression processing is output from the video signal output terminal as a final video signal through camera signal processing.
(他の実施形態)
上述の第1,2の実施形態では、レンズ固有の歪み特性データ、や周辺光量落ち特性データレンズの制御による位置情報を用いてそれぞれ光学歪み補正量や周辺光量落ち補正量をその都度マイコン006で算出し、メモリ014、114に記憶するような構成であった。この補正量は、あらかじめレンズの位置情報に対する補正量として不図示のROMメモリにテーブル化して記憶していてもよい。これにより各補正処理部は、演算することなく、テーブルを参照することによって補正量を取得する、補正処理を簡単でより迅速に行うことが出来る。
(Other embodiments)
In the above-described first and second embodiments, the optical distortion correction amount and the peripheral light amount drop correction amount are respectively set by the
また、撮像部と光学レンズが一体化された撮像装置に限らず、レンズが着脱して交換可能な撮像装置に適用することも可能である。その場合には、各交換レンズにそのレンズ固有の歪み特性データや周辺光量落ち特性データや、または、レンズの位置情報応じた補正量のテーブルを格納したチップを保持しておけば良い。 Further, the present invention is not limited to an imaging device in which an imaging unit and an optical lens are integrated, and can also be applied to an imaging device in which a lens can be attached and detached. In that case, each interchangeable lens may hold a chip storing distortion characteristic data unique to the lens, peripheral light amount drop characteristic data, or a correction amount table corresponding to lens position information.
また、第1の実施形態の光学歪み補正と第2の実施形態の周辺光量落ち補正は組み合わせて両方行うことも可能である。その場合は、両者の補正量に対して、最適なノイズ抑圧レベル係数を設定すればよい。 Further, the optical distortion correction of the first embodiment and the peripheral light amount drop correction of the second embodiment can be performed in combination. In that case, an optimal noise suppression level coefficient may be set for both correction amounts.
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、例えば、撮像装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードをそのシステム或いは装置からのリモート操作等によって読み出し実行することによっても、達成されることは言うまでもない。 Another object of the present invention is to supply a storage medium storing software program codes for realizing the functions of the above-described embodiments to, for example, an imaging apparatus, and store the system or apparatus computer (or CPU or MPU). Needless to say, this can also be achieved by reading and executing the program code stored in the medium by remote operation from the system or apparatus.
この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。 In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention.
プログラムコードを供給するための記憶媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROM等を用いることが出来る。 As a storage medium for supplying the program code, for example, a floppy (registered trademark) disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like is used. I can do it.
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部又は全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) operating on the computer based on the instruction of the program code. It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.
さらに、例えば、撮像後に撮像画像をパーソナルコンピュータ等の情報処理装置で処理する際に、ノイズ低減処理を行う場合など、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部又は全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Furthermore, for example, when performing noise reduction processing when processing a captured image with an information processing apparatus such as a personal computer after imaging, the program code read from the storage medium is a function expansion board inserted into the computer, After being written in the memory provided in the function expansion unit connected to the computer, based on the instructions of the program code, the CPU provided in the function expansion board or function expansion unit performs part or all of the actual processing, Needless to say, the process includes the case where the functions of the above-described embodiments are realized.
なお本発明を上述の記憶媒体に適応する場合、その記憶媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。 When the present invention is applied to the above-described storage medium, program codes corresponding to the flowcharts described above are stored in the storage medium.
001、101 撮像レンズ
002、102 撮像素子
003、103 A/D変換処理部
004、104 撮像素子駆動部
005、105 レンズ特性値
006、106 マイコン
007 光学歪み補正処理部
014、114 メモリ回路
015 補間回路
107 周辺光量落ち補正処理部
105 増幅回路
008、108 被写体領域推定処理部
009、109 ノイズ低減処理部
010、101 カメラ信号処理手段
011、111 映像信号出力端子
D 光学歪み補正量
L 周辺光量落ち補正量
N ノイズ抑圧レベル
fl 平坦度
x、y 画像における各画素の位置
R 光軸からの距離
001, 101
Claims (12)
撮像レンズに関する情報を取得する撮像レンズ情報取得手段と、
前記撮像レンズに関する情報に基づいて前記映像信号に生じる画質劣化を補正する補正手段と、
前記補正手段の出力信号に対してノイズ低減処理を行うノイズ低減処理手段と、
前記補正手段の出力信号から、前記ノイズ低減処理を行う着目画素が含まれる領域が、所定の特性を持つ領域か否かを判別する判別手段と、
を有し、
前記判別手段において着目画素の含まれる領域が所定の特性を持つ領域であると判別された場合に、
前記補正手段での補正量に基づいて、画面内の位置に応じて前記ノイズ低減処理におけるノイズの抑圧レベルを変えることを特徴とする撮像装置。 An image sensor that converts light from the subject into a video signal;
Imaging lens information acquisition means for acquiring information about the imaging lens;
Correction means for correcting image quality degradation that occurs in the video signal based on information about the imaging lens;
Noise reduction processing means for performing noise reduction processing on the output signal of the correction means;
Discriminating means for discriminating whether or not an area including the target pixel for performing the noise reduction processing is an area having a predetermined characteristic from an output signal of the correcting means;
Have
When it is determined in the determining means that the region including the target pixel is a region having a predetermined characteristic,
An image pickup apparatus that changes a noise suppression level in the noise reduction processing according to a position in a screen based on a correction amount in the correction unit.
前記撮像レンズに関する情報に基づいて撮像素子から得られる映像信号に生じる画質劣化を補正する補正工程と、
前記補正工程の出力信号に対してノイズ低減処理を行うノイズ低減処理工程と、
前記補正工程の出力信号から、ノイズ低減処理を行う着目画素が含まれる領域が、所定の特性を持つ領域であるか否かを判別する判別工程と、
前記判別工程において着目画素の含まれる領域が所定の特性を持つ領域であると判別された場合に、
前記補正工程での補正量に基づいて、前記ノイズ低減処理におけるノイズの抑圧レベルを画面内の位置に応じて変えることを特徴とする画像処理方法。 An imaging lens information acquisition step of acquiring information about the imaging lens;
A correction step of correcting image quality degradation that occurs in a video signal obtained from an image sensor based on information about the imaging lens;
A noise reduction processing step of performing noise reduction processing on the output signal of the correction step;
A determination step of determining whether or not the region including the target pixel for performing noise reduction processing is a region having a predetermined characteristic from the output signal of the correction step;
When it is determined in the determination step that the region including the target pixel is a region having a predetermined characteristic,
An image processing method comprising: changing a noise suppression level in the noise reduction process according to a position in a screen based on a correction amount in the correction step.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2005117133A JP2006295807A (en) | 2005-04-14 | 2005-04-14 | Imaging apparatus, image processing method, program, and storage medium |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2005117133A JP2006295807A (en) | 2005-04-14 | 2005-04-14 | Imaging apparatus, image processing method, program, and storage medium |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2006295807A true JP2006295807A (en) | 2006-10-26 |
Family
ID=37415846
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2005117133A Withdrawn JP2006295807A (en) | 2005-04-14 | 2005-04-14 | Imaging apparatus, image processing method, program, and storage medium |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2006295807A (en) |
Cited By (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008191921A (en) * | 2007-02-05 | 2008-08-21 | Fujifilm Corp | Optical distortion correction method and apparatus, imaging apparatus with moving image shooting function, and optical distortion correction program |
| JP2009201062A (en) * | 2008-02-25 | 2009-09-03 | Canon Inc | Imaging device and imaging method |
| JP2010081595A (en) * | 2008-08-29 | 2010-04-08 | Toshiba Corp | Method and apparatus for imaging |
| JP2010514052A (en) * | 2006-12-22 | 2010-04-30 | イーストマン コダック カンパニー | Reducing position-dependent noise in digital images |
| US8054351B2 (en) | 2008-08-29 | 2011-11-08 | Kabushiki Kaisha Toshiba | Method and apparatus for imaging |
| JP2012147499A (en) * | 2012-04-23 | 2012-08-02 | Canon Inc | Imaging apparatus and video signal processing method |
| WO2013061626A1 (en) * | 2011-10-26 | 2013-05-02 | 三菱電機株式会社 | Image processing device, image processing method, image-capturing device, computer program, and recording medium |
| JP2013224996A (en) * | 2012-04-20 | 2013-10-31 | Seiko Epson Corp | Imaging device and method for adjusting image quality |
| WO2015029905A1 (en) | 2013-08-27 | 2015-03-05 | オリンパス株式会社 | Image pickup device, image pickup system, and image processing method |
| WO2018152977A1 (en) * | 2017-02-27 | 2018-08-30 | 中兴通讯股份有限公司 | Image noise reduction method and terminal, and computer storage medium |
-
2005
- 2005-04-14 JP JP2005117133A patent/JP2006295807A/en not_active Withdrawn
Cited By (15)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010514052A (en) * | 2006-12-22 | 2010-04-30 | イーストマン コダック カンパニー | Reducing position-dependent noise in digital images |
| JP2008191921A (en) * | 2007-02-05 | 2008-08-21 | Fujifilm Corp | Optical distortion correction method and apparatus, imaging apparatus with moving image shooting function, and optical distortion correction program |
| JP2009201062A (en) * | 2008-02-25 | 2009-09-03 | Canon Inc | Imaging device and imaging method |
| JP2010081595A (en) * | 2008-08-29 | 2010-04-08 | Toshiba Corp | Method and apparatus for imaging |
| US8054351B2 (en) | 2008-08-29 | 2011-11-08 | Kabushiki Kaisha Toshiba | Method and apparatus for imaging |
| WO2013061626A1 (en) * | 2011-10-26 | 2013-05-02 | 三菱電機株式会社 | Image processing device, image processing method, image-capturing device, computer program, and recording medium |
| GB2509021A (en) * | 2011-10-26 | 2014-06-18 | Mitsubishi Electric Corp | Image processing device, image processing method, image-capturing device, computer program and recording medium |
| US9123105B2 (en) | 2011-10-26 | 2015-09-01 | Mitsubishi Electric Corporation | Image processing device, image processing method, image capturing device, computer program, and recording medium |
| GB2509021B (en) * | 2011-10-26 | 2018-06-27 | Mitsubishi Electric Corp | Image processing device, image processing method, image-capturing device, computer program, and recording medium |
| JP2013224996A (en) * | 2012-04-20 | 2013-10-31 | Seiko Epson Corp | Imaging device and method for adjusting image quality |
| JP2012147499A (en) * | 2012-04-23 | 2012-08-02 | Canon Inc | Imaging apparatus and video signal processing method |
| WO2015029905A1 (en) | 2013-08-27 | 2015-03-05 | オリンパス株式会社 | Image pickup device, image pickup system, and image processing method |
| US9973715B2 (en) | 2013-08-27 | 2018-05-15 | Olympus Corporation | Imaging apparatus, imaging system, and image processing method |
| WO2018152977A1 (en) * | 2017-02-27 | 2018-08-30 | 中兴通讯股份有限公司 | Image noise reduction method and terminal, and computer storage medium |
| CN108513043A (en) * | 2017-02-27 | 2018-09-07 | 中兴通讯股份有限公司 | A kind of image denoising method and terminal |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10970827B2 (en) | Image processor and image processing method | |
| JP4994825B2 (en) | IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM | |
| US9514525B2 (en) | Temporal filtering for image data using spatial filtering and noise history | |
| US9479695B2 (en) | Generating a high dynamic range image using a temporal filter | |
| US9413951B2 (en) | Dynamic motion estimation and compensation for temporal filtering | |
| JP6574534B2 (en) | Parallel computer vision and image scaling architecture | |
| US8681187B2 (en) | Image processing apparatus, non-transitory storage medium storing image processing program and image processing method | |
| US11159740B2 (en) | Image capturing device and control method thereof and medium | |
| KR20080056004A (en) | How to use and device | |
| JP4963598B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
| KR101538655B1 (en) | An image processing apparatus, an image processing method, and a recording medium storing a program for executing a processing method | |
| JP5020615B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
| JP2011109373A (en) | Imaging apparatus, imaging processing method and program | |
| JP2005311473A (en) | IMAGING DEVICE, SIGNAL PROCESSING METHOD, PROGRAM THEREOF, AND RECORDING MEDIUM | |
| JP2006295807A (en) | Imaging apparatus, image processing method, program, and storage medium | |
| CN103475809B (en) | Camera device, synthetic image generation method | |
| JP2014010776A (en) | Image processing apparatus, image processing method, and program | |
| US20220405893A1 (en) | Image processing method, image processing apparatus, image processing system, and memory medium | |
| JP2013106151A (en) | Image processing apparatus and image processing method | |
| JP2018098583A (en) | Image processing apparatus and method, and imaging device | |
| JP2001292325A (en) | Edge enhancement device, edge enhancement method, and recording medium | |
| JP2018198456A (en) | Image processing program, image processing apparatus, and imaging apparatus | |
| JP2004023737A (en) | Image processing apparatus and method | |
| JP2010056817A (en) | Imaging apparatus | |
| JP5159647B2 (en) | Image processing apparatus and image processing method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20080701 |