[go: up one dir, main page]

JP2007158964A - Image processing apparatus and imaging device - Google Patents

Image processing apparatus and imaging device Download PDF

Info

Publication number
JP2007158964A
JP2007158964A JP2005353945A JP2005353945A JP2007158964A JP 2007158964 A JP2007158964 A JP 2007158964A JP 2005353945 A JP2005353945 A JP 2005353945A JP 2005353945 A JP2005353945 A JP 2005353945A JP 2007158964 A JP2007158964 A JP 2007158964A
Authority
JP
Japan
Prior art keywords
value
filter
camera shake
integration
flicker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005353945A
Other languages
Japanese (ja)
Inventor
Hirobumi Nomura
博文 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005353945A priority Critical patent/JP2007158964A/en
Publication of JP2007158964A publication Critical patent/JP2007158964A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To accurately detect a flicker component in an image picked up by an XY address scan type solid-state imaging device, using an image processing apparatus of small circuit scale. <P>SOLUTION: An integrated value due to an integration processing unit 211 is averaged for each field by a filter processing unit 213, a differential value of an integrated value in an adjacent field due to a differential computing unit 214 is normalized by a normalization processing unit 215 using an output value of the filter processing unit 213, and a spectrum of the normalized differential value is extracted by a DFT processing unit 220. Furthermore, the filter processing unit 213 is comprised of a recursive filter, and a value that becomes greater as a filter coefficient (k) for the filter processing unit 213 as an amount of camera shake detection due to a camera shake detection unit is greater, is set under control of a system control. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、画像信号を処理する画像処理装置、およびこの機能を備えた撮像装置に関し、特に、XYアドレス走査型の固体撮像素子により撮像された画像信号に対する処理に適した画像処理装置および撮像装置に関する。   The present invention relates to an image processing apparatus that processes an image signal, and an imaging apparatus having this function, and in particular, an image processing apparatus and an imaging apparatus suitable for processing an image signal captured by an XY address scanning type solid-state imaging device. About.

商用交流電源により点灯される蛍光灯などの点滅する光源の照明下で、ビデオカメラにより被写体を撮影すると、光源の輝度変化(光量変化)の周波数とカメラの垂直同期周波数との違いによって、撮像画像上に時間的な明暗の変化、いわゆる蛍光灯フリッカが生じることが知られている。特に、CMOS(Complementary Metal Oxide Semiconductor)型イメージセンサなどのXYアドレス走査型の撮像素子を用いた場合には、水平ラインごとの露光タイミングが異なるため、撮像画像上のフリッカは、垂直方向の周期的な輝度レベルあるいは色相の変動による縞模様として観察される。   When shooting a subject with a video camera under the illumination of a blinking light source such as a fluorescent lamp that is turned on by a commercial AC power supply, the captured image is taken due to the difference between the luminance change (light quantity change) frequency of the light source and the vertical synchronization frequency of the camera. It is known that a change in brightness over time, so-called fluorescent lamp flicker, occurs on the top. In particular, when an XY address scanning type imaging device such as a CMOS (Complementary Metal Oxide Semiconductor) type image sensor is used, the exposure timing for each horizontal line is different, and therefore flicker on the captured image is periodic in the vertical direction. It is observed as a striped pattern due to variations in brightness level or hue.

このようなフリッカの成分を撮像画像信号から除去するための手法としては、主に、シャッタスピードとフリッカレベルとの関連性に基づいて補正する方式(シャッタ補正方式と呼ぶ)と、フリッカ波形を検出してその逆波形を補正ゲインとして画像信号に適用する方式(ゲイン補正方式と呼ぶ)とが知られている。これらのうち、ゲイン補正方式によるフリッカ低減方法としては、画像信号の信号レベルの変化を周波数解析してフリッカ周波数のスペクトルを検出し、このスペクトルの振幅値に基づいて画像信号の信号レベルを補正する方法があった(例えば、特許文献1参照)。   As a method for removing such flicker components from the captured image signal, a correction method based on the relationship between the shutter speed and the flicker level (referred to as a shutter correction method) and a flicker waveform are detected. A method of applying the inverse waveform to the image signal as a correction gain (referred to as a gain correction method) is known. Of these, the flicker reduction method using the gain correction method detects the flicker frequency spectrum by analyzing the change in the signal level of the image signal, and corrects the signal level of the image signal based on the amplitude value of the spectrum. There was a method (for example, refer patent document 1).

また、ゲイン補正方式によるフリッカ低減方法では、画像信号の積分値を平均化し、その平均化した値で、領域ごとの積分値を除算して、その除算した値を用いてスペクトルの演算を行うことで、被写体に動きがある場合にも高精度にフリッカ成分を抽出できることが知られている。さらに、上記の積分値の平均化処理として、例えば巡回型フィルタやFIR(Finite Impulse Response)フィルタなどを用いた手法が知られている(例えば、特許文献2参照)。
特開2004−222228号公報(段落番号〔0072〕〜〔0111〕、図4) 特開2001−111887号公報(段落番号〔0055〕〜〔0064〕、図8)
In the flicker reduction method using the gain correction method, the integral value of the image signal is averaged, the integral value for each region is divided by the averaged value, and the spectrum is calculated using the divided value. Thus, it is known that flicker components can be extracted with high accuracy even when the subject moves. Further, as an integration value averaging process, a technique using, for example, a cyclic filter or an FIR (Finite Impulse Response) filter is known (see, for example, Patent Document 2).
JP 2004-222228 A (paragraph numbers [0072] to [0111], FIG. 4) JP 2001-1111887 (paragraph numbers [0055] to [0064], FIG. 8)

ところで、上述した画像信号の積分値の平均化のために、FIRフィルタを用いた場合には、所望の周波数特性を得やすいという反面、画像信号を一時的に記憶するためのメモリの容量が大きくなるなど、回路規模が比較的大きくなるという特徴がある。一方、巡回型フィルタを用いた場合には、FIRフィルタの場合と比較して、所望の周波数特性を得にくい。特に、手振れなどにより被写体に大きな変化が生じたときには、平均化により画像信号からフリッカ成分を十分抑圧できなくなり、フリッカ成分の抽出精度が低下してしまう。しかし、巡回型フィルタを用いた場合、FIRフィルタの場合と比較して、回路規模を小さくできるというメリットもある。   By the way, when the FIR filter is used for averaging the integration values of the image signals described above, it is easy to obtain a desired frequency characteristic, but the memory capacity for temporarily storing the image signals is large. For example, the circuit scale is relatively large. On the other hand, when the recursive filter is used, it is difficult to obtain a desired frequency characteristic as compared with the case of the FIR filter. In particular, when a large change occurs in the subject due to camera shake or the like, the flicker component cannot be sufficiently suppressed from the image signal by averaging, and the flicker component extraction accuracy is lowered. However, when a cyclic filter is used, there is an advantage that the circuit scale can be reduced as compared with the case of the FIR filter.

本発明はこのような点に鑑みてなされたものであり、XYアドレス走査型の固体撮像素子により撮像された画像のフリッカ成分を精度よく検出できる、回路規模の小さい画像処理装置を提供することを目的とする。   The present invention has been made in view of these points, and provides an image processing apparatus with a small circuit scale that can accurately detect a flicker component of an image captured by an XY address scanning type solid-state imaging device. Objective.

また、本発明の他の目的は、XYアドレス走査型の固体撮像素子により撮像された画像のフリッカ成分を精度よく検出できる、回路規模の小さい検出装置を備えた撮像装置を提供することである。   Another object of the present invention is to provide an imaging device including a detection device with a small circuit scale that can accurately detect a flicker component of an image captured by an XY address scanning type solid-state imaging device.

本発明では上記課題を解決するために、画像信号を処理する画像処理装置において、前記画像信号を1水平同期期間以上の単位で積分する積分手段と、前記積分手段による積分値を1フィールドまたは1フレームごとに平均化する、巡回型フィルタからなるフィルタ処理手段と、前記積分手段による積分値、または隣接するフィールドもしくはフレームにおける積分値の差分値を、前記フィルタ処理手段の出力値を用いて正規化する正規化手段と、前記正規化手段による正規化後の積分値または差分値のスペクトルを抽出する周波数解析手段と、前記周波数解析手段により抽出されたスペクトルから、蛍光灯照明下で画面上に生じるフリッカ成分を推定するフリッカ推定手段と、撮像時の手振れを検出する手振れ検出手段と、前記手振れ検出手段による手振れ検出量に応じて、前記フィルタ処理手段に対するフィルタ係数の設定値を変化させるフィルタ制御手段とを有することを特徴とする画像処理装置が提供される。   In the present invention, in order to solve the above problems, in an image processing apparatus for processing an image signal, an integration means for integrating the image signal in units of one horizontal synchronization period or more, and an integration value by the integration means is set to one field or 1 A filter processing means comprising a cyclic filter that averages every frame, and an integration value by the integration means or a difference value between integration values in adjacent fields or frames is normalized by using an output value of the filter processing means. Generated from the normalization means, the frequency analysis means for extracting the spectrum of the integral value or the difference value after normalization by the normalization means, and the spectrum extracted by the frequency analysis means on the screen under fluorescent lamp illumination. Flicker estimation means for estimating flicker components, camera shake detection means for detecting camera shake during imaging, and camera shake detection Depending on the vibration detection amount by stages, the image processing apparatus is provided, characterized in that it comprises a filter control means for changing a set value of the filter coefficient for the filtering unit.

このような画像処理装置では、積分手段による積分値を、フィルタ処理手段により1フィールドまたは1フレームごとに平均化し、積分手段による積分値、または隣接するフィールドもしくはフレームにおける積分値の差分値を、フィルタ処理手段の出力値を用いて正規化手段により正規化し、正規化後の積分値または差分値のスペクトルを周波数解析手段により抽出することで、一様でない画像からでもフリッカ成分が高精度に検出される。また、フィルタ処理手段を巡回型フィルタで構成することで、フィルタ処理に必要な信号保持のためのメモリ容量が小さくなり、演算処理負荷が低減される。そして、フィルタ制御手段により、手振れ検出手段による手振れ検出量に応じて、フィルタ処理手段に対するフィルタ係数を変化させることで、画面の動きが大きい場合のフリッカ成分の誤検出が発生しにくくなる。   In such an image processing apparatus, the integration value by the integration means is averaged for each field or frame by the filter processing means, and the integration value by the integration means or the difference value of the integration values in adjacent fields or frames is filtered. By normalizing by the normalizing means using the output value of the processing means and extracting the spectrum of the normalized integral value or difference value by the frequency analyzing means, the flicker component can be detected with high accuracy even from a non-uniform image. The Further, by configuring the filter processing means with a recursive filter, the memory capacity for holding a signal necessary for the filter processing is reduced, and the processing load is reduced. Then, the filter control means changes the filter coefficient for the filter processing means in accordance with the amount of camera shake detected by the camera shake detection means, thereby making it difficult for false detection of flicker components when the screen motion is large.

本発明の画像処理装置によれば、積分値を平均化するためのフィルタ処理手段を巡回型フィルタで構成することで、フィルタ処理に必要な信号保持のためのメモリ容量を削減でき、演算処理負荷を軽減できる。また、手振れ検出量に応じて、フィルタ処理手段に対するフィルタ係数を変化させることで、画面の動きが大きい場合のフリッカ成分の誤検出が発生しにくくなる。従って、フリッカ成分の検出精度が高く、かつ回路規模の小さい画像処理装置を実現できる。   According to the image processing apparatus of the present invention, by configuring the filter processing means for averaging the integral values with a cyclic filter, it is possible to reduce the memory capacity for holding a signal necessary for the filter processing, and to reduce the processing load Can be reduced. Further, by changing the filter coefficient for the filter processing means in accordance with the amount of camera shake detection, it is difficult for false detection of flicker components when the screen motion is large. Therefore, an image processing apparatus with high flicker component detection accuracy and a small circuit scale can be realized.

以下、本発明の実施の形態を図面を参照して詳細に説明する。
<システム構成>
図1は、本発明の実施の形態に係る撮像装置の要部構成を示すブロック図である。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
<System configuration>
FIG. 1 is a block diagram showing a main configuration of an imaging apparatus according to an embodiment of the present invention.

図1に示す撮像装置は、光学ブロック11、ドライバ11a、CMOS型イメージセンサ(以下、CMOSセンサと略称する)12、タイミングジェネレータ(TG)12a、アナログフロントエンド(AFE)回路13、カメラ処理回路14、システムコントローラ15、および手振れ検出部16を具備する。   1 includes an optical block 11, a driver 11a, a CMOS image sensor (hereinafter abbreviated as a CMOS sensor) 12, a timing generator (TG) 12a, an analog front end (AFE) circuit 13, and a camera processing circuit 14. A system controller 15 and a camera shake detector 16.

光学ブロック11は、被写体からの光をCMOSセンサ12に集光するためのレンズ、レンズを移動させてフォーカス合わせやズーミングを行うための駆動機構、シャッタ機構、アイリス機構などを具備している。ドライバ11aは、システムコントローラ15からの制御信号に基づいて、光学ブロック11内の各機構の駆動を制御する。   The optical block 11 includes a lens for condensing light from the subject on the CMOS sensor 12, a drive mechanism for moving the lens to perform focusing and zooming, a shutter mechanism, an iris mechanism, and the like. The driver 11 a controls driving of each mechanism in the optical block 11 based on a control signal from the system controller 15.

CMOSセンサ12は、CMOS基板上に、フォトダイオード(フォトゲート)、転送ゲート(シャッタトランジスタ)、スイッチングトランジスタ(アドレストランジスタ)、増幅トランジスタ、リセットトランジスタ(リセットゲート)などからなる複数の画素が2次元状に配列されて形成されるとともに、垂直走査回路、水平走査回路、画像信号の出力回路などが形成されたものである。このCMOSセンサ12は、TG12aから出力されるタイミング信号に基づいて駆動され、被写体からの入射光を電気信号に変換する。TG12aは、システムコントローラ15の制御の下でタイミング信号を出力する。   In the CMOS sensor 12, a plurality of pixels including a photodiode (photogate), a transfer gate (shutter transistor), a switching transistor (address transistor), an amplification transistor, a reset transistor (reset gate), etc. are two-dimensionally formed on a CMOS substrate. And a vertical scanning circuit, a horizontal scanning circuit, an image signal output circuit, and the like are formed. The CMOS sensor 12 is driven based on a timing signal output from the TG 12a, and converts incident light from the subject into an electrical signal. The TG 12 a outputs a timing signal under the control of the system controller 15.

なお、この実施の形態では、CMOSセンサ12から得られるアナログ画像信号はRGB(Red,Green,Blue)各色の原色信号であるが、例えば補色系の色信号などでもよい。
AFE回路13は、例えば1つのIC(Integrated Circuit)として構成され、CMOSセンサ12から出力された画像信号に対して、CDS(Correlated Double Sampling)処理によりS/N(Signal/Noise)比を良好に保つようにサンプルホールドを行い、さらにAGC(Auto Gain Control)処理により利得を制御し、A/D(Analog/Digital)変換を行ってデジタル画像信号を出力する。なお、CDS処理を行う回路は、CMOSセンサ12と同一基板上に形成されてもよい。
In this embodiment, the analog image signal obtained from the CMOS sensor 12 is a primary color signal of each color of RGB (Red, Green, Blue), but may be a complementary color system color signal, for example.
The AFE circuit 13 is configured, for example, as one IC (Integrated Circuit), and improves the S / N (Signal / Noise) ratio with respect to the image signal output from the CMOS sensor 12 by CDS (Correlated Double Sampling) processing. The sample is held so as to be maintained, the gain is controlled by AGC (Auto Gain Control) processing, A / D (Analog / Digital) conversion is performed, and a digital image signal is output. Note that the circuit for performing the CDS process may be formed on the same substrate as the CMOS sensor 12.

カメラ処理回路14は、例えば1つのICとして構成され、AFE回路13からの画像信号に対して、後述するホワイトバランス調整などの各種信号補正、AF(Auto Focus)、AE(Auto Exposure)などのカメラ信号処理を施したり、またはその処理の一部を実行する。本実施の形態では、特に、蛍光灯下の撮像時に画面に生じるフリッカの信号成分を画像信号から低減するフリッカ低減部20を備えている。   The camera processing circuit 14 is configured as, for example, one IC, and performs various signal corrections such as white balance adjustment, AF (Auto Focus), and AE (Auto Exposure), which will be described later, on the image signal from the AFE circuit 13. Perform signal processing or execute part of the processing. In the present embodiment, in particular, a flicker reduction unit 20 is provided that reduces the flicker signal component generated on the screen during imaging under a fluorescent lamp from the image signal.

システムコントローラ15は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)などから構成されるマイクロコントローラであり、ROMなどに記憶されたプログラムを実行することにより、この撮像装置の各部を統括的に制御する。また、カメラ処理回路14との間で通信して、上記各種カメラ信号処理のための演算の一部を実行する。さらに、本実施の形態では、後述するように、カメラ処理回路14のフリッカ低減部20に対して、画像信号に対するフィルタ処理のためのフィルタ係数kを設定する。   The system controller 15 is a microcontroller composed of, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like, and by executing a program stored in the ROM or the like, Each part of this imaging apparatus is controlled in an integrated manner. Further, it communicates with the camera processing circuit 14 to execute a part of the calculation for the various camera signal processing. Further, in the present embodiment, as will be described later, a filter coefficient k for filtering the image signal is set in the flicker reducing unit 20 of the camera processing circuit 14.

手振れ検出部16は、この撮像装置に対して加えられる手振れの量を検出し、その検出結果をシステムコントローラ15に対して出力する。この手振れ検出部16は、例えば、ジャイロセンサなどの角速度センサや、加速度センサなど、撮像画像信号系と切り離された別の検出機構によって構成されていることが望ましい。   The camera shake detection unit 16 detects the amount of camera shake applied to the imaging apparatus and outputs the detection result to the system controller 15. The camera shake detection unit 16 is preferably configured by another detection mechanism separated from the captured image signal system, such as an angular velocity sensor such as a gyro sensor or an acceleration sensor.

この撮像装置では、CMOSセンサ12によって受光されて光電変換された信号が、順次AFE回路13に供給され、CDS処理やAGC処理が施された後、デジタル信号に変換される。カメラ処理回路14は、AFE回路13から供給されたデジタル画像信号を画質補正処理し、最終的に輝度信号(Y)と色差信号(R−Y,B−Y)に変換して出力する。   In this image pickup apparatus, the signals received and photoelectrically converted by the CMOS sensor 12 are sequentially supplied to the AFE circuit 13, subjected to CDS processing and AGC processing, and then converted into digital signals. The camera processing circuit 14 performs image quality correction processing on the digital image signal supplied from the AFE circuit 13, and finally converts the digital image signal into a luminance signal (Y) and a color difference signal (RY, BY) and outputs the result.

カメラ処理回路14から出力された画像データは、図示しないグラフィックI/F(インタフェース)に供給されてモニタ表示用の画像信号に変換され、これによりモニタにカメラスルー画像が表示される。また、ユーザの入力操作などによりシステムコントローラ15に対して画像の記録が指示されると、カメラ処理回路14からの画像データは図示しないエンコーダに供給され、所定の圧縮符号化処理が施されて、図示しない記録媒体に記録される。静止画像の記録の際には、カメラ処理回路14からは1フレーム分の画像データがエンコーダに供給され、動画像の記録の際には、処理された画像データがエンコーダに連続的に供給される。   The image data output from the camera processing circuit 14 is supplied to a graphic I / F (interface) (not shown) and converted into an image signal for monitor display, whereby a camera-through image is displayed on the monitor. When the system controller 15 is instructed to record an image by a user input operation or the like, the image data from the camera processing circuit 14 is supplied to an encoder (not shown) and subjected to a predetermined compression encoding process. It is recorded on a recording medium (not shown). At the time of recording a still image, image data for one frame is supplied from the camera processing circuit 14 to the encoder, and at the time of recording a moving image, the processed image data is continuously supplied to the encoder. .

<フリッカ検出方法>
次に、フリッカの検出方法について説明する。まず、図2は、フリッカについて説明するための図である。
<Flicker detection method>
Next, a flicker detection method will be described. First, FIG. 2 is a diagram for explaining flicker.

フリッカは、蛍光灯などの点滅する光源下で撮影した場合に発生し、CMOSセンサなどのXYアドレス走査型の撮像素子により撮像した場合には、図2の画像Pのように、垂直方向の周期的な輝度レベルや色相の変動として観察される。画像Pは、被写体が一様である場合にフリッカが明暗の縞模様として現れた状態を示している。   Flicker occurs when shooting is performed under a blinking light source such as a fluorescent lamp, and when the image is captured by an XY address scanning type imaging device such as a CMOS sensor, a period in the vertical direction as shown in an image P in FIG. It is observed as a change in luminance level and hue. The image P shows a state in which flicker appears as a bright and dark stripe pattern when the subject is uniform.

ここで、例えば周波数50Hzの商用交流電源による蛍光灯では点滅周波数が100Hzであることから、フィールド周波数60HzによるNTSC(National Television Standards Committee)方式のビデオ信号では、1フィールド当たりのライン数をMとしたとき、このような変動による縞模様の1周期Lは(M×60/100)ラインとなる。また、1フィールドでこのような周期的な変動は、100/60=1.66周期発生する。すなわち、このような周期的な変動は3フィールドごとに繰り返される。   Here, for example, a fluorescent lamp with a commercial AC power supply with a frequency of 50 Hz has a blinking frequency of 100 Hz. Therefore, in a video signal of the NTSC (National Television Standards Committee) system with a field frequency of 60 Hz, the number of lines per field is M. When this occurs, one period L of the striped pattern is (M × 60/100) lines. In addition, such periodic fluctuation in one field occurs 100/60 = 1.66 period. That is, such a periodic variation is repeated every three fields.

図3は、フリッカ検出部の内部構成を示すブロック図である。
図3に示すように、フリッカ低減部20は、画像信号を検波し、その検波値を正規化して出力する正規化積分値算出部210と、正規化された検波値にDFT処理を施すDFT処理部220と、DFTによるスペクトル解析の結果からフリッカ成分を推定するフリッカ生成部230と、推定されたフリッカ成分を画像信号から除去するための演算を実行する演算部240とを具備する。また、正規化積分値算出部210は、積分処理部211、積分値遅延部212、フィルタ処理部213、差分演算部214、および正規化処理部215を具備する。
FIG. 3 is a block diagram illustrating an internal configuration of the flicker detection unit.
As shown in FIG. 3, the flicker reducing unit 20 detects the image signal, normalizes the detected value and outputs the normalized integrated value calculating unit 210, and DFT processing for performing DFT processing on the normalized detection value Unit 220, a flicker generation unit 230 that estimates a flicker component from the result of spectrum analysis by DFT, and a calculation unit 240 that executes a calculation for removing the estimated flicker component from the image signal. Further, the normalized integral value calculation unit 210 includes an integration processing unit 211, an integration value delay unit 212, a filter processing unit 213, a difference calculation unit 214, and a normalization processing unit 215.

なお、本実施の形態に係る撮像装置では、映像信号を構成する輝度信号、色差信号ごとに、この図3に示すブロックによる処理が実行される。あるいは、少なくとも輝度信号について実行し、必要に応じて色差信号、各色信号について実行するようにしてもよい。また、輝度信号については、輝度信号に合成する前の色信号の段階で実行してもよく、またこの色信号の段階における処理においては、原色による色信号、補色による色信号のいずれの段階で実行してもよい。これらの色信号について実行する場合には、色信号ごとにこの図3に示すブロックによる処理が実行される。   In the imaging apparatus according to the present embodiment, the processing by the block shown in FIG. 3 is executed for each of the luminance signal and color difference signal constituting the video signal. Alternatively, it may be executed for at least the luminance signal, and may be executed for the color difference signal and each color signal as necessary. Further, the luminance signal may be executed at the stage of the color signal before being synthesized with the luminance signal, and the process at this stage of the color signal may be performed at any stage of the color signal by the primary color or the color signal by the complementary color. May be executed. When these color signals are executed, processing by the block shown in FIG. 3 is executed for each color signal.

以下、この図3を用いて、フリッカの検出方法について詳しく説明する。
一般にフリッカ成分は、被写体の信号強度に比例する。そこで、一般の被写体についての任意のフィールドnおよび任意の画素(x,y)における入力画像信号(フリッカ低減前のRGB原色信号または輝度信号)をIn’(x,y)とすると、In’(x,y)は、フリッカ成分を含まない信号成分と、これに比例したフリッカ成分との和として、次式(1)で表される。
In’(x,y)=[1+Γn(y)]×In(x,y) ……(1)
ここで、In(x,y)は信号成分であり、Γn(y)×In(x,y)はフリッカ成分であり、Γn(y)はフリッカ係数である。蛍光灯の発光周期(1/100秒)に比べて1水平周期は十分短く、同一フィールドの同一ラインではフリッカ係数は一定と見なすことができるので、フリッカ係数はΓn(y)で表す。
Hereinafter, the flicker detection method will be described in detail with reference to FIG.
In general, the flicker component is proportional to the signal intensity of the subject. Therefore, when an input image signal (RGB primary color signal or luminance signal before flicker reduction) in an arbitrary field n and an arbitrary pixel (x, y) for a general subject is In ′ (x, y), In ′ (x, y) x, y) is expressed by the following equation (1) as a sum of a signal component not including a flicker component and a flicker component proportional to the signal component.
In ′ (x, y) = [1 + Γn (y)] × In (x, y) (1)
Here, In (x, y) is a signal component, Γn (y) × In (x, y) is a flicker component, and Γn (y) is a flicker coefficient. One horizontal period is sufficiently shorter than the light emission period (1/100 second) of the fluorescent lamp, and the flicker coefficient can be regarded as constant in the same line of the same field, so the flicker coefficient is represented by Γn (y).

Γn(y)を一般化するために、式(2)に示すように、フーリエ級数に展開した形式で記述する。これによって、蛍光灯の種類によって異なる発光特性および残光特性をすべて網羅した形式でフリッカ係数を表現することができる。   In order to generalize Γn (y), it is described in a form expanded to a Fourier series as shown in equation (2). Thus, the flicker coefficient can be expressed in a format that covers all the light emission characteristics and afterglow characteristics that differ depending on the type of fluorescent lamp.

Figure 2007158964
Figure 2007158964

式(2)中のλ0は、図2に示した画面内フリッカの波長であり、1フィールド当たりの読み出しライン数をMとすると、L(=M/λ0)ラインに相当する。ω0は、λ0で正規化された規格化角周波数である。   In the equation (2), λ0 is the wavelength of the flicker in the screen shown in FIG. 2, and when the number of read lines per field is M, it corresponds to L (= M / λ0) lines. ω0 is a normalized angular frequency normalized by λ0.

γmは、各次(m=1,2,3‥)のフリッカ成分の振幅である。Φm,nは、各次のフリッカ成分の初期位相を示し、蛍光灯の発光周期(1/100秒)と露光タイミングによって決まる。ただし、Φm,nは、式(3)に示すように、垂直同期周波数と蛍光灯周波数とによって決まり、直前のフィールドとの間のΦm,nの差は、式(4)で表される。   γm is the amplitude of each flicker component (m = 1, 2, 3,...). Φm, n indicates the initial phase of each next flicker component, and is determined by the light emission period (1/100 second) of the fluorescent lamp and the exposure timing. However, Φm, n is determined by the vertical synchronization frequency and the fluorescent lamp frequency as shown in Equation (3), and the difference in Φm, n from the immediately preceding field is expressed by Equation (4).

Figure 2007158964
Figure 2007158964

<積分値の算出および保存>
図3に示したフリッカ低減部20では、まず、入力画像信号In’(x,y)が、フリッカ検出用に絵柄の影響を少なくするために、積分処理部211で、式(5)に示すように画面水平方向に1ライン分に亘って積分され、積分値Fn(y)が算出される。なお、式(5)中のα(y)は、式(6)で表されるように、信号成分In(x,y)の1ライン分に亘る積分値である。
<Calculation and storage of integral value>
In the flicker reducing unit 20 shown in FIG. 3, first, the input image signal In ′ (x, y) is represented by the equation (5) in the integration processing unit 211 in order to reduce the influence of the pattern for flicker detection. In this way, integration is performed over one line in the horizontal direction of the screen, and an integrated value Fn (y) is calculated. Note that α n (y) in equation (5) is an integral value over one line of the signal component In (x, y) as represented by equation (6).

Figure 2007158964
Figure 2007158964

算出された積分値Fn(y)は、以後のフィールドでのフリッカ検出用に、積分値遅延部212に一時的に記憶される。なお、積分値遅延部212は、入力された積分値を1垂直同期期間分だけ記憶することで、常に1フィールド前の積分値を出力する構成となっている。   The calculated integral value Fn (y) is temporarily stored in the integral value delay unit 212 for flicker detection in subsequent fields. The integral value delay unit 212 is configured to always output an integral value one field before by storing the inputted integral value for one vertical synchronization period.

<フィルタ処理および差分計算>
ここで、被写体が一様であれば、信号成分In(x,y)の積分値α(y)が一定値となるので、入力画像信号In’(x,y)から、α(y)×Γn(y)で表されるフリッカ成分を抽出することは容易である。
<Filter processing and difference calculation>
Here, if the subject is uniform, the integral value α n (y) of the signal component In (x, y) becomes a constant value, and therefore, from the input image signal In ′ (x, y), α n (y ) × Γn (y), it is easy to extract the flicker component.

しかし、一般的な被写体では、積分値α(y)にもm×ω0の成分が含まれるため、フリッカ成分としての輝度成分および色成分と、被写体自身の信号成分とを正確に分離することができず、純粋にフリッカ成分のみを抽出することは困難である。さらに、式(5)第3行目の第1項(α(y))に対して、第2項(α(y)×Γn(y))の成分は非常に小さいので、フリッカ成分は信号成分中にほとんど埋もれてしまう。 However, in a general subject, the integral value α n (y) also includes a component of m × ω0, so that a luminance component and a color component as flicker components and a signal component of the subject itself are accurately separated. Therefore, it is difficult to extract only flicker components purely. Furthermore, since the component of the second term (α n (y) × Γn (y)) is very small with respect to the first term (α n (y)) in the third row of the equation (5), the flicker component Are almost buried in the signal component.

これに対して、本実施の形態では、積分値Fn(y)からα(y)の影響を取り除くために、フィルタ処理部213によって1フィールドごとに平均化した積分値の平均値AVE[Fn(y)]を用いて、フリッカ成分を抽出する。このフィルタ処理部213は、巡回型フィルタによって構成される。フィルタの伝達関数をH(z)、フィルタ係数をkとすると、積分値の平均値AVE[Fn(y)]は、次式(7)および(8)により演算される。なお、式(7)は、積分値の平均値をzで変換して表している。 On the other hand, in this embodiment, in order to remove the influence of α n (y) from the integrated value Fn (y), the average value AVE [Fn of integrated values averaged for each field by the filter processing unit 213. (Y)] is used to extract the flicker component. The filter processing unit 213 is configured by a recursive filter. When the transfer function of the filter is H (z) and the filter coefficient is k, the average value AVE [Fn (y)] of the integral values is calculated by the following equations (7) and (8). In addition, Formula (7) represents the average value of integral values converted by z.

Figure 2007158964
Figure 2007158964

巡回型フィルタによって積分値を平均化することにより、FIRフィルタを用いた場合のように、フィルタ処理のために複数フィールド分の積分値を保持しておく必要がなくなり、そのためのメモリ容量を削減することができる。また、FIRフィルタと比較して、処理負荷が低減される。従って、回路規模が小さく、製造コストや消費電力が低減された回路により、フリッカ成分が打ち消された平均値AVE[Fn(z)]を求めることができる。   By averaging the integration values using a recursive filter, it is no longer necessary to hold integration values for a plurality of fields for filter processing as in the case of using an FIR filter, and the memory capacity for that purpose is reduced. be able to. Further, the processing load is reduced as compared with the FIR filter. Therefore, the average value AVE [Fn (z)] in which the flicker component is canceled can be obtained by a circuit having a small circuit scale and reduced manufacturing cost and power consumption.

ただし、以上の説明は、上記の式(9)の近似が成り立つものとして、巡回型フィルタが出力する積分値の平均値を算出する場合についてであるが、被写体の動きが大きい場合には、式(9)の近似が成り立たなくなる。このため、被写体の動きが大きい場合には、巡回型フィルタのフィルタ係数kを大きくする。これにより、誤検出の可能性が低減される。また、逆に、被写体の動きが小さい場合には、フィルタ係数kを小さくすることで、フリッカ成分がより強く抑制されるようになる。なお、このようなフィルタ係数kの制御については、後の図4および図5で説明する。   However, the above explanation is about the case where the average value of the integral values output from the cyclic filter is calculated on the assumption that the approximation of the above equation (9) is established. The approximation of (9) does not hold. For this reason, when the movement of the subject is large, the filter coefficient k of the recursive filter is increased. Thereby, the possibility of erroneous detection is reduced. Conversely, when the movement of the subject is small, the flicker component is more strongly suppressed by reducing the filter coefficient k. Such control of the filter coefficient k will be described later with reference to FIGS.

また、本実施の形態では、さらに、差分演算部214で、積分処理部211からの当該フィールドの積分値Fn(y)と、積分値遅延部212からの1フィールド前の積分値Fn_1(y)との差分が計算され、次式(10)で表される差分値Fn(y)−Fn_1(y)が算出される。なお、この式(10)も、上記の式(9)の近似が成り立つことを前提としている。   In the present embodiment, the difference calculation unit 214 further integrates the integration value Fn (y) of the field from the integration processing unit 211 and the integration value Fn_1 (y) of the previous field from the integration value delay unit 212. And a difference value Fn (y) −Fn_1 (y) represented by the following equation (10) is calculated. This equation (10) is also premised on the approximation of the above equation (9).

Figure 2007158964
Figure 2007158964

<差分値の正規化>
図3のフリッカ低減部20では、さらに、正規化処理部215で、差分演算部214からの差分値Fn(y)−Fn_1(y)が、フィルタ処理部213からの1フィールドごとの平均値AVE[Fn(y)]で除算されることによって正規化され、正規化後の差分値gn(y)が算出される。
<Normalization of difference value>
In the flicker reduction unit 20 of FIG. 3, the normalization processing unit 215 further calculates the difference value Fn (y) −Fn — 1 (y) from the difference calculation unit 214 as the average value AVE for each field from the filter processing unit 213. Normalization is performed by dividing by [Fn (y)], and a normalized difference value gn (y) is calculated.

正規化後の差分値gn(y)は、上記の式(8),式(10)および三角関数の和積公式によって式(11)のように展開され、さらに式(4)の関係から式(12)で表される。なお、式(12)中の|Am|およびθmは、それぞれ式(13)および(14)で表される。   The normalized difference value gn (y) is expanded as shown in Expression (11) by the above product (8), Expression (10), and the trigonometric product formula. It is represented by (12). In addition, | Am | and θm in the equation (12) are expressed by the equations (13) and (14), respectively.

Figure 2007158964
Figure 2007158964

差分演算部214からの差分値Fn(y)−Fn_1(y)には、被写体の信号強度の影響が残るため、領域によってフリッカによる輝度変化および色変化のレベルが異なってしまう。これに対して、上記のように、正規化処理部215により正規化することで、全領域に亘ってフリッカによる輝度変化および色変化を、同一レベルに合わせることができるようになる。   The difference value Fn (y) −Fn_1 (y) from the difference calculation unit 214 remains affected by the signal intensity of the subject, and therefore the level of luminance change and color change due to flicker varies depending on the region. On the other hand, as described above, normalization by the normalization processing unit 215 makes it possible to adjust the luminance change and color change due to flicker to the same level over the entire region.

<スペクトル抽出によるフリッカ成分の推定>
上記の式(13)および(14)で表される|Am|,θmは、それぞれ、正規化後の差分値gn(y)の、各次のスペクトルの振幅および初期位相である。正規化後の差分値gn(y)をフーリエ変換して、各次のスペクトルの振幅|Am|および初期位相θmを検出すれば、次式(15)および(16)によって、上記の式(2)に示した各次のフリッカ成分の振幅γmおよび初期位相Φm,nをそれぞれ求めることができる。
<Estimation of flicker components by spectral extraction>
| Am | and θm represented by the above equations (13) and (14) are the amplitude and initial phase of each spectrum of the normalized difference value gn (y), respectively. If the difference value gn (y) after normalization is Fourier-transformed to detect the amplitude | Am | and the initial phase θm of each spectrum, the following equation (2) is obtained by the following equations (15) and (16): The amplitude γm and the initial phase Φm, n of each next flicker component shown in FIG.

Figure 2007158964
Figure 2007158964

そこで、図3のフリッカ低減部20では、DFT処理部220において、正規化処理部215からの正規化後の差分値gn(y)の、フリッカの1波長分(Lライン分)に相当するデータを、離散フーリエ変換する。   Therefore, in the flicker reduction unit 20 of FIG. 3, the DFT processing unit 220 corresponds to data corresponding to one wavelength of flicker (for L lines) of the normalized difference value gn (y) from the normalization processing unit 215. Is subjected to discrete Fourier transform.

DFT演算をDFT[gn(y)]とし、次数mのDFT結果をGn(m)とすれば、DFT演算は次式(17)で表される。ただし、式(17)中のWは式(18)で表される。   If the DFT operation is DFT [gn (y)] and the DFT result of order m is Gn (m), the DFT operation is expressed by the following equation (17). However, W in Formula (17) is represented by Formula (18).

Figure 2007158964
Figure 2007158964

また、DFTの定義によって、式(13)および(14)と、式(17)との関係は、次式(19)および(20)で表される。   Moreover, the relationship between Formula (13) and (14) and Formula (17) is represented by following Formula (19) and (20) by the definition of DFT.

Figure 2007158964
Figure 2007158964

従って、式(15)(16)(19)(20)から、次式(21)および(22)によって各次のフリッカ成分の振幅γmおよび初期位相Φm,nを求めることができる。   Therefore, from the equations (15), (16), (19), and (20), the amplitude γm and the initial phase Φm, n of each next flicker component can be obtained by the following equations (21) and (22).

Figure 2007158964
Figure 2007158964

DFT処理部220は、まず、式(17)で定義されるDFT演算によってスペクトルを抽出し、その後、式(21)および(22)の演算によって、各次のフリッカ成分の振幅γmおよび初期位相Φm,nを推定する。ここで、DFT演算のデータ長を、フリッカ波形の1波長分(Lライン分)とするのは、これによって、ちょうどω0の整数倍の離散スペクトル群を、直接得ることができるからである。   The DFT processing unit 220 first extracts a spectrum by the DFT calculation defined by Expression (17), and then calculates the amplitude γm and the initial phase Φm of each next flicker component by the calculations of Expressions (21) and (22). , N is estimated. Here, the data length of the DFT calculation is set to one wavelength (L line) of the flicker waveform because a discrete spectrum group that is an integral multiple of ω0 can be directly obtained.

なお、デジタル信号処理におけるフーリエ変換としては、一般に、高速フーリエ変換(FFT)が用いられる。しかし、FFTではデータ長が2のべき乗であることが必要であることから、本実施の形態では、DFTにより周波数解析を行い、その分、データ処理を簡略化する。ただし、入出力データを加工して、FFTを用いることもできる。   In general, fast Fourier transform (FFT) is used as Fourier transform in digital signal processing. However, since FFT requires that the data length be a power of 2, in the present embodiment, frequency analysis is performed by DFT, and data processing is simplified accordingly. However, FFT can also be used by processing input / output data.

実際の蛍光灯照明下では、次数mを数次までに限定してもフリッカ成分を十分に近似できるので、DFT演算においてデータをすべて出力する必要はない。従って、このフリッカ検出の用途では、FFTと比較して演算効率の点でデメリットはない。   Under actual fluorescent lamp illumination, flicker components can be sufficiently approximated even if the order m is limited to several orders, so that it is not necessary to output all data in the DFT calculation. Therefore, in this application for detecting flicker, there is no disadvantage in terms of calculation efficiency compared with FFT.

次に、フリッカ生成部230は、DFT処理部220による振幅γmおよび初期位相Φm,nの推定値を用いて、上記の式(2)の演算処理を実行し、フリッカ成分を正しく反映しているフリッカ係数Γn(y)を算出する。なお、この式(2)の演算処理においても、実際の蛍光灯照明下では、総和次数を無限大でなく、あらかじめ定められた次数、例えば2次までに限定し、高次の処理を省略しても、実用上フリッカ成分を十分近似できる。   Next, the flicker generation unit 230 uses the estimated value of the amplitude γm and the initial phase Φm, n by the DFT processing unit 220 to execute the calculation process of the above equation (2), and correctly reflects the flicker component. The flicker coefficient Γn (y) is calculated. Even in the calculation processing of equation (2), under actual fluorescent lamp illumination, the total order is not infinite, but limited to a predetermined order, for example, the second order, and the higher order processing is omitted. However, the flicker component can be approximated sufficiently in practice.

<フリッカ低減のための演算>
上記の式(1)は、次式(23)のように変形することができる。この式(23)に基づき、演算部240は、フリッカ生成部230からのフリッカ係数Γn(y)に“1”を加算した後、この加算値により画像信号を除算する。これにより、入力画像信号In’(x,y)に含まれるフリッカ成分が高精度で除去される。
In(x,y)=In’(x,y)/[1+Γn(y)] ……(23)
以上のフリッカ検出・低減処理によれば、積分値Fn(y)ではフリッカ成分が信号成分中に完全に埋もれてしまう、フリッカ成分が微少な黒の背景部分や低照度の部分などの領域でも、差分値Fn(y)−Fn_1(y)を算出し、これを平均値AVE[Fn(y)]で正規化することによって、フリッカ成分を高精度で検出することができる。
<Calculation for flicker reduction>
The above equation (1) can be modified as the following equation (23). Based on this equation (23), the calculation unit 240 adds “1” to the flicker coefficient Γn (y) from the flicker generation unit 230 and then divides the image signal by this added value. Thereby, the flicker component contained in the input image signal In ′ (x, y) is removed with high accuracy.
In (x, y) = In ′ (x, y) / [1 + Γn (y)] (23)
According to the above flicker detection / reduction processing, the flicker component is completely buried in the signal component with the integrated value Fn (y), even in a region such as a black background portion where the flicker component is minute or a portion with low illuminance, By calculating the difference value Fn (y) -Fn_1 (y) and normalizing it with the average value AVE [Fn (y)], the flicker component can be detected with high accuracy.

また、フリッカ係数Γnの算出にあたっては、次数を数次までに限定できるので、比較的簡易な処理でフリッカ検出を高精度化できる。なお、適当な次数までのスペクトルからフリッカ成分を推定することは、正規化後の差分値gn(y)を完全に再現しないで近似することになるが、これによって、かえって、被写体の状態によって正規化後の差分値gn(y)に不連続な部分を生じても、その部分のフリッカ成分を精度よく推定できることになる。   Further, in calculating the flicker coefficient Γn, since the order can be limited to several orders, flicker detection can be performed with high accuracy by a relatively simple process. Note that estimating the flicker component from the spectrum up to an appropriate order approximates the normalized difference value gn (y) without completely reproducing it. Even if a discontinuous part occurs in the difference value gn (y) after conversion, the flicker component of that part can be estimated with high accuracy.

なお、上記の処理では、差分値Fn(y)−Fn_1(y)を平均値AVE[Fn(y)]で正規化することで、有限の計算精度を効果的に確保することができた。しかし、例えば、要求される計算精度を満足できる場合には、積分値Fn(y)を直接、平均値AVE[Fn(y)]で正規化してもよい。   In the above process, the difference value Fn (y) −Fn — 1 (y) is normalized by the average value AVE [Fn (y)], thereby effectively ensuring a finite calculation accuracy. However, for example, when the required calculation accuracy can be satisfied, the integral value Fn (y) may be directly normalized by the average value AVE [Fn (y)].

<フリッカ処理部に対する係数設定>
ところで、上述した式(7)は、巡回型フィルタであるフィルタ処理部213の伝達関数を定義するものである。フィルタ処理部213では、フィルタ係数kが小さく設定されるほど、時間方向のローパスフィルタ効果が大きくなり、これにより、正規化後の信号におけるフリッカ成分を抑圧する効果が大きくなる。逆に、フィルタ係数kを大きく設定するほど、ローパスフィルタ効果は薄れ、フリッカ成分の抑圧効果も薄れる。しかし、フィルタ係数kが大きいほど、入力画像信号の時間的な変化に追随しやすいという特徴がある。
<Coefficient setting for flicker processing section>
By the way, the above-described equation (7) defines a transfer function of the filter processing unit 213 which is a recursive filter. In the filter processing unit 213, the smaller the filter coefficient k is set, the greater the low-pass filter effect in the time direction, and the greater the effect of suppressing the flicker component in the normalized signal. Conversely, as the filter coefficient k is set larger, the low-pass filter effect is reduced and the flicker component suppression effect is also reduced. However, the larger the filter coefficient k is, the easier it is to follow the temporal change of the input image signal.

そこで、本実施の形態では、手振れ検出部16により画面の動きを検出し、その検出結果に応じて、フィルタ処理部213に対して設定するフィルタ係数kを変化させることで、画面の状況に応じて巡回型フィルタの動作を最適化する。   Therefore, in the present embodiment, the motion detection unit 16 detects the screen motion, and the filter coefficient k set for the filter processing unit 213 is changed according to the detection result, so that the screen motion is matched. To optimize the operation of the recursive filter.

図4は、フィルタ係数の設定制御の流れを示すフローチャートである。
システムコントローラ15は、図4の処理を例えば一定時間ごとに実行して、フィルタ処理部213に対してフィルタ係数kを設定する。まず、システムコントローラ15は、手振れ検出部16から、手振れ量の検出値を取得する(ステップS1)。次に、図示しないROMなどのあらかじめ記憶された、手振れ量とフィルタ係数kとの対応を示す係数設定テーブルを参照し、取得した手振れ量に対応するフィルタ係数kを取得する(ステップS2)。そして、取得したフィルタ係数kを、フィルタ処理部213に対して設定する(ステップS3)。このような処理により、手振れの検出量に応じて、フィルタ処理部213による平均化処理時の周波数特性が変化するようになる。
FIG. 4 is a flowchart showing the flow of filter coefficient setting control.
The system controller 15 sets the filter coefficient k to the filter processing unit 213 by executing the process of FIG. First, the system controller 15 acquires a detected value of the amount of camera shake from the camera shake detection unit 16 (step S1). Next, a filter coefficient k corresponding to the acquired camera shake amount is acquired by referring to a coefficient setting table stored in advance such as a ROM (not shown) indicating the correspondence between the camera shake amount and the filter coefficient k (step S2). And the acquired filter coefficient k is set with respect to the filter process part 213 (step S3). By such processing, the frequency characteristic at the time of averaging processing by the filter processing unit 213 changes according to the detected amount of camera shake.

図5は、係数設定テーブルに設定される手振れ量とフィルタ係数との関係を示すグラフの一例である。
図5に示すように、係数設定テーブルでは、手振れ検出部16により手振れ量がしきい値thrAからしきい値thrB(ただし、thrA<thrB)に増加するに連れて、フィルタ係数kが徐々に増加するように設定される。これにより、手振れ量が少なく、被写体の動きが少ない場合には、平均化処理によりフリッカ成分が強く抑圧されるようになる。また、手振れにより被写体の動きが大きくなるほど、フリッカ成分の抑圧効果は徐々に小さくなるが、画面の動きに対して追従しやすくなるため、フリッカ検出の誤動作が発生しにくくなり、結果的にフリッカ検出精度が向上する。すなわち、平均化処理のために巡回型フィルタを用いながらも、手振れ量に関係なく、全般的にフリッカ検出精度を向上させることができる。また、手振れ量に応じてフィルタ係数kを連続的に変化させることで、フリッカの影響により画面視認時にユーザに与えられる違和感を小さくすることができ、結果的に画質を向上させることが可能となる。
FIG. 5 is an example of a graph showing the relationship between the camera shake amount set in the coefficient setting table and the filter coefficient.
As shown in FIG. 5, in the coefficient setting table, the filter coefficient k gradually increases as the camera shake amount is increased from the threshold value thrA to the threshold value thrB (however, thrA <thrB) by the camera shake detection unit 16. Set to do. As a result, when the amount of camera shake is small and the movement of the subject is small, the flicker component is strongly suppressed by the averaging process. In addition, as the movement of the subject increases due to camera shake, the suppression effect of the flicker component gradually decreases, but it becomes easier to follow the movement of the screen. Accuracy is improved. That is, while using a recursive filter for averaging processing, flicker detection accuracy can be improved overall regardless of the amount of camera shake. In addition, by continuously changing the filter coefficient k according to the amount of camera shake, it is possible to reduce a sense of discomfort given to the user when viewing the screen due to the influence of flicker, and as a result, it is possible to improve the image quality. .

なお、図5の例では、手振れ量がしきい値thrA以下のとき、およびしきい値thrB以上のときには、それぞれフィルタ係数kを一定値にして、適度なフリッカ抑制効果を維持して、画面視認時の違和感を低減するとともに、係数設定制御が容易になるようにしている。   In the example of FIG. 5, when the amount of camera shake is equal to or less than the threshold value thrA and equal to or greater than the threshold value thrB, the filter coefficient k is set to a constant value to maintain an appropriate flicker suppression effect, While reducing the sense of discomfort at the time, the coefficient setting control is facilitated.

なお、画面の動きを撮像画像信号自体から検出する手法も、一般的に存在する。しかし、このような手法では、フリッカ成分を含む場合には誤検出の可能性が高くなり、上記の係数設定制御に用いた場合には、フリッカ検出の精度を必ずしも向上させることができない。このため、画面の動きの検出は、角速度センサや加速度センサのように、撮像画像信号系とは別の検出機構によって行われることが望ましい。   There is generally a method for detecting the movement of the screen from the captured image signal itself. However, with such a technique, the possibility of erroneous detection increases when a flicker component is included, and the accuracy of flicker detection cannot always be improved when used in the coefficient setting control described above. For this reason, it is desirable that the movement of the screen is detected by a detection mechanism different from the captured image signal system, such as an angular velocity sensor or an acceleration sensor.

以上説明したように、本実施の形態に係る撮像装置によれば、フリッカ検出時における平均化処理のために、巡回型フィルタを用いたことで、FIRフィルタを用いた場合と比較して、演算に利用する画像信号を格納しておくためのメモリの容量を削減することができ、また処理負荷も軽減できるので、フリッカ低減部20の回路規模を抑制し、製造コストを低減することができる。そして、そのフィルタ係数kを手振れ検出量に応じて変化させるようにしたことで、画面の動きによるフリッカ成分の誤検出を発生しにくくし、フリッカ成分が精度よく低減された、違和感の少ない良好な撮像画像を得ることが可能となる。   As described above, according to the imaging apparatus according to the present embodiment, the cyclic filter is used for the averaging process at the time of flicker detection, so that the calculation is performed as compared with the case where the FIR filter is used. The capacity of the memory for storing the image signal used for the recording can be reduced, and the processing load can be reduced. Therefore, the circuit scale of the flicker reduction unit 20 can be suppressed, and the manufacturing cost can be reduced. The filter coefficient k is changed in accordance with the amount of camera shake detection, so that the flicker component is not erroneously detected due to the movement of the screen, the flicker component is reduced accurately, and the sense of incongruity is small. A captured image can be obtained.

なお、上記の実施の形態では、インタレース走査方式の撮像素子を用いた場合の処理について説明したが、プログレッシブ走査方式の場合でも、フィールドに代わってフレームごとに処理を行うようにすれば、基本的に上記と同様の処理を適用できる。   In the above-described embodiment, the processing in the case of using an interlace scanning type imaging device has been described. However, even in the case of the progressive scanning method, if the processing is performed for each frame instead of the field, the basic In particular, the same processing as described above can be applied.

また、上記の実施の形態では、撮像素子としてCMOSイメージセンサを用いた場合について説明したが、CMOSイメージセンサ以外のMOS型イメージセンサなど、他のXYアドレス走査型の撮像素子を用いた場合にも本発明を適用可能である。さらに、本発明は、XYアドレス走査型の撮像素子を用いた様々な撮像装置、およびこのような撮像機能を具備する携帯電話機やPDA(Personal Digital Assistants)などの機器に対して適用することもできる。また、例えばPC(パーソナルコンピュータ)などに接続されるテレビ電話用あるいはゲームソフト用などの小型カメラによる撮像信号などを処理する画像処理装置に対しても、本発明を適用することができる。   In the above-described embodiment, the case where a CMOS image sensor is used as the image sensor has been described. However, when another XY address scanning image sensor such as a MOS image sensor other than the CMOS image sensor is used. The present invention is applicable. Furthermore, the present invention can also be applied to various imaging devices using XY address scanning type imaging devices, and devices such as mobile phones and PDAs (Personal Digital Assistants) having such an imaging function. . Further, the present invention can also be applied to an image processing apparatus that processes an image signal from a small camera such as a videophone or game software connected to a PC (personal computer) or the like.

また、上記の処理機能は、コンピュータによって実現することができる。その場合、この装置が有すべき機能(上記のフリッカ低減部に対応する機能や、システムコントローラによるフィルタ係数設定機能など)の処理内容を記述したプログラムが提供される。そして、そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、磁気記録装置、光ディスク、光磁気ディスク、半導体メモリなどがある。   Further, the above processing functions can be realized by a computer. In this case, a program describing the processing contents of the functions that the apparatus should have (functions corresponding to the above flicker reduction unit, filter coefficient setting function by the system controller, etc.) is provided. And the said processing function is implement | achieved on a computer by running the program with a computer. The program describing the processing contents can be recorded on a computer-readable recording medium. Examples of the computer-readable recording medium include a magnetic recording device, an optical disk, a magneto-optical disk, and a semiconductor memory.

プログラムを流通させる場合には、例えば、そのプログラムが記録された光ディスクや半導体メモリなどの可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。   In order to distribute the program, for example, portable recording media such as an optical disk and a semiconductor memory on which the program is recorded are sold. It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network.

プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムまたはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。   The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing according to the program. Further, each time the program is transferred from the server computer, the computer can sequentially execute processing according to the received program.

本発明の実施の形態に係る撮像装置の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the imaging device which concerns on embodiment of this invention. フリッカについて説明するための図である。It is a figure for demonstrating flicker. フリッカ検出部の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of a flicker detection part. フィルタ係数の設定制御の流れを示すフローチャートである。It is a flowchart which shows the flow of the filter coefficient setting control. 係数設定テーブルに設定される手振れ量とフィルタ係数との関係を示すグラフの一例である。It is an example of the graph which shows the relationship between the camera-shake amount set to a coefficient setting table, and a filter coefficient.

符号の説明Explanation of symbols

11……光学ブロック、11a……ドライバ、12……CMOS型イメージセンサ(CMOSセンサ)、12a……タイミングジェネレータ(TG)、13……アナログフロントエンド(AFE)回路、14……カメラ処理回路、15……システムコントローラ、16……手振れ検出部、20……フリッカ低減部、210……正規化積分値算出部、211……積分処理部、212……積分値遅延部、213……フィルタ処理部、214……差分演算部、215……正規化処理部、220……DFT処理部、230……フリッカ生成部、240……演算部   DESCRIPTION OF SYMBOLS 11 ... Optical block, 11a ... Driver, 12 ... CMOS type image sensor (CMOS sensor), 12a ... Timing generator (TG), 13 ... Analog front end (AFE) circuit, 14 ... Camera processing circuit, DESCRIPTION OF SYMBOLS 15 ... System controller, 16 ... Camera shake detection part, 20 ... Flicker reduction part, 210 ... Normalization integration value calculation part, 211 ... Integration processing part, 212 ... Integration value delay part, 213 ... Filter processing , 214... Difference calculation unit, 215... Normalization processing unit, 220... DFT processing unit, 230.

Claims (9)

画像信号を処理する画像処理装置において、
前記画像信号を1水平同期期間以上の単位で積分する積分手段と、
前記積分手段による積分値を1フィールドまたは1フレームごとに平均化する、巡回型フィルタからなるフィルタ処理手段と、
前記積分手段による積分値、または隣接するフィールドもしくはフレームにおける積分値の差分値を、前記フィルタ処理手段の出力値を用いて正規化する正規化手段と、
前記正規化手段による正規化後の積分値または差分値のスペクトルを抽出する周波数解析手段と、
前記周波数解析手段により抽出されたスペクトルから、蛍光灯照明下で画面上に生じるフリッカ成分を推定するフリッカ推定手段と、
撮像時の手振れを検出する手振れ検出手段と、
前記手振れ検出手段による手振れ検出量に応じて、前記フィルタ処理手段に対するフィルタ係数の設定値を変化させるフィルタ制御手段と、
を有することを特徴とする画像処理装置。
In an image processing apparatus that processes an image signal,
Integrating means for integrating the image signal in units of one horizontal synchronization period or more;
Filter processing means comprising a recursive filter for averaging the integration value by the integration means for each field or frame;
Normalization means for normalizing the integration value by the integration means or the difference value of the integration values in adjacent fields or frames using the output value of the filter processing means;
A frequency analysis means for extracting a spectrum of an integral value or a difference value after normalization by the normalization means;
Flicker estimation means for estimating a flicker component generated on a screen under fluorescent lamp illumination from the spectrum extracted by the frequency analysis means;
Camera shake detection means for detecting camera shake during imaging;
Filter control means for changing a set value of a filter coefficient for the filter processing means in accordance with a camera shake detection amount by the camera shake detection means;
An image processing apparatus comprising:
前記フィルタ制御手段は、前記手振れ検出量が大きいほど、前記フィルタ係数として大きな値を設定することを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the filter control unit sets a larger value as the filter coefficient as the camera shake detection amount is larger. 前記フィルタ制御手段は、さらに、前記手振れ検出量が所定の下限値以下の場合、および所定の上限値以上の場合には、前記フィルタ係数をそれぞれ個別の一定値に保持することを特徴とする請求項2記載の画像処理装置。   The filter control means further holds the filter coefficients at individual constant values when the camera shake detection amount is equal to or smaller than a predetermined lower limit value and when equal to or greater than a predetermined upper limit value. Item 3. The image processing apparatus according to Item 2. 前記手振れ検出手段は、角速度センサまたは加速度センサからなることを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the camera shake detection unit includes an angular velocity sensor or an acceleration sensor. 前記正規化手段は、前記積分手段による積分値、または隣接するフィールドもしくはフレームにおける積分値の差分値を、前記フィルタ処理手段の出力値で除算することを特徴とする請求項1記載の画像処理装置。   2. The image processing apparatus according to claim 1, wherein the normalizing unit divides an integrated value obtained by the integrating unit or a difference value between integrated values in adjacent fields or frames by an output value of the filter processing unit. . 前記フリッカ推定手段により推定されたフリッカ成分を打ち消すように前記画像信号を補正する補正手段をさらに有することを特徴とする請求項1記載の画像処理装置。   2. The image processing apparatus according to claim 1, further comprising a correction unit that corrects the image signal so as to cancel the flicker component estimated by the flicker estimation unit. XYアドレス走査型の固体撮像素子を用いて画像を撮像する撮像装置において、
撮像により得られた画像信号を、1水平同期期間以上の単位で積分する積分手段と、
前記積分手段による積分値を1フィールドまたは1フレームごとに平均化する、巡回型フィルタからなるフィルタ処理手段と、
前記積分手段による積分値、または隣接するフィールドもしくはフレームにおける積分値の差分値を、前記フィルタ処理手段の出力値を用いて正規化する正規化手段と、
前記正規化手段による正規化後の積分値または差分値のスペクトルを抽出する周波数解析手段と、
前記周波数解析手段により抽出されたスペクトルから、蛍光灯照明下で画面上に生じるフリッカ成分を推定するフリッカ推定手段と、
撮像時の手振れを検出する手振れ検出手段と、
前記手振れ検出手段による手振れ検出量に応じて、前記フィルタ処理手段に対するフィルタ係数の設定値を変化させるフィルタ制御手段と、
を有することを特徴とする撮像装置。
In an imaging apparatus that captures an image using an XY address scanning type solid-state imaging device,
Integrating means for integrating the image signal obtained by imaging in units of one horizontal synchronization period or more;
Filter processing means comprising a recursive filter for averaging the integration value by the integration means for each field or frame;
Normalization means for normalizing the integration value by the integration means or the difference value of the integration values in adjacent fields or frames using the output value of the filter processing means;
A frequency analysis means for extracting a spectrum of an integral value or a difference value after normalization by the normalization means;
Flicker estimation means for estimating a flicker component generated on a screen under fluorescent lamp illumination from the spectrum extracted by the frequency analysis means;
Camera shake detection means for detecting camera shake during imaging;
Filter control means for changing a set value of a filter coefficient for the filter processing means in accordance with a camera shake detection amount by the camera shake detection means;
An imaging device comprising:
蛍光灯照明下で撮像画像上に生じるフリッカを検出するための画像処理方法において、
手振れ検出手段が、撮像時の手振れを検出するステップと、
フィルタ制御手段が、前記手振れ検出手段による手振れ検出量に応じて、巡回型フィルタからなるフィルタ処理手段に対するフィルタ係数の設定値を変化させるステップと、
積分手段が、撮像により得られた画像信号を1水平同期期間以上の単位で積分するステップと、
前記フィルタ処理手段が、前記積分手段による積分値を1フィールドまたは1フレームごとに平均化するステップと、
正規化手段が、前記積分手段による積分値、または隣接するフィールドもしくはフレームにおける積分値の差分値を、前記フィルタ処理手段の出力値を用いて正規化するステップと、
周波数解析手段が、前記正規化手段による正規化後の積分値または差分値のスペクトルを抽出するステップと、
フリッカ推定手段が、前記周波数解析手段により抽出されたスペクトルから、前記撮像画像上に生じるフリッカ成分を推定するステップと、
を含むことを特徴とする画像処理方法。
In an image processing method for detecting flicker generated on a captured image under fluorescent lamp illumination,
A step of detecting a camera shake during imaging,
The filter control means changing the set value of the filter coefficient for the filter processing means comprising a recursive filter according to the amount of camera shake detected by the camera shake detection means;
An integrating means for integrating an image signal obtained by imaging in units of one horizontal synchronization period or more;
The filter processing means averaging the integration value by the integration means for each field or frame;
Normalizing means normalizing the integrated value by the integrating means or the difference value of the integrated values in adjacent fields or frames using the output value of the filter processing means;
A step of extracting a spectrum of an integral value or a difference value after normalization by the normalization means;
Flicker estimation means estimating a flicker component generated on the captured image from the spectrum extracted by the frequency analysis means;
An image processing method comprising:
蛍光灯照明下で撮像画像上に生じるフリッカを検出する処理をコンピュータに実行させる画像処理プログラムにおいて、
撮像により得られた画像信号を1水平同期期間以上の単位で積分する積分手段、
前記積分手段による積分値を1フィールドまたは1フレームごとに平均化する、巡回型フィルタからなるフィルタ処理手段、
前記積分手段による積分値、または隣接するフィールドもしくはフレームにおける積分値の差分値を、前記フィルタ処理手段の出力値を用いて正規化する正規化手段、
前記正規化手段による正規化後の積分値または差分値のスペクトルを抽出する周波数解析手段、
前記周波数解析手段により抽出されたスペクトルから、前記撮像画像上に生じるフリッカ成分を推定するフリッカ推定手段、
撮像時の手振れを検出する手振れ検出手段、
前記手振れ検出手段による手振れ検出量に応じて、前記フィルタ処理手段に対するフィルタ係数の設定値を変化させるフィルタ制御手段、
として、前記コンピュータを機能させることを特徴とする画像処理プログラム。
In an image processing program for causing a computer to execute processing for detecting flicker generated on a captured image under fluorescent lamp illumination,
Integration means for integrating the image signal obtained by imaging in units of one horizontal synchronization period or more;
A filter processing means comprising a recursive filter for averaging the integration value by the integration means for each field or frame;
Normalization means for normalizing the integration value by the integration means or the difference value of the integration values in adjacent fields or frames using the output value of the filter processing means;
Frequency analysis means for extracting the spectrum of the integral value or difference value after normalization by the normalization means,
Flicker estimation means for estimating a flicker component generated on the captured image from the spectrum extracted by the frequency analysis means;
Camera shake detection means for detecting camera shake during imaging,
Filter control means for changing a set value of a filter coefficient for the filter processing means in accordance with a camera shake detection amount by the camera shake detection means;
An image processing program for causing the computer to function.
JP2005353945A 2005-12-07 2005-12-07 Image processing apparatus and imaging device Pending JP2007158964A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005353945A JP2007158964A (en) 2005-12-07 2005-12-07 Image processing apparatus and imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005353945A JP2007158964A (en) 2005-12-07 2005-12-07 Image processing apparatus and imaging device

Publications (1)

Publication Number Publication Date
JP2007158964A true JP2007158964A (en) 2007-06-21

Family

ID=38242704

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005353945A Pending JP2007158964A (en) 2005-12-07 2005-12-07 Image processing apparatus and imaging device

Country Status (1)

Country Link
JP (1) JP2007158964A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007235808A (en) * 2006-03-03 2007-09-13 Nec Saitama Ltd Imaging apparatus, method, and program
JP2009253615A (en) * 2008-04-04 2009-10-29 Fujifilm Corp Imaging apparatus
WO2014167865A1 (en) * 2013-04-12 2014-10-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Flicker reducing device, imaging device, and flicker reducing method
WO2022172639A1 (en) * 2021-02-09 2022-08-18 ソニーグループ株式会社 Imaging device, imaging method, and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007235808A (en) * 2006-03-03 2007-09-13 Nec Saitama Ltd Imaging apparatus, method, and program
JP2009253615A (en) * 2008-04-04 2009-10-29 Fujifilm Corp Imaging apparatus
WO2014167865A1 (en) * 2013-04-12 2014-10-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Flicker reducing device, imaging device, and flicker reducing method
CN104380710A (en) * 2013-04-12 2015-02-25 松下电器(美国)知识产权公司 Flicker reduction device, photographing device, and flicker reduction method
US9367907B2 (en) 2013-04-12 2016-06-14 Panasonic Intellectual Property Corporation Of America Flicker reducing device, imaging device, and flicker reducing method
JPWO2014167865A1 (en) * 2013-04-12 2017-02-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Flicker reduction apparatus, imaging apparatus, and flicker reduction method
CN104380710B (en) * 2013-04-12 2018-08-24 松下电器(美国)知识产权公司 Flicker reduction device, photographing device, and flicker reduction method
WO2022172639A1 (en) * 2021-02-09 2022-08-18 ソニーグループ株式会社 Imaging device, imaging method, and program
JPWO2022172639A1 (en) * 2021-02-09 2022-08-18

Similar Documents

Publication Publication Date Title
US9055228B2 (en) Imaging device and signal processing method for flicker reduction
JP5035025B2 (en) Image processing apparatus, flicker reduction method, imaging apparatus, and flicker reduction program
JP4106554B2 (en) Imaging environment determination method and imaging apparatus
CN100531321C (en) Image processing apparatus and image capture apparatus
JP4453648B2 (en) Image processing apparatus and imaging apparatus
CN100542304C (en) Image processing device and image pickup device
JP2007074555A (en) Flicker reduction method, flicker reduction circuit and imaging apparatus
US9344640B2 (en) Imaging device, integrated circuit, and flicker reduction method
JP2010136224A (en) Imaging apparatus and imaging method
CN101296315A (en) Image noise reduction device and method
JP2011030207A (en) Imaging device, and flash determining method and program
JP4640068B2 (en) Imaging method and imaging apparatus
US9420223B2 (en) Image recording device that records moving image, method of controlling the same, and storage medium
JP4867822B2 (en) Image processing apparatus, image processing method, and imaging apparatus
JP2007158964A (en) Image processing apparatus and imaging device
JP5088361B2 (en) Image processing apparatus and imaging apparatus
JP5274403B2 (en) Motion detection device and motion detection method
JP2010273147A (en) Imaging signal specific state detection device, imaging device, imaging signal specific state detection method, program, and integrated circuit
JP2009253808A (en) Image processor, imaging device, method for processing image and program
JP4356604B2 (en) VIDEO SIGNAL PROCESSING DEVICE, VIDEO SIGNAL PROCESSING METHOD, VIDEO SIGNAL PROCESSING PROGRAM, AND RECORDING MEDIUM CONTAINING VIDEO SIGNAL PROCESSING PROGRAM
JP2012147060A (en) Image signal processor
JP2011130226A (en) Image processing apparatus, image processing method, and program