JP4753856B2 - Motion detection apparatus and method, and imaging apparatus - Google Patents
Motion detection apparatus and method, and imaging apparatus Download PDFInfo
- Publication number
- JP4753856B2 JP4753856B2 JP2006347933A JP2006347933A JP4753856B2 JP 4753856 B2 JP4753856 B2 JP 4753856B2 JP 2006347933 A JP2006347933 A JP 2006347933A JP 2006347933 A JP2006347933 A JP 2006347933A JP 4753856 B2 JP4753856 B2 JP 4753856B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- motion
- detection
- target image
- detection target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000001514 detection method Methods 0.000 title claims description 176
- 238000000034 method Methods 0.000 title claims description 24
- 238000003384 imaging method Methods 0.000 title description 78
- 238000012545 processing Methods 0.000 claims description 48
- 238000012937 correction Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 4
- 239000013598 vector Substances 0.000 description 42
- 238000005070 sampling Methods 0.000 description 19
- 230000006870 function Effects 0.000 description 18
- 230000005236 sound signal Effects 0.000 description 15
- 230000003287 optical effect Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 238000001914 filtration Methods 0.000 description 12
- 230000008859 change Effects 0.000 description 10
- 230000006835 compression Effects 0.000 description 10
- 238000007906 compression Methods 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 9
- 238000005096 rolling process Methods 0.000 description 8
- 230000006866 deterioration Effects 0.000 description 5
- 230000003111 delayed effect Effects 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 238000012935 Averaging Methods 0.000 description 3
- 230000006837 decompression Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000003321 amplification Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000005304 joining Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Landscapes
- Transforming Light Signals Into Electric Signals (AREA)
- Studio Devices (AREA)
Description
本発明は、画像上の動きを検出する動き検出装置及び動き検出方法並びにそれを利用した撮像装置に関する。本発明は、特に、手ぶれ検出センサを用いることなく画像データから動き検出を行う技術に関する。 The present invention relates to a motion detection device and a motion detection method for detecting motion on an image, and an imaging device using the motion detection method. The present invention particularly relates to a technique for performing motion detection from image data without using a camera shake detection sensor.
ジャイロセンサ等の手ぶれ検出センサを用いて静止画撮影中の手ぶれ状態を表す手ぶれ情報を作成し、手ぶれ情報に基づく画像復元フィルタを用いて手ぶれのない復元画像を生成する技術が既に提案されている(下記特許文献1参照)。このような手ぶれ補正は、復元式の手ぶれ補正と呼ばれるが、手ぶれを検出するために手ぶれ検出センサを必要とするが故に撮像装置のコストアップを招く。 There has already been proposed a technique for generating camera shake information representing a camera shake state during still image shooting using a camera shake detection sensor such as a gyro sensor and generating a restored image without camera shake using an image restoration filter based on the camera shake information. (See Patent Document 1 below). Such camera shake correction is called restoration-type camera shake correction, but it requires a camera shake detection sensor to detect camera shake, and thus increases the cost of the imaging apparatus.
手ぶれ検出センサを用いることなく手ぶれを検出するべく、検出対象画像の前後に第1及び第2参照画像を撮影し、画像間の動き情報から手ぶれを検出することも考えられる。 In order to detect camera shake without using a camera shake detection sensor, it is also conceivable to capture first and second reference images before and after the detection target image and detect camera shake from motion information between the images.
この検出手法について説明する。図14は、CCD(Charge Coupled Devices)イメージセンサを用いた撮像装置の撮影風景を表している。図14において、符号300は、検出対象画像の撮影タイミング近辺において、撮像装置に加わった手ぶれの軌跡を表す。この手ぶれに起因して、撮影領域内に収まる被写体は時々刻々と変化する。 This detection method will be described. FIG. 14 shows a shooting scene of an imaging apparatus using a CCD (Charge Coupled Devices) image sensor. In FIG. 14, reference numeral 300 represents a locus of camera shake applied to the imaging apparatus in the vicinity of the imaging timing of the detection target image. Due to this camera shake, the subject that falls within the shooting area changes every moment.
図14において、符号301が付された矩形領域は、第1参照画像の露光が開始されるタイミングにおける撮影領域を表し、符号302が付された矩形領域は、検出対象画像の露光が開始されるタイミングにおける撮影領域を表し、符号303が付された矩形領域は、第2参照画像の露光が開始されるタイミングにおける撮影領域を表し、符号304が付された矩形領域は、第2参照画像の次のフレーム画像の露光が開始されるタイミングにおける撮影領域を表す。 In FIG. 14, a rectangular area denoted by reference numeral 301 represents a shooting area at the timing when exposure of the first reference image is started, and a rectangular area denoted by reference numeral 302 starts exposure of the detection target image. The rectangular area denoted by the reference numeral 303 represents the photographing area at the timing, and the rectangular area denoted by the reference numeral 304 represents the photographing area at the timing when the exposure of the second reference image is started. The imaging region at the timing when the exposure of the frame image is started.
図15の曲線310は、撮影領域の垂直位置の時間変化を表す。CCDを用いた場合、同一画像内の各画素の露光期間は同一であるため、隣接するフレーム間の画像対比に基づき動き検出を行う場合、隣接するフレーム間の平均的な動きが検出されることになる。図16に示す如く、検出される動きは同じ時刻の動きとして検出され、連続する3枚の画像からは、2つのサンプリングポイントにおける動きが検出されることになる(即ち、2つのサンプリング時刻における動きが検出されることになる)。 A curve 310 in FIG. 15 represents a temporal change in the vertical position of the imaging region. When a CCD is used, the exposure period of each pixel in the same image is the same. Therefore, when motion detection is performed based on image comparison between adjacent frames, an average motion between adjacent frames is detected. become. As shown in FIG. 16, the detected motion is detected as motion at the same time, and motion at two sampling points is detected from three consecutive images (that is, motion at two sampling times). Will be detected).
曲線310の例の場合、点311と点312との間の垂直位置差分が第1参照画像−検出対象画像間の垂直方向の動きとして検出され(図15ではゼロ)、点312と点313との間の垂直方向差分Δが検出対象画像−第2参照画像間の垂直方向の動きとして検出される。検出対象画像の露光期間中の手ぶれ軌跡は、点311から点312に向かうベクトルに対応する第1参照画像−検出対象画像間の動きベクトルと、点312から点313に向かうベクトルに対応する検出対象画像−第2参照画像間の動きベクトルと、に基づいて推定されることになる。 In the example of the curve 310, the vertical position difference between the point 311 and the point 312 is detected as a vertical movement between the first reference image and the detection target image (zero in FIG. 15), and the point 312 and the point 313 are Is detected as a vertical movement between the detection target image and the second reference image. The camera shake trajectory during the exposure period of the detection target image includes a motion vector between the first reference image and the detection target image corresponding to the vector from the point 311 to the point 312 and a detection target corresponding to the vector from the point 312 to the point 313. It is estimated based on the motion vector between the image and the second reference image.
この結果、検出対象画像の露光期間中における真の手ぶれ軌跡は、図17の符号321のように表されるのに対して、実際に推定される手ぶれ軌跡は、符号322のようになってしまう。これは、手ぶれの動きが複雑であるのに対して、手ぶれ軌跡を推定するための動き情報が2つしかないことに起因している。 As a result, the true camera shake trajectory during the exposure period of the detection target image is represented by reference numeral 321 in FIG. 17, whereas the actually estimated camera shake trajectory is represented by reference numeral 322. . This is due to the fact that there is only two pieces of motion information for estimating the hand movement trajectory while the hand movement is complex.
手ぶれ周期がフレーム周期よりも十分に長い場合や、同一方向に等速(或いは等加速)の手ぶれが加わる場合は、上述のような手法を採用しても問題は少ないが、手ぶれ周期がフレーム周期に近く且つ手ぶれの動きが複雑である場合は、上述の如く、露光期間中の手ぶれ軌跡を正確に推定することができない。高精度に手ぶれ軌跡を推定するためには、検出対象画像に対する高精度の動き検出が必要である。 If the camera shake period is sufficiently longer than the frame period, or if camera shake of constant speed (or constant acceleration) is applied in the same direction, there is little problem even if the above method is used, but the camera shake period is the frame period. If the movement of the camera shake is complicated, the camera shake trajectory during the exposure period cannot be estimated accurately as described above. In order to estimate the camera shake trajectory with high accuracy, it is necessary to detect motion with high accuracy for the detection target image.
そこで本発明は、ジャイロセンサ等を用いることなく、精度よく動き検出を行うことのできる動き検出装置及び動き検出方法を提供することを目的とする。また、本発明は、その動き検出装置を利用した撮像装置を提供することを目的とする。 Accordingly, an object of the present invention is to provide a motion detection device and a motion detection method that can accurately detect motion without using a gyro sensor or the like. Another object of the present invention is to provide an imaging device using the motion detection device.
上記目的を達成するために本発明に係る動き検出装置は、異なる水平ライン間で露光タイミングを異ならせつつ撮影を行う撮像素子の出力に基づき、その撮影によって得られる検出対象画像に対する動き検出を行う動き検出装置であって、前記検出対象画像の前後の撮影によって得られる各画像を参照画像とし、前記検出対象画像と各参照画像を垂直方向に領域分割して、前記検出対象画像と各参照画像間における、各分割領域内の画像の動きを領域動きとして検出する領域動き検出手段を備え、各領域動きに基づいて前記検出対象画像に対する動き検出を行うことを特徴とする。 In order to achieve the above object, a motion detection apparatus according to the present invention performs motion detection on a detection target image obtained by shooting based on an output of an image pickup device that performs shooting while varying exposure timing between different horizontal lines. A motion detection apparatus, wherein each image obtained by photographing before and after the detection target image is used as a reference image, and the detection target image and each reference image are divided into regions in the vertical direction, and the detection target image and each reference image A region motion detecting means for detecting a motion of an image in each divided region as a region motion is provided, and motion detection for the detection target image is performed based on each region motion.
これにより、従来に比べて動き検出のサンプリング数を増やすことができ、この結果、精度の高い動き検出を行うことが可能となる。 As a result, the number of motion detection samplings can be increased as compared with the prior art, and as a result, highly accurate motion detection can be performed.
具体的には例えば、当該動き検出装置は、各領域動きを前記検出対象画像の全体に対する互いに異なる時刻の動きと捉えることにより、前記検出対象画像に対する動き検出を行う。 Specifically, for example, the motion detection device performs motion detection on the detection target image by regarding each region motion as movement at different times with respect to the entire detection target image.
また例えば、当該動き検出装置に、時系列で並べた各領域動きを表すデータに対して時間方向の高域強調処理を施すことにより各領域動きを補正する補正手段を更に設けるとよい。 In addition, for example, the motion detection apparatus may further include a correction unit that corrects each region motion by performing high-frequency emphasis processing in the time direction on data representing each region motion arranged in time series.
これにより、動き検出の更なる精度向上を期待できる。 Thereby, further improvement in accuracy of motion detection can be expected.
また例えば、前記検出対象画像と各参照画像に対する垂直方向の領域分割数に応じて、前記高域強調処理の特性は変更される。 Further, for example, the characteristics of the high frequency emphasis processing are changed according to the number of area divisions in the vertical direction with respect to the detection target image and each reference image.
また例えば、時系列で並べた各領域動きは、前記検出対象画像に含まれるぶれの軌跡を表す。 Further, for example, each region motion arranged in time series represents a blur locus included in the detection target image.
また、上記目的を達成するために本発明に係る撮像装置は、前記動き検出装置による動き検出結果に基づいて前記検出対象画像に含まれるぶれの軌跡を推定するぶれ軌跡推定手段と、推定した前記ぶれの軌跡に基づいて前記検出対象画像における前記ぶれを低減した復元画像を生成する復元手段と、を備えたことを特徴とする。 In order to achieve the above object, the imaging apparatus according to the present invention includes a blur trajectory estimation unit that estimates a blur trajectory included in the detection target image based on a motion detection result by the motion detection device, and the estimated Restoring means for generating a restored image with reduced blurring in the detection target image based on a blur trajectory.
また、上記目的を達成するために本発明に係る動き検出方法は、異なる水平ライン間で露光タイミングが異ならせつつ撮影を行う撮像素子の出力に基づき、その撮影によって得られる検出対象画像に対する動き検出を行う動き検出方法であって、前記検出対象画像の前後の撮影によって得られる各画像を参照画像とし、前記検出対象画像と各参照画像を垂直方向に領域分割して、前記検出対象画像と各参照画像間における、各分割領域内の画像の動きを領域動きとして検出し、各領域動きに基づいて前記検出対象画像に対する動き検出を行うことを特徴とする。 In addition, in order to achieve the above object, the motion detection method according to the present invention is based on the output of an image sensor that performs imaging while varying the exposure timing between different horizontal lines, and motion detection for a detection target image obtained by the imaging. A motion detection method for performing detection, wherein each image obtained by photographing before and after the detection target image is used as a reference image, the detection target image and each reference image are divided into regions in the vertical direction, and the detection target image and each It is characterized in that a motion of an image in each divided region between reference images is detected as a region motion, and motion detection is performed on the detection target image based on each region motion.
本発明によれば、ジャイロセンサ等を用いることなく、精度よく動き検出を行うことのできる動き検出装置及び動き検出方法を提供可能となる。 ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to provide the motion detection apparatus and motion detection method which can perform a motion detection accurately, without using a gyro sensor etc.
本発明の意義ないし効果は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下の実施の形態は、あくまでも本発明の一つの実施形態であって、本発明ないし各構成要件の用語の意義は、以下の実施の形態に記載されたものに制限されるものではない。 The significance or effect of the present invention will become more apparent from the following description of embodiments. However, the following embodiment is merely one embodiment of the present invention, and the meaning of the term of the present invention or each constituent element is not limited to that described in the following embodiment. .
以下、本発明の実施の形態につき、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。 Hereinafter, embodiments of the present invention will be specifically described with reference to the drawings. In each of the drawings to be referred to, the same part is denoted by the same reference numeral, and redundant description regarding the same part is omitted in principle.
図1は、本発明の実施の形態に係る撮像装置1の全体ブロック図である。撮像装置1は、動画及び静止画を撮影可能なデジタルビデオカメラである。但し、撮像装置1は、静止画のみを撮影可能なデジタルスチルカメラであってもよい。 FIG. 1 is an overall block diagram of an imaging apparatus 1 according to an embodiment of the present invention. The imaging device 1 is a digital video camera capable of shooting moving images and still images. However, the imaging apparatus 1 may be a digital still camera that can capture only a still image.
撮像装置1は、撮像部11と、AFE(Analog Front End)12と、映像信号処理部13と、マイク14と、音声信号処理部15と、圧縮処理部16と、内部メモリの一例としてのSDRAM(Synchronous Dynamic Random Access Memory)17と、メモリカード(記憶手段)18と、伸張処理部19と、映像出力回路20と、音声出力回路21と、TG(タイミングジェネレータ)22と、CPU(Central Processing Unit)23と、バス24と、バス25と、操作部26と、表示部27と、スピーカ28と、を備えている。操作部26は、録画ボタン26a、シャッタボタン26b及び操作キー26c等を有している。撮像装置1内の各部位は、バス24又は25を介して、各部位間の信号(データ)のやり取りを行う。 The imaging apparatus 1 includes an imaging unit 11, an AFE (Analog Front End) 12, a video signal processing unit 13, a microphone 14, an audio signal processing unit 15, a compression processing unit 16, and an SDRAM as an example of an internal memory. (Synchronous Dynamic Random Access Memory) 17, memory card (storage means) 18, decompression processing unit 19, video output circuit 20, audio output circuit 21, TG (timing generator) 22, CPU (Central Processing Unit) ) 23, a bus 24, a bus 25, an operation unit 26, a display unit 27, and a speaker 28. The operation unit 26 includes a recording button 26a, a shutter button 26b, an operation key 26c, and the like. Each part in the imaging apparatus 1 exchanges signals (data) between the parts via the bus 24 or 25.
まず、撮像装置1及び撮像装置1を構成する各部位の、基本的な機能について説明する。 First, basic functions of the imaging device 1 and each part constituting the imaging device 1 will be described.
TG22は、撮像装置1全体における各動作のタイミングを制御するためのタイミング制御信号を生成し、生成したタイミング制御信号を撮像装置1内の各部に与える。具体的には、タイミング制御信号は、撮像部11、映像信号処理部13、音声信号処理部15、圧縮処理部16、伸張処理部19及びCPU23に与えられる。タイミング制御信号は、垂直同期信号Vsyncと水平同期信号Hsyncを含む。 The TG 22 generates a timing control signal for controlling the timing of each operation in the entire imaging apparatus 1, and provides the generated timing control signal to each unit in the imaging apparatus 1. Specifically, the timing control signal is given to the imaging unit 11, the video signal processing unit 13, the audio signal processing unit 15, the compression processing unit 16, the expansion processing unit 19, and the CPU 23. The timing control signal includes a vertical synchronization signal Vsync and a horizontal synchronization signal Hsync.
CPU23は、撮像装置1内の各部の動作を統括的に制御する。操作部26は、ユーザによる操作を受け付ける。操作部26に与えられた操作内容は、CPU23に伝達される。SDRAM17は、フレームメモリとして機能する。撮像装置1内の各部は、必要に応じ、信号処理時に一時的に各種のデータ(デジタル信号)をSDRAM17に記録する。 The CPU 23 comprehensively controls the operation of each unit in the imaging apparatus 1. The operation unit 26 receives an operation by a user. The operation content given to the operation unit 26 is transmitted to the CPU 23. The SDRAM 17 functions as a frame memory. Each unit in the imaging apparatus 1 temporarily records various data (digital signals) in the SDRAM 17 during signal processing as necessary.
メモリカード18は、外部記録媒体であり、例えば、SD(Secure Digital)メモリカードである。尚、本実施形態では外部記録媒体としてメモリカード18を例示しているが、外部記録媒体を、1または複数のランダムアクセス可能な記録媒体(半導体メモリ、メモリカード、光ディスク、磁気ディスク等)で構成することができる。 The memory card 18 is an external recording medium, for example, an SD (Secure Digital) memory card. In this embodiment, the memory card 18 is illustrated as an external recording medium. However, the external recording medium is composed of one or a plurality of randomly accessible recording media (semiconductor memory, memory card, optical disk, magnetic disk, etc.). can do.
図2は、図1の撮像部11の内部構成図である。撮像部11にカラーフィルタなどを用いることにより、撮像装置1は、撮影によってカラー画像を生成可能なように構成されている。 FIG. 2 is an internal configuration diagram of the imaging unit 11 of FIG. By using a color filter or the like for the imaging unit 11, the imaging device 1 is configured to generate a color image by shooting.
撮像部11は、光学系35と、絞り32と、撮像素子33と、ドライバ34を有している。光学系35は、ズームレンズ30及びフォーカスレンズ31を含む複数枚のレンズを備えて構成される。ズームレンズ30及びフォーカスレンズ31は光軸方向に移動可能である。ドライバ34は、CPU23からの制御信号に基づいて、ズームレンズ30及びフォーカスレンズ31の移動を制御し、光学系35のズーム倍率や焦点距離を制御する。また、ドライバ34は、CPU23からの制御信号に基づいて絞り32の開度(開口部の大きさ)を制御する。 The imaging unit 11 includes an optical system 35, a diaphragm 32, an imaging element 33, and a driver 34. The optical system 35 includes a plurality of lenses including the zoom lens 30 and the focus lens 31. The zoom lens 30 and the focus lens 31 are movable in the optical axis direction. The driver 34 controls the movement of the zoom lens 30 and the focus lens 31 based on the control signal from the CPU 23, and controls the zoom magnification and focal length of the optical system 35. Further, the driver 34 controls the opening degree (size of the opening) of the diaphragm 32 based on a control signal from the CPU 23.
被写体からの入射光は、光学系35を構成する各レンズ及び絞り32を介して、撮像素子33に入射する。光学系35を構成する各レンズは、被写体の光学像を撮像素子33上に結像させる。TG22は、上記タイミング制御信号に同期した、撮像素子33を駆動するための駆動パルスを生成し、該駆動パルスを撮像素子33に与える。 Incident light from the subject enters the image sensor 33 through the lenses and the diaphragm 32 constituting the optical system 35. Each lens constituting the optical system 35 forms an optical image of the subject on the image sensor 33. The TG 22 generates a drive pulse for driving the image sensor 33 in synchronization with the timing control signal, and applies the drive pulse to the image sensor 33.
撮像素子33は、例えば、XYアドレス走査型のCMOS(Complementary Metal Oxide Semiconductor)イメージセンサである。CMOSを形成可能な半導体基板上に、マトリクス状に二次元配列された複数の画素と、垂直走査回路、水平走査回路及び画素信号出力回路等を形成することによって、CMOSイメージセンサが形成される。撮像素子33において、二次元配列された複数の画素によって撮像面が形成され、撮像面は複数の水平ラインと複数の垂直ラインを有する。 The image sensor 33 is, for example, an XY address scanning type CMOS (Complementary Metal Oxide Semiconductor) image sensor. A CMOS image sensor is formed by forming a plurality of pixels arranged two-dimensionally in a matrix, a vertical scanning circuit, a horizontal scanning circuit, a pixel signal output circuit, and the like on a semiconductor substrate capable of forming a CMOS. In the imaging device 33, an imaging surface is formed by a plurality of pixels arranged two-dimensionally, and the imaging surface has a plurality of horizontal lines and a plurality of vertical lines.
撮像素子33は、電子シャッタ機能を備えており、所謂ローリングシャッタによって各画素の露光を実施する。ローリングシャッタでは、撮像面の各画素が露光されるタイミング(時刻)が水平ラインごとに垂直方向において異なる。つまり、撮像面における異なる水平ライン間で露光タイミングが異なる。 The image sensor 33 has an electronic shutter function, and each pixel is exposed by a so-called rolling shutter. In the rolling shutter, the timing (time) at which each pixel on the imaging surface is exposed differs in the vertical direction for each horizontal line. That is, the exposure timing differs between different horizontal lines on the imaging surface.
撮像素子33は、光学系35及び絞り32を介して入射した光学像を光電変換し、該光電変換によって得られた電気信号を後段のAFE12に順次出力する。より具体的には、各撮影において、撮像面の各画素は露光時間に応じた電荷量の信号電荷を蓄える。各画素は、蓄えた信号電荷の電荷量に比例した大きさを有する電気信号を後段のAFE12に順次出力する。光学系35に入射する光学像が同じであり且つ絞り32の開口量が同じである場合、撮像素子33(各画素)からの電気信号の大きさ(強度)は上記露光時間に比例して増大する。 The image sensor 33 photoelectrically converts an optical image incident through the optical system 35 and the diaphragm 32, and sequentially outputs an electrical signal obtained by the photoelectric conversion to the AFE 12 at the subsequent stage. More specifically, in each shooting, each pixel on the imaging surface stores a signal charge having a charge amount corresponding to the exposure time. Each pixel sequentially outputs an electrical signal having a magnitude proportional to the amount of stored signal charge to the subsequent AFE 12. When the optical images incident on the optical system 35 are the same and the aperture amount of the diaphragm 32 is the same, the magnitude (intensity) of the electrical signal from the image sensor 33 (each pixel) increases in proportion to the exposure time. To do.
図3を参照し、ローリングシャッタについて説明を加える。図3(a)に示す如く、撮像素子33の撮像面が第1〜第n水平ラインから形成され(nは2以上の整数)、第1、第2、・・・、第(n−1)及び第n水平ラインの順番で垂直方向に各水平ラインが並んでいるものとする。 The rolling shutter will be described with reference to FIG. As shown in FIG. 3A, the image pickup surface of the image pickup element 33 is formed of first to nth horizontal lines (n is an integer of 2 or more), and the first, second,. ) And the n-th horizontal line in the vertical direction.
図3(b)は、或る1枚の画像を撮影する際の各水平ラインの露光タイミングを表している。TSiは、第i水平ラインに属する各画素の露光開始タイミングを表し、TEiは、第i水平ラインに属する各画素の露光終了タイミングを表している(ここで、iは、1〜nの間の各整数をとる)。各画素の露光期間の長さは同じである。即ち、タイミングTS1−TE1間の時間長さ、タイミングTS2−TE2間の時間長さ、・・・、及びタイミングTSn−TEn間の時間長さは、同じである。但し、第i水平ラインの露光開始タイミング(及び露光終了タイミング)に対して、第(i+1)水平ラインのそれは所定時間だけ遅れる(ここで、iは、1〜(n−1)の間の各整数をとる)。 FIG. 3B shows the exposure timing of each horizontal line when a certain image is taken. T Si represents the exposure start timing of each pixel belonging to the i-th horizontal line, and T Ei represents the exposure end timing of each pixel belonging to the i-th horizontal line (where i is 1 to n) Each integer between). The length of the exposure period of each pixel is the same. That is, the time length between the timings T S1 and T E1, the time length between the timings T S2 and T E2 ,..., And the time length between the timings T Sn and T En are the same. However, with respect to the exposure start timing (and exposure end timing) of the i-th horizontal line, that of the (i + 1) -th horizontal line is delayed by a predetermined time (where i is a value between 1 and (n-1)). Take an integer).
図1の各部位の説明に戻る。AFE12は、撮像部11(撮像素子33)から出力されるアナログ信号を増幅し、増幅されたアナログ信号をデジタル信号に変換する。AFE12は、このデジタル信号を、順次、映像信号処理部13に出力する。 Returning to the description of each part in FIG. The AFE 12 amplifies the analog signal output from the imaging unit 11 (image sensor 33), and converts the amplified analog signal into a digital signal. The AFE 12 sequentially outputs the digital signals to the video signal processing unit 13.
映像信号処理部13は、AFE12の出力信号に基づいて、撮像部11によって撮影された画像(以下、「撮影画像」または「フレーム画像」ともいう)を表す映像信号を生成する。映像信号は、撮影画像の輝度を表す輝度信号Yと、撮影画像の色を表す色差信号U及びVと、から構成される。映像信号処理部13にて生成された映像信号は、圧縮処理部16と映像出力回路20に送られる。 The video signal processing unit 13 generates a video signal representing an image (hereinafter also referred to as “captured image” or “frame image”) captured by the imaging unit 11 based on the output signal of the AFE 12. The video signal is composed of a luminance signal Y representing the luminance of the photographed image and color difference signals U and V representing the color of the photographed image. The video signal generated by the video signal processing unit 13 is sent to the compression processing unit 16 and the video output circuit 20.
尚、映像信号処理部13は、撮影画像中のフォーカス検出領域内のコントラスト量に応じたAF評価値及び撮影画像の明るさに応じたAE評価値を検出し、それらをCPU23に伝達する。CPU23は、AF評価値に応じて図2のドライバ34を介してフォーカスレンズ31の位置を調節することにより、被写体の光学像を撮像素子33上に結像させる。また、CPU23は、AE評価値に応じて図2のドライバ34を介して絞り32の開度(及び必要に応じてAFE12における信号増幅の増幅度)を調節することにより、受光量(画像の明るさ)を制御する。 The video signal processing unit 13 detects an AF evaluation value according to the contrast amount in the focus detection area in the captured image and an AE evaluation value according to the brightness of the captured image, and transmits them to the CPU 23. The CPU 23 adjusts the position of the focus lens 31 via the driver 34 in FIG. 2 according to the AF evaluation value, thereby forming an optical image of the subject on the image sensor 33. Further, the CPU 23 adjusts the opening degree of the diaphragm 32 (and the amplification degree of signal amplification in the AFE 12 as necessary) via the driver 34 of FIG. 2 according to the AE evaluation value, so that the received light amount (brightness of the image). Control).
マイク14は、外部から与えられた音声(音)を、アナログの電気信号に変換して出力する。音声信号処理部15は、マイク14から出力される電気信号(音声アナログ信号)をデジタル信号に変換する。この変換によって得られたデジタル信号は、マイク14に対して入力された音声を表す音声信号として圧縮処理部16に送られる。 The microphone 14 converts the sound (sound) given from the outside into an analog electric signal and outputs it. The audio signal processing unit 15 converts an electrical signal (audio analog signal) output from the microphone 14 into a digital signal. The digital signal obtained by this conversion is sent to the compression processing unit 16 as an audio signal representing the audio input to the microphone 14.
圧縮処理部16は、映像信号処理部13からの映像信号を、所定の圧縮方式を用いて圧縮する。動画または静止画撮影時において、圧縮された映像信号はメモリカード18に送られ、メモリカード18に記録される。また、圧縮処理部16は、音声信号処理部15からの音声信号を、所定の圧縮方式を用いて圧縮する。動画撮影時において、映像信号処理部13からの映像信号と音声信号処理部15からの音声信号は、圧縮処理部16にて時間的に互いに関連付けられつつ圧縮され、圧縮後のそれらはメモリカード18に記録される。 The compression processing unit 16 compresses the video signal from the video signal processing unit 13 using a predetermined compression method. At the time of moving image or still image shooting, the compressed video signal is sent to the memory card 18 and recorded on the memory card 18. The compression processing unit 16 compresses the audio signal from the audio signal processing unit 15 using a predetermined compression method. At the time of moving image shooting, the video signal from the video signal processing unit 13 and the audio signal from the audio signal processing unit 15 are compressed while being temporally related to each other by the compression processing unit 16, and after compression, they are stored in the memory card 18. To be recorded.
撮像装置1の動作モードには、動画または静止画の撮影が可能な撮影モードと、メモリカード18に格納された動画または静止画を表示部27に再生表示する再生モードと、が含まれる。操作キー26cに対する操作に応じて、各モード間の遷移は実施される。録画ボタン26aに対する操作に従って動画撮影の開始又は終了が実施される。また、シャッタボタン26bに対する操作に従って静止画撮影が実施される。 The operation mode of the imaging device 1 includes a shooting mode in which a moving image or a still image can be shot, and a playback mode in which the moving image or the still image stored in the memory card 18 is played back and displayed on the display unit 27. Transition between the modes is performed according to the operation on the operation key 26c. The start or end of moving image shooting is performed according to the operation on the recording button 26a. In addition, still image shooting is performed according to the operation on the shutter button 26b.
再生モードにおいて、ユーザが操作キー26cに所定の操作を施すと、メモリカード18に記録された動画または静止画を表す圧縮された映像信号は、伸張処理部19に送られる。伸張処理部19は、受け取った映像信号を伸張して映像出力回路20に送る。また、撮影モードにおいては、通常、動画または静止画を撮影及び記録しているか否かに拘らず、映像信号処理13による映像信号の生成が逐次行われており、その映像信号は映像出力回路20に送られる。 When the user performs a predetermined operation on the operation key 26 c in the reproduction mode, a compressed video signal representing a moving image or a still image recorded on the memory card 18 is sent to the expansion processing unit 19. The decompression processing unit 19 decompresses the received video signal and sends it to the video output circuit 20. In the shooting mode, the generation of the video signal by the video signal processing 13 is normally performed regardless of whether or not a moving image or a still image is shot and recorded, and the video signal is output from the video output circuit 20. Sent to.
映像出力回路20は、与えられたデジタルの映像信号を表示部27で表示可能な形式の映像信号(例えば、アナログの映像信号)に変換して出力する。表示部27は、液晶ディスプレイなどの表示装置であり、映像出力回路20から出力された映像信号に応じた画像を表示する。 The video output circuit 20 converts a given digital video signal into a video signal (for example, an analog video signal) in a format that can be displayed on the display unit 27 and outputs the video signal. The display unit 27 is a display device such as a liquid crystal display, and displays an image corresponding to the video signal output from the video output circuit 20.
また、再生モードにおいて動画を再生する際、メモリカード18に記録された動画に対応する圧縮された音声信号も、伸張処理部19に送られる。伸張処理部19は、受け取った音声信号を伸張して音声出力回路21に送る。音声出力回路21は、与えられたデジタルの音声信号をスピーカ28にて出力可能な形式の音声信号(例えば、アナログの音声信号)に変換してスピーカ28に出力する。スピーカ28は、音声出力回路21からの音声信号を音声(音)として外部に出力する。 When a moving image is reproduced in the reproduction mode, a compressed audio signal corresponding to the moving image recorded on the memory card 18 is also sent to the expansion processing unit 19. The decompression processing unit 19 decompresses the received audio signal and sends it to the audio output circuit 21. The audio output circuit 21 converts a given digital audio signal into an audio signal in a format that can be output by the speaker 28 (for example, an analog audio signal) and outputs the audio signal to the speaker 28. The speaker 28 outputs the sound signal from the sound output circuit 21 to the outside as sound (sound).
各撮影画像の露光期間において、撮像装置1には手ぶれが加わりうる。撮像装置1は、隣接する画像間の比較に基づいて、手ぶれに由来する画像上のぶれの軌跡を検出する機能を備える。更に、この検出結果に基づいて、ぶれが含まれる撮影画像からぶれを除去した画像を復元する機能を備える。以下、これらの機能について詳細に説明する。 Camera shake may be applied to the imaging apparatus 1 during the exposure period of each captured image. The imaging device 1 has a function of detecting a blur locus on an image derived from camera shake based on comparison between adjacent images. Furthermore, based on this detection result, a function is provided for restoring an image obtained by removing the blur from the captured image including the blur. Hereinafter, these functions will be described in detail.
撮影モードにおいて、所定のフレーム周期(例えば、1/60秒)にて順次撮影が行われ、各フレームにおいて1枚のフレーム画像(撮影画像)が得られる。今、或るフレーム画像を、手ぶれ検出の対象となる画像と捉えて、「検出対象画像」と呼ぶことにする。検出対象画像は、手ぶれ検出結果に基づく画像復元の対象にもなるため、それを復元対象画像と呼ぶこともできる。そして、検出対象画像が得られるフレームの1つ前のフレームにおけるフレーム画像を「第1参照画像」と呼び、検出対象画像が得られるフレームの1つ後のフレームにおけるフレーム画像を「第2参照画像」と呼ぶ。 In the shooting mode, shooting is sequentially performed in a predetermined frame period (for example, 1/60 seconds), and one frame image (shot image) is obtained in each frame. Now, a certain frame image is regarded as an image to be subjected to camera shake detection, and is referred to as a “detection target image”. Since the detection target image is also a target for image restoration based on the camera shake detection result, it can also be called a restoration target image. The frame image in the frame immediately before the frame from which the detection target image is obtained is referred to as “first reference image”, and the frame image in the frame after the frame from which the detection target image is obtained is referred to as “second reference image”. "
時系列で並ぶ複数のフレーム画像によって動画が形成されるが、動画を形成する何れのフレーム画像も検出対象画像となりうる。或る1つの静止画も、所定のフレーム周期で順次撮影されるフレーム画像の何れかに過ぎない。従って、シャッタボタン26bの押下に応じてメモリカード18に記録されることになる静止画も、検出対象画像となりうる。以下の説明では、或る1つの検出対象画像に着目する。 Although a moving image is formed by a plurality of frame images arranged in time series, any frame image forming the moving image can be a detection target image. A single still image is only one of frame images that are sequentially photographed at a predetermined frame period. Accordingly, a still image to be recorded on the memory card 18 in response to the pressing of the shutter button 26b can also be a detection target image. In the following description, attention is paid to a certain detection target image.
尚、本実施形態の説明文において、「手ぶれ」及び「ぶれ」という文言を用いるが、手ぶれにのみ着目した場合、手ぶれとぶれは同義と考えることができる。手ぶれにのみ着目した場合、ぶれは、手ぶれに由来するぶれである。 In the description of this embodiment, the words “camera shake” and “camera shake” are used. However, when attention is paid only to camera shake, camera shake and camera shake can be considered synonymous. When attention is paid only to camera shake, the camera shake is derived from camera shake.
[動き検出手法の原理説明]
まず、本実施形態の動き検出手法の原理について説明する。ローリングシャッタにて露光を実施した場合、画像内の垂直方向に対して露光期間の開始時刻(及び終了時刻)が同一時刻とならず、露光期間は垂直方向の上から下に向かうにつれて遅れる。従って、隣接するフレーム画像間の対比に基づき動き検出を行う場合、垂直方向に異なる位置で動き検出を行うと、動き検出のサンプリングポイント(サンプリング時刻)が異なってくる。つまり、隣接するフレーム画像間において、或る垂直位置に対して検出した動きと、それと異なる垂直位置に対して検出した動きとでは、検出される動きの時刻が異なる。
[Explanation of the principle of motion detection method]
First, the principle of the motion detection method of this embodiment will be described. When exposure is performed with the rolling shutter, the start time (and end time) of the exposure period is not the same time in the vertical direction in the image, and the exposure period is delayed as it goes from the top to the bottom in the vertical direction. Therefore, when motion detection is performed based on comparison between adjacent frame images, if motion detection is performed at different positions in the vertical direction, sampling points (sampling times) for motion detection differ. That is, between the motion detected for a certain vertical position and the motion detected for a different vertical position between adjacent frame images, the time of the detected motion is different.
図4は、2つの垂直位置に対して動き検出を行う場合の例を表している。この場合、検出対象画像に対する動き検出のサンプリングポイント(サンプリング時刻)は合計4つとなる。手ぶれに由来する画像の動きは、画像全体に対して同じ動きであるため、動き検出のサンプリング時刻が同じであれば、画像内のどの領域の画素信号を参照しても同じ動きが検出される。このため、検出対象画像並びに第1及び第2参照画像を垂直方向に領域分割し、分割された各領域における動き検出結果に基づけば、手ぶれの軌跡を3以上のサンプリングポイントにて推定することが可能となる。 FIG. 4 shows an example in which motion detection is performed for two vertical positions. In this case, there are a total of four sampling points (sampling times) for motion detection with respect to the detection target image. Since the motion of the image derived from camera shake is the same for the entire image, if the sampling time for motion detection is the same, the same motion is detected regardless of the pixel signal in any region in the image. . For this reason, if the detection target image and the first and second reference images are divided into regions in the vertical direction, and based on the motion detection result in each divided region, it is possible to estimate the locus of camera shake at three or more sampling points. It becomes possible.
垂直方向の領域分割数(後述するMの値)は任意であり、領域分割数を増加させればさせるほど、動き検出のサンプリングポイントが増大してより細かな動き検出を実現可能となる。図5は、各画像を垂直方向に4分割した場合の例を示している。サンプリングポイントの個数は、動き検出の時間方向のサンプリング数(或いは解像度)と呼ぶこともでき、このサンプリング数を増やすことにより、手ぶれのように画像上均一な動きに対してより正確な検出が可能となる。 The number of area divisions in the vertical direction (the value of M to be described later) is arbitrary. As the number of area divisions is increased, the number of motion detection sampling points increases and finer motion detection can be realized. FIG. 5 shows an example in which each image is divided into four in the vertical direction. The number of sampling points can also be referred to as the number of samplings (or resolution) in the time direction of motion detection. By increasing the number of sampling points, more accurate detection is possible for uniform motion on the image, such as camera shake. It becomes.
[検出及び復元の構成]
次に、手ぶれ検出及び画像復元を実現する構成について具体的に説明する。図6に、手ぶれ検出及び画像復元に関与する部位のブロック図を示す。図6における動き検出部51及び手ぶれ軌跡推定部52は、図1の映像信号処理部13または映像信号処理部13に接続された図示されない検出処理部に設けられる。図6における画像劣化関数算出部53及び画像復元フィルタ係数算出部54は、図1のCPU23によって実現される。図6におけるフィルタリング部55及びリンギング除去部56は、図1の映像信号処理部13に設けられる。
[Detection and restoration configuration]
Next, a configuration for realizing camera shake detection and image restoration will be specifically described. FIG. 6 shows a block diagram of parts involved in camera shake detection and image restoration. The motion detection unit 51 and the camera shake trajectory estimation unit 52 in FIG. 6 are provided in the video signal processing unit 13 in FIG. 1 or a detection processing unit (not shown) connected to the video signal processing unit 13. The image deterioration function calculation unit 53 and the image restoration filter coefficient calculation unit 54 in FIG. 6 are realized by the CPU 23 in FIG. The filtering unit 55 and the ringing removal unit 56 in FIG. 6 are provided in the video signal processing unit 13 in FIG.
動き検出部51は、隣接するフレーム画像間の動きを検出する。各フレーム画像は、垂直方向にM分割して捉えられる。このため、各フレーム画像は、M個の垂直分割領域に分割して考えられる。Mは、2以上の整数である。 The motion detector 51 detects a motion between adjacent frame images. Each frame image is captured by dividing it into M in the vertical direction. For this reason, each frame image is considered to be divided into M vertical division regions. M is an integer of 2 or more.
図7に、各フレーム画像の分割の様子を示す。フレーム画像の原点Oを基準として、各垂直分割領域をAR[j]にて表す。ここで、jは、1≦j≦Mを満たす各整数をとる。jが同じ垂直分割領域AR[j]は、同一の水平ライン上の画素から構成される。例えば、図3の第1〜第3水平ラインを形成する各画素の画素信号によって、垂直分割領域AR[1]内の各画素の画素信号は表され、第4〜第6水平ラインを形成する各画素の画素信号によって、垂直分割領域AR[2]内の各画素の画素信号は表され、・・・、第(n−2)〜第n水平ラインを形成する各画素の画素信号によって、垂直分割領域AR[M]内の各画素の画素信号は表される。 FIG. 7 shows how each frame image is divided. Each vertical division area is represented by AR [j] with reference to the origin O of the frame image. Here, j is an integer satisfying 1 ≦ j ≦ M. Vertical division areas AR [j] having the same j are composed of pixels on the same horizontal line. For example, the pixel signals of the pixels in the vertical division area AR [1] are represented by the pixel signals of the pixels forming the first to third horizontal lines in FIG. 3 to form the fourth to sixth horizontal lines. The pixel signal of each pixel in the vertical division area AR [2] is represented by the pixel signal of each pixel,..., By the pixel signal of each pixel forming the (n-2) th to nth horizontal lines, The pixel signal of each pixel in the vertical division area AR [M] is represented.
動き検出部51は、例えば、公知の画像マッチング法(例えば、ブロックマッチング法や代表点マッチング法)を用い、隣接するフレーム画像間において映像信号を対比することにより、隣接するフレーム画像間における動きベクトルを垂直分割領域AR[j]ごとに検出する。垂直分割領域AR[j]ごとに検出された動きベクトルを、特に、領域動きベクトルという。或る垂直分割領域AR[j]についての領域動きベクトルは、隣接するフレーム画像間における、当該垂直分割領域AR[j]内の画像の動きの大きさ及び向きを特定する。 The motion detection unit 51 uses, for example, a known image matching method (for example, a block matching method or a representative point matching method) and compares the video signals between the adjacent frame images, thereby moving the motion vector between the adjacent frame images. Are detected for each vertical division area AR [j]. The motion vector detected for each vertical division area AR [j] is particularly referred to as an area motion vector. The area motion vector for a certain vertical division area AR [j] specifies the magnitude and direction of the movement of the image in the vertical division area AR [j] between adjacent frame images.
或る垂直分割領域についての領域動きベクトルを算出する際、当該垂直分割領域内の全ての画素の画素信号に基づいて当該領域動きベクトルを算出するようにしても良いが、当該垂直分割領域内の一部の画素の画素信号のみに基づいて当該領域動きベクトルを算出するようにしても良い。 When calculating the region motion vector for a certain vertical division region, the region motion vector may be calculated based on the pixel signals of all the pixels in the vertical division region. The region motion vector may be calculated based only on pixel signals of some pixels.
尚、図8に示す如く、各フレーム画像を垂直方向にM分割且つ水平方向にN分割して、(M×N)個の分割領域ごとに動きベクトルを算出し、同一の水平ラインについての動きベクトルを平均化することによって得られる平均ベクトルを上記の領域動きベクトルとして取り扱うようにしても構わない。 In addition, as shown in FIG. 8, each frame image is divided into M in the vertical direction and N in the horizontal direction, and a motion vector is calculated for each (M × N) divided regions, and the motion on the same horizontal line is calculated. You may make it handle the average vector obtained by averaging a vector as said area | region motion vector.
図9は、撮像部11による撮影の風景を表している。図9において、符号100は、検出対象画像の撮影タイミング近辺において、撮像装置1に加わった手ぶれの軌跡を表す。この手ぶれに起因して、撮像部11の撮影領域内に収まる被写体は時々刻々と変化する。 FIG. 9 shows a scene of shooting by the imaging unit 11. In FIG. 9, reference numeral 100 represents a locus of camera shake applied to the imaging apparatus 1 in the vicinity of the imaging timing of the detection target image. Due to this camera shake, the subject that falls within the imaging area of the imaging unit 11 changes from moment to moment.
図9において、符号101が付された矩形領域は、第1参照画像の露光が開始されるタイミング(即ち、第1参照画像の第1水平ラインの露光開始タイミング)における撮像部11の撮影領域を表し、符号102が付された矩形領域は、検出対象画像の露光が開始されるタイミング(即ち、検出対象画像の第1水平ラインの露光開始タイミング)における撮像部11の撮影領域を表し、符号103が付された矩形領域は、第2参照画像の露光が開始されるタイミング(即ち、第2参照画像の第1水平ラインの露光開始タイミング)における撮像部11の撮影領域を表し、符号104が付された矩形領域は、第2参照画像の次のフレーム画像の露光が開始されるタイミングにおける撮像部11の撮影領域を表す。 In FIG. 9, a rectangular area denoted by reference numeral 101 represents a shooting area of the imaging unit 11 at a timing when exposure of the first reference image is started (that is, exposure start timing of the first horizontal line of the first reference image). A rectangular area denoted by reference numeral 102 represents a shooting area of the imaging unit 11 at a timing at which exposure of the detection target image is started (that is, exposure start timing of the first horizontal line of the detection target image). The rectangular area marked with represents the shooting area of the imaging unit 11 at the timing when the exposure of the second reference image is started (that is, the exposure start timing of the first horizontal line of the second reference image). The rectangular area thus obtained represents the imaging area of the imaging unit 11 at the timing when the exposure of the next frame image of the second reference image is started.
図10に示す如く、第1参照画像の露光が開始されるタイミング(即ち、第1参照画像の第1水平ラインの露光開始タイミング)をTAで表し、検出対象画像の露光が開始されるタイミング(即ち、検出対象画像の第1水平ラインの露光開始タイミング)をTBで表し、第2参照画像の露光が開始されるタイミング(即ち、第2参照画像の第1水平ラインの露光開始タイミング)をTCで表す。 As shown in FIG. 10, the timing of exposure of the first reference image is started (i.e., the exposure start timing of the first horizontal line of the first reference image) to represent at T A, the timing of exposure of the detection target image is started (i.e., the exposure start timing of the first horizontal line of the detection target image) represents at T B, the timing of exposure of the second reference image is started (i.e., the exposure start timing of the first horizontal line of the second reference image) Is represented by T C.
今、垂直方向の領域分割数が3であるとする(即ち、M=3)。図11に、検出される領域動きベクトルの例を示す。図11において、符号121、122及び123は、それぞれ、第1参照画像と検出対象画像間における垂直分割領域AR[1]、AR[2]及びAR[3]についての領域動きベクトルを表し、符号131、132及び133は、それぞれ、検出対象画像と第2参照画像間における垂直分割領域AR[1]、AR[2]及びAR[3]についての領域動きベクトルを表す。 Now, assume that the number of area divisions in the vertical direction is 3 (that is, M = 3). FIG. 11 shows examples of detected region motion vectors. In FIG. 11, reference numerals 121, 122, and 123 represent region motion vectors for vertical division regions AR [1], AR [2], and AR [3] between the first reference image and the detection target image, respectively. Reference numerals 131, 132, and 133 denote area motion vectors for the vertical division areas AR [1], AR [2], and AR [3] between the detection target image and the second reference image, respectively.
第1参照画像と検出対象画像間に関して手ぶれに由来する画像の動きを考えた場合、撮像素子の各画素の露光タイミングが全て同じであれば、3つの領域動きベクトルは、同じになる。但し、図2の撮像素子33は、上述したようにローリングシャッタにて各画素の露光を行うため、図11に示す如く、3つの領域動きベクトル121〜123は異なるベクトルとなりうる。検出対象画像と第2参照画像間についても同様である。このような現象は、図9に示す例のように、フレーム周期が手ぶれ周期に近い場合、或いは、フレーム周期が手ぶれ周期よりも長い場合に顕著となる。 When considering the movement of an image derived from camera shake between the first reference image and the detection target image, the three region motion vectors are the same if the exposure timing of each pixel of the image sensor is the same. However, since the image sensor 33 in FIG. 2 exposes each pixel with the rolling shutter as described above, the three region motion vectors 121 to 123 can be different vectors as shown in FIG. The same applies to the detection target image and the second reference image. Such a phenomenon becomes prominent when the frame period is close to the camera shake period or when the frame period is longer than the camera shake period as in the example shown in FIG.
このような場合に、仮に、領域動きベクトル121〜123の平均ベクトルと領域動きベクトル131〜133の平均ベクトルとから検出対象画像の手ぶれ軌跡を推定するようにすれば、CCDを用いた従来手法と同様、検出対象画像の露光期間中における手ぶれ軌跡を正確に推定することができなくなる。検出対象画像の露光期間中における動き検出のサンプリングポイントが2つになるからである。本実施形態では、ローリングシャッタの露光特性を生かし、このサンプリングポイントを3以上とする(M=3の場合、サンプリングポイントは6となる)。 In such a case, if the hand movement trajectory of the detection target image is estimated from the average vector of the region motion vectors 121 to 123 and the average vector of the region motion vectors 131 to 133, a conventional method using a CCD is used. Similarly, the camera shake trajectory during the exposure period of the detection target image cannot be accurately estimated. This is because there are two sampling points for motion detection during the exposure period of the detection target image. In the present embodiment, taking advantage of the exposure characteristics of the rolling shutter, the sampling point is set to 3 or more (when M = 3, the sampling point is 6).
第1参照画像と検出対象画像間についての領域動きベクトル、及び、検出対象画像と第2参照画像間についての領域動きベクトルは、領域動き情報として図6の手ぶれ軌跡推定部52に伝達される。手ぶれ軌跡推定部52は、領域動き情報に基づいて、検出対象画像の露光期間中において撮像装置1に加わった手ぶれの軌跡を推定する。実際には、この手ぶれに由来する、検出対象画像に含まれるぶれ(画像上のぶれ)の軌跡を推定する。 The region motion vector between the first reference image and the detection target image and the region motion vector between the detection target image and the second reference image are transmitted to the camera shake locus estimation unit 52 in FIG. 6 as region motion information. The hand movement trajectory estimation unit 52 estimates the hand movement trajectory applied to the imaging device 1 during the exposure period of the detection target image based on the region motion information. Actually, the locus of the blur (blur on the image) included in the detection target image derived from this camera shake is estimated.
推定されるぶれは2次元量であるが、ぶれの軌跡の垂直成分に着目して詳細な説明を行う。 Although the estimated blur is a two-dimensional amount, a detailed description will be given focusing on the vertical component of the blur trajectory.
図12を参照する。図12(a)において、横軸は時間であり、縦軸は実空間における撮像部11の撮影領域の垂直位置を表す。曲線150は、検出対象画像の撮影タイミング近辺における該撮影領域の垂直位置の時間変化を表す。タイミングTA、TB及びTCは、図10のそれらと同じものである。タイミングTAiは、第1参照画像の垂直分割領域AR[i]に対応する画素の平均露光タイミングを表し、タイミングTBiは、検出対象画像の垂直分割領域AR[i]に対応する画素の平均露光タイミングを表し、タイミングTCiは、第2参照画像の垂直分割領域AR[i]に対応する画素の平均露光タイミングを表す(ここで、i=1、2、3)。 Please refer to FIG. In FIG. 12A, the horizontal axis represents time, and the vertical axis represents the vertical position of the imaging region of the imaging unit 11 in real space. A curve 150 represents a temporal change in the vertical position of the imaging region in the vicinity of the imaging timing of the detection target image. Timings T A , T B and T C are the same as those in FIG. The timing T Ai represents the average exposure timing of the pixels corresponding to the vertical division area AR [i] of the first reference image, and the timing T Bi is the average of the pixels corresponding to the vertical division area AR [i] of the detection target image. This represents the exposure timing, and the timing T Ci represents the average exposure timing of the pixels corresponding to the vertical division area AR [i] of the second reference image (where i = 1, 2, 3).
図12(a)において、点161、162、171、172及び181は、夫々、タイミングTA1、TA2、TB1、TB2及びTC1における曲線150上の点である。図11の領域動きベクトル121の垂直成分は、点161と点171との間の垂直位置の差に応じた値をとることになる。同様に、図11の領域動きベクトル122の垂直成分は、点162と点172との間の垂直位置の差に応じた値をとることになる。同様に、図11の領域動きベクトル131の垂直成分は、点171と点181との間の垂直位置の差に応じた値をとることになる。他の領域動きベクトルについても同様である。 In FIG. 12A, points 161, 162, 171, 172, and 181 are points on the curve 150 at timings T A1 , T A2 , T B1 , T B2, and T C1 , respectively. The vertical component of the region motion vector 121 in FIG. 11 takes a value corresponding to the difference in vertical position between the point 161 and the point 171. Similarly, the vertical component of the region motion vector 122 in FIG. 11 takes a value corresponding to the difference in vertical position between the point 162 and the point 172. Similarly, the vertical component of the region motion vector 131 in FIG. 11 takes a value corresponding to the difference in vertical position between the point 171 and the point 181. The same applies to other region motion vectors.
図11の領域動きベクトル121は、タイミングTA1−TB1間における画像の動きの大きさ及び向きを表しているのであるから、領域動きベクトル121の垂直成分から、タイミングTA1−TB1間の画像の垂直方向の平均的な動きの速度及び向きを算出可能である。他のタイミング間についても同様である。尚、時間を考慮する必要があるものの、動きの速度と動きの大きさ(動き量)は互いに置換して考えることが可能な概念である。以下の説明では、速度に着目することとする。 Since the region motion vector 121 in FIG. 11 represents the magnitude and direction of the image motion between the timings T A1 and T B1 , the region motion vector 121 has a vertical component between the timings T A1 and T B1 . It is possible to calculate the average speed and direction of the vertical movement of the image. The same applies to other timings. Although it is necessary to consider time, the speed of motion and the magnitude of motion (motion amount) are concepts that can be considered interchangeably. In the following description, attention is paid to speed.
図12(b)に、図11の領域動きベクトル121〜123及び131〜133から算出される画像の垂直方向の動きの速度(動きの向きも含む)を示す。図12(b)において、横軸は時間を表し、縦軸はその動きの速度を表す。図12(b)において、横軸に合致する線200上の点は、速度がゼロであることを表し、縦軸の上方向は上方向の画像の動きに対応し、縦軸の下方向は下方向の画像の動きに対応する。 FIG. 12B shows the vertical motion speed (including the motion direction) of the image calculated from the region motion vectors 121 to 123 and 131 to 133 in FIG. In FIG. 12B, the horizontal axis represents time, and the vertical axis represents the speed of the movement. In FIG. 12B, the point on the line 200 that matches the horizontal axis indicates that the velocity is zero, the upward direction of the vertical axis corresponds to the movement of the image in the upward direction, and the downward direction of the vertical axis is Corresponds to the downward movement of the image.
図12(b)において、
点201は、図11の領域動きベクトル121の垂直成分から算出される、タイミングTA1−TB1間の垂直方向の画像の平均的な動きの速度及び向きを表し、
点202は、図11の領域動きベクトル122の垂直成分から算出される、タイミングTA2−TB2間の垂直方向の画像の平均的な動きの速度及び向きを表し、
点203は、図11の領域動きベクトル123の垂直成分から算出される、タイミングTA3−TB3間の垂直方向の画像の平均的な動きの速度及び向きを表し、
点211は、図11の領域動きベクトル131の垂直成分から算出される、タイミングTB1−TC1間の垂直方向の画像の平均的な動きの速度及び向きを表し、
点212は、図11の領域動きベクトル132の垂直成分から算出される、タイミングTB2−TC2間の垂直方向の画像の平均的な動きの速度及び向きを表し、
点213は、図11の領域動きベクトル133の垂直成分から算出される、タイミングTB3−TC3間の垂直方向の画像の平均的な動きの速度及び向きを表す。
In FIG. 12B,
A point 201 represents an average motion speed and direction of the image in the vertical direction between timings T A1 and T B1 calculated from the vertical component of the region motion vector 121 in FIG.
Point 202 represents the average motion speed and direction of the vertical image between timings T A2 and T B2 , calculated from the vertical component of the region motion vector 122 of FIG.
A point 203 represents the average motion speed and direction of the image in the vertical direction between timings T A3 and T B3 calculated from the vertical component of the region motion vector 123 in FIG.
A point 211 represents the average motion speed and direction of the vertical image between timings T B1 and T C1 calculated from the vertical component of the region motion vector 131 in FIG.
A point 212 represents the average motion speed and direction of the vertical image between timings T B2 and T C2 calculated from the vertical component of the region motion vector 132 of FIG.
A point 213 represents the average motion speed and direction of the image in the vertical direction between timings T B3 and T C3 calculated from the vertical component of the region motion vector 133 in FIG.
図12(c)における実線の曲線230は、手ぶれ軌跡推定部52によって推定される、検出対象画像の露光期間中における、画像上の垂直方向の手ぶれ軌跡(手ぶれ軌跡の垂直成分)を表す。図12(b)の点202を起点として、点202−203間の動きによる垂直位置変化(今の例の場合、下方向への比較的大きな変化)、点203−211間の動きによる垂直位置変化(今の例の場合、下方向への比較的小さな変化)、及び、点211−212間の動きによる垂直位置変化(今の例の場合、概ね変化なし)を繋ぎ合わせることにより、曲線230が描かれる。 A solid curve 230 in FIG. 12C represents a camera shake trajectory in the vertical direction on the image (vertical component of the camera shake trajectory) estimated by the camera shake trajectory estimation unit 52 during the exposure period of the detection target image. Starting from the point 202 in FIG. 12B, the vertical position change due to the movement between the points 202-203 (in this example, a relatively large change in the downward direction), the vertical position due to the movement between the points 203-211 By joining together the change (in this example, a relatively small change in the downward direction) and the vertical position change due to the movement between points 211-212 (in this example, almost no change), the curve 230 Is drawn.
図12(c)において、破線の曲線231は、検出対象画像の露光期間中における、画像上の垂直方向の真の手ぶれ軌跡(真の手ぶれ軌跡の垂直成分)を表す。時間方向のサンプリング数を増やしたことにより、曲線230に対応する推定手ぶれ軌跡が曲線231に対応する真の手ぶれ軌跡に概ね一致していることが分かる。 In FIG. 12C, a dashed curve 231 represents a true camera shake locus in the vertical direction on the image (a vertical component of the true camera shake locus) during the exposure period of the detection target image. By increasing the number of samplings in the time direction, it can be seen that the estimated camera shake trajectory corresponding to the curve 230 substantially matches the true camera shake trajectory corresponding to the curve 231.
垂直成分に着目して手ぶれ軌跡の推定手法を説明したが、水平成分に関しても同様の推定が行われる。これにより、図6の手ぶれ軌跡推定部52は、手ぶれに由来する、検出対象画像に含まれるぶれ(画像上のぶれ)の軌跡を推定する。このぶれの軌跡を表す情報は、手ぶれ軌跡情報として画像劣化関数算出部53に送られる。 Although the method for estimating the camera shake locus has been described focusing on the vertical component, the same estimation is performed on the horizontal component. Accordingly, the camera shake trajectory estimation unit 52 in FIG. 6 estimates the trajectory of the shake (blur on the image) included in the detection target image, which is derived from the camera shake. Information representing the blur locus is sent to the image deterioration function calculating unit 53 as shake locus information.
推定されるぶれの軌跡は、点広がり関数(Point Spread Function;以下、PSFと呼ぶ)として表現することが可能である。理想的な点像が撮像装置1のぶれによって画像上で描く軌跡にあわせて重み付けがなされたオペレータ或るいは空間フィルタは、PSFと呼ばれ、手ぶれの数学モデルとして一般的に使用される。 The estimated blur trajectory can be expressed as a point spread function (hereinafter referred to as PSF). An operator or a spatial filter in which an ideal point image is weighted in accordance with a trajectory drawn on the image by a shake of the imaging apparatus 1 is called a PSF, and is generally used as a mathematical model of camera shake.
検出対象画像を、ぶれを含む劣化画像と考えた場合、PSFは、画像劣化関数と解釈される。図6の画像劣化関数算出部53は、手ぶれ軌跡情報から、画像劣化関数としてのPSFを算出する。 When the detection target image is considered as a deteriorated image including blur, the PSF is interpreted as an image deterioration function. The image deterioration function calculation unit 53 in FIG. 6 calculates a PSF as an image deterioration function from the camera shake trajectory information.
PSFから、検出対象画像に含まれるぼけを除去するための画像復元フィルタを生成することが可能である。本実施形態では、画像復元フィルタ自体はフィルタリング部55に実装されており、図6の画像復元フィルタ係数算出部54がPSFに基づいて画像復元フィルタのフィルタ係数を算出する。算出されたフィルタ係数は、フィルタリング部55に実装された画像復元フィルタのフィルタ係数として用いられる。 An image restoration filter for removing blur included in the detection target image can be generated from the PSF. In the present embodiment, the image restoration filter itself is mounted in the filtering unit 55, and the image restoration filter coefficient calculation unit 54 in FIG. 6 calculates the filter coefficient of the image restoration filter based on the PSF. The calculated filter coefficient is used as a filter coefficient of the image restoration filter implemented in the filtering unit 55.
図6のフィルタリング部55は、この画像復元フィルタを用いて検出対象画像をフィルタリングすることにより、検出対象画像に含まれるぶれを除去或いは低減したフィルタリング画像を生成する。フィルタリング画像には、フィルタリングに伴うリンギングが含まれうるため、これをリンギング除去部56で除去する。 The filtering unit 55 in FIG. 6 generates a filtered image in which the blur included in the detection target image is removed or reduced by filtering the detection target image using the image restoration filter. Since the filtering image may include ringing associated with filtering, the ringing removing unit 56 removes the ringing.
即ち、リンギング除去部56は、フィルタリング画像と検出対象画像とを加重平均することにより、復元画像を生成する。例えば、加重平均は、画素ごとに行われ、画素ごとの加重平均の比率は、検出対象画像の各画素のエッジ強度に応じて定められる。生成された復元画像は、検出対象画像に含まれるぶれが除去或いは低減され且つフィルタリングに伴うリンギングが除去或いは低減された画像となる。但し、フィルタリング部55にて生成されるフィルタリング画像をそのまま復元画像として取り扱うことも可能である。この場合、リンギング除去部56は省略される。 That is, the ringing removal unit 56 generates a restored image by performing weighted averaging of the filtered image and the detection target image. For example, the weighted average is performed for each pixel, and the ratio of the weighted average for each pixel is determined according to the edge strength of each pixel of the detection target image. The generated restored image is an image in which blur included in the detection target image is removed or reduced, and ringing due to filtering is removed or reduced. However, the filtering image generated by the filtering unit 55 can be handled as a restored image as it is. In this case, the ringing removal unit 56 is omitted.
尚、ぶれの軌跡からPSFを算出する手法、PSFから画像復元フィルタを生成する手法(PSFから画像復元フィルタのフィルタ係数を算出する手法)、画像復元フィルタを用いて劣化画像(検出対象画像)に含まれるぼけを除去したフィルタリング画像を生成する手法、フィルタリング画像に含まれうるリンギングを除去する手法は、全て公知であるため、詳細な説明を割愛する。それらの手法として、例えば上記特許文献1に記載の手法を用いればよい。 Note that a method for calculating a PSF from a blur locus, a method for generating an image restoration filter from the PSF (a method for calculating a filter coefficient of the image restoration filter from the PSF), and a degraded image (detection target image) using the image restoration filter. Since a technique for generating a filtered image from which the blur is included and a technique for removing ringing that can be included in the filtered image are all known, detailed description thereof is omitted. As those methods, for example, the method described in Patent Document 1 may be used.
また、上述の手法によって推定される手ぶれ軌跡は、検出対象画像の中央領域に対する手ぶれ軌跡に相当する。画像の垂直位置が異なれば露光タイミングが異なるため、垂直位置が異なれば露光期間中の手ぶれ軌跡は厳密には異なる。しかしながら、本実施形態では、この厳密性を無視したことによる影響は軽微であるとして、中央領域に対する手ぶれ軌跡を推定し、これを検出対象画像の全体領域に適用するようにしている。 Further, the hand movement trajectory estimated by the above-described method corresponds to the hand movement trajectory with respect to the central region of the detection target image. Since the exposure timing is different if the vertical position of the image is different, the camera shake trajectory during the exposure period is strictly different if the vertical position is different. However, in this embodiment, it is assumed that the influence of ignoring this strictness is insignificant, and the camera shake trajectory with respect to the central region is estimated and applied to the entire region of the detection target image.
[高域強調処理の適用]
上述の如く、ローリングシャッタを用い、各画像を垂直方向に領域分割することにより、動き検出のサンプリング数を増やして動き検出の精度を向上させることができる。しかしながら、動き検出に用いる隣接フレーム間の時間間隔が従来と比べて短くなるわけではないため、推定される手ぶれ軌跡は、時間的な平均化処理(換言すれば、高域減衰処理またはローパスフィルタ処理)が加わったような手ぶれ軌跡となる。例えば、図12(b)の点201に対応する検出された動き速度は、領域分割数に応じて短縮化された微小区間における動き速度ではなく、あくまで、タイミングTA1−TB1間の平均的な動き速度となるからである(この平均時間は、隣接フレーム間の時間間隔に従うことになる)。
[Apply high-frequency enhancement]
As described above, by using a rolling shutter and dividing each image in the vertical direction, the number of motion detection samples can be increased and the accuracy of motion detection can be improved. However, since the time interval between adjacent frames used for motion detection is not shortened compared to the conventional case, the estimated camera shake trajectory is temporally averaged (in other words, high-frequency attenuation processing or low-pass filter processing). ) Is the camera shake trajectory. For example, the detected motion speed corresponding to the point 201 in FIG. 12B is not the motion speed in a minute section shortened according to the number of area divisions, but is merely an average between the timings T A1 and T B1. (This average time follows the time interval between adjacent frames).
そこで、この平均化によって減衰した高域成分を補償すべく、領域動き情報から算出される動きデータに対して時間方向の高域強調処理を施すようにするとよい。そして、この高域強調処理後の動きデータを用いて、検出対象画像のぶれ(画像上のぶれ)の軌跡を推定するようにする。この高域強調処理を行うハイパスフィルタ(補正手段)は、例えば、動き検出部51と手ぶれ軌跡推定部52の間、または、手ぶれ軌跡推定部52の内部に設けられる。動きデータは、画像上における、各タイミングの画像の動きの速度を表す。 Therefore, in order to compensate for the high-frequency component attenuated by the averaging, it is preferable to perform high-frequency emphasis processing in the time direction on the motion data calculated from the region motion information. Then, using the motion data after the high-frequency emphasis processing, the locus of the blur of the detection target image (the blur on the image) is estimated. A high-pass filter (correction unit) that performs this high-frequency emphasis processing is provided, for example, between the motion detection unit 51 and the camera shake trajectory estimation unit 52 or inside the camera shake trajectory estimation unit 52. The motion data represents the speed of motion of the image at each timing on the image.
図13を参照して、この高域強調処理に対応する数値例を説明する。説明の簡略化上、垂直方向の動きにのみ着目する。図13(a)に、この数値例における各数値を示し、図13(b)に、この数値例に対応するグラフを示す。各フレーム画像を垂直方向に5等分し、時刻0.0〜時刻5.0の間に第1参照画像が露光され、時刻5.0〜時刻10.0の間に検出対象画像が露光され、時刻10.0〜時刻15.0の間に第2参照画像が露光されたとする。 With reference to FIG. 13, a numerical example corresponding to the high frequency emphasis processing will be described. For simplification of description, attention is paid only to the vertical movement. FIG. 13A shows each numerical value in this numerical example, and FIG. 13B shows a graph corresponding to this numerical example. Each frame image is vertically divided into five equal parts, the first reference image is exposed between time 0.0 and time 5.0, and the detection target image is exposed between time 5.0 and time 10.0. Assume that the second reference image is exposed between time 10.0 and time 15.0.
図13(a)において、第2列目に記載された各数値は、各時刻における撮影領域の垂直位置を表し、第3列目に記載された各数値は、各時刻における真の動き速度を表し、第4列目に記載された各数値は、領域動き情報から検出される各時刻における動き速度(以下、検出動き速度という)を表す。 In FIG. 13A, each numerical value described in the second column represents the vertical position of the imaging region at each time, and each numerical value described in the third column represents the true motion speed at each time. Each numerical value shown in the fourth column represents a motion speed at each time detected from the region motion information (hereinafter referred to as a detected motion speed).
時刻差「1」を単位時間として考える。例えば、時刻0.0−1.0間における真の動き速度(換言すれば、真の動き量)は、時刻0.0−1.0間の垂直位置の差分によって表される。一方、領域動き情報から算出される時刻0.0−5.0間の検出動き速度は、時刻0.0−5.0間の垂直位置の差分に1/5を乗じた値(=2.2)となる。 A time difference “1” is considered as a unit time. For example, the true movement speed (in other words, the true movement amount) between time 0.0 and 1.0 is represented by the vertical position difference between time 0.0 and 1.0. On the other hand, the detected motion speed between times 0.0 and 5.0 calculated from the region motion information is a value obtained by multiplying the vertical position difference between times 0.0 and 5.0 by 1/5 (= 2. 2).
垂直位置の差分によって算出される時刻0.0−1.0間の真の動き速度は、時刻0.0−1.0間の平均の動き速度である。従って、その動き速度を、時刻0.5における動き速度として解釈するのが妥当であるとも考えられるが、便宜上、単位時間の半分だけ遅らせて、それを時刻1.0における動き速度として考える。これに伴い、時刻0.0−5.0間の検出動き速度も単位時間の半分だけ遅らせて、それを時刻3.0における検出動き速度として考える。 The true movement speed between time 0.0 and 1.0 calculated by the difference in the vertical position is the average movement speed between time 0.0 and 1.0. Therefore, it may be appropriate to interpret the movement speed as the movement speed at time 0.5, but for convenience, the movement speed is delayed by half of the unit time and is considered as the movement speed at time 1.0. Accordingly, the detected motion speed between time 0.0 and 5.0 is also delayed by half of the unit time, and this is considered as the detected motion speed at time 3.0.
図13(b)において、実線の折れ線251は、撮影領域の垂直位置をプロットしたものであり、破線の折れ線252は、真の動き速度をプロットしたものであり、実線の折れ線253は、検出動き速度をプロットしたものである。図13(b)における横軸は、時刻を表す。そして、時系列で並べた検出動き速度に対して時間方向の高域強調処理を施すことによって、実線且つ太線の折れ線254が描かれる。折れ線254は、折れ線253よりも、真の動き速度に対応する折れ線252に類似していることが分かる。 In FIG. 13B, a solid line 251 plots the vertical position of the imaging region, a broken line 252 plots the true movement speed, and a solid line 253 indicates the detected motion. The velocity is plotted. The horizontal axis in FIG. 13B represents time. Then, by applying high-frequency emphasis processing in the time direction to the detected motion speeds arranged in time series, a solid line and a thick broken line 254 are drawn. It can be seen that the broken line 254 is more similar to the broken line 252 corresponding to the true movement speed than the broken line 253.
この類似性を最適化するためには、高域強調処理の特性、すなわちハイパスフィルタのフィルタ特性を最適化する必要があり、高域強調処理の特性は、フレーム周期と動き検出のサンプリング間隔とを考慮して適切に設定されるべきである。即ち、高域強調処理の特性(周波数応答特性)は、垂直方向の領域分割数Mに応じて適切に変更されるべきである。 In order to optimize this similarity, it is necessary to optimize the characteristics of the high-frequency enhancement processing, that is, the filter characteristics of the high-pass filter. The characteristics of the high-frequency enhancement processing include the frame period and the sampling interval for motion detection. It should be set appropriately in consideration. That is, the characteristic (frequency response characteristic) of the high-frequency emphasis processing should be appropriately changed according to the number of area divisions M in the vertical direction.
<<変形等>>
上述の実施形態の変形例または注釈事項として、以下に、注釈1〜注釈4を記す。各注釈に記載した内容は、矛盾なき限り、任意に組み合わせることが可能である。
<< Deformation, etc. >>
As modifications or annotations of the above-described embodiment, notes 1 to 4 are described below. The contents described in each comment can be arbitrarily combined as long as there is no contradiction.
[注釈1]
上述した説明文中に示した具体的な数値は、単なる例示であって、当然の如く、それらを様々な数値に変更することができる。
[Note 1]
The specific numerical values shown in the above description are merely examples, and as a matter of course, they can be changed to various numerical values.
[注釈2]
図6の各部位が有効に機能するタイミングは任意である。検出対象画像並びに第1及び第2参照画像の各画像データさえあれば、どのタイミングでも領域動き情報の算出を介して復元画像を生成可能だからである。
[Note 2]
The timing at which each part in FIG. 6 functions effectively is arbitrary. This is because the restored image can be generated through the calculation of the region motion information at any timing as long as there is each image data of the detection target image and the first and second reference images.
例えば、以下のような処理手順が採用可能である。撮影モードにおいて領域動き情報又は手ぶれ軌跡情報だけを作成して、それを図1のメモリカード18に格納しておき、再生モードにおいて復元画像生成指示があった時に、格納された領域動き情報又は手ぶれ軌跡情報に基づいて検出対象画像から復元画像を生成する。 For example, the following processing procedure can be adopted. Only region motion information or camera shake trajectory information is created in the shooting mode and stored in the memory card 18 of FIG. 1, and when there is a restored image generation instruction in the playback mode, the stored region motion information or camera shake information is stored. A restored image is generated from the detection target image based on the trajectory information.
[注釈3]
図1の撮像装置1は、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって実現可能である。特に、図6に示される各部位の機能は、ハードウェア、ソフトウェア、またはハードウェアとソフトウェアの組み合わせによって実現可能であり、また、それらの各機能を撮像装置1の外部装置(不図示)にて実現することも可能である。
[Note 3]
The imaging apparatus 1 in FIG. 1 can be realized by hardware or a combination of hardware and software. In particular, the function of each part shown in FIG. 6 can be realized by hardware, software, or a combination of hardware and software. It can also be realized.
ソフトウェアを用いて撮像装置1を構成する場合、ソフトウェアにて実現される部位についてのブロック図は、その部位の機能ブロック図を表すことになる。また、図6に示される各部位にて実現される機能の全部または一部を、プログラムとして記述し、該プログラムをプログラム実行装置(例えばコンピュータ)上で実行することによって、その機能の全部または一部を実現するようにしてもよい。 When the imaging apparatus 1 is configured using software, a block diagram of a part realized by software represents a functional block diagram of the part. 6 is described as a program, and the program is executed on a program execution device (for example, a computer), whereby all or one of the functions is realized. You may make it implement | achieve a part.
[注釈4]
上述の実施形態において、図6の動き検出部51は、領域動き検出手段として機能し、復元画像を生成する復元手段は、画像劣化関数算出部53、画像復元フィルタ係数算出部54、フィルタリング55及びリンギング除去部56から形成される。
[Note 4]
In the above-described embodiment, the motion detection unit 51 in FIG. 6 functions as a region motion detection unit, and the restoration unit that generates a restored image includes an image degradation function calculation unit 53, an image restoration filter coefficient calculation unit 54, a filtering 55, and The ringing removal unit 56 is formed.
1 撮像装置
11 撮像部
13 映像信号処理部
23 CPU
51 動き検出部
52 手ぶれ軌跡推定部
53 画像劣化関数算出部
54 画像復元フィルタ係数算出部
55 フィルタリング部
56 リンギング除去部
DESCRIPTION OF SYMBOLS 1 Imaging device 11 Imaging part 13 Video signal processing part 23 CPU
51 Motion Detection Unit 52 Camera Shake Trajectory Estimation Unit 53 Image Degradation Function Calculation Unit 54 Image Restoration Filter Coefficient Calculation Unit 55 Filtering Unit 56 Ringing Removal Unit
Claims (7)
前記検出対象画像の前後の撮影によって得られる各画像を参照画像とし、
前記検出対象画像と各参照画像を垂直方向に領域分割して、前記検出対象画像と各参照画像間における、各分割領域内の画像の動きを領域動きとして検出する領域動き検出手段を備え、
各領域動きに基づいて前記検出対象画像に対する動き検出を行う
ことを特徴とする動き検出装置。 A motion detection device that performs motion detection on a detection target image obtained by shooting based on an output of an image pickup device that performs shooting while varying exposure timing between different horizontal lines,
Each image obtained by photographing before and after the detection target image is a reference image,
A region motion detection unit that divides the detection target image and each reference image in a vertical direction and detects a motion of an image in each divided region between the detection target image and each reference image as a region motion;
A motion detection apparatus that performs motion detection on the detection target image based on each region motion.
ことを特徴とする請求項1に記載の動き検出装置。 The motion detection apparatus according to claim 1, wherein motion detection is performed on the detection target image by regarding each region motion as movement at different times with respect to the entire detection target image.
ことを特徴とする請求項2に記載の動き検出装置。 3. The motion detection according to claim 2, further comprising correction means for correcting each region motion by performing high-frequency emphasis processing in a time direction on data representing each region motion arranged in time series. apparatus.
ことを特徴とする請求項3に記載の動き検出装置。 The motion detection apparatus according to claim 3, wherein characteristics of the high-frequency emphasis process are changed according to the number of area divisions in the vertical direction with respect to the detection target image and each reference image.
ことを特徴とする請求項1〜請求項4の何れかに記載の動き検出装置。 5. The motion detection apparatus according to claim 1, wherein each region motion arranged in time series represents a blur locus included in the detection target image.
推定した前記ぶれの軌跡に基づいて前記検出対象画像における前記ぶれを低減した復元画像を生成する復元手段と、を備えた
ことを特徴とする撮像装置。 A motion trajectory estimation unit configured to estimate a motion trajectory included in the detection target image based on a motion detection result by the motion detection device according to claim 1;
An image pickup apparatus comprising: a restoration unit configured to generate a restored image in which the blur in the detection target image is reduced based on the estimated blur locus.
前記検出対象画像の前後の撮影によって得られる各画像を参照画像とし、
前記検出対象画像と各参照画像を垂直方向に領域分割して、前記検出対象画像と各参照画像間における、各分割領域内の画像の動きを領域動きとして検出し、
各領域動きを前記検出対象画像の全体に対する互いに異なる時刻の動きと捉えることにより、前記検出対象画像に対する動き検出を行う
ことを特徴とする動き検出方法。 A motion detection method for performing motion detection on a detection target image obtained by shooting based on an output of an image pickup device that performs shooting while varying exposure timing between different horizontal lines,
Each image obtained by photographing before and after the detection target image is a reference image,
The detection target image and each reference image are divided into regions in the vertical direction, and the movement of the image in each divided region between the detection target image and each reference image is detected as a region motion,
A motion detection method, wherein motion detection is performed on the detection target image by regarding each region motion as movement at different times with respect to the entire detection target image.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2006347933A JP4753856B2 (en) | 2006-12-25 | 2006-12-25 | Motion detection apparatus and method, and imaging apparatus |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2006347933A JP4753856B2 (en) | 2006-12-25 | 2006-12-25 | Motion detection apparatus and method, and imaging apparatus |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2008160547A JP2008160547A (en) | 2008-07-10 |
| JP4753856B2 true JP4753856B2 (en) | 2011-08-24 |
Family
ID=39660948
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2006347933A Expired - Fee Related JP4753856B2 (en) | 2006-12-25 | 2006-12-25 | Motion detection apparatus and method, and imaging apparatus |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4753856B2 (en) |
Families Citing this family (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010028607A (en) * | 2008-07-23 | 2010-02-04 | Sanyo Electric Co Ltd | Image processing apparatus, image capturing apparatus and image processing mehtod |
| JP5013491B2 (en) * | 2009-02-17 | 2012-08-29 | ソーバル株式会社 | Image processing apparatus, image processing method, and recording medium |
| DE112013004507T5 (en) * | 2013-03-28 | 2015-12-31 | Fujifilm Corporation | Image processing apparatus, image capturing apparatus, image processing method, program and recording medium |
| KR102003460B1 (en) * | 2013-08-27 | 2019-07-24 | 한화테크윈 주식회사 | Device and Method for dewobbling |
Family Cites Families (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4390068B2 (en) * | 2004-12-28 | 2009-12-24 | ソニー株式会社 | Method for correcting distortion of captured image signal and distortion correction apparatus for captured image signal |
| JP4771901B2 (en) * | 2006-09-19 | 2011-09-14 | パナソニック株式会社 | Imaging apparatus, image distortion correction method, and program |
-
2006
- 2006-12-25 JP JP2006347933A patent/JP4753856B2/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| JP2008160547A (en) | 2008-07-10 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4823179B2 (en) | Imaging apparatus and imaging control method | |
| JP4662880B2 (en) | Imaging apparatus and imaging method | |
| JP5111088B2 (en) | Imaging apparatus and image reproduction apparatus | |
| JP2008129554A (en) | Imaging device and automatic focusing control method | |
| JP6460653B2 (en) | Image processing apparatus, imaging apparatus including the same, image processing method, and image processing program | |
| JP5013954B2 (en) | Imaging device | |
| JP2008139683A (en) | Imaging apparatus and autofocus control method | |
| CN110198419A (en) | Image processing method, device, storage medium and electronic device | |
| KR20160044945A (en) | Image photographing appratus | |
| JP4753856B2 (en) | Motion detection apparatus and method, and imaging apparatus | |
| JP2008160622A (en) | Field angle compensation device, method and imaging apparatus | |
| JP5143172B2 (en) | Imaging apparatus and image reproduction apparatus | |
| US8964055B2 (en) | Combining images based on position offset detection of a series of images | |
| JP5829122B2 (en) | Imaging apparatus and evaluation value generation apparatus | |
| KR20120071972A (en) | Digital image signal processing apparatus and method for controlling the same | |
| JP4468598B2 (en) | Image processing apparatus and recording medium storing image processing program | |
| JP2009171341A (en) | Blur correcting device and imaging apparatus | |
| JP2004186901A (en) | Image pickup device and method, program and recording medium | |
| JP5304080B2 (en) | Image reproduction apparatus and image reproduction program | |
| JP2011114486A (en) | Imaging device | |
| JP6498175B2 (en) | Imaging apparatus and control method thereof | |
| JP5012656B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
| JP4969349B2 (en) | Imaging apparatus and imaging method | |
| JP4936816B2 (en) | Imaging apparatus and simultaneous display control method | |
| JP2007110636A (en) | Camera device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20091201 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110421 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110426 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110524 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140603 Year of fee payment: 3 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140603 Year of fee payment: 3 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140603 Year of fee payment: 3 |
|
| S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140603 Year of fee payment: 3 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
| LAPS | Cancellation because of no payment of annual fees |