[go: up one dir, main page]

JP5885384B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP5885384B2
JP5885384B2 JP2010253727A JP2010253727A JP5885384B2 JP 5885384 B2 JP5885384 B2 JP 5885384B2 JP 2010253727 A JP2010253727 A JP 2010253727A JP 2010253727 A JP2010253727 A JP 2010253727A JP 5885384 B2 JP5885384 B2 JP 5885384B2
Authority
JP
Japan
Prior art keywords
image
input image
input
reference image
motion vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010253727A
Other languages
Japanese (ja)
Other versions
JP2012104018A (en
JP2012104018A5 (en
Inventor
桑原 宗光
宗光 桑原
伊藤 渡
渡 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kokusai Denki Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Kokusai Denki Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc, Kokusai Denki Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP2010253727A priority Critical patent/JP5885384B2/en
Priority to PCT/JP2011/068762 priority patent/WO2012063533A1/en
Publication of JP2012104018A publication Critical patent/JP2012104018A/en
Publication of JP2012104018A5 publication Critical patent/JP2012104018A5/ja
Application granted granted Critical
Publication of JP5885384B2 publication Critical patent/JP5885384B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像処理装置に係り、特にカメラなどによって撮影された映像が陽炎による揺らぎで劣化した場合に映像の画質を改善することのできる画像処理装置に関する。   The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus capable of improving the image quality of an image taken by a camera or the like when the image is deteriorated due to fluctuations caused by heat.

昨今、カメラなどを用いて或る被写体を撮影した場合に、撮影した画像が劣化していたときには画質劣化を改善(画質を復元)して被写体が良好に知覚できるようにする画像処理方法が数多く提案されている。
これに関連したものとして、特許文献1に挙げた従来技術(従来技術1とする)がある。従来技術1では、カメラ撮影時に生じる手ぶれ等の事象に対して、ブラインドデコンボルーション法による画像劣化復元手法を開示しており、ブラインドデコンボルーション法を用いて手ぶれによる揺れ量を検出し、手ぶれを補正することで、例えばジャイロセンサなどの物理量を検出するセンサを用いずに、簡単な構成で手ぶれの無い良好な画像を得ることが示されている。
In recent years, when a certain subject is photographed using a camera or the like, there are many image processing methods for improving the image quality degradation (restoring the image quality) so that the subject can be perceived satisfactorily when the photographed image is degraded. Proposed.
Related to this is the prior art (referred to as Prior Art 1) listed in Patent Document 1. Prior art 1 discloses a method for restoring image degradation using the blind deconvolution method for events such as camera shake that occurs during camera shooting. The blind deconvolution method is used to detect the amount of shaking caused by camera shake. It is shown that a good image free from camera shake can be obtained with a simple configuration without using a sensor that detects a physical quantity such as a gyro sensor.

特開2001−333326号公報JP 2001-333326 A

奥富正敏(外15名)著、「ディジタル画像処理」、財団法人画像情報教育振興会、2004年、p.202-204、p.243-245Masatoshi Okutomi (15 others), "Digital Image Processing", Foundation for Image Information Education, 2004, p.202-204, p.243-245 Jean-Yves Bouguet著、「Pyramidal Implementation of the Lucas Kanade Feature Tracker Description of the algorithm」、OpenCV Reference Manual、[online]、[平成22年10月8日検索]、インターネット〈URL:http://trac.assembla.com/dilz_mgr/export/272/doc/ktl-tracking/algo_tracking.pdf〉Jean-Yves Bouguet, "Pyramidal Implementation of the Lucas Kanade Feature Tracker Description of the algorithm", OpenCV Reference Manual, [online], [October 8, 2010 search], Internet <URL: http: // trac. assembla.com/dilz_mgr/export/272/doc/ktl-tracking/algo_tracking.pdf>

上記従来技術1によれば、カメラを用いて撮影する際に手ぶれ等によって画像画質が劣化した場合でも、その劣化を改善し、良好な画像を得ることができる。しかしながら、画像画質の劣化要因は手振れだけでなく、陽炎などの自然界の大気要因によって生じる事象など、各種様々な要因がある。陽炎は、温度の異なる空気が混ざり合い、局所的に空気の密度の差が生じ、その境界で光が屈折して物体が揺らいで見える現象であり、画像内に複数の異なる大きさ・向きを持った揺らぎが存在するため、従来方法1では、補正することができないという問題があった。
本発明の目的は、上記問題点に鑑み、陽炎などの自然界の大気要因によって生じる事象による画像画質の劣化を改善し、良好な画像を得ることができる画像処理装置を提供することにある。
According to the prior art 1, even when image quality is deteriorated due to camera shake or the like when photographing using a camera, the deterioration can be improved and a good image can be obtained. However, the image quality deterioration factors include not only camera shake but also various other factors such as events caused by natural atmospheric factors such as the sun flame. A hot flame is a phenomenon in which air at different temperatures mixes, causing a difference in the density of the air locally, and light is refracted at the boundary to make the object appear to fluctuate. There is a problem that correction cannot be performed in the conventional method 1 because there is fluctuation.
In view of the above-described problems, an object of the present invention is to provide an image processing apparatus that can improve image quality deterioration due to an event caused by natural atmospheric factors such as a hot flame and obtain a good image.

本発明は、カメラで撮影した映像を処理する画像処理装置において、前記撮像装置から逐次入力される入力画像を、時間領域で指数移動平均することによって参照画像を推定する参照画像推定部と、前記入力画像に、前記参照画像上のボケと同様のボケを与えるローパスフィルタと、前記ボケを与えられた入力画像および前記参照画像に基づいて、該入力画像の局所的な揺らぎを算出して陽炎による動きベクトルを検出するオプティカルフロー計算部と、前記入力画像の局所的な揺らぎを除去するように、符号を反転させた前記動きベクトルによって前記入力画像の画素を移動させて、前記入力画像を補正する動き補正部とで構成され、前記ローパスフィルタは、前記動きベクトルの分散に略等しい分散のガウス関数で表されるガウシアンフィルタであることを特徴とする。
また、前記オプティカルフロー計算部は、ブロックマッチング法あるいは勾配法の少なくとも一つの方法を用いてオプティカルフローを計算してもよい。
本発明は、コンピュータに、カメラで撮影した映像を処理させる画像処理のプログラムであって、撮像装置から逐次入力される入力画像を、時間領域で指数移動平均することによって参照画像を推定する参照画像推定工程と、前記入力画像に、前記参照画像上のボケと同様のボケを与えるローパスフィルタを施すフィルタリング工程と、前記ボケを与えられた入力画像および前記参照画像に基づいて、該入力画像の局所的な揺らぎを算出して陽炎による動きベクトルを検出するオプティカルフロー計算工程と、前記入力画像の局所的な揺らぎを除去するように、符号を反転させた前記動きベクトルによって前記入力画像の画素を移動させて、前記入力画像を補正する動き補正工程と、を前記コンピュータに実行させ、前記ローパスフィルタは、前記動きベクトルの分散に略等しい分散のガウス関数で表されるガウシアンフィルタであることを特徴とする。

The present invention provides an image processing apparatus that processes video captured by a camera, a reference image estimation unit that estimates a reference image by exponentially moving an input image sequentially input from the imaging apparatus in a time domain, Based on the low-pass filter that gives the input image the same blur as the blur on the reference image, and the input image and the reference image given the blur, the local fluctuation of the input image is calculated and the An optical flow calculation unit for detecting a motion vector, and correcting the input image by moving pixels of the input image by the motion vector whose sign is inverted so as to remove local fluctuation of the input image The low-pass filter is a Gaussian filter represented by a Gaussian function having a variance substantially equal to the variance of the motion vector. Characterized in that it is a filter.
The optical flow calculation unit may calculate the optical flow using at least one of a block matching method and a gradient method.
The present invention is an image processing program that causes a computer to process video captured by a camera, and which estimates a reference image by exponentially moving an input image sequentially input from an imaging device in the time domain. An estimation step, a filtering step for applying a low-pass filter that gives the input image the same blur as the blur on the reference image, and based on the input image and the reference image that are given the blur, An optical flow calculation step of detecting a motion vector due to a hot flame by calculating a dynamic fluctuation, and moving the pixels of the input image by the motion vector with the sign inverted so as to remove the local fluctuation of the input image by a motion compensation step of correcting the input image, it was executed in the computer, the low pass filter Characterized in that it is a Gaussian filter represented by substantially equal variance Gaussian function of the variance of the motion vector.

本発明による画像処理装置によれば、従来方法1では補正できなかった陽炎による画像の揺らぎを補正することが可能となり、良好な画像を提供できるようになる。   According to the image processing apparatus of the present invention, it is possible to correct the fluctuation of the image due to the heat flame that could not be corrected by the conventional method 1, and to provide a good image.

本発明の画像処理装置が適用された監視装置の構成図である。1 is a configuration diagram of a monitoring apparatus to which an image processing apparatus of the present invention is applied. 本発明の画像処理装置の内部ブロック図の一例を説明する図である。It is a figure explaining an example of the internal block diagram of the image processing apparatus of this invention. 本発明の画像処理装置の動作フローの一例を説明する図である。It is a figure explaining an example of the operation | movement flow of the image processing apparatus of this invention. 本発明の参照画像推定部の動作を説明する図である。It is a figure explaining operation | movement of the reference image estimation part of this invention. 本発明のオプティカルフロー計算部の計算結果を説明する図である。It is a figure explaining the calculation result of the optical flow calculation part of this invention. 本発明のオプティカルフロー計算部におけるローパスフィルタの濾過特性の算出方法を説明する図である。It is a figure explaining the calculation method of the filtration characteristic of a low pass filter in the optical flow calculation part of the present invention.

本発明に係る実施例を、図面を参照して説明する。   Embodiments according to the present invention will be described with reference to the drawings.

本発明を適用した具体的な実施形態として、カメラなどの撮像装置による監視装置を例に以下説明する。
図1は、本発明が適用された監視装置100の構成を機能ブロックで示したものである。監視装置100は、監視カメラなどの撮像装置101、撮像装置101からの画像データを入力して本発明の画像処理を実行する画像処理装置102、撮像装置101から入力した画像データ(入力画像)や画像処理装置102から出力された画像データ(参照画像、補正画像)を入力して映像として出力する画像出力部103を備えている。画像出力部103は、映像表示部を備えたモニタ装置などで構成できる。画像処理装置102は、図示はしていないが、マイクロコンピュータを備え、メモリに記憶されたプログラムを実行して各種演算を行い、以下説明する各機能を実現する。
As a specific embodiment to which the present invention is applied, a monitoring apparatus using an imaging apparatus such as a camera will be described below as an example.
FIG. 1 is a functional block diagram showing the configuration of a monitoring apparatus 100 to which the present invention is applied. The monitoring device 100 includes an imaging device 101 such as a surveillance camera, an image processing device 102 that inputs image data from the imaging device 101 and executes image processing of the present invention, image data (input image) input from the imaging device 101, An image output unit 103 that inputs image data (reference image, corrected image) output from the image processing apparatus 102 and outputs the image data is provided. The image output unit 103 can be configured by a monitor device including a video display unit. Although not shown, the image processing apparatus 102 includes a microcomputer, executes various programs by executing programs stored in the memory, and implements functions described below.

図2は、本実施例の画像処理装置102の内部ブロック図の一例を示している。本実施例の画像処理装置102は、参照画像推定部1、オプティカルフロー計算部2、動き補正部3から構成されている。また、図3は、本実施例の画像処理装置102の動作のフローチャートの一例を示している。参照画像推定部1の動作は参照画像推定ステップS1で実行され、オプティカルフロー計算部2の動作はオプティカルフロー算出ステップS2で実行され、動き補正部3の動作は動き補正ステップS3で実行される。以下、各処理部の動作を説明する。   FIG. 2 shows an example of an internal block diagram of the image processing apparatus 102 of the present embodiment. The image processing apparatus 102 according to the present exemplary embodiment includes a reference image estimation unit 1, an optical flow calculation unit 2, and a motion correction unit 3. FIG. 3 shows an example of a flowchart of the operation of the image processing apparatus 102 of the present embodiment. The operation of the reference image estimation unit 1 is executed in the reference image estimation step S1, the operation of the optical flow calculation unit 2 is executed in the optical flow calculation step S2, and the operation of the motion correction unit 3 is executed in the motion correction step S3. Hereinafter, the operation of each processing unit will be described.

まず、参照画像推定部1は、参照画像推定ステップS1において、カメラなどの撮像装置101から逐次入力される入力画像から動きのない画像(参照画像)を推定する。その動作を、図4を用いて説明する。或る時刻tに入力された画像F(x,y)は、ゲインブロック5に入力されてr倍され、一方、遅延部7から出力される或る時刻tの参照画像R(x,y)がゲインブロック6で1−r倍され、これらゲインブロック5とゲインブロック6の出力値は加算器8によって重み付け加算される。そして、加算器8の出力値は遅延部7に入力され、遅延部7は、次フレーム(時刻t+1)における参照画像Rt+1(x,y)としてデータを更新し出力する。ここでゲインブロック5、6におけるrは重みであり、0から1の間の値を取る定数である。また、遅延部7は、1フレームの時間間隔分だけ画像を保持する。したがって、参照画像推定部1で算出される参照画像は、式(1)のように表わされる。 First, in the reference image estimation step S1, the reference image estimation unit 1 estimates an image (reference image) having no motion from an input image sequentially input from the imaging device 101 such as a camera. The operation will be described with reference to FIG. An image F t (x, y) input at a certain time t is input to the gain block 5 and multiplied by r, while a reference image R t (x, y) output from the delay unit 7 at a certain time t. y) is multiplied by 1-r in the gain block 6, and the output values of the gain block 5 and the gain block 6 are weighted and added by the adder 8. The output value of the adder 8 is input to the delay unit 7, and the delay unit 7 updates and outputs the data as the reference image R t + 1 (x, y) in the next frame (time t + 1). Here, r in the gain blocks 5 and 6 is a weight, and is a constant that takes a value between 0 and 1. The delay unit 7 holds an image for a time interval of one frame. Therefore, the reference image calculated by the reference image estimation unit 1 is expressed as in Expression (1).

t+1(x,y)=r×F(x,y)+(1−r)×R(x,y)
・・・・・・(1)
R t + 1 (x, y) = r × F t (x, y) + (1−r) × R t (x, y)
(1)

式(1)は、指数移動平均(Exponential Moving Average)と呼ばれ、逐次入力される入力画像の高周波成分の低減(平均化)の効果がある。ここで、重みrは、例えば、r=0.01(1/100)とすると、参照画像に対して最後に重み付け加算した入力画像は、100フレームの入力画像を平均化したと同等の重みが課せられる。すなわち、逐次入力される入力画像に対して、参照画像推定部1をその都度実行すると、重みrで示されるフレーム数の入力画像を平均化した画像として収束する。この画像を参照画像と呼び、参照画像は、入力画像中の移動する物体、揺らぎなどが取り除かれ、動きのない画像となる。   Equation (1) is called Exponential Moving Average, and has the effect of reducing (averaging) high-frequency components of input images that are sequentially input. Here, when the weight r is, for example, r = 0.01 (1/100), the input image finally weighted and added to the reference image has a weight equivalent to that obtained by averaging 100 frames of the input image. Imposed. That is, when the reference image estimation unit 1 is executed for each input image that is sequentially input, the input image having the number of frames indicated by the weight r is converged as an averaged image. This image is referred to as a reference image, and the reference image is an image having no motion by removing moving objects, fluctuations, and the like in the input image.

次に、オプティカルフロー計算部2は、オプティカルフロー算出ステップS2において、入力画像と参照画像を比較し、オプティカルフローを計算する。オプティカルフローは、2つの画像間での局所的な動きの分布を表わすものであり、例えば、図5のようになる。図5は、オプティカルフロー計算部2の計算結果を説明するための図であり、図5(a)は参照画像、図5(b)は入力画像、図5(c)はオプティカルフローを示している。前述の通り、参照画像は、動きのない画像であり、入力画像は、陽炎などによって揺らいでいる画像となるため、2つの画像のオプティカルフローは、図5(c)のような局所的にランダムな動きを持つ分布となる。   Next, the optical flow calculation unit 2 compares the input image with the reference image and calculates an optical flow in the optical flow calculation step S2. The optical flow represents a local motion distribution between two images, for example, as shown in FIG. FIG. 5 is a diagram for explaining the calculation result of the optical flow calculation unit 2, FIG. 5 (a) shows a reference image, FIG. 5 (b) shows an input image, and FIG. 5 (c) shows an optical flow. Yes. As described above, the reference image is an image that does not move, and the input image is an image that is fluctuating due to a hot flame or the like. Therefore, the optical flows of the two images are locally random as shown in FIG. Distribution with a lot of movement.

図5(c)のオプティカルフローの計算の方法としては、参照画像(図5(a))の局所的なブロックのパターン(テンプレート)が、入力画像(図5(b))中でどの位置にあるかを2つの画像の局所領域(例えば、縦10画素、横10画素)の類似度に基づいて探す処理(これをテンプレートマッチング処理と言う)に基づくブロックマッチング法や、或る注目画素の輝度レベルの空間的な勾配と2フレームの画像の輝度レベルの差分から、動きベクトルを計算する勾配法などがある。これらの計算を、入力画像(図5(b))上の注目画素(例えば、縦横10画素間隔の位置の画素)において適用することで、入力画像(図5(b))全体の局所的な動き(動きベクトル)の分布が得られる。これらの方法は、当該技術分野において広く用いられており、例えば、テンプレートマッチング法については非特許文献1の202ページから204ページ、オプティカルフローについては非特許文献1の243ページから245ページや非特許文献2に詳しく記載されている。   As a method of calculating the optical flow in FIG. 5C, the local block pattern (template) of the reference image (FIG. 5A) is located at which position in the input image (FIG. 5B). A block matching method based on a process (referred to as a template matching process) for searching whether there is a local area (for example, 10 pixels vertically and 10 pixels horizontally) of two images or the luminance of a certain pixel of interest There is a gradient method for calculating a motion vector from the difference between the spatial gradient of the level and the luminance level of the image of two frames. By applying these calculations to a target pixel (for example, a pixel at a position of 10 pixels vertically and horizontally) on the input image (FIG. 5B), the entire input image (FIG. 5B) is localized. A motion (motion vector) distribution is obtained. These methods are widely used in the technical field. For example, for the template matching method, pages 202 to 204 of Non-Patent Document 1, and for the optical flow, pages 243 to 245 of Non-Patent Document 1, and non-patents. Document 2 describes in detail.

すなわち、オプティカルフロー計算部2によれば、入力画像(図5(b))および参照画像(図5(a))の2つの画像間での局所的な動きの分を計算することができる。すなわち、入力画像(図5(b))上の注目画素において、陽炎による揺らぎ(動きベクトル)がどの程度発生しているかを推定することができる。   That is, according to the optical flow calculation unit 2, it is possible to calculate a local motion between two images of the input image (FIG. 5B) and the reference image (FIG. 5A). That is, it is possible to estimate how much fluctuation (motion vector) is generated by the hot flame in the target pixel on the input image (FIG. 5B).

次に、動き補正部3では、動き補正ステップS3において、オプティカルフロー計算部2によって得られた動きベクトルを用いて、陽炎による揺らぎを補正する。例えば、入力画像(図5(b))のある注目画素での動きベクトルをv=(vx,vy)とした場合、入力画像(図5(b))の該注目画素を中心とする局所領域(例えば、上記例では縦10画素、横10画素)の部分画像に対して、(−vx,−vy)だけ移動した部分画像を生成する。すなわち、この移動した部分画像は、陽炎による移動分を補正された部分画像となる。この部分画像生成処理を注目画素すべてに対して行い、すべての部分画像を重ね合わせたものを補正画像として出力する。
なお、動きベクトルが実数で表わされる場合、上述の部分画像を移動する処理において、適当な補間処理を実施するようにしても良い。
Next, the motion correction unit 3 corrects the fluctuation due to the heat flame using the motion vector obtained by the optical flow calculation unit 2 in the motion correction step S3. For example, when the motion vector at a certain pixel of interest in the input image (FIG. 5B) is v = (vx, vy), the local region centered on the pixel of interest in the input image (FIG. 5B) For example, a partial image that is moved by (−vx, −vy) is generated with respect to the partial image of 10 pixels in the above example and 10 pixels in the horizontal direction. That is, the moved partial image becomes a partial image in which the amount of movement due to the hot flame is corrected. This partial image generation process is performed for all the target pixels, and a superposition of all the partial images is output as a corrected image.
When the motion vector is represented by a real number, an appropriate interpolation process may be performed in the process of moving the partial image described above.

以上のようにすることで、逐次入力される入力画像(図5(b))から動きのない参照画像(図5(a))を推定し、入力画像(図5(b))および参照画像(図5(a))に基づいてオプティカルフロー(図5(c))を計算して入力画像(図5(b))の局所的な揺らぎ(動きベクトル)を算出し、該動きベクトルに基づいて陽炎の揺らぎを相殺するように入力画像(図5(b))の部分画像を移動して入力画像(図5(b))中に存在する陽炎の揺らぎを取り除いた補正画像を生成することができる。   By doing as described above, a reference image (FIG. 5 (a)) having no motion is estimated from an input image (FIG. 5 (b)) sequentially input, and the input image (FIG. 5 (b)) and the reference image The optical flow (FIG. 5C) is calculated based on (FIG. 5A) to calculate the local fluctuation (motion vector) of the input image (FIG. 5B), and based on the motion vector. Then, a partial image of the input image (FIG. 5B) is moved so as to cancel the fluctuation of the heat flame, and a corrected image is generated by removing the fluctuation of the heat flame existing in the input image (FIG. 5B). Can do.

本実施例は、実施例1で示される画像処理装置において、オプティカルフロー計算部2の計算結果の精度を向上させるものである。本実施例の処理部の構成は、図2と同様であるため構成についての説明は省略する。   The present embodiment improves the accuracy of the calculation result of the optical flow calculation unit 2 in the image processing apparatus shown in the first embodiment. Since the configuration of the processing unit of the present embodiment is the same as that of FIG. 2, the description of the configuration is omitted.

前述の通り、参照画像推定部1は、逐次入力される入力画像を指数移動平均によって平均化し、動きのない参照画像を得る。これによって、入力画像中に存在する、陽炎の揺らぎの他、移動する物体、動きのある背景構成物の動きが除去される。しかし、陽炎のような常時揺らいでいる事象は、入力画像の平均化によって、参照画像上にボケとなって現れる。一方、勾配法を用いたオプティカルフロー計算は、ある注目画素の輝度レベルの空間的な勾配と2フレームの画像の輝度レベルの差分から、動きベクトルを計算するものであるため、入力画像上にノイズが重畳されていたり、入力画像と参照画像とで輝度レベルの差が存在していたりする場合には、計算されるオプティカルフローの精度が低下するという問題がある。   As described above, the reference image estimation unit 1 averages the sequentially input images by the exponential moving average to obtain a reference image without motion. As a result, in addition to the fluctuation of the heat flame existing in the input image, the movement of the moving object and the moving background component is removed. However, a phenomenon that constantly fluctuates like a hot flame appears as a blur on the reference image by averaging the input images. On the other hand, the optical flow calculation using the gradient method calculates a motion vector from the difference between the spatial gradient of the luminance level of a certain pixel of interest and the luminance level of the image of two frames. Are superimposed or there is a difference in luminance level between the input image and the reference image, there is a problem that the accuracy of the calculated optical flow is lowered.

この問題を解決するためには、参照画像上のボケを低減するようなハイパスフィルタを参照画像に適用するか、入力画像に同様のボケを重畳するようなローパスフィルタを入力画像に適用する方法がある。本実施例では、入力画像にノイズが混入している事も考慮し、オプティカルフロー計算部2に入力される入力画像にローパスフィルタ(例えばガウシアンフィルタ)を適用するように構成する。   In order to solve this problem, there is a method in which a high-pass filter that reduces blur on the reference image is applied to the reference image, or a low-pass filter that superimposes the same blur on the input image is applied to the input image. is there. In the present embodiment, considering that noise is mixed in the input image, a low-pass filter (for example, a Gaussian filter) is applied to the input image input to the optical flow calculation unit 2.

次に、上記ローパスフィルタ(ガウシアンフィルタ)の濾過特性の算出方法を、図6を用いて説明する。図6は、横軸に動きベクトル量、縦軸に動きベクトルの発生頻度を表わすヒストグラムを示したものである。動きベクトル量は、オプティカルフロー計算部2において過去における所定数のフレーム(例えば10フレーム)で算出された、各注目点における動きベクトルvの要素vxないしはvyの少なくとも一つであり(要素が実数で表わされる場合には、四捨五入あるいは少数打ち切りなどの方法により整数化する)、これを動き量dとする。動きベクトルの発生頻度は、該要素の動き量dの値をとる動きベクトルの個数である。このヒストグラムは、陽炎による揺れの量の分布を表わしており、揺れが大きくなるにつれ発生頻度が少なくなるため、0を中心とした山形の分布となる。次に、このヒストグラムを用いて、揺れの分布の分散σ(標準偏差σ)を計算する。σは、式(2)で表わされる。 Next, a method for calculating the filtration characteristics of the low-pass filter (Gaussian filter) will be described with reference to FIG. FIG. 6 shows a histogram representing the amount of motion vector on the horizontal axis and the frequency of motion vector generation on the vertical axis. The motion vector amount is at least one of the elements vx or vy of the motion vector v at each point of interest, calculated in a predetermined number of frames in the past (for example, 10 frames) in the optical flow calculation unit 2 (the elements are real numbers). If it is represented, it is converted to an integer by a method such as rounding off or truncating to a small number), and this is set as the motion amount d. The occurrence frequency of the motion vector is the number of motion vectors taking the value of the motion amount d of the element. This histogram represents the distribution of the amount of fluctuation caused by the heat, and the frequency of occurrence decreases as the fluctuation increases, and thus the distribution is mountain-shaped around zero. Next, using this histogram, the variance σ 2 (standard deviation σ) of the shake distribution is calculated. σ 2 is expressed by Expression (2).

σ=Σd×h(d)/N ・・・・・・(2) σ 2 = Σd 2 × h (d) / N (2)

ここで、dは動きの量、h(d)は動き量dの発生頻度、Nは、対象とした要素の総数を表わす。ガウシアンフィルタは、この分散σで表わされるガウス関数を重みとする平滑化フィルタによって実現される。このガウス関数は、式(3)で表わされる。 Here, d represents the amount of movement, h (d) represents the frequency of occurrence of the amount of movement d, and N represents the total number of target elements. The Gaussian filter is realized by a smoothing filter whose weight is a Gaussian function represented by the variance σ 2 . This Gaussian function is expressed by Equation (3).

(x,y)=1/2πσ×exp(−(x+y)/2σ
・・・・・・(3)
h g (x, y) = 1 / 2πσ 2 × exp (− (x 2 + y 2 ) / 2σ 2 )
(3)

すなわち、上述のガウシアンフィルタを用いることで、入力画像と参照画像のボケによる輝度レベルの差を低減し、かつ、入力画像のノイズを低減させてオプティカルフローを計算するため、オプティカルフローの精度が向上する。 That is, by using the Gaussian filter described above, the difference in luminance level due to blurring of the input image and the reference image is reduced, and the optical flow is calculated by reducing the noise of the input image, so the accuracy of the optical flow is improved. To do.

本実施例は、実施例1乃至実施例2で示される画像処理装置において、動き補正部3の補正精度を向上させるものである。本実施例の処理部の構成は、図2と同様であるため構成についての説明は省略する。   The present embodiment improves the correction accuracy of the motion correction unit 3 in the image processing apparatuses shown in the first and second embodiments. Since the configuration of the processing unit of the present embodiment is the same as that of FIG. 2, the description of the configuration is omitted.

前述の通り、オプティカルフロー計算部2では、入力画像と参照画像の局所的な類似性や、注目画素における入力画像の輝度レベルの空間的な勾配と入力画像と参照画像の輝度レベルの差分から、動きベクトルを計算する。しかしながら、参照画像の平均化の効果によって、入力画像に移動する物体が存在した場合でも、参照画像上では当該物体は存在しない。そのため、当該物体が存在する領域では局所的な類似性が低下し、また入力画像と参照画像の輝度レベルの差が大きくなり、当該物体が存在する領域では正確な動きベクトルが計算できないという問題がある。   As described above, the optical flow calculation unit 2 calculates the local similarity between the input image and the reference image, the spatial gradient of the luminance level of the input image at the target pixel, and the difference between the luminance levels of the input image and the reference image. Calculate the motion vector. However, even if an object that moves to the input image exists due to the effect of averaging the reference image, the object does not exist on the reference image. Therefore, the local similarity decreases in the area where the object exists, and the difference between the luminance levels of the input image and the reference image becomes large, and an accurate motion vector cannot be calculated in the area where the object exists. is there.

この問題を解決するために、本実施例では、入力画像と参照画像の局所的な類似性に基づき、動きベクトルの信頼性を評価するようにした。類似性は、例えば、入力画像と参照画像の輝度レベルの差の絶対値の総和(Sum of Absoluted Difference :相違度)や、入力画像と参照画像の正規化相互相関(Normalized Cross-correlation :類似度)によって定義される。この相違度および類似度は、非特許文献1の203ページから204ページに記載されている。   In order to solve this problem, in this embodiment, the reliability of the motion vector is evaluated based on the local similarity between the input image and the reference image. The similarity is, for example, the sum of absolute values of differences in luminance level between the input image and the reference image (Sum of Absoluted Difference), or the normalized cross-correlation between the input image and the reference image. ). The degree of difference and the degree of similarity are described on pages 203 to 204 of Non-Patent Document 1.

次に、信頼性が低い場合(例えば、相違度であれば差の絶対値の総和が所定のしきい値(例えば、画素数で平均化して64)以上になった場合、類似度であれば相関が所定のしきい値(例えば、0.7以下になった場合)には、入力画像上に動く物体が存在しているとして、動きベクトルを0にする(v=(0,0)とする)。動きベクトルを0にするということは、入力画像の部分画像がそのまま補正画像に反映されることを意味しており、すなわち、入力画像中の移動する物体は、そのまま補正画像に出力される。   Next, when the reliability is low (for example, if the degree of difference is the difference, the sum of the absolute values of the differences is equal to or greater than a predetermined threshold (for example, 64 averaged by the number of pixels), When the correlation is a predetermined threshold value (for example, when 0.7 or less), it is assumed that there is a moving object on the input image, and the motion vector is set to 0 (v = (0, 0)) Setting the motion vector to 0 means that the partial image of the input image is directly reflected in the corrected image, that is, the moving object in the input image is output to the corrected image as it is. The

このようにすることで、入力画像中で移動する物体が存在して、動きベクトルが正確に計算できない場合でも、当該物体を正しく補正画像に出力できるようになる。   In this way, even when there is a moving object in the input image and the motion vector cannot be accurately calculated, the object can be correctly output to the corrected image.

以上の実施態様の特徴を纏めると次のようになる。
(1) 本発明の画像処理装置は、対象領域を撮影する撮像装置と、前記撮像装置で撮影した映像を処理する画像処理装置において、前記撮像装置から逐次入力される入力画像に基づき動きのない参照画像を推定する参照画像推定部と、前記入力画像および前記参照画像に基づいて前記入力画像の局所的な揺らぎを算出して陽炎による動きの分布を検出するオプティカルフロー計算部と、前記入力画像の局所的な揺らぎを除去するように前記オプティカルフロー計算部で検出した陽炎による動きの分布により前記入力画像を補正する動き補正部とで構成されることを特徴とする。
(2) また、(1)の前記参照画像推定部は、現在の入力画像と現在の参照画像の重み付け加算によって、前記参照画像を逐次更新するようにしてもよい。
(3) また、(1)(2)の前記オプティカルフロー計算部は、ブロックマッチング法あるいは勾配法の少なくとも一つの方法を用いてオプティカルフローを計算するようにしてもよい。
(4) また、(3)の前記オプティカルフロー計算部は、前記オプティカルフロー計算部が勾配法を用いてオプティカルフローを計算する場合、前記オプティカルフロー計算部は、オプティカルフローを計算する前に入力画像の高周波成分を低減させるフィルタ(例えばガウシアンフィルタ)を実行するようにしてもよい。
(5) また、(4)の前記オプティカルフロー計算部の前記フィルタの濾過特性を、過去における所定数のフレームを基に前記オプティカルフロー計算部によって検出した動き分布に基づいて算出するようにしてもよい。
(6) また、(1)〜(5)の前記オプティカルフロー計算部は、入力画像と参照画像の局所的な類似性に基づき、検出した動き分布の各動きベクトルの信頼度を算出し、該信頼度に基づいて該動き分布を修正するようにしてもよい。
(7) また、(1)〜(6)の画像処理装置は、撮像装置から画像データを入力して処理する監視装置に備えるようにしてもよい。
The characteristics of the above embodiment are summarized as follows.
(1) An image processing apparatus according to the present invention has no movement based on input images sequentially input from the imaging apparatus in an imaging apparatus that captures a target region and an image processing apparatus that processes video captured by the imaging apparatus. A reference image estimation unit for estimating a reference image; an optical flow calculation unit for calculating a local fluctuation of the input image based on the input image and the reference image; And a motion correction unit that corrects the input image based on the distribution of motion caused by the hot flame detected by the optical flow calculation unit so as to remove local fluctuations.
(2) Further, the reference image estimation unit of (1) may sequentially update the reference image by weighted addition of the current input image and the current reference image.
(3) Further, the optical flow calculation unit of (1) and (2) may calculate the optical flow using at least one of a block matching method and a gradient method.
(4) Further, in the optical flow calculation unit of (3), when the optical flow calculation unit calculates an optical flow using a gradient method, the optical flow calculation unit calculates the input image before calculating the optical flow. A filter (for example, a Gaussian filter) that reduces the high-frequency component of may be executed.
(5) Further, the filtering characteristics of the filter of the optical flow calculation unit in (4) may be calculated based on a motion distribution detected by the optical flow calculation unit based on a predetermined number of frames in the past. Good.
(6) Further, the optical flow calculation unit of (1) to (5) calculates the reliability of each motion vector of the detected motion distribution based on the local similarity between the input image and the reference image, The motion distribution may be corrected based on the reliability.
(7) The image processing apparatuses (1) to (6) may be provided in a monitoring apparatus that inputs and processes image data from the imaging apparatus.

本発明は、上記説明した監視装置に限らず、各種撮像装置における陽炎による画像劣化の防止に広く利用できる。   The present invention is not limited to the monitoring device described above, and can be widely used for preventing image deterioration due to the heat flame in various imaging devices.

1・・・参照画像推定部
2・・・オプティカルフロー計算部
3・・・動き補正部
5、6・・・ゲインブロック
7・・・遅延部
8・・・加算器
100・・・監視装置
101・・・撮像装置
102・・・画像処理装置
103・・・画像出力部
S1・・・参照画像推定ステップ
S2・・・オプティカルフロー計算ステップ
S3・・・動き補正ステップ
DESCRIPTION OF SYMBOLS 1 ... Reference image estimation part 2 ... Optical flow calculation part 3 ... Motion correction part 5, 6 ... Gain block 7 ... Delay part 8 ... Adder 100 ... Monitoring apparatus 101 ... Imaging device 102 ... Image processing device 103 ... Image output unit S1 ... Reference image estimation step S2 ... Optical flow calculation step S3 ... Motion correction step

Claims (3)

カメラで撮影した映像を処理する画像処理装置において、
前記撮像装置から逐次入力される入力画像を、時間領域で指数移動平均することによって参照画像を推定する参照画像推定部と、
前記入力画像に、前記参照画像上のボケと同様のボケを与えるローパスフィルタと、
前記ボケを与えられた入力画像および前記参照画像に基づいて、該入力画像の局所的な揺らぎを算出して陽炎による動きベクトルを検出するオプティカルフロー計算部と、
前記入力画像の局所的な揺らぎを除去するように、符号を反転させた前記動きベクトルによって前記入力画像の画素を移動させて、前記入力画像を補正する動き補正部とで構成され
前記ローパスフィルタは、前記動きベクトルの分散に略等しい分散のガウス関数で表されるガウシアンフィルタであることを特徴とする画像処理装置。
In an image processing device that processes video captured by a camera,
A reference image estimation unit that estimates a reference image by exponentially moving an input image sequentially input from the imaging device in a time domain;
A low pass filter that gives the input image the same blur as the blur on the reference image;
An optical flow calculation unit that calculates a local fluctuation of the input image based on the input image given the blur and the reference image, and detects a motion vector due to a hot flame;
A motion correction unit that corrects the input image by moving pixels of the input image by the motion vector with the sign inverted so as to remove local fluctuations of the input image ;
The image processing apparatus , wherein the low-pass filter is a Gaussian filter expressed by a Gaussian function having a variance substantially equal to a variance of the motion vector .
前記オプティカルフロー計算部は、ブロックマッチング法あるいは勾配法の少なくとも一つの方法を用いてオプティカルフローを計算することを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the optical flow calculation unit calculates an optical flow using at least one of a block matching method and a gradient method . コンピュータに、カメラで撮影した映像を処理させる画像処理のプログラムであって、
撮像装置から逐次入力される入力画像を、時間領域で指数移動平均することによって参照画像を推定する参照画像推定工程と、
前記入力画像に、前記参照画像上のボケと同様のボケを与えるローパスフィルタを施すフィルタリング工程と、
前記ボケを与えられた入力画像および前記参照画像に基づいて、該入力画像の局所的な揺らぎを算出して陽炎による動きベクトルを検出するオプティカルフロー計算工程と、
前記入力画像の局所的な揺らぎを除去するように、符号を反転させた前記動きベクトルによって前記入力画像の画素を移動させて、前記入力画像を補正する動き補正工程と、
を前記コンピュータに実行させ、
前記ローパスフィルタは、前記動きベクトルの分散に略等しい分散のガウス関数で表されるガウシアンフィルタであることを特徴とするプログラム。
An image processing program that causes a computer to process video captured by a camera ,
A reference image estimation step of estimating a reference image by exponentially moving an input image sequentially input from an imaging device in a time domain;
A filtering step of applying a low-pass filter that gives the input image the same blur as the blur on the reference image;
An optical flow calculation step of calculating a local fluctuation of the input image based on the input image given the blur and the reference image, and detecting a motion vector due to a hot flame,
A motion correction step of correcting the input image by moving pixels of the input image according to the motion vector whose sign is inverted so as to remove local fluctuations of the input image;
To the computer,
The low-pass filter is a Gaussian filter expressed by a Gaussian function having a variance substantially equal to the variance of the motion vector.
JP2010253727A 2010-11-12 2010-11-12 Image processing device Active JP5885384B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010253727A JP5885384B2 (en) 2010-11-12 2010-11-12 Image processing device
PCT/JP2011/068762 WO2012063533A1 (en) 2010-11-12 2011-08-19 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010253727A JP5885384B2 (en) 2010-11-12 2010-11-12 Image processing device

Publications (3)

Publication Number Publication Date
JP2012104018A JP2012104018A (en) 2012-05-31
JP2012104018A5 JP2012104018A5 (en) 2013-12-19
JP5885384B2 true JP5885384B2 (en) 2016-03-15

Family

ID=46050691

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010253727A Active JP5885384B2 (en) 2010-11-12 2010-11-12 Image processing device

Country Status (2)

Country Link
JP (1) JP5885384B2 (en)
WO (1) WO2012063533A1 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5680524B2 (en) 2011-12-09 2015-03-04 株式会社日立国際電気 Image processing device
JP5706594B2 (en) * 2012-10-29 2015-04-22 株式会社日立国際電気 Image processing device
US9451165B2 (en) * 2013-02-14 2016-09-20 Hitachi Kokusai Electric Inc. Image processing apparatus
WO2014132465A1 (en) * 2013-02-28 2014-09-04 株式会社ニコン Electronic apparatus
JP6104680B2 (en) * 2013-03-21 2017-03-29 株式会社日立国際電気 Image processing apparatus, imaging apparatus, monitoring system, encoding apparatus, and image processing method
JP6435936B2 (en) * 2015-03-16 2018-12-12 株式会社リコー Program, image processing apparatus, and image processing system
DE102016114998A1 (en) * 2016-08-12 2018-02-15 Airbus Ds Optronics Gmbh Method for processing individual images of an input video image
WO2018123202A1 (en) * 2016-12-28 2018-07-05 シャープ株式会社 Moving-image processing device, display device, moving-image processing method, and control program

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0395686A (en) * 1989-09-08 1991-04-22 Matsushita Giken Kk Image processing method
JP2898798B2 (en) * 1991-07-17 1999-06-02 日本放送協会 Motion vector detection device by gradient method
JPH06180749A (en) * 1992-12-14 1994-06-28 Toyota Motor Corp Roadside object monitoring device
JP3584285B2 (en) * 2001-04-27 2004-11-04 独立行政法人情報通信研究機構 Distortion image correction method and apparatus
JP2003187221A (en) * 2001-12-14 2003-07-04 Sigma Solutions:Kk Algorithm of compensating periodic brightness fluctuation of image
JP4167469B2 (en) * 2002-10-24 2008-10-15 シャープ株式会社 Motion vector detection device
JP2005208847A (en) * 2004-01-21 2005-08-04 Fuji Xerox Co Ltd Image defect detecting apparatus and image forming apparatus
US7526102B2 (en) * 2005-09-13 2009-04-28 Verificon Corporation System and method for object tracking and activity analysis
JP2008202949A (en) * 2007-02-16 2008-09-04 Omron Corp Method and device for inspecting defect

Also Published As

Publication number Publication date
JP2012104018A (en) 2012-05-31
WO2012063533A1 (en) 2012-05-18

Similar Documents

Publication Publication Date Title
JP5680524B2 (en) Image processing device
JP5885384B2 (en) Image processing device
US10404917B2 (en) One-pass video stabilization
EP3800878B1 (en) Cascaded camera motion estimation, rolling shutter detection, and camera shake detection for video stabilization
KR101071352B1 (en) Apparatus and method for tracking object based on PTZ camera using coordinate map
Hee Park et al. Gyro-based multi-image deconvolution for removing handshake blur
US20030090593A1 (en) Video stabilizer
US9406108B2 (en) Deblurring of an image from a sequence of images
JP4454657B2 (en) Blur correction apparatus and method, and imaging apparatus
TW201319954A (en) Image stabilization method and image stabilization device
KR20100107594A (en) Apparatus and method for image stabilization using adaptive kalman filter
CN103929568A (en) Method for stabilizing a first sequence of digital image frames and image stabilization unit
CN112734659A (en) Image correction method and device and electronic equipment
JP4210954B2 (en) Image processing method, image processing method program, recording medium storing image processing method program, and image processing apparatus
CN110401784B (en) Motion smoothing method and system for adaptively adjusting filtering intensity and video equipment
JP2004088234A (en) Noise reduction device
JP7263149B2 (en) Image processing device, image processing method, and program
JP5059855B2 (en) Global motion estimation method
JP2021111929A (en) Imaging device, control method and program of imaging device
JP2012085205A (en) Image processing apparatus, imaging device, image processing method, and image processing program
KR101772928B1 (en) Transition detector system and method using luminance smoothin and optical flow analysys
CN112465728B (en) Video image processing method, system, electronic device and storage medium
JP2013246601A (en) Image process device
CN114827386A (en) Video image processing method and device
Zhang et al. Qualitative assessment of video stabilization and mosaicking systems

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131030

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150806

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160209

R150 Certificate of patent or registration of utility model

Ref document number: 5885384

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350