JP4499499B2 - Image processing apparatus, image processing method, and image processing program - Google Patents
Image processing apparatus, image processing method, and image processing program Download PDFInfo
- Publication number
- JP4499499B2 JP4499499B2 JP2004213435A JP2004213435A JP4499499B2 JP 4499499 B2 JP4499499 B2 JP 4499499B2 JP 2004213435 A JP2004213435 A JP 2004213435A JP 2004213435 A JP2004213435 A JP 2004213435A JP 4499499 B2 JP4499499 B2 JP 4499499B2
- Authority
- JP
- Japan
- Prior art keywords
- subframe
- frame
- image
- sub
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression Of Band Width Or Redundancy In Fax (AREA)
- Image Processing (AREA)
- Color Television Systems (AREA)
Description
本発明は、静止画像及び動画像の圧縮符号化を行う画像処理装置、画像処理方法及び画像処理プログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and an image processing program for performing compression encoding of still images and moving images.
静止画像圧縮方式JPEGや動画像圧縮方式MPEGなど、現在主流になっている画像圧縮方式においては、DCT変換を利用した圧縮が用いられている。これは、空間周波数の高い成分を削除することでデータ量を削減する手法である。この手法においては、画面内の空間周波数が低い画像ほど、効果的に圧縮を行うことができる。 In image compression methods that are currently mainstream, such as still image compression method JPEG and moving image compression method MPEG, compression using DCT conversion is used. This is a technique for reducing the amount of data by deleting a component having a high spatial frequency. In this method, the lower the spatial frequency in the screen, the more effectively the compression can be performed.
また、これらの画像圧縮を行う前に、画素間引き等により予め画素数を削減しておくことで、更にデータ量を削減することができる。例えば、通常圧縮を行う前に画素間引きを適用したものとしては、特開平5−260436号公報に開示されたものがある。ここでは、図25に示すように、原画像から画像を市松模様状に間引くことによって、視覚上解像度の劣化を少なく画像データ量を1/2に削減し、空いた隙間を横詰めして、他の一般的な手法により画像圧縮することによって、更に画像データ量を削減するものである。
しかしながら、市松模様状の画素間引きによって隙間の空いた画像を、横詰めによって隙間を詰める場合、画像は歪んでしまう。例えば、図20に示すような原画像を、図21に示すように市松模様状に間引き、横詰めにした場合、図22に示すように、画像内のエッジ部分にギザギザができてしまう。この画像をDCT変換を用いたJPEGやMPEG等で圧縮しようとした場合、原画像よりも空間周波数が高くなっているため、圧縮効率が悪化してしまう。横詰めの代わりに縦詰めにした場合でも、図23に示すように同様の問題が起こる。 However, when an image with a gap formed by checkered pixel thinning is filled with a gap formed by horizontal filling, the image is distorted. For example, when an original image as shown in FIG. 20 is thinned into a checkered pattern as shown in FIG. 21 and horizontally aligned, as shown in FIG. 22, a jagged edge is formed at the edge portion in the image. When trying to compress this image by JPEG or MPEG using DCT conversion, the spatial frequency is higher than that of the original image, so the compression efficiency deteriorates. Even when vertical packing is used instead of horizontal packing, the same problem occurs as shown in FIG.
このような問題が生じるのは、市松模様状の画素間引きではラインによって画素を間引いた位置が異なることが原因であり、ライン毎の画素間引き位置を考慮する必要があるが、先行技術文献にはこの観点について記載されているものがない。 Such a problem occurs because the pixel thinning position differs depending on the line in the checkered pixel thinning, and it is necessary to consider the pixel thinning position for each line. Nothing is described about this point of view.
本発明は、以上の課題を解決するためになされたものであり、ライン毎に画素を間引く位置が異なる場合であっても、効率的に画像圧縮を行うことが可能な画像処理装置、画像処理方法及び画像処理プログラムを提供する。 The present invention has been made to solve the above-described problems, and an image processing apparatus and an image processing capable of efficiently performing image compression even when the positions where pixels are thinned out differ from line to line. A method and an image processing program are provided.
以下に、(請求項1〜4)の発明による画像処理装置、画像処理方法または画像処理プログラムについて、その構成、対応する実施例、作用及び効果を述べる。
Hereinafter, the configuration, corresponding examples, operations, and effects of the image processing apparatus, the image processing method, or the image processing program according to the invention of
(請求項1)
請求項1の発明による画像処理装置は、撮像部から入力される動画像の各入力画像フレームを所定のライン単位で分割して複数のサブフレームを生成するサブフレーム生成部と、サブフレームが、同一入力画像フレームに係る複数の前記サブフレームの内の第1のサブフレームかそれ以外の第2のサブフレームかを判定するサブフレーム判定部と、前記第1のサブフレームと、この第1のサブフレームに先行する入力画像フレームとの相関から動きベクトルを演算する動きベクトル演算部と、前記第1のサブフレームと前記第2のサブフレームとの画素位置の差をずれベクトルとして出力するずれベクトル出力部と、前記サブフレーム判定部による判定結果に基づき、処理対象サブフレームが第1のサブフレームであるときは前記動きベクトルを適用し、第2のサブフレームであるときは第1のサブフレームを参照画像として前記ずれベクトルを適用して前記サブフレーム毎に圧縮を実行する動画像圧縮部と、を有する。
(Claim 1)
An image processing apparatus according to a first aspect of the invention includes a subframe generation unit that generates a plurality of subframes by dividing each input image frame of a moving image input from an imaging unit in units of predetermined lines, and the subframe includes: A subframe determining unit that determines whether the subframe is a first subframe or a second subframe of the plurality of subframes related to the same input image frame; the first subframe; and the first subframe, A motion vector computing unit that computes a motion vector from a correlation with an input image frame preceding the subframe, and a shift vector that outputs a difference in pixel position between the first subframe and the second subframe as a shift vector an output unit, based on the sub-frame determination section according to the determination result, when the processing target sub-frame is the first subframe the motion vector Apply the, when a second sub-frame has a moving image compression section for performing compression on the displacement vector for each said sub-frame by applying the reference picture of the first sub-frame.
(対応する発明の実施例)
この発明に関する実施例は、実施例2が対応する。ここで、撮像部は図14のブロック図の撮像部41に、サブフレーム生成部は図14のブロック図のサブフレーム生成部43に、サブフレーム判定部は図16のブロック図のサブフレーム判定部62に、動きベクトル演算部は図16のブロック図の動き探索部63に、ずれベクトル出力部は図16のブロック図の固定動きベクトル計算部64に、夫々対応する。
(Example of corresponding invention)
An embodiment relating to the present invention corresponds to the
(作用効果)
第1のサブフレーム以外では、ずれベクトル出力部によって、動きベクトルとして固定値を用いるため、ブロックマッチングによる動き探索の複雑な処理を行う必要がなくなるので、複数のサブフレームに分割した動画像を圧縮するための処理を簡易化することができる。
(Effect)
Except for the first sub-frame, since a fixed value is used as a motion vector by the shift vector output unit, it is not necessary to perform complicated motion search processing by block matching, so a moving image divided into a plurality of sub-frames is compressed. The processing for doing so can be simplified.
(請求項2)
請求項1における前記サブフレーム生成部は、前記第1のサブフレームに係るサブフレームを、各入力画像フレームの、奇数番目ライン群又は偶数番目ライン群の何れか一方のみから生成し、前記第2のサブフレームに係るサブフレームを、他方のライン群から生成することを特徴とする。
(Claim 2)
The subframe generation unit according to
(対応する発明の実施例)
この発明に関する実施例は、実施例2が対応する。第1のサブフレームに係るサブフレームを、各入力画像フレームの、奇数番目ライン群又は偶数番目ライン群の何れか一方のみから生成し、第2のサブフレームに係るサブフレームを、他方のライン群から生成することは、図3のフローチャートのS4、S5、S6、及びS7に、ずれベクトルとして、第1のサブフレームと第2のサブフレームとの画素位置の差を出力することは、図17のフローチャートのS24に、夫々対応する。
(Example of corresponding invention)
An embodiment relating to the present invention corresponds to the
(作用効果)
ずれベクトル出力部によって、第2のサブフレームでは、動きベクトルとして固定値を用いるため、ブロックマッチングによる動き探索の複雑な処理を行う必要がなくなるので、2つのサブフレームに分割した動画像を圧縮するための処理を簡易化することができる。
(Effect)
Since the shift vector output unit uses a fixed value as the motion vector in the second subframe, it is not necessary to perform complicated motion search processing by block matching, so the moving image divided into two subframes is compressed. Can be simplified.
(請求項3)
請求項3の発明による画像処理方法は、撮像部から入力される動画像の各入力画像フレームを所定のライン単位で分割して複数のサブフレームを生成し、サブフレームが、同一入力画像フレームに係る複数の前記サブフレームの内の第1のサブフレームかそれ以外の第2のサブフレームかを判定し、前記第1のサブフレームと、この第1のサブフレームに先行する入力画像フレームとの相関から動きベクトルを演算し、前記判定結果に基づき、処理対象サブフレームが第1のサブフレームであるときは前記動きベクトルを適用し、第2のサブフレームであるときは第1のサブフレームを参照画像として前記第1のサブフレームと前記第2のサブフレームとの画素位置の差であるずれベクトルを適用して前記サブフレーム毎に圧縮を実行することを特徴とする。
(Claim 3)
An image processing method according to a third aspect of the present invention generates a plurality of subframes by dividing each input image frame of a moving image input from an imaging unit in a predetermined line unit, and the subframes are divided into the same input image frame. A first subframe of the plurality of subframes or a second subframe other than the first subframe, and the first subframe and an input image frame preceding the first subframe A motion vector is calculated from the correlation. Based on the determination result, the motion vector is applied when the processing target subframe is the first subframe, and the first subframe is applied when the processing subframe is the second subframe. the displacement vector is the difference between the pixel positions of the first subframe and the second subframe by applying a reference picture child perform compression for each of the sub-frame The features.
(対応する発明の実施例)
この発明に関する実施例は、実施例2が対応する。実施例との対応は、請求項1と同じである。
(Example of corresponding invention)
An embodiment relating to the present invention corresponds to the
(作用効果)
第1のサブフレーム以外では、動きベクトルとして固定値を用いるため、ブロックマッチングによる動き探索の複雑な処理を行う必要がなくなるので、複数のサブフレームに分割した動画像を圧縮するための処理を簡易化することができる。
(Effect)
Since a fixed value is used as a motion vector except for the first subframe, it is not necessary to perform complicated motion search processing by block matching, and thus the processing for compressing a moving image divided into a plurality of subframes is simplified. Can be
(請求項4)
請求項4の発明による画像処理プログラムは、コンピュータに、撮像部から入力される動画像の各入力画像フレームを所定のライン単位で分割して複数のサブフレームを生成する処理、サブフレームが、同一入力画像フレームに係る複数の前記サブフレームの内の第1のサブフレームかそれ以外の第2のサブフレームかを判定する処理、前記第1のサブフレームと、この第1のサブフレームに先行する入力画像フレームとの相関から動きベクトルを演算する処理、前記判定結果に基づき、処理対象サブフレームが第1のサブフレームであるときは前記動きベクトルを適用し、第2のサブフレームであるときは第1のサブフレームを参照画像として前記第1のサブフレームと前記第2のサブフレームとの画素位置の差であるずれベクトルを適用して前記サブフレーム毎に圧縮を実行する処理、を実行させることを特徴とする。
(Claim 4)
According to a fourth aspect of the present invention, there is provided an image processing program that divides each input image frame of a moving image input from an image pickup unit into a predetermined line unit to generate a plurality of subframes. A process of determining whether the first subframe of the plurality of subframes related to the input image frame is a second subframe other than the first subframe, the first subframe, and the first subframe preceding A process of calculating a motion vector from a correlation with an input image frame. Based on the determination result, when the processing target subframe is the first subframe, the motion vector is applied, and when the processing target subframe is the second subframe, applying displacement vector which is the difference between the pixel position and wherein the first subframe a second subframe of the first subframe as a reference picture Characterized in that to execute the process, to perform compression for each of the sub-frame Te.
(対応する発明の実施例)
この発明に関する実施例は、実施例2が対応する。実施例との対応は、請求項1と同じである。
(Example of corresponding invention)
An embodiment relating to the present invention corresponds to the
(作用効果)
第1のサブフレーム以外では、動きベクトルとして固定値を用いるため、ブロックマッチングによる動き探索の複雑な処理を行う必要がなくなるので、複数サブフレームに分割した動画像を圧縮するための処理を簡易化することができる。
(Effect)
Since a fixed value is used as a motion vector except for the first subframe, it is not necessary to perform complicated motion search processing by block matching, so that the processing for compressing a moving image divided into a plurality of subframes is simplified. can do.
本発明の画像処理装置、画像処理方法及び画像処理プログラムによれば、市松模様状の画素間引きのように、ライン毎に画素を間引く位置が異なる場合であっても、効率的に画像圧縮を行うことが可能となる。 According to the image processing apparatus, the image processing method, and the image processing program of the present invention, even when the positions where pixels are thinned out are different for each line, such as checkered pixel thinning, image compression is performed efficiently. It becomes possible.
発明の実施例について図面を参照して説明する。 Embodiments of the invention will be described with reference to the drawings.
図1は、本発明の実施例1に係る画像処理装置の構成を示す図である。符号1は静止画・動画ともに撮像可能な撮像圧縮ブロックを構成するカメラ装置、2はデータ記録用のストレージ部、3は画像伸長・表示ブロックを構成するディスプレイ装置である。
図2は、本発明の実施例1の画像処理装置における撮像圧縮ブロックの構成を示すブロック図である。撮像圧縮ブロックは、撮像から圧縮データを出力するまでのブロックを示したものである。
FIG. 1 is a diagram illustrating a configuration of an image processing apparatus according to the first embodiment of the present invention.
FIG. 2 is a block diagram illustrating the configuration of the imaging compression block in the image processing apparatus according to the first embodiment of the present invention. The imaging compression block indicates a block from imaging to outputting compressed data.
本実施例では、撮像圧縮ブロックは、CCDなどの撮像素子を備えた撮像部11と、撮像部11から入力される、複数のラインからなる入力画像フレームを構成する画素を、相異なる複数の間引きパターンで間引く画素数削減部12と、前記間引きパターン毎に、間引かれた画素でサブフレームを生成するサブフレーム生成部13と、前記サブフレーム生成部3で生成したサブフレームを記憶するメモリ14と、前記サブフレーム毎に圧縮を実行する画像圧縮部15と、前記画像圧縮部15で圧縮されたデータを、所定のフォーマットに変換して出力する圧縮データ出力部16と備えている。
In the present embodiment, the imaging compression block includes a plurality of different thinning-out pixels constituting an imaging unit 11 having an imaging device such as a CCD and an input image frame composed of a plurality of lines input from the imaging unit 11. A pixel
撮像部11としては、例えば、光電変換素子の各画素それぞれにカラーフィルタを貼り付け、カラー画像信号を得る単板式のカメラ装置を用いる。前記カラーフィルタとしては、例えば、R(赤),G(緑),B(青)をモザイク状に配列したカラーフィルタ、例えばベイヤー配列のものが用いられる。 As the imaging unit 11, for example, a single-plate camera device that obtains a color image signal by attaching a color filter to each pixel of the photoelectric conversion element is used. As the color filter, for example, a color filter in which R (red), G (green), and B (blue) are arranged in a mosaic pattern, for example, a Bayer array is used.
図3は、撮像圧縮ブロックにおける、画像データの入力から圧縮までのフローチャートである。
先ず、撮像部11によって取り込まれた画像は、デジタル信号に変換され、RGBベイヤー形式の画像データが画素数削減部2に出力される(ステップS1)。
FIG. 3 is a flowchart from image data input to compression in the imaging compression block.
First, an image captured by the imaging unit 11 is converted into a digital signal, and RGB Bayer format image data is output to the pixel number reduction unit 2 (step S1).
画素数削減部12は、画像データに対し、市松模様状に画素を間引くことにより、画素数削減を行い、所定の画像形式変換によりYUV420のカラーデータ形式として出力する(ステップS2)。
The pixel
なお、本実施例では、画素数削減は、画素を間引くことによって行っているが、市松模様状に画素数を削減できるのであれば、別の方法を採用しても良い。例えば、撮像部から出力されるRGBベイヤーデータに対して、RGBのGのデータが存在する画素位置のみにおいて、隣接するRとBのデータを使ってベイヤー変換した後、YUV形式に変換して出力することにより、市松模様状に画素数を削減した状態でデータを出力することも可能である。ここで、ベイヤー変換とは、上記のような単板式のカメラ装置において、例えば、R,G,Bからなるカラーフィルタを用いる場合には、光電変換素子に対応した各画素毎にR,G,Bのいずれか一つの色情報のみが得られることになるため、画像信号の他の色情報については補間計算を行い、各画素毎にR,G,Bのデータがそれぞれに得られるようにする手法を言う。例えば、特開平10−178650号公報には、R,G,Bのモザイクフィルタを用いる構成において、5×5画素領域内で、R,G,Bの各画素データ別に平均値を計算して、補間値を求める手法の開示がなされている。 In this embodiment, the number of pixels is reduced by thinning out pixels. However, another method may be adopted as long as the number of pixels can be reduced in a checkered pattern. For example, with respect to RGB Bayer data output from the imaging unit, Bayer conversion is performed using adjacent R and B data only at pixel positions where RGB G data exists, and then converted to YUV format and output. By doing so, it is also possible to output data with the number of pixels reduced in a checkered pattern. Here, Bayer conversion is, for example, when a color filter composed of R, G, and B is used in the single-plate camera device as described above, and R, G, Since only one color information of B is obtained, interpolation calculation is performed on other color information of the image signal so that R, G, and B data can be obtained for each pixel. Say the technique. For example, in Japanese Patent Laid-Open No. 10-178650, in a configuration using an R, G, B mosaic filter, an average value is calculated for each R, G, B pixel data within a 5 × 5 pixel region, A technique for obtaining an interpolation value has been disclosed.
サブフレーム生成部13は、先ず、画素数削減部12から入力される市松模様状のYUV画像データを、ライン単位に分割する(ステップS3)。
そして、ステップS4で、分割されたラインが偶数ラインか否かが判定される。分割されたラインが偶数ラインであれば(ステップS4でY)、メモリ14内の第1のサブフレーム領域に(ステップS5)、奇数ラインであれば(ステップS4でN)、メモリ14内の第2のサブフレーム領域(ステップS6)に、夫々振り分けて格納する。
First, the
In step S4, it is determined whether the divided lines are even lines. If the divided line is an even line (Y in step S4), it is in the first subframe area in the memory 14 (step S5), and if it is an odd line (N in step S4), the first line in the
以上の振り分けは、ステップS7の終了判定において、画像データ1フレーム分のラインが終了する(ステップS7でY)まで実行され、これにより、第1のサブフレーム、第2のサブフレームが構築される。 The above distribution is executed until the end of the line for one frame of image data in the end determination in step S7 (Y in step S7), whereby the first subframe and the second subframe are constructed. .
画像圧縮部15は、サブフレーム生成部13から入力されるサブフレームに対して、第1のフレーム、第2のフレームの順序で画像圧縮を行う(ステップS8)。なお、本実施例1では、圧縮方式はJPEGを想定しているが、MPEGのIピクチャ等、画面内相関による圧縮であれば、他方式でも適用可能である。また、本実施例は、静止画、動画のどちらに対しても適用可能である。
圧縮データ出力部16は、画像圧縮部15で圧縮されたデータを、所定のフォーマットに変換して出力する(ステップS9)。
The
The compressed
次に、図4を用いて、輝度信号におけるサブフレーム分割方法について説明する。
なお、以下の説明において、各ラインの並びは、最上部のラインから、0,1,2,…と付番し、区別するものとする。例えば、図4では、最上部のラインは0番目とする。
Next, a subframe division method for luminance signals will be described with reference to FIG.
In the following description, the lines are numbered 0, 1, 2,... Starting from the top line. For example, in FIG. 4, the uppermost line is 0th.
まず、図4(a)に示すように、画素を市松模様状に間引く。この時、奇数番目ラインと偶数番目ラインで画素が残っている位置が異なっているが、図4(b)のように偶数番目ラインのみを集めて第1のサブフレームを構成し、図4(c)のように奇数番目ラインのみを集めて第2のサブフレームを構成する。これにより、垂直方法に画素位置の揃った2つの輝度成分サブフレームを生成することができる。 First, as shown in FIG. 4A, pixels are thinned out in a checkered pattern. At this time, the positions where pixels remain in the odd-numbered lines and the even-numbered lines are different, but only the even-numbered lines are collected as shown in FIG. 4B to form the first subframe, and FIG. As shown in c), only the odd-numbered lines are collected to form the second subframe. Thereby, it is possible to generate two luminance component subframes whose pixel positions are aligned in the vertical method.
なお、本実施例では、市松模様上に画素数を削減し、2つのサブフレームに分割しているが、画素数削減方法として別の間引きパターンを適用し、その間引きパターンの種類数に応じた数のサブフレーム分割を行うことも可能である。例えば、図5(a)のような間引きパターンを使用し、図5(b)、(c)、(d)、(e)のように4つのサブフレームに分割することも可能である。 In the present embodiment, the number of pixels is reduced on the checkerboard pattern and divided into two subframes. However, another thinning pattern is applied as a method for reducing the number of pixels, and the number of types of thinning patterns is determined. It is also possible to perform a number of subframe divisions. For example, it is possible to use a thinning pattern as shown in FIG. 5A and divide into four subframes as shown in FIGS. 5B, 5C, 5D, and 5E.
次に、図6を用いて、色差信号におけるサブフレーム分割方法について説明する。
図6は色差成分のサブフレーム生成方法の一例を示している。なお、図6においてはU成分の例を示しているが、V成分についても同様に考えることができる。
Next, a subframe division method for color difference signals will be described with reference to FIG.
FIG. 6 shows an example of a sub-frame generation method for the color difference component. In addition, although the example of U component is shown in FIG. 6, it can consider similarly about V component.
まず、画素を市松模様状に間引くが、本実施例ではYUV420カラーデータ形式であるため、色差成分は輝度成分の1/4のデータ量があれば良い。 First, the pixels are thinned out in a checkered pattern. In this embodiment, since the YUV420 color data format is used, it is sufficient that the color difference component has a data amount that is 1/4 of the luminance component.
そこで図6(a)のように、(4m,4n)と(4m+1,4n+1)の位置の画素を残し、それ以外の画素を間引く。ただし、m,nは0以上の整数とし、(x,y)の標記は、左上の画素を原点として、水平右方向の位置をx、垂直下方向の位置をyとした時の、画素位置を表す座標であるものとする。 Therefore, as shown in FIG. 6A, the pixels at the positions (4m, 4n) and (4m + 1, 4n + 1) are left, and the other pixels are thinned out. However, m and n are integers of 0 or more, and the notation of (x, y) is the pixel position when the upper left pixel is the origin, the horizontal right direction position is x, and the vertical lower direction position is y. It is assumed that the coordinates represent.
図6(b)のように4n番目ラインのみを集めて第1のサブフレームを構成し、図6(c)のように4n+1番目ラインのみを集めて第2のサブフレームを構成する。これににより、画素位置の揃った2つの色差成分サブフレームを生成することができる。 As shown in FIG. 6B, only the 4nth line is collected to form the first subframe, and as shown in FIG. 6C, only the 4n + 1th line is collected to form the second subframe. Thereby, it is possible to generate two color difference component subframes having the same pixel position.
YUV420のカラーデータ形式における色差成分のサブフレーム分割方法については、上記以外に、図7に示した方法も可能である。図7は色差成分のサブフレーム生成方法のもう1つの例を示している。なお、図7においてもU成分の例を示しているが、V成分についても同様に考えることができる。前述したように、まず、画素を市松模様状に間引くが、本例においてもYUV420カラーデータ形式であるため、色差成分は輝度成分の1/4のデータ量があれば良い。 In addition to the above, the method shown in FIG. 7 may be used as the sub-frame division method for the color difference component in the YUV420 color data format. FIG. 7 shows another example of a sub-frame generation method for color difference components. In addition, although the example of U component is shown also in FIG. 7, it can consider similarly about V component. As described above, the pixels are first thinned out in a checkered pattern. However, since the YUV420 color data format is also used in this example, the color difference component only needs to have a data amount that is 1/4 of the luminance component.
即ち、図7(a)のように、(4m,4n)と(4m+2,4n+2)の位置の画素を残し、それ以外の画素を間引く。
そして、図7(b)のように4n番目ラインのみを集めて第1のサブフレームを構成し、図7(c)のように4n+2番目ラインのみを集めて第2のサブフレームを構成する。これにより、画素位置の揃った2つの色差成分サブフレームを生成することができる。
That is, as shown in FIG. 7A, the pixels at the positions (4m, 4n) and (4m + 2, 4n + 2) are left, and the other pixels are thinned out.
Then, only the 4nth line is collected as shown in FIG. 7B to form the first subframe, and only the 4n + 2nd line is collected as shown in FIG. 7C to form the second subframe. Thereby, it is possible to generate two color difference component subframes having the same pixel position.
ここで、図4の輝度成分のサブフレーム生成方法に対して、図6の色差成分のサブフレーム生成方法と図7の色差成分のサブフレーム生成方法とを比較してみる。 Compared with the luminance component sub-frame generation method of FIG. 4, the chrominance component sub-frame generation method of FIG. 6 and the chrominance component sub-frame generation method of FIG. 7 will be compared.
図4に示す輝度成分では、偶数番目ライン,奇数番目ラインでそれぞれ第1のサブフレーム,第2のサブフレームが形成されている。図6の色差成分の採り方であると、第1,第2のサブフレームに分けたとき、偶数番目ライン,奇数番号目ラインでそれぞれ第1のサブフレーム,第2のサブフレームが形成されるので、配列的に輝度成分の第1,第2のサブフレームと対応する。一方、図7の色差成分の採り方であると、第1,第2のサブフレームに分けたとき、どちらも偶数番目ラインだけで第1,第2のサブフレームが形成されるので、配列的に輝度成分の第1,第2のサブフレームと対応しないため、画像伸長・表示ブロック側で復元したとき(サブフレーム合成時)に、輝度成分と色差成分とで位置ずれが生じ、結果として色ずれが生じる。これに対して、図6の色差成分の採り方であると、画像伸長・表示ブロック側で復元したとき(サブフレーム合成時)に、輝度成分と色差成分とで色ずれが生じない。 In the luminance component shown in FIG. 4, a first subframe and a second subframe are formed on the even-numbered line and the odd-numbered line, respectively. In the method of taking the color difference component of FIG. 6, when divided into the first and second subframes, the first subframe and the second subframe are formed by the even-numbered line and the odd-numbered line, respectively. Therefore, it corresponds to the first and second subframes of the luminance component in an array. On the other hand, in the method of taking the color difference component of FIG. 7, when divided into the first and second subframes, the first and second subframes are formed only by the even-numbered lines. Does not correspond to the first and second sub-frames of the luminance component, and therefore when the image is decompressed and restored on the display block side (during sub-frame synthesis), a positional shift occurs between the luminance component and the color difference component, resulting in color Deviation occurs. On the other hand, when the color difference component shown in FIG. 6 is adopted, there is no color misalignment between the luminance component and the color difference component when the image is decompressed and restored on the display block side (subframe synthesis).
次に、撮像圧縮ブロックで圧縮された圧縮画像データを伸長して画像を表示する画像伸長・表示ブロックについて説明する。
図8は画像伸長・表示ブロックのブロック構成図を示している。画像伸長・表示ブロックには、図2に示した撮像圧縮ブロックで例えばJPEG圧縮された画像サブフレームのデータが一旦ストレージ部に記憶された後、その記憶されたJPEG圧縮データが入力される。
Next, an image decompression / display block that decompresses compressed image data compressed by the imaging compression block and displays an image will be described.
FIG. 8 is a block diagram of the image decompression / display block. The image decompression / display block temporarily stores, for example, JPEG compressed image subframe data in the imaging compression block shown in FIG. 2 in the storage unit, and then stores the stored JPEG compressed data.
画像伸長・表示ブロックは、JPEG圧縮された複数のサブフレームデータが入力される圧縮データ入力部21と、JPEG圧縮された複数のサブフレームデータを伸長する画像伸長部22と、伸長された複数のサブフレームデータを合成するサブフレーム合成部23と、前記サブフレーム合成部23で合成したサブフレームを記憶するメモリ24と、合成した前記サブフレームデータにおける間引き画素部分を補間する画素補間部25と、前記画素補間部25で補間されたデータを、表示データに変換してディスプレイ上に表示する画像表示部26とを備えている。
The image decompression / display block includes a compressed
図9は伸長・表示のフローチャートを示している。
まず、圧縮データ入力部21から、JPEG圧縮された画像サブフレームのデータが入力され(ステップS11)、画像伸長部22にて、YUV420のカラーデータ形式に伸長される(ステップS12)。
FIG. 9 shows a flowchart of expansion / display.
First, JPEG-compressed image subframe data is input from the compressed data input unit 21 (step S11), and is decompressed by the
次に、サブフレーム合成部23にて、2つのサブフレームを合成して、市松模様状に画素が欠落した状態の合成フレームを生成し(ステップS13)、画素補間部25にて、画素が欠落した部分の補間を行い(ステップS14)、画像表示部26にて、所定のフォーマットに変換して画像表示を行う(ステップS15)。
Next, the
次に、図10を用いて、サブフレーム合成部23及び画素補間部25での、輝度信号におけるサブフレーム合成及び画素補間について説明する。
図10は輝度成分のサブフレーム合成後の画素補間方法を示している。
Next, with reference to FIG. 10, subframe synthesis and pixel interpolation in the luminance signal in the
FIG. 10 shows a pixel interpolation method after the luminance component sub-frame synthesis.
第1のサブフレームの各ラインを合成フレームの偶数ラインとして、第2のサブフレームの各ラインを合成フレームの奇数ラインとして、合成フレームを構成する。 Each line of the first subframe is set as an even line of the combined frame, and each line of the second subframe is set as an odd line of the combined frame, thereby forming a combined frame.
そして、画素間引きによって画素データが欠落した(2m,2n+1)と(2m+1,2n)の部分の画素データについては、下式のように、周囲の4画素を用いて補間する。 Then, the pixel data of (2m, 2n + 1) and (2m + 1, 2n) where the pixel data is lost due to pixel thinning is interpolated using the surrounding four pixels as shown in the following equation.
Y(2m,2n+1)={Y(2m,2n)+Y(2m−1,2n+1)+Y(2m+1,2n+1)+Y (2m,2n+2)}÷4
Y(2m+1,2n)={Y(2m+1,2n−1)+Y(2m,2n)+Y(2m+2,2n)+Y(2m+1,2n+1)}÷4
例えば、間引き画素Y21については、周囲の4画素Y11,Y31,Y20,Y22を用いてそれらの平均値を求めることにより、補間する。
Y (2m, 2n + 1) = {Y (2m, 2n + 1) + Y (2m-1, 2n + 1) + Y (2m + 1, 2n + 1) + Y (2m, 2n + 2)} / 4
Y (2m + 1, 2n) = {Y (2m + 1, 2n-1) + Y (2m, 2n) + Y (2m + 2, 2n) + Y (2m + 1, 2n + 1)} / 4
For example, the thinned pixel Y21 is interpolated by obtaining an average value of the surrounding four pixels Y11, Y31, Y20, and Y22.
次に、図6のように色差信号を画素間引きした場合のサブフレーム合成及び画素補間について、図11を用いて説明する。 図11は色差成分のサブフレーム合成後の画素補間方法の一例を示している。 Next, sub-frame synthesis and pixel interpolation when the color difference signal is thinned out as shown in FIG. 6 will be described with reference to FIG. FIG. 11 shows an example of a pixel interpolation method after color-difference component subframe synthesis.
図11において、YUV420のカラーデータ形式の色差信号においては、太枠で囲った位置の画素データが必要である。即ち、2×2の4画素に対してU,Vをそれぞれ1つずつ採るというのが、YUV420のデータ形式である。そのため、まず下式のように、(4m+2,4n+2)の位置の画素データとして、(4m+1,4n+1)の位置の画素データを用いる。 In FIG. 11, the color difference signal in the color data format of YUV420 requires pixel data at a position surrounded by a thick frame. That is, the data format of YUV420 is to take one U and one V for 4 pixels of 2 × 2. Therefore, as shown in the following equation, pixel data at the position (4m + 1, 4n + 1) is used as the pixel data at the position (4m + 2, 4n + 2).
U(4m+2,4n+2)=U(4m+1,4n+1)
V(4m+2,4n+2)=V(4m+1,4n+1)
次に、(4m,4n+2)と(4m+2,4n)の位置の画素データを、周囲の4画素を用いて補間する。
U (4m + 2, 4n + 2) = U (4m + 1, 4n + 1)
V (4m + 2, 4n + 2) = V (4m + 1, 4n + 1)
Next, the pixel data at the positions (4m, 4n + 2) and (4m + 2, 4n) are interpolated using the surrounding four pixels.
U (4m,4n+2)={U(4m,4n)+U (4m−2,4n十2)+U(4m+2, 4n+2)+U(4m,4n+4)})÷4
V (4m,4n+2)={V(4m,4n)+V (4m−2,4n十2)+V(4m+2, 4n+2)+V(4m,4n+4)})÷4
U(4m+2,4n)={U(4m+2,4n−2)+U (4m,4n)+U(4m+4, 4n)+U(4m+2,4n+2)})÷4
V(4m+2,4n)={V(4m+2,4n−2)+V (4m,4n)+V(4m+4, 4n)+V(4m+2,4n+2)})÷4
具体的には、斜め方向に隣接する2画素のうち画素U11,U15,U51,U55,…を、太枠で囲った位置のデータのない画素U22,U26,U62,U66,…の画素データとして用いる。そして、その状態で、太枠で囲った位置の画素のうちデータのない画素U02,U20,U06,U24,U42,U60,U46,U64,…については、周囲の4画素を用いて補間する。例えば、画素U24については、4つの画素U04,U44,U22,U26を用いて補間する。
U (4m, 4n + 2) = {U (4m, 4n) + U (4m-2,4n + 2) + U (4m + 2, 4n + 2) + U (4m, 4n + 4)}) ÷ 4
V (4m, 4n + 2) = {V (4m, 4n) + V (4m-2,4n + 2) + V (4m + 2, 4n + 2) + V (4m, 4n + 4)}) ÷ 4
U (4m + 2,4n) = {U (4m + 2,4n-2) + U (4m, 4n) + U (4m + 4,4n) + U (4m + 2,4n + 2)}) ÷ 4
V (4m + 2,4n) = {V (4m + 2,4n-2) + V (4m, 4n) + V (4m + 4,4n) + V (4m + 2,4n + 2)}) ÷ 4
Specifically, among the two pixels adjacent in the diagonal direction, the pixels U11, U15, U51, U55,... Are pixel data of the pixels U22, U26, U62, U66,. Use. In this state, the pixels U02, U20, U06, U24, U42, U60, U46, U64,. For example, the pixel U24 is interpolated using four pixels U04, U44, U22, and U26.
次に、図7のように色差信号を画素間引きした場合のサブフレーム合成及び画素補間について、図12を用いて説明する。図12は色差成分のサブフレーム合成後の画素補間方法のもう1つの例を示している。 Next, sub-frame synthesis and pixel interpolation when the color difference signal is thinned out as shown in FIG. 7 will be described with reference to FIG. FIG. 12 shows another example of a pixel interpolation method after sub-frame synthesis of color difference components.
図12の場合においても、図11の例と同じくYUV420のカラーデータ形式の色差信号においては、太枠で囲った位置の画素データが必要である。即ち、前述したように、2×2の4画素に対してU,Vをそれぞれ1つずつ採るというのが、YUV420のデータ形式である。そのため、(4m,4n+2)と(4m+2,4n)の位置の画素データを、周囲の4画素を用いて補間する。 Also in the case of FIG. 12, in the color difference signal in the YUV420 color data format as in the example of FIG. 11, pixel data at a position surrounded by a thick frame is necessary. That is, as described above, the data format of YUV420 is to take one U and one V for each 2 × 2 four pixels. Therefore, the pixel data at the positions (4m, 4n + 2) and (4m + 2, 4n) are interpolated using the surrounding four pixels.
U (4m,4n+2)={U(4m,4n)+U (4m−2,4n十2)+U(4m+2,4n+2)+U(4m,4n+4)})÷4
V (4m,4n+2)={V(4m,4n)+V (4m−2,4n十2)+V(4m+2,4n+2)+V(4m,4n+4)})÷4
U(4m+2,4n)={U(4m+2,4n−2)+U (4m,4n)+U(4m+4,4n)+U(4m+2,4n+2)})÷4
V(4m+2,4n)={V(4m+2,4n−2)+V (4m,4n)+V(4m+4,4n)+V(4m+2,4n+2)})÷4
具体的には、太枠で囲った位置の画素のうちデータのない画素U02,U20,U06,U24,U42,U60,U46,U64,…については、周囲の4画素を用いて補間する。例えば、画素U42については、4つの画素U22,U62,U40,U44を用いて補間する。
U (4m, 4n + 2) = {U (4m, 4n) + U (4m-2,4n + 2) + U (4m + 2,4n + 2) + U (4m, 4n + 4)}) ÷ 4
V (4m, 4n + 2) = {V (4m, 4n) + V (4m-2,4n + 2) + V (4m + 2,4n + 2) + V (4m, 4n + 4)}) ÷ 4
U (4m + 2,4n) = {U (4m + 2,4n-2) + U (4m, 4n) + U (4m + 4,4n) + U (4m + 2,4n + 2)}} ÷ 4
V (4m + 2,4n) = {V (4m + 2,4n-2) + V (4m, 4n) + V (4m + 4,4n) + V (4m + 2,4n + 2)}) ÷ 4
Specifically, pixels U02, U20, U06, U24, U42, U60, U46, U64,. For example, the pixel U42 is interpolated using four pixels U22, U62, U40, and U44.
以上の方法により、本実施例の方法で圧縮した画像の伸長及び表示が可能である。 By the above method, it is possible to decompress and display an image compressed by the method of this embodiment.
本発明の実施例1によれば、相異なる複数の間引きパターンで間引き、間引きパターン毎に、間引かれた画素で複数のサブフレームを生成し、サブフレーム毎に圧縮を実行することにより、市松模様状の画素間引きのように、ライン毎に画素を間引く位置が異なる場合であっても、空間周波数が高まることなく、効率的に画像圧縮を行うことが可能となる。 According to the first embodiment of the present invention, thinning with different thinning patterns, generating a plurality of subframes with thinned pixels for each thinning pattern, and performing compression for each subframe, Even if the positions where pixels are thinned out differ from line to line, such as pattern-like pixel thinning, image compression can be performed efficiently without increasing the spatial frequency.
次に、本発明の実施例2について説明する。
図13は、本発明の実施例2に係る画像処理装置の概略図を示す。符号31は動画を撮像可能な撮像圧縮ブロックを構成するカメラ装置、32は画像伸長・表示ブロックを構成する画像表示用のディスプレイ装置である。図1と異なる点は、動画像データをリアルタイムに撮像するため、カメラ装置31とディスプレイ装置32の間にデータ記録用のストレージ部が無い構成となっている。なお、本実施形態では、各構成要素間は無線で接続しているが、有線による接続も可能である。
Next, a second embodiment of the present invention will be described.
FIG. 13 is a schematic diagram of an image processing apparatus according to the second embodiment of the present invention.
図14は、本発明の実施例2の画像処理装置における撮像圧縮ブロックの構成を示すブロック図である。撮像圧縮ブロックは、撮像から圧縮データを出力するまでのブロックを示したものである。 FIG. 14 is a block diagram illustrating a configuration of an imaging compression block in the image processing apparatus according to the second embodiment of the present invention. The imaging compression block indicates a block from imaging to outputting compressed data.
本実施例2では、撮像圧縮ブロックは、CCDなどの撮像素子を備えた撮像部41と、撮像部41から入力される、複数のラインからなる入力画像フレームを構成する画素を、相異なる複数の間引きパターンで間引く画素数削減部42と、前記間引きパターン毎に、間引かれた画素でサブフレームを生成するサブフレーム生成部43と、前記サブフレーム生成部43で生成したサブフレームを記憶するメモリ44と、前記サブフレーム毎に圧縮を実行する画像圧縮部45と、前記画像圧縮部45で圧縮されたデータを、所定のフォーマットに変換して出力する圧縮データ出力部46と備えている。
In the second embodiment, the imaging compression block includes an
撮像部41としては、例えば、光電変換素子の各画素それぞれにカラーフィルタを貼り付け、カラー画像信号を得る単板式のカメラ装置を用いる。前記カラーフィルタとしては、例えば、R(赤),G(緑),B(青)をモザイク状に配列したカラーフィルタ、例えばベイヤー配列のものが用いられる。
As the
本実施例2において、全体の構成は、図2に示した実施例1と同等の構成を採るが、扱う画像は動画像であり、画像圧縮部45の圧縮方式は、MPEG等の、画面間圧縮を利用するものとする。
In the second embodiment, the entire configuration is the same as that of the first embodiment shown in FIG. 2, but the image to be handled is a moving image, and the compression method of the
図15は画像伸長・表示ブロックのブロック構成図を示している。画像伸長・表示ブロックには、図14に示した撮像圧縮ブロックで例えばMPEG圧縮された画像サブフレームのデータが入力される。 FIG. 15 is a block diagram of the image decompression / display block. The image decompression / display block receives data of image subframes, for example, MPEG-compressed by the imaging compression block shown in FIG.
画像伸長・表示ブロックは、MPEG圧縮された複数のサブフレームデータが入力される圧縮データ入力部51と、MPEG圧縮された複数のサブフレームデータを伸長する画像伸長部52と、伸長された複数のサブフレームデータを合成するサブフレーム合成部53と、前記サブフレーム合成部53で合成したサブフレームを記憶するメモリ54と、合成した前記サブフレームデータにおける間引き画素部分を補間する画素補間部55と、前記画素補間部55で補間されたデータを、表示データに変換してディスプレイ上に表示する画像表示部56とを備えている。
The image decompression / display block includes a compressed
図16は、前記画像圧縮部45のブロック図である。画像圧縮部45は、デマルチプレクサ(以下、DEMUX)61と、サブフレーム判定部62と、動きベクトル演算部としての動き探索部63と、ずれベクトル出力部としての固定動きベクトル計算部64と、マルチプレクサ(以下、MUX)65と、DCT変換部66と、動画像圧縮部としての量子符号化部67とを備えている。
FIG. 16 is a block diagram of the
図17は、画像圧縮部45における、画像データの入力から圧縮までのフローチャートである。
まず、サブフレームの画像データが、DEMUX61と、サブフレーム判定部62に入力される(ステップS21)。サブフレーム判定部62は、入力されたサブフレームが第1のサブフレームかどうかを判定してDEMUX61とMUX65に通知する(ステップS22)。
FIG. 17 is a flowchart from image data input to compression in the
First, subframe image data is input to the DEMUX 61 and the subframe determination unit 62 (step S21). The
DEMUX61は、通知された判定結果に基づき、第1のサブフレームであれば動き探索部63へ(ステップS22でY)、第1のサブフレームでなければ固定動きベクトル計算部64へ(ステップS22でN)、それぞれサブフレームの画像データを出力する。
Based on the notified determination result, the DEMUX 61 proceeds to the
動き探索部63は、1つ前の第1のサブフレームを参照画像として、動きベクトルを求める手法として周知のブロックマッチングの手法により動きベクトルを算出し、MUX65へ出力する。また、算出した動きベクトルに基づいて求めた参照画像との差分画像データも同時にMUX65へ出力する(ステップS23)。
The
固定動きベクトル計算部64は、第1のサブフレームと第2のサブフレームが元々一枚の画像フレームであった時の、画素位置の差を計算し、これを動きベクトル固定値としてMUX65へ出力する。また、この動きベクトル固定値に基づいて求めた第1のサブフレームとの差分画像データも同時にMUX65へ出力する(ステップS24)。
The fixed motion
MUX65は、サブフレーム判定部62からの判定結果に基づき、第1のサブフレームの差分画像データと、第2のサブフレームの差分画像データを、それぞれ交互にDCT変換部66に出力する。またMUX65は、第1のサブフレームの動きベクトルと、第2のサブフレームの動きベクトル固定値を、それぞれ交互に量子符号化部67に出力する。
Based on the determination result from the
DCT変換部66は、入力された差分画像データに対してサブフレーム単位でDCT変換を行い(ステップS25)、量子符号化部67は量子化及び符号化を行い(ステップS26)、符号化された圧縮データを出力する(ステップS27)。
The
次に、動きベクトルの算出方法について説明する。
本実施例2においては、第1のサブフレームと第2のサブフレームは、元々一枚の画像フレームを構成していたため、画像は類似したものとなる。
例えば、図20のような画像フレームを、図21のように市松模様状に画素数を削減し、図24のように2つの第1,第2のサブフレームに分割した場合、第1のサブフレームの画像と第2のサブフレームの画像は、元々の画像フレームを構成していた時の画素位置の差分だけ移動したものと、類似している。
Next, a method for calculating a motion vector will be described.
In the second embodiment, since the first subframe and the second subframe originally constituted one image frame, the images are similar.
For example, when an image frame as shown in FIG. 20 is reduced in the number of pixels in a checkered pattern as shown in FIG. 21 and divided into two first and second subframes as shown in FIG. The image of the frame and the image of the second sub-frame are similar to those moved by the difference in pixel position when forming the original image frame.
そこで、本実施例2では図18に示すように、第2のサブフレームの第1のサブフレームに対する動きベクトルの固定値として、前記画素位置の差分を用いる。従来のブロックマッチングによる動き探索は、第1のサブフレーム間の動きベクトルを求める時だけ行うようにする。
これによって、ブロックマッチングによる動き探索の複雑な処理を簡略化することができる。
Therefore, in the second embodiment, as shown in FIG. 18, the difference between the pixel positions is used as a fixed value of the motion vector of the second subframe relative to the first subframe. The motion search by the conventional block matching is performed only when the motion vector between the first subframes is obtained.
Thereby, the complicated process of the motion search by block matching can be simplified.
なお、本実施例2では、第2のサブフレームの参照画像として同一フレームに属していた第1のサブフレームを用いたが、図19に示すように、1つ前のフレームに属していた第2のサブフレームを参照画像とすることも可能である。その場合の動きベクトルは、直前に求めた第1のサブフレームの動きベクトルと同じ動きベクトル(図19では動きベクトル固定値としてある)を用いることができる。
又は、先のフレームの第1のサブフレームと現フレームの第1のサブフレームの間、及び先のフレームの第2のサブフレームと現フレームの第2のサブフレームの間で、各々ブロックマッチングによる動き探索を用いて動きベクトルを求めて、これらの結果から平均動きベクトルを求めて、現フレームを圧縮するために用いても良い。
In the second embodiment, the first subframe belonging to the same frame is used as the reference image of the second subframe. However, as shown in FIG. 19, the first subframe belonging to the previous frame is used. It is also possible to use two subframes as reference images. In this case, as the motion vector, the same motion vector as the motion vector of the first subframe obtained immediately before (the motion vector is fixed as a motion vector value in FIG. 19) can be used.
Or block matching between the first subframe of the previous frame and the first subframe of the current frame, and between the second subframe of the previous frame and the second subframe of the current frame, respectively. A motion vector may be obtained using motion search, an average motion vector may be obtained from these results, and used to compress the current frame.
本発明は、撮像装置などの画像データを処理する装置において、画像データにおける画素数削減と共に冗長性削減を行う際に、極めて有効な技術として広く利用することが可能である。 INDUSTRIAL APPLICABILITY The present invention can be widely used as a very effective technique when reducing the number of pixels in image data and reducing redundancy in an apparatus that processes image data such as an imaging apparatus.
11…撮像部
12…画素数削減部
13…サブフレーム生成部
14…メモリ
15…画像圧縮部
62…サブフレーム判定部
63…動き探索部(動きベクトル演算部)
64…固定動きベクトル計算部(ずれベクトル出力部)
67…量子符号化部(動画像圧縮部)
代理人 弁理士 伊 藤 進
DESCRIPTION OF SYMBOLS 11 ... Imaging
64: Fixed motion vector calculation unit (deviation vector output unit)
67. Quantum encoding unit (moving image compression unit)
Agent Patent Attorney Susumu Ito
Claims (4)
サブフレームが、同一入力画像フレームに係る複数の前記サブフレームの内の第1のサブフレームかそれ以外の第2のサブフレームかを判定するサブフレーム判定部と、
前記第1のサブフレームと、この第1のサブフレームに先行する入力画像フレームとの相関から動きベクトルを演算する動きベクトル演算部と、
前記第1のサブフレームと前記第2のサブフレームとの画素位置の差をずれベクトルとして出力するずれベクトル出力部と、
前記サブフレーム判定部による判定結果に基づき、処理対象サブフレームが第1のサブフレームであるときは前記動きベクトルを適用し、第2のサブフレームであるときは第1のサブフレームを参照画像として前記ずれベクトルを適用して前記サブフレーム毎に圧縮を実行する動画像圧縮部と、
を有することを特徴とする画像処理装置。 A sub-frame generation unit that generates a plurality of sub-frames by dividing each input image frame of a moving image input from the imaging unit in a predetermined line unit;
A subframe determination unit that determines whether a subframe is a first subframe of the plurality of subframes related to the same input image frame or a second subframe other than the first subframe;
A motion vector computing unit that computes a motion vector from the correlation between the first subframe and the input image frame preceding the first subframe;
A shift vector output unit that outputs a difference in pixel position between the first subframe and the second subframe as a shift vector;
Based on the determination result by the subframe determination unit, the motion vector is applied when the processing target subframe is the first subframe, and the first subframe is used as a reference image when the processing target subframe is the second subframe. a moving image compression section for performing compression for each of the sub-frame by applying the displacement vector,
An image processing apparatus comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2004213435A JP4499499B2 (en) | 2004-07-21 | 2004-07-21 | Image processing apparatus, image processing method, and image processing program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2004213435A JP4499499B2 (en) | 2004-07-21 | 2004-07-21 | Image processing apparatus, image processing method, and image processing program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2006033750A JP2006033750A (en) | 2006-02-02 |
| JP4499499B2 true JP4499499B2 (en) | 2010-07-07 |
Family
ID=35899502
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2004213435A Expired - Fee Related JP4499499B2 (en) | 2004-07-21 | 2004-07-21 | Image processing apparatus, image processing method, and image processing program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4499499B2 (en) |
Families Citing this family (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP5137499B2 (en) * | 2007-08-24 | 2013-02-06 | 富士通コンポーネント株式会社 | KVM switch and control method thereof |
| US8761531B2 (en) | 2009-07-09 | 2014-06-24 | Qualcomm Incorporated | Image data compression involving sub-sampling of luma and chroma values |
| JP2014143488A (en) * | 2013-01-22 | 2014-08-07 | Nikon Corp | Image compression apparatus, image decoder and program |
| JP6344082B2 (en) * | 2014-06-19 | 2018-06-20 | 株式会社ニコン | Encoding device, decoding device, encoding method, and decoding method |
| JP2018160909A (en) * | 2018-05-23 | 2018-10-11 | 株式会社ニコン | Encoding device, decoding device, encoding method, and decoding method |
Family Cites Families (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP3864748B2 (en) * | 2001-10-10 | 2007-01-10 | 株式会社ニコン | Image processing apparatus, electronic camera, and image processing program |
-
2004
- 2004-07-21 JP JP2004213435A patent/JP4499499B2/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| JP2006033750A (en) | 2006-02-02 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN103155567B (en) | Image processing apparatus and image processing method | |
| JP4555775B2 (en) | Imaging device | |
| WO2009145201A1 (en) | Image processing device, image processing method, and imaging device | |
| WO2011001864A1 (en) | Image processing device and image processing method | |
| JP2003338988A (en) | Imaging device | |
| JP2009005232A (en) | Image processor, image processing method, program and image pick-up device | |
| WO2012147523A1 (en) | Imaging device and image generation method | |
| US20100165078A1 (en) | Image compression using checkerboard mosaic for luminance and chrominance color space images | |
| JP4499499B2 (en) | Image processing apparatus, image processing method, and image processing program | |
| JP2018160909A (en) | Encoding device, decoding device, encoding method, and decoding method | |
| JP4027441B2 (en) | Color image pickup device | |
| JPH11112977A (en) | Image capturing and compression system | |
| JP5159461B2 (en) | Image processing apparatus, image processing method, and imaging apparatus | |
| US7787700B2 (en) | Signal processing method, signal processing apparatus, computer-readable medium and a data recording medium | |
| JP2006049950A (en) | Dynamic image converting apparatus, dynamic image decompressing apparatus and method thereof, and computer program | |
| JP2005278025A (en) | Luminance/color-difference signal generating device, image compressing device, and image processing system | |
| JP4997172B2 (en) | Image signal processing apparatus, method and program for image division processing | |
| JP3965460B2 (en) | Interpolation method for interleaved pixel signals such as checkered green signal of single-panel color camera | |
| JP2011029809A (en) | Image processing device, image processing method, and image capturing device | |
| JP2010251882A (en) | Image capturing apparatus and image reproducing device | |
| WO2012147630A1 (en) | Imaging device and image generation method | |
| US6266101B1 (en) | Y/C separator | |
| JP4243095B2 (en) | Stereoscopic image processing method, program, and recording medium | |
| JP4620965B2 (en) | Video format conversion device and video format conversion program | |
| JPH10248069A (en) | Imaging device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070706 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090403 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090421 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090612 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091104 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091215 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100323 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100415 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130423 Year of fee payment: 3 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 4499499 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140423 Year of fee payment: 4 |
|
| S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| LAPS | Cancellation because of no payment of annual fees |