JPH09182085A - Image encoding device, image decoding device, image encoding method, image decoding method, image transmitting method and recording medium - Google Patents
Image encoding device, image decoding device, image encoding method, image decoding method, image transmitting method and recording mediumInfo
- Publication number
- JPH09182085A JPH09182085A JP28275296A JP28275296A JPH09182085A JP H09182085 A JPH09182085 A JP H09182085A JP 28275296 A JP28275296 A JP 28275296A JP 28275296 A JP28275296 A JP 28275296A JP H09182085 A JPH09182085 A JP H09182085A
- Authority
- JP
- Japan
- Prior art keywords
- image
- subband
- coefficient
- band
- coefficients
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 124
- 239000013598 vector Substances 0.000 claims abstract description 80
- 238000006243 chemical reaction Methods 0.000 claims abstract description 18
- 238000012545 processing Methods 0.000 claims description 53
- 230000008569 process Effects 0.000 claims description 49
- 230000005540 biological transmission Effects 0.000 claims description 40
- 238000001914 filtration Methods 0.000 claims description 26
- 238000004364 calculation method Methods 0.000 claims description 8
- 230000009466 transformation Effects 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims description 3
- 238000000926 separation method Methods 0.000 claims description 2
- 238000013139 quantization Methods 0.000 abstract description 10
- 230000015556 catabolic process Effects 0.000 abstract 1
- 238000006731 degradation reaction Methods 0.000 abstract 1
- 230000015654 memory Effects 0.000 description 81
- 238000010586 diagram Methods 0.000 description 26
- 230000015572 biosynthetic process Effects 0.000 description 18
- 238000003786 synthesis reaction Methods 0.000 description 18
- 238000005070 sampling Methods 0.000 description 13
- 230000006866 deterioration Effects 0.000 description 9
- 230000014509 gene expression Effects 0.000 description 6
- 230000002194 synthesizing effect Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 101000969688 Homo sapiens Macrophage-expressed gene 1 protein Proteins 0.000 description 2
- 102100021285 Macrophage-expressed gene 1 protein Human genes 0.000 description 2
- 101100440286 Mus musculus Cntrl gene Proteins 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 230000009977 dual effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Landscapes
- Television Signal Processing For Recording (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、画像符号化装置、
画像復号装置、画像符号化方法、画像復号方法、画像伝
送方法及び記録媒体に関し、例えば、動画像の圧縮を目
的とした、画像信号を符号化する符号化装置及び符号化
方法、その符号化された画像データが記録されているビ
デオテープ、ビデオディスク及び半導体メモリなどの記
録媒体、その記録媒体に記録されている符号化された画
像信号を復号する復号装置及び復号方法、その符号化、
復号化装置を備えるAV機器、テレビ放送やテレビ会議
システムなどの通信機器における伝送方式、その通信機
器のための画像信号を符号化、復号する装置及び方法に
関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image coding device,
The present invention relates to an image decoding device, an image encoding method, an image decoding method, an image transmission method, and a recording medium, and for example, an encoding device and an encoding method for encoding an image signal for the purpose of compressing a moving image, and the encoding thereof. A recording medium such as a video tape, a video disk, and a semiconductor memory in which the image data is recorded, a decoding device and a decoding method for decoding the encoded image signal recorded in the recording medium, the encoding thereof,
The present invention relates to an AV device including a decoding device, a transmission method in communication devices such as a television broadcast and a video conference system, and a device and method for encoding and decoding image signals for the communication device.
【0002】[0002]
【従来の技術】デジタル信号の圧縮を目的とした符号化
/復号方法の1つとして、サブバンド符号化がある。こ
のサブバンド符号化は、例えばウェーブレット変換を行
うためのフィルタ(以下、ウェーブレット変換フィルタ
という。)によって、デジタル信号の帯域分割を行い、
ディジタル信号の圧縮を行うものである。すなわち、サ
ブバンド符号化は、入力された信号に対して、異なる通
過帯域を有する複数のフィルタでフィルタリング処理を
施した後、各周波数帯域に応じた間隔でダウンサンプリ
ングを施し、各フィルタの出力信号のエネルギーの偏り
を利用して圧縮を行うものである。2. Description of the Related Art Subband coding is one of the coding / decoding methods for the purpose of compressing digital signals. The sub-band coding is performed by band-dividing a digital signal by a filter for performing a wavelet transform (hereinafter referred to as a wavelet transform filter), for example.
The digital signal is compressed. That is, the sub-band coding is performed on the input signal by performing a filtering process with a plurality of filters having different pass bands, and then down-sampling at an interval according to each frequency band, and an output signal of each filter. The compression is performed by utilizing the energy bias of.
【0003】サブバンドフィルタ、及びウエーブレット
フィルタによる帯域分割による信号処理に関しては、例
えば文献『ウエーブレット変換とサブバンド符号化』マ
ーチン・ヴェターリ著、電子情報通信学会誌、Vol.74 N
o.12 pp1275-1278 1991 年12月に説明されている。Regarding signal processing by band division by a subband filter and a wavelet filter, for example, reference is made to "Wavelet Transform and Subband Coding" by Martin Vetari, The Institute of Electronics, Information and Communication Engineers, Vol.74 N.
o.12 pp1275-1278 Described in December 1991.
【0004】サブバンド符号化及びウェーブレット変換
を用いた帯域分割による信号処理に関しては、例えば文
献『ウェーブレット変換とサブバンド符号化』マーチン
・ヴエターリ著、電子情報通信学会誌、Vo1.74 No.12
pp1275-1278 1991年12月に説明されている。Regarding signal processing by band division using subband coding and wavelet transform, for example, reference "Wavelet transform and subband coding" by Martin Vetari, Journal of the Institute of Electronics, Information and Communication Engineers, Vo1.74 No.12.
pp1275-1278, described in December 1991.
【0005】図28を用いて、動き補償及びDCTを用
いた画像符号化装置及び画像復号化装置の従来例を説明
する。図28の(A)は画像符号化装置100の構成を
示しており、図28の(B)は画像復号装置200の構
成を示している。A conventional example of an image encoding device and an image decoding device using motion compensation and DCT will be described with reference to FIG. 28A shows the configuration of the image encoding device 100, and FIG. 28B shows the configuration of the image decoding device 200.
【0006】画像符号化装置100において、入力画像
が入力端子101を介してフレームメモリ1022に供
給される。動きベクトル検出器111は、フレームメモ
リ102に保存された入力画像から、動きベクトルvを
検出する。動きベクトルの検出法としては、通常、16
画素×16画素のブロック単位でのブロックマッチング
が行われる。また、より高い精度を実現するために、半
画素単位のマッチングが行われる。さらに、ブロックマ
ッチングの代わりに、既に知られている他の動きベクト
ル検出法を用いられることもある。In the image coding apparatus 100, the input image is supplied to the frame memory 1022 via the input terminal 101. The motion vector detector 111 detects the motion vector v from the input image stored in the frame memory 102. The motion vector detection method is usually 16
Block matching is performed in block units of pixels × 16 pixels. Further, in order to realize higher accuracy, matching is performed on a half-pixel basis. Further, other known motion vector detection methods may be used instead of block matching.
【0007】動き補償器112は、図示せぬフレームメ
モリを備え、現在、符号化すべき画像の各位置の画素値
を、既に、符号化及び復号化が終了し、このフレームメ
モリに保存されている画像から予測する。時刻tに入力
された画像上の位置(i,j)における画素値I[i,
j,t]の予測値I’[i,j,t]は、この位置に対
応する動きベクトルv=(vx(I,j,t),vy
(i,j,t))を用いて、次の式(1)のように決定
される。The motion compensator 112 has a frame memory (not shown), and at present, the pixel value at each position of the image to be encoded has already been encoded and decoded and is stored in this frame memory. Predict from images. The pixel value I [i, i] at the position (i, j) on the image input at time t
The predicted value I ′ [i, j, t] of j, t] is the motion vector v = (vx (I, j, t), vy corresponding to this position.
(I, j, t)) is used to determine as in the following equation (1).
【0008】[0008]
【数1】 [Equation 1]
【0009】ここで、Tは、現在予測を行っている画像
Iが入力された時刻と、フレームメモリ上にある画像が
入力された時刻の差であり、(1)式の右辺のI
[i’,j’,t−T],I[i’+1,j’,t−
T],I[i’,j’+1,t−T],I[i’+1,
j’+1,t−T]は、図示せぬフレームメモリ上の画
素値を表す。また、int(x)は、xを越えない最大
の整数値を表している。Here, T is the difference between the time when the image I currently being predicted is input and the time when the image on the frame memory is input, and I on the right side of the equation (1).
[I ', j', t-T], I [i '+ 1, j', t-
T], I [i ', j' + 1, t-T], I [i '+ 1,
j ′ + 1, t−T] represents a pixel value on a frame memory (not shown). Also, int (x) represents the maximum integer value that does not exceed x.
【0010】また、フレームメモリ102は、入力画像
を減算器103に供給する。減算器103は、現在符号
化すべき画素の値と動き補償器112によって算出され
た予測値との差分を計算する。The frame memory 102 also supplies the input image to the subtractor 103. The subtractor 103 calculates the difference between the value of the pixel currently to be encoded and the predicted value calculated by the motion compensator 112.
【0011】減算器90からの差分値は、DCT(Di
screte Cosine Transform)器
104に供給される。DCT器104は、差分値で構成
された8画素×8画素のブロックに対して2次元DCT
を施す。The difference value from the subtractor 90 is the DCT (Di
It is supplied to the screen cosine transform device 104. The DCT unit 104 is a two-dimensional DCT for an 8 pixel × 8 pixel block composed of difference values.
Give.
【0012】DCT器104からのDCT係数cは、量
子化器105に供給される。量子化器105は、DCT
器104によって得られたDCT係数cに対して、適当
なステップサイズQを用いて次の式(2)のような量子
化処理を行う。The DCT coefficient c from the DCT unit 104 is supplied to the quantizer 105. The quantizer 105 uses the DCT
The DCT coefficient c obtained by the device 104 is quantized by the following equation (2) using an appropriate step size Q.
【0013】[0013]
【数2】 [Equation 2]
【0014】量子化の施されたDCT係数は、可変長符
号化器106及び逆量子化器113に供給される。逆量
子化器113では、量子化器105で用いられたのと同
じステップサイズにより、次の式(3)のような逆量子
化処理が行われる。The quantized DCT coefficient is supplied to the variable length encoder 106 and the inverse quantizer 113. The inverse quantizer 113 performs the inverse quantization process as in the following Expression (3) with the same step size as that used in the quantizer 105.
【0015】[0015]
【数3】 (Equation 3)
【0016】逆量子化の施されたデータは、IDCT器
114によって逆DCTが行われ、画素値の差分値が復
元される。この差分値は、加算器115によって動き補
償器112から出力される予測値と加算されて画素値の
データとなり、動き補償器112に送られて図示せぬフ
レームメモリに保存される。The inversely quantized data is subjected to inverse DCT by the IDCT unit 114 to restore the difference value of pixel values. This difference value is added to the prediction value output from the motion compensator 112 by the adder 115 to form pixel value data, which is sent to the motion compensator 112 and stored in a frame memory (not shown).
【0017】可変長符号化器106では、量子化器10
5によって得られた量子化されたDCT係数及び動きベ
クトル検出器111によって得られた動きベクトルvに
対して可変長符号化を施し、ビットストリームを出力す
る。In the variable length encoder 106, the quantizer 10
Variable length coding is performed on the quantized DCT coefficient obtained in step 5 and the motion vector v obtained by the motion vector detector 111, and a bit stream is output.
【0018】一方、画像復号装置200では、はじめ
に、入力端子201を介して供給されたビットストリー
ムに対して逆可変長符号化器202によって画像符号化
装置100における可変長符号化器106の逆処理が施
され、ビットストリームから、量子化の施されたDCT
係数及び動きベクトルvを復元する。得られたDCT係
数は逆量子化器203に供給され、動きベクトルvは動
き補償器206に供給される。On the other hand, in the image decoding apparatus 200, the inverse variable length encoder 202 first performs the inverse processing of the variable length encoder 106 in the image encoding apparatus 100 on the bit stream supplied via the input terminal 201. Quantized DCT from the bitstream
Restore the coefficients and motion vector v. The obtained DCT coefficient is supplied to the inverse quantizer 203, and the motion vector v is supplied to the motion compensator 206.
【0019】逆量子化器203及びIDCT器204
は、画像符号化装置100のものと同じものであり、そ
れぞれにおいて、(3)式の逆量子化処理及びIDCT
を施して、画素値の差分値を復元する。この差分値は、
加算器205によって、動き補償器206によって既に
生成されている予測値と加算されて画素値のデータとな
り、画像符号化装置100への入力画像に対応する画像
が再構成される。復号化された画像の各画素値は、予測
画像を生成するために、動き補償器206に備えられた
図示せぬフレームメモリに保存される。Inverse quantizer 203 and IDCT device 204
Are the same as those of the image encoding device 100, and in each of them, the inverse quantization processing and the IDCT of the expression (3) are performed.
Is performed to restore the difference value of the pixel values. This difference value is
The adder 205 adds the prediction value already generated by the motion compensator 206 to form pixel value data, and reconstructs an image corresponding to the input image to the image encoding device 100. Each pixel value of the decoded image is stored in a frame memory (not shown) included in the motion compensator 206 to generate a predicted image.
【0020】動き補償器206は、画像符号化装置10
0のものと同じものであり、逆可変長符号化器202に
よって得られた動きベクトルv及び既にこの動き補償器
206が備える図示せぬフレームメモリに保存されてい
る画像を用いて、現在復号化すべき画像の各画素値の予
測を行う。The motion compensator 206 is used by the image coding apparatus 10.
It is the same as that of 0, and is currently decoded using the motion vector v obtained by the inverse variable-length encoder 202 and the image already stored in the frame memory (not shown) included in the motion compensator 206. Predict each pixel value of the power image.
【0021】なお、上述した説明は、例えばMPEG
1,2などのPピクチャやBピクチャなどの、いわゆる
インターフレームに対して行われる動作である。したが
って、イントラフレームに対しては、減算器103で差
分演算が行われず、フレームメモリからの画素データが
そのままDCT器104に直接供給され、以後の処理が
実行される。The above description is based on, for example, MPEG.
This is an operation performed for so-called interframes such as P-pictures such as 1 and 2, and B-pictures. Therefore, the subtractor 103 does not perform the difference calculation on the intra frame, and the pixel data from the frame memory is directly supplied to the DCT unit 104 as it is, and the subsequent processing is executed.
【0022】さらに、MPEG1などの従来の符号化方
式でのビットストリームの伝送方法について簡単に説明
する。MPEG1において、シンクコードがある最小単
位のヘッダは、スライスヘッダである。したがって、エ
ラーなどが発生しデータの一部が復号不可能になった場
合、次のスライスヘッダから復号することになる。Further, a transmission method of a bit stream in a conventional encoding method such as MPEG1 will be briefly described. In MPEG1, the minimum unit header having a sync code is a slice header. Therefore, when an error or the like occurs and a part of the data cannot be decoded, it is decoded from the next slice header.
【0023】[0023]
【発明が解決しようとする課題】上述した従来の方法の
ように、ブロック単位での動き検出、動き補償を用いた
符号化では、動きの不連続な領域に存在する隣接ブロッ
クにおいて、予測誤差の性質に違いが生じ、ブロック境
界に沿ってエッジ状の劣化が生じるといった問題があっ
た。従来の方法では、画像上において動き補償を行って
いるため、このようなブロック境界の劣化がそのまま、
復号化された画像上に現れ、画質低下の原因となってい
た。As in the conventional method described above, in the coding using motion detection and motion compensation in block units, prediction error of the prediction error may occur in adjacent blocks existing in a discontinuous motion region. There is a problem that the properties are different and edge-like deterioration occurs along the block boundary. In the conventional method, since motion compensation is performed on the image, such deterioration of the block boundary remains as it is.
It appeared on the decoded image and was a cause of the image quality deterioration.
【0024】また、上述した従来のビットストリームの
伝送方法の場合、データの一部にエラーが発生すると、
スライス単位ですべてのデータが失われることになる。
つまり、復号画像上で、復号不能なスライスの部分のデ
ータが全て失われるため、致命的な劣化が生じる。In the conventional bit stream transmission method described above, if an error occurs in part of the data,
All data will be lost in slice units.
That is, on the decoded image, all the data of the undecodable slice portion is lost, which causes fatal deterioration.
【0025】そこで、本発明は以上の点を考慮してなさ
れたもので、本発明の目的は、ブロック境界上に現れる
エッジ状の劣化が緩和され、復号化画像に与える影響を
抑えることができる画像符号化装置、画像復号装置、画
像符号化方法、画像復号方法、画像伝送方法及び符号化
された画像データが記録されている記録媒体を提供する
ことにある。Therefore, the present invention has been made in consideration of the above points, and an object of the present invention is to alleviate the edge-like deterioration appearing on a block boundary and suppress the influence on a decoded image. An object is to provide an image encoding device, an image decoding device, an image encoding method, an image decoding method, an image transmission method, and a recording medium on which encoded image data is recorded.
【0026】また、本発明の他の目的は、あるバンドの
データが失われた場合においても復号画像上で致命的な
劣化を避けることができる画像伝送方法を提供すること
にある。Another object of the present invention is to provide an image transmission method capable of avoiding fatal deterioration on a decoded image even when data of a certain band is lost.
【0027】[0027]
【課題を解決するための手段】本発明は、サブバンドフ
ィルタを用いた画像信号の画像符号化装置において、入
力された画像信号から動きベクトルを検出する動きベク
トル検出手段と、入力された画像に対して、サブバンド
変換による周波数帯域分割処理を施し、サブバンド係数
を生成するサブバンド変換手段と、上記サブバンド係数
の差分を符号化し、符号化信号を生成する符号化手段
と、上記符号化信号を復号し、復号されたサブバンド係
数の差分を生成する復号手段と、上記動きベクトルと、
既に復元されている復元画像から上記サブバンド係数を
予測するための予測サブバンド係数を生成する動き補償
手段と、上記復号されたサブバンド係数の差分に上記予
測サブバンド係数を加算し、復元されたサブバンド係数
を生成する加算手段と、上記復元されたサブバンド係数
に対して逆サブバンド変換を施し、画像を復元する逆サ
ブバンド変換手段と、上記サブバンド係数と上記予測サ
ブバンド係数との差分を算出する係数差分算出手段とを
有することを特徴とする。According to the present invention, in an image coding apparatus for an image signal using a subband filter, a motion vector detecting means for detecting a motion vector from an input image signal, and an input image On the other hand, frequency band division processing by subband conversion is performed to generate a subband coefficient, subband conversion means, coding means for coding the difference between the subband coefficients and generating a coded signal, and the above coding Decoding means for decoding the signal and generating a difference between the decoded subband coefficients, the motion vector,
Motion compensation means for generating a predicted subband coefficient for predicting the subband coefficient from a restored image that has already been restored, and the predicted subband coefficient are added to the difference between the decoded subband coefficients and restored. Means for generating sub-band coefficients, inverse sub-band transforming means for subjecting the restored sub-band coefficient to inverse sub-band transformation, and restoring the image, the sub-band coefficient and the predicted sub-band coefficient And a coefficient difference calculating means for calculating the difference of
【0028】本発明に係る画像符号化装置では、上記サ
ブバンド変換手段により例えばウェーブレット係数を生
成する。In the image coding apparatus according to the present invention, for example, wavelet coefficients are generated by the subband conversion means.
【0029】また、本発明に係る画像符号化装置では、
上記動き補償手段において、例えば、復元された画像に
対して予測すべきウエーブレット係数が属する周波数帯
域に対応するように、フィルタリング処理を行い、その
出力から予測値を求める。In the image coding apparatus according to the present invention,
In the motion compensation means, for example, the restored image is subjected to filtering processing so as to correspond to the frequency band to which the wavelet coefficient to be predicted belongs, and the predicted value is obtained from the output.
【0030】本発明は、サブバンドフィルタを用いた画
像信号の画像復号装置において、動きベクトル及び符号
化されたサブバンド係数の差分値を少なくとも含む画像
信号を受信する受信手段と、上記動きベクトルと上記符
号化されたサブバンド係数の差分値を分離する分離手段
と、上記符号化されたサブバンド係数の差分値を復号
し、復号されたサブバンド係数の差分値を生成する復号
手段と、上記動きベクトルと復元された画像からサブバ
ンド係数を予測するための予測サブバンド係数を生成す
る動き補償手段と、上記復号されたサブバンド係数の差
分値と上記動き補償手段によって得られた予測ウエーブ
レット係数とを加算する係数加算手段と、上記係数加算
手段からのサブバンド係数に対して逆サブバンド変換を
施し、画像を復元する逆サブバンド変換手段とを有する
ことを特徴とする。According to the present invention, in an image signal image decoding apparatus using a sub-band filter, receiving means for receiving an image signal including at least a difference value between a motion vector and an encoded sub-band coefficient; Separation means for separating the difference value of the coded subband coefficients, decoding means for decoding the difference value of the coded subband coefficients, and generating a difference value of the decoded subband coefficients, and Motion compensation means for generating a prediction subband coefficient for predicting a subband coefficient from a motion vector and a restored image, a difference value between the decoded subband coefficients, and a prediction wavelet obtained by the motion compensation means Coefficient adding means for adding the coefficient and inverse subband conversion to the subband coefficient from the coefficient adding means to restore the image. And having an inverse subband transform means.
【0031】本発明に係る画像復号装置では、上記サブ
バンド係数として例えばウェーブレット係数を用いる。The image decoding apparatus according to the present invention uses, for example, wavelet coefficients as the subband coefficients.
【0032】また、本発明に係る画像復号装置では、上
記動き補償手段において、例えば、復元された画像に対
して予測すべきサブバンド係数が属する周波数帯域に対
応するように、フィルタリング処理を行い、その出力か
ら予測値を求める。Further, in the image decoding apparatus according to the present invention, in the motion compensating means, for example, the restored image is subjected to filtering processing so as to correspond to the frequency band to which the subband coefficient to be predicted belongs, The predicted value is obtained from the output.
【0033】本発明は、サブバンドフィルタを用いた画
像信号の画像符号化方法において、入力された画像信号
から動きベクトルを検出するステップと、入力された画
像に対して、サブバンド変換による周波数帯域分割処理
を施し、サブバンド係数を生成するステップと、上記サ
ブバンド係数の差分を符号化し、符号化信号を生成する
ステップと、上記符号化信号を復号し、復号されたサブ
バンド係数の差分を生成するステップと、上記動きベク
トルと既に復元されている復元画像から上記サブバンド
係数を予測するための予測サブバンド係数を生成するス
テップと、上記復号されたサブバンド係数の差分に上記
予測サブバンド係数を加算し、復元されたサブバンド係
数を生成するステップと、上記復元されたサブバンド係
数に対して逆サブバンド変換を施し、画像を復元するス
テップと、上記サブバンド係数と上記予測サブバンド係
数との差分を算出するステップとを有することを特徴と
する。According to the present invention, in the image coding method for an image signal using a subband filter, the step of detecting a motion vector from the input image signal, and the frequency band by subband conversion for the input image. Applying division processing to generate sub-band coefficients, encoding the difference between the sub-band coefficients, generating an encoded signal, decoding the encoded signal, and calculating the difference between the decoded sub-band coefficients A step of generating, a step of generating a predicted subband coefficient for predicting the subband coefficient from the motion vector and a restored image already restored, and a step of generating the predicted subband coefficient in a difference between the decoded subband coefficients. Adding the coefficients to generate the reconstructed subband coefficients, and the inverse subband for the reconstructed subband coefficients. Subjected to command conversion, characterized and restoring an image, that a step of calculating a difference between the subband coefficients and the predictive subband coefficients.
【0034】本発明に係る画像符号化方法では、上記サ
ブバンド係数として例えばウェーブレット係数を用い
る。In the image coding method according to the present invention, for example, wavelet coefficients are used as the subband coefficients.
【0035】また、本発明に係る画像符号化方法では、
上記予測サブバンド係数を生成するステップにおいて、
例えば、復元された画像に対して予測すべきサブバンド
係数が属する周波数帯域に対応するように、フィルタリ
ング処理を行い、その出力から予測値を求める。In the image coding method according to the present invention,
In the step of generating the predicted subband coefficient,
For example, filtering processing is performed on the restored image so as to correspond to the frequency band to which the subband coefficient to be predicted belongs, and the predicted value is obtained from the output.
【0036】本発明は、サブバンドフィルタを用いた画
像信号の画像復号方法において、動きベクトル及び符号
化されたサブバンド係数の差分値を少なくとも含む画像
信号を受信するステップと、上記動きベクトルと上記符
号化されたサブバンド係数の差分値を分離するステップ
と、上記符号化されたサブバンド係数の差分値を復号
し、復号されたサブバンド係数の差分値を生成するステ
ップと、上記動きベクトルと復元された画像からサブバ
ンド係数を予測するための予測サブバンド係数を生成す
るステップと、上記復号されたサブバンド係数の差分値
と上記生成された予測サブバンド係数とを加算するステ
ップと、上記加算されたサブバンド係数に対して逆サブ
バンド変換を施し、画像を復元するステップとからなる
ことを特徴とする。According to the present invention, in an image decoding method for an image signal using a subband filter, a step of receiving an image signal including at least a difference value between a motion vector and an encoded subband coefficient, the motion vector and the above A step of separating the difference value of the coded subband coefficients, a step of decoding the difference value of the coded subband coefficients, and a step of generating a difference value of the decoded subband coefficients, the motion vector and Generating a predicted subband coefficient for predicting a subband coefficient from the restored image; adding a difference value of the decoded subband coefficient and the generated predicted subband coefficient; Inverse sub-band transform is performed on the added sub-band coefficients, and an image is restored.
【0037】本発明に係る画像復号方法では、上記サブ
バンド係数として例えばウェーブレット係数を用いる。In the image decoding method according to the present invention, a wavelet coefficient is used as the subband coefficient.
【0038】本発明に係る画像復号方法では、上記予測
サブバンド係数を生成するステップにおいて、例えば、
復元された画像に対して予測すべきサブバンド係数が属
する周波数帯域に対応するようにフィルタリング処理を
行い、その出力から予測値を求める。In the image decoding method according to the present invention, in the step of generating the predicted subband coefficient, for example,
The restored image is filtered so as to correspond to the frequency band to which the subband coefficient to be predicted belongs, and the predicted value is obtained from the output.
【0039】本発明は、サブバンドフィルタを用いた画
像信号の画像伝送方法において、入力された画像信号か
ら動きベクトルを検出し、入力された画像に対してサブ
バンド変換による周波数帯域分割処理を施してサブバン
ド係数を生成し、上記サブバンド係数の差分を符号化し
て符号化信号を生成し、上記符号化信号を復号して復号
されたサブバンド係数の差分を生成し、上記動きベクト
ルと既に復元されている復元画像から上記サブバンド係
数を予測するための予測サブバンド係数を生成し、上記
復号されたサブバンド係数の差分に上記予測サブバンド
係数を加算して復元されたサブバンド係数を生成し、上
記復元されたサブバンド係数に対して逆サブバンド変換
を施して画像を復元し、上記サブバンド係数と上記予測
サブバンド係数との差分を算出し、上記動きベクトルと
上記差分サブバンド係数からなるビットストリームを伝
送するようにしたことを特徴とする。According to the present invention, in a method of transmitting an image signal using a subband filter, a motion vector is detected from the input image signal, and the input image is subjected to frequency band division processing by subband conversion. To generate a subband coefficient, encode the difference between the subband coefficients to generate a coded signal, decode the coded signal to generate a difference between the decoded subband coefficients, and generate the motion vector and the motion vector already. Generate a predicted subband coefficient for predicting the subband coefficient from the restored image being restored, and add the predicted subband coefficient to the difference between the decoded subband coefficients to obtain the restored subband coefficient. The generated subband coefficient is subjected to inverse subband transform to restore the image, and the subband coefficient and the predicted subband coefficient are Calculating a difference, characterized in that so as to transmit a bit stream consisting of the motion vector and the differential subband coefficients.
【0040】本発明に係る画像伝送方法において、上記
ビットストリームは、例えば、ヘッダを有しており、上
記ヘッダは、サブバンド係数の各バンド毎に付加されて
いる。In the image transmission method according to the present invention, the bit stream has, for example, a header, and the header is added to each band of subband coefficients.
【0041】本発明は、復号装置により復号可能な記録
信号が記録された記録媒体において、上記記録信号は、
入力された画像信号から検出された動きベクトルと、入
力された画像に対してサブバンド変換による周波数帯域
分割処理を施すことにより得られたサブバンド係数と、
予測サブバンド係数との差分サブバンド係数とを含んで
おり、上記予測サブバンド係数は、上記動きベクトルと
既に復元されている復元画像から生成され、上記復元画
像は、上記サブバンド係数の差分を符号化することによ
り得られた符号化信号を符号化信号を復号することによ
り、その復号されたサブバンド係数の差分を生成し、上
記復号されたサブバンド係数の差分に上記予測サブバン
ド係数を加算することにより得られた復元されたサブバ
ンド係数に対して逆サブバンド変換を施すことにより復
元されるようになされていることを特徴とする。According to the present invention, in a recording medium on which a recording signal that can be decoded by a decoding device is recorded, the recording signal is
A motion vector detected from the input image signal, and a subband coefficient obtained by performing frequency band division processing by subband conversion on the input image,
The difference between the predicted subband coefficient and the predicted subband coefficient is included, and the predicted subband coefficient is generated from the motion vector and the restored image that has already been restored, and the restored image indicates the difference between the subband coefficients. By decoding the coded signal obtained by coding the coded signal, the difference between the decoded subband coefficients is generated, and the predicted subband coefficient is added to the difference between the decoded subband coefficients. It is characterized in that the restored subband coefficient obtained by addition is subjected to inverse subband transform to be restored.
【0042】[0042]
【発明の実施の形態】以下、発明の実施の形態につい
て、図面を参照して詳細に説明する。Embodiments of the present invention will be described below in detail with reference to the drawings.
【0043】図1の(A)及び(B)は、本発明の第1
の実施形態であるウェーブレット変換を用いた画像符号
化装置及び画像復号装置の構成を示している。ただし、
画像I上の各画素値をI[i,j]で表し、これらが図
2に示す順序で走査されて入力されてくるものとする。
ここで、iは画像上での水平方向の座標を、jが垂直方
向の座標を表す。FIGS. 1A and 1B show the first embodiment of the present invention.
3 shows configurations of an image encoding device and an image decoding device using the wavelet transform according to the embodiment of FIG. However,
It is assumed that each pixel value on the image I is represented by I [i, j], and these are scanned and input in the order shown in FIG.
Here, i represents the horizontal coordinate on the image, and j represents the vertical coordinate.
【0044】画像符号化装置10において、入力画像
は、入力端子1を介してフレームメモリ2に供給され
る。フレームメモリ2に供給された入力画像は、ウエー
ブレット変換器3に供給される。ウエーブレット変換器
3は、入力された画像に対して周波数帯域の分割処理を
施す。これは、従来の画像符号化装置におけるDCT器
に相当するものである。ただし、従来の画像符号化装置
では、画像上で動き補償を行うために、DCT器は減算
器の後ろに存在していたが、本発明ではウエーブレット
変換後のウエーブレット係数に対して動き補償を行うた
め、ウエーブレット変換器3は減算器4の前に設置され
ている。また、ウェーブレット変換器3は、1画面の画
像を単位として、ウェーブレット変換を実行する。In the image coding apparatus 10, the input image is supplied to the frame memory 2 via the input terminal 1. The input image supplied to the frame memory 2 is supplied to the wavelet converter 3. The wavelet converter 3 performs frequency band division processing on the input image. This corresponds to the DCT device in the conventional image coding apparatus. However, in the conventional image coding apparatus, the DCT device is present after the subtractor in order to perform motion compensation on the image, but in the present invention, the motion compensation is performed on the wavelet coefficient after the wavelet transform. In order to perform the above, the wavelet converter 3 is installed before the subtractor 4. Further, the wavelet transformer 3 executes wavelet transformation in units of one screen image.
【0045】すなわち、この画像符号化装置10では、
入力画像がフレームメモリ2に供給され、このフレーム
メモリ2に保存された入力画像から動きベクトル検出器
11により動きベクトルvを検出する。動きベクトルの
検出法としては、通常、16画素×16画素のブロック
単位でのブロックマッチングが行われる。また、より高
い精度を実現するために、半画素単位のマッチングが行
われる。さらに、ブロックマッチングの代わりに、既に
知られている他の動きベクトル検出法を用いてもよい。That is, in this image coding apparatus 10,
The input image is supplied to the frame memory 2, and the motion vector v is detected by the motion vector detector 11 from the input image stored in the frame memory 2. As a method of detecting a motion vector, usually, block matching is performed for each block of 16 pixels × 16 pixels. Further, in order to realize higher accuracy, matching is performed on a half-pixel basis. Further, other known motion vector detection methods may be used instead of block matching.
【0046】また、この画像符号化装置10において、
入力画像は、フレームメモリ2を介してウエーブレット
変換器3に供給される。そして、ウェーブレット変換器
3は、入力画像に対してウェーブレット変換を実行する
ことにより得られるウエーブレット係数を減算器4に供
給する。減算器4は、ウエーブレット変換器3からのウ
エーブレット係数から後述する動き補償器12からの予
測ウェーブレット係数を減算し、差分ウエーブレット係
数を出力する。Further, in this image encoding device 10,
The input image is supplied to the wavelet converter 3 via the frame memory 2. Then, the wavelet transformer 3 supplies the wavelet coefficient obtained by executing the wavelet transform to the input image to the subtractor 4. The subtractor 4 subtracts the predictive wavelet coefficient from the motion compensator 12 described below from the wavelet coefficient from the wavelet transformer 3 and outputs a differential wavelet coefficient.
【0047】減算器4からの差分ウエーブレット係数
は、量子化器5に供給される。量子化器5は、減算器4
からの差分ウエーブレット係数に対して、適当なステッ
プサイズQを用いて、例えば、上述したような(2)式
のような量子化処理を行う。The differential wavelet coefficient from the subtractor 4 is supplied to the quantizer 5. The quantizer 5 is a subtractor 4
For example, the quantization process such as the above-described equation (2) is performed on the differential wavelet coefficient from (3) by using an appropriate step size Q.
【0048】量子化器5により量子化処理の施された差
分ウエーブレット係数は、可変長符号化器6及び逆量子
化器13に供給される。逆量子化器13では、量子化器
5で用いられたのと同じステップサイズにより、例え
ば、上述したような(3)式のような逆量子化処理が行
われる。The differential wavelet coefficient quantized by the quantizer 5 is supplied to the variable length encoder 6 and the inverse quantizer 13. In the inverse quantizer 13, for example, the inverse quantization processing as in the above-described expression (3) is performed with the same step size as that used in the quantizer 5.
【0049】逆量子化器13により逆量子化処理の施さ
れたデータすなわち差分ウエーブレット係数は、加算器
14に供給され、この加算器14に供給される後述する
動き補償器12からの予測ウェーブレット係数と加算さ
れる。そして、この加算値が、逆ウェーブレット変換器
15に送られる。The data subjected to the inverse quantization processing by the inverse quantizer 13, that is, the differential wavelet coefficient, is supplied to the adder 14, and the predictive wavelet from the motion compensator 12 which will be described later is supplied to the adder 14. It is added with the coefficient. Then, this added value is sent to the inverse wavelet transformer 15.
【0050】また、逆ウエーブレット変換器15は、従
来の画像符号化装置におけるIDCT器に対応するもの
であるが、上記と同じ理由により、加算器14の後ろに
設置されている。逆ウエーブレット変換が施された復元
画像は、動き補償器12に供給され、動き補償器12が
備える図示せぬフレームメモリに保存される。Further, the inverse wavelet transformer 15 corresponds to the IDCT device in the conventional image coding apparatus, but is installed after the adder 14 for the same reason as above. The restored image subjected to the inverse wavelet transform is supplied to the motion compensator 12 and stored in a frame memory (not shown) included in the motion compensator 12.
【0051】動き補償器12は、動きベクトル検出器1
1から送られてくる動きベクトルvと、図示せぬフレー
ムメモリに既に保存されている復元画像から、現在、符
号化すべきウエーブレット係数の予測を行う。動き補償
器12によって予測されたウエーブレット係数は、予測
ウェーブレット係数として減算器4に送られ、現在符号
化すべきウエーブレット係数との差分が計算される。ま
た、予測されたウエーブレット係数は、加算器14に送
られて、逆量子化された差分ウエーブレット係数に加算
され、ウエーブレット係数が復元される。The motion compensator 12 is the motion vector detector 1
The wavelet coefficient to be encoded at present is predicted from the motion vector v sent from 1 and the restored image already stored in the frame memory (not shown). The wavelet coefficient predicted by the motion compensator 12 is sent to the subtractor 4 as a predictive wavelet coefficient, and the difference from the wavelet coefficient to be encoded at present is calculated. Further, the predicted wavelet coefficient is sent to the adder 14 and added to the dequantized differential wavelet coefficient to restore the wavelet coefficient.
【0052】可変長符号化器6は、量子化器5によって
得られた量子化された差分ウエーブレット係数及び動き
ベクトル検出器11によって得られた動きベクトルvに
対して可変長符号化を施し、可変長符号化信号をヘッダ
付加器7に出力する。ヘッダ付加器7は、供給された可
変長符号化信号に後述する各ヘッダを付加して、ビット
ストリームとして出力する。このビットストームは、図
示せぬ記録装置に供給され、ビデオディスク(例えば、
光、磁気若しくは光磁気ディスク)、ビデオテープ又は
半導体メモリなどの記録媒体18に記録される。又は、
このビットストームは、図示せぬ伝送装置に供給され、
伝送路19を介して伝送される。The variable length encoder 6 performs variable length encoding on the quantized differential wavelet coefficient obtained by the quantizer 5 and the motion vector v obtained by the motion vector detector 11, The variable length coded signal is output to the header adder 7. The header adder 7 adds each header described below to the supplied variable length coded signal and outputs it as a bit stream. This bit storm is supplied to a recording device (not shown), and a video disc (for example,
It is recorded on a recording medium 18 such as an optical, magnetic or magneto-optical disk), a video tape or a semiconductor memory. Or
This bit storm is supplied to a transmission device (not shown),
It is transmitted via the transmission line 19.
【0053】また、画像復号装置20では、まず、ビデ
オディスク(例えば、光、磁気若しくは光磁気ディス
ク)、ビデオテープ又は半導体メモリなどの記録媒体1
8から図示せぬ再生装置によって再生されたビットスト
リームが入力端子21に供給される。若しくは、伝送路
19を介して伝送されたビットストリームが図示せぬ受
信装置によって受信され、その受信されたビットストリ
ームが入力端子21に供給される。そして、この入力端
子21に供給されたビットストリームが、逆可変長符号
化器22に供給される。逆可変長符号化器22は、画像
符号化装置10で付加されたヘッダを分離すると共に、
画像符号化装置10における可変長符号化器6の逆処理
を施し、ビットストリームから、量子化された差分ウェ
ーブレット係数及び動きベクトルvを復元する。逆可変
長符号化器22により得られた差分ウェーブレット係数
は、逆量子化器23を介して加算器24に供給され、ま
た、動きベクトルvは、動き補償器12に供給される。In the image decoding apparatus 20, first, the recording medium 1 such as a video disk (for example, an optical, magnetic or magneto-optical disk), a video tape or a semiconductor memory.
The bit stream reproduced by the reproducing apparatus (not shown) from 8 is supplied to the input terminal 21. Alternatively, the bit stream transmitted via the transmission path 19 is received by a receiving device (not shown), and the received bit stream is supplied to the input terminal 21. Then, the bit stream supplied to the input terminal 21 is supplied to the inverse variable length encoder 22. The inverse variable length encoder 22 separates the header added by the image encoding device 10, and
The inverse processing of the variable length encoder 6 in the image encoding device 10 is performed, and the quantized differential wavelet coefficient and the motion vector v are restored from the bit stream. The differential wavelet coefficient obtained by the inverse variable length encoder 22 is supplied to the adder 24 via the inverse quantizer 23, and the motion vector v is supplied to the motion compensator 12.
【0054】逆量子化器23及び加算器24は、画像符
号化装置10における逆量子化器13及び加算器14と
同じ機能を有するものであり、逆可変長符号化器22に
より得られた差分ウェーブレット係数に、上述した
(3)式の逆量子化処理を逆量子化器23により施し、
加算器91において後述する動き補償器26からの予測
ウェーブレット係数を加算することにより、ウェーブレ
ット係数を復元する。The inverse quantizer 23 and the adder 24 have the same functions as the inverse quantizer 13 and the adder 14 in the image encoding apparatus 10, and the difference obtained by the inverse variable length encoder 22. The wavelet coefficient is subjected to the above-described inverse quantization processing of the equation (3) by the inverse quantizer 23,
The wavelet coefficient is restored by adding the predicted wavelet coefficient from the motion compensator 26 described later in the adder 91.
【0055】そして、このようにして復元されたウェー
ブレット係数が、逆ウェーブレット変換器25に供給さ
れる。逆ウェーブレット変換器25は、画像符号化装置
10のものと同じ機能を有するもので、上記画像符号化
装置10への入力画像に対応する画像を復元して出力す
る。さらに、その復元された画像の各画素値は、予測画
像を生成するために、動き補償器26に備えられた図示
せぬフレームメモリに保存される。Then, the wavelet coefficient thus restored is supplied to the inverse wavelet transformer 25. The inverse wavelet transformer 25 has the same function as that of the image coding device 10, and restores and outputs an image corresponding to the input image to the image coding device 10. Further, each pixel value of the restored image is stored in a frame memory (not shown) provided in the motion compensator 26 to generate a predicted image.
【0056】動き補償器26は、画像符号化装置10の
ものと同じ機能を有するものであり、逆可変長符号化器
22によって得られた動きベクトルv及びこの動き補償
器12が備える図示せぬフレームメモリに既に保存され
ている画像を用いて、後述する予測値の算出方法によ
り、予測ウェーブレット係数を生成し、加算器24に供
給する。そして、加算器24は、差分ウェーブレット係
数と予測ウェーブレット係数とを加算する。The motion compensator 26 has the same function as that of the image coding apparatus 10, and the motion vector v obtained by the inverse variable length coder 22 and the motion compensator 12 are not shown. The image already stored in the frame memory is used to generate a prediction wavelet coefficient by the method of calculating a prediction value described later, and the prediction wavelet coefficient is supplied to the adder 24. Then, the adder 24 adds the difference wavelet coefficient and the predicted wavelet coefficient.
【0057】図3に、ウエーブレット変換器3の構成を
示す。このウエーブレット変換器3は、7つのバンドに
帯域分割する2段の帯域分割処理を示している。はじめ
に、入力された画像データI[i,j]は、画像上にお
ける水平方向に対する周波数帯域分割処理を施すため
に、解析用水平ローパスフィルタ30A,30Bに供給
される。これらの解析用フィルタとしては、例えば、下
記の表1に示すような係数を持つ線形フィルタを用いる
ことができる。FIG. 3 shows the configuration of the wavelet converter 3. This wavelet converter 3 shows a two-stage band division process for dividing the band into seven bands. First, the input image data I [i, j] is supplied to the analysis horizontal low-pass filters 30A and 30B in order to perform frequency band division processing in the horizontal direction on the image. As these analysis filters, for example, linear filters having coefficients as shown in Table 1 below can be used.
【0058】[0058]
【表1】 [Table 1]
【0059】なお、ウエーブレット分割/合成で用いる
解析用フィルタ、及び合成用フィルタは、次の式(4)
及び式(5)の関係が完全に又は近似的に満足されるよ
うに構成されている。The analysis filter and the synthesis filter used in the wavelet division / synthesis are given by the following equation (4).
And the relation of the equation (5) are satisfied completely or approximately.
【0060】[0060]
【数4】 (Equation 4)
【0061】[0061]
【数5】 (Equation 5)
【0062】H0(z)、H1(z)、F0(z)及びF1
(z)は、それぞれ解析用ローパスフィルタ、解析用ハ
イパスフィルタ、合成用ローパスフィルタ及び合成用ハ
イパスフィルタの伝達関数であり、Lは任意の整数であ
る。この拘束条件によって合成された信号が、帯域分割
前の入力信号と完全にあるいは近似的に一致することが
保証される。表1に示したフィルタに対応する合成用の
フィルタの係数として、下記の表2に示されるフィルタ
係数が用いられる。H 0 (z), H 1 (z), F 0 (z) and F 1
(Z) are transfer functions of the analysis low-pass filter, the analysis high-pass filter, the synthesis low-pass filter, and the synthesis high-pass filter, respectively, and L is an arbitrary integer. This constraint condition guarantees that the synthesized signal completely or approximately matches the input signal before band division. The filter coefficients shown in Table 2 below are used as the filter coefficients for synthesis corresponding to the filters shown in Table 1.
【0063】[0063]
【表2】 [Table 2]
【0064】解析用水平ローパスフィルタ30Aより得
られた水平低周波数帯域信号L[i,j]及び解析用水
平ハイパスフィルタ30Bにより得られた水平高周波数
帯域信号H[i,j]は、それぞれ対応する水平サブサ
ンプリング器31A,31Bに供給され、水平サブサン
プリング器31A,31Bによって次の式(6)のよう
な1サンプル毎の間引き処理が施される。The horizontal low frequency band signal L [i, j] obtained by the analysis horizontal low pass filter 30A and the horizontal high frequency band signal H [i, j] obtained by the analysis horizontal high pass filter 30B correspond to each other. Are supplied to the horizontal sub-sampling devices 31A and 31B, and the horizontal sub-sampling devices 31A and 31B perform thinning processing for each sample as in the following Expression (6).
【0065】[0065]
【数6】 (Equation 6)
【0066】水平サブサンプリング器31A,31Bに
より間引き処理が施された水平低周波数帯域信号L
[i’,j]及び水平高周波数帯域信号H[i’,j]
は供給されるメモリ32A,32Bは、解析用垂直ロー
パスフィルタ33A,33C及び解析用垂直ハイパスフ
ィルタ34B,34Dにおいて必要となるデータを確保
するための複数のラインメモリからなる記憶装置であ
り、垂直方向のフィルタリング処理に用いられるフィル
タのタップの数だけのラインメモリを備えている。例え
ば、表1に示すフィルタを用いる場合、タップ数の多い
ローパスフィルタに合わせて9本のラインメモリが設置
される。The horizontal low frequency band signal L subjected to the thinning processing by the horizontal sub-sampling devices 31A and 31B.
[I ', j] and horizontal high frequency band signal H [i', j]
The supplied memory 32A, 32B is a storage device including a plurality of line memories for securing data required in the analysis vertical low-pass filters 33A, 33C and the analysis vertical high-pass filters 34B, 34D. The number of line memories is equal to the number of taps of the filter used for the filtering process. For example, when the filter shown in Table 1 is used, nine line memories are installed in accordance with the low-pass filter having a large number of taps.
【0067】解析用垂直ローパスフィルタ33A,33
C及び解析用垂直ハイパスフィルタ34B,34Dで
は、垂直方向への周波数帯域分割を行うために、メモリ
32A,32Bに保存されたデータに対して、画像上に
おける垂直方向へのローパスフィルタリング処理及びハ
イパスフィルタリング処理が行われる。ここで用いるフ
ィルタは、上記水平方向へのフィルタリング処理で用い
たのと同じものを用いることもできる。Vertical low-pass filters for analysis 33A, 33
The C and analysis vertical high-pass filters 34B and 34D perform vertical low-pass filtering processing and high-pass filtering on the image with respect to the data stored in the memories 32A and 32B in order to perform frequency band division in the vertical direction. Processing is performed. As the filter used here, the same filter as that used in the horizontal filtering process may be used.
【0068】水平低周波数帯域信号L[i’,j]に対
する解析用垂直ローパスフィルタ33Aの出力信号LL
[i’,j]及び解析用垂直ハイパスフィルタ33Bの
出力信号LH[i’,j]、水平高周波数帯域信号H
[i’,j]に対する解析用垂直ローパスフィルタ33
Cの出力信号HL[i’,j]及び解析用垂直ハイパス
フィルタ33Dの出力信号HH[i’,j]は、それぞ
れ対応する垂直サブサンプル器34A,34B,34
C,34Dに供給され、画像上における垂直方向のサブ
サンプリング処理すなわち1ライン毎の間引き処理が、
次の式(7)のように行われる。The output signal LL of the analysis vertical low pass filter 33A for the horizontal low frequency band signal L [i ', j].
[I ′, j], the output signal LH [i ′, j] of the analysis vertical high pass filter 33B, and the horizontal high frequency band signal H.
Analysis vertical low-pass filter 33 for [i ', j]
The output signal HL [i ′, j] of C and the output signal HH [i ′, j] of the vertical high-pass filter for analysis 33D correspond to the corresponding vertical sub-samplers 34A, 34B, 34, respectively.
The sub-sampling processing in the vertical direction on the image, that is, the thinning processing for each line, is supplied to C and 34D.
It is performed as in the following Expression (7).
【0069】[0069]
【数7】 (Equation 7)
【0070】垂直サブサンプリング処理の施された各周
波数帯域信号LH[i’,j’],HL[i’,
j’],HH[i’,j’]は、そのままウエーブレッ
ト変換器3から出力される。一方、水平方向、垂直方向
ともにローパスフィルタリング処理の施されたLL
[i’,j’]は、2段目の解析用水平ローパスフィル
タ35A及び解析用水平ハイパスフィルタ35Bへの入
力信号とされ、水平サブサンプリング器36A,36
B、メモリ37A,37B、解析用垂直ローパスフィル
タ38A,38C、解析用垂直ハイパスフィルタ38
B,38D及び垂直サブサンプル器39A,39B,3
49,39Dにより、上記1段目の帯域分割処理と全く
同じ処理が施されて、さらに、帯域分割のなされた信号
LLLL[i”,j”],LHLL[i”,j”],H
LLL[i”,j”],HHLL[i”,j”]が生成
される。Each frequency band signal LH [i ', j'], HL [i ',
j ′] and HH [i ′, j ′] are output from the wavelet converter 3 as they are. On the other hand, LL subjected to low-pass filtering processing in both the horizontal and vertical directions.
[I ′, j ′] is an input signal to the second-stage analysis horizontal low-pass filter 35A and analysis horizontal high-pass filter 35B, and the horizontal sub-samplers 36A, 36
B, memories 37A and 37B, analysis vertical low-pass filters 38A and 38C, analysis vertical high-pass filter 38
B, 38D and vertical sub-samplers 39A, 39B, 3
49 and 39D perform exactly the same processing as the band division processing of the first stage, and further, band-divided signals LLLL [i ", j"], LHLL [i ", j"], H
LLL [i ", j"] and HHLL [i ", j"] are generated.
【0071】ウエーブレット変換器3からの出力信号L
LLL[i”,j”],LHLL[i”,j”],HL
LL[i”,j”],HHLL[i”,j”],LH
[i’,j’],HL[i’,j’],HH[i’,
j’]が、各周波数帯域に対応するウエーブレット係数
となる。Output signal L from the wavelet converter 3
LLL [i ", j"], LHLL [i ", j"], HL
LL [i ", j"], HHLL [i ", j"], LH
[I ', j'], HL [i ', j'], HH [i ',
j ′] is the wavelet coefficient corresponding to each frequency band.
【0072】また、図示しないが、3段目以降の帯域分
割処理は、出力信号LLLLに対して2段目の帯域分割
処理と同一の処理が実行されることになる。Although not shown, in the band division processing of the third and subsequent stages, the same processing as the band division processing of the second stage is executed for the output signal LLLL.
【0073】図4に、逆ウエーブレット変換器15の構
成を示す。ここでは、図3に示したウエーブレット変換
器3によって得られた各周波数帯域信号、すなわち、ウ
エーブレット係数LLLL[i”,j”],LHLL
[i”,j”],HLLL[i”,j”],HHLL
[i”,j”],LH[i’,j’],HL[i’,
j’]及びHH[i’,j’]が順次合成され、画像の
復元が行われる。FIG. 4 shows the configuration of the inverse wavelet converter 15. Here, each frequency band signal obtained by the wavelet converter 3 shown in FIG. 3, that is, the wavelet coefficients LLLL [i ″, j ″], LHLL.
[I ", j"], HLLL [i ", j"], HHLL
[I ", j"], LH [i ', j'], HL [i ',
j ′] and HH [i ′, j ′] are sequentially combined to restore the image.
【0074】はじめに、8つの各周波数帯域信号が受信
され、入力された周波数帯域信号の中で、2段階の帯域
分割処理が施されているウエーブレット係数LLLL
[i”,j”],LHLL[i”,j”],HLLL
[i”,j”],HHLL[i”,j”]の合成が行わ
れる。これらの信号は、はじめに、それぞれ複数のライ
ンメモリからなるメモリ40A,40B,40C,40
Dに保存され、後に続く合成用垂直ローパスフィルタ4
2A,42C及び合成用垂直ハイパスフィルタ42B,
42Dで必要とされるライン数のデータが確保される。
なお、ここで、必要なライン数は、垂直フィルタのタッ
プ数が奇数の場合には、(タップ数+1)/2本、タッ
プ数が偶数の場合には、タップ数/2本となる。例え
ば、ローパスフィルタとして表2に示すものを用いる場
合、2本のラインメモリが合成用垂直ローパスフィルタ
42A,42Cの前に設置される。ここで、メモリ40
A,40B,40C,40Dにおいて必要となるライン
メモリの数が画像符号化装置10側と異なるのは、後述
するように、合成用垂直ローパスフィルタ42A,42
C及び合成用垂直ハイパスフィルタ42B,42Dによ
る補間処理の前に垂直方向のアップサンプリング処理が
なされるためである。First, each of the eight frequency band signals is received, and among the input frequency band signals, the wavelet coefficient LLLL subjected to the two-stage band division processing.
[I ", j"], LHLL [i ", j"], HLLL
[I ", j"] and HHLL [i ", j"] are combined. First, these signals are stored in the memories 40A, 40B, 40C and 40, each of which is composed of a plurality of line memories.
Vertical low-pass filter for synthesis 4 stored in D
2A, 42C and a vertical high-pass filter for synthesis 42B,
Data for the number of lines required for 42D is secured.
Here, the required number of lines is (the number of taps + 1) / 2 when the number of taps of the vertical filter is odd, and the number of taps / 2 when the number of taps is even. For example, when the low pass filter shown in Table 2 is used, two line memories are installed in front of the combining vertical low pass filters 42A and 42C. Here, the memory 40
The number of line memories required in A, 40B, 40C, and 40D is different from that on the image encoding device 10 side, as will be described later, in combination vertical low-pass filters 42A and 42A.
This is because the up-sampling processing in the vertical direction is performed before the interpolation processing by the C and combining vertical high-pass filters 42B and 42D.
【0075】すなわち、メモリ40A,40B,40
C,40Dから読み出された信号LLLL[i”,
j”],LHLL[i”,j”],HLLL[i”,
j”],HHLL[i”,j”]が、それぞれ垂直アッ
プサンプリング器41A,41B,41C,41Dに供
給される。垂直アップサンプリング器41A,41B,
41C,41Dでは、次の式(8)に示すように、入力
される各ライン間にすべてがゼロである1ライン分のデ
ータを挿入する処理が行われる。That is, the memories 40A, 40B, 40
The signals LLLL [i ", read from C and 40D,
j ″], LHLL [i ″, j ″], HLLL [i ″,
j ″] and HHLL [i ″, j ″] are supplied to the vertical upsamplers 41A, 41B, 41C and 41D, respectively.
In 41C and 41D, as shown in the following equation (8), a process of inserting one line of data, which is all zero, is performed between the input lines.
【0076】[0076]
【数8】 (Equation 8)
【0077】垂直アップサンプリング器41A,41
B,41C,41Dにより垂直アップサンプリング処理
の施された各周波数帯域信号は、それぞれ、合成用垂直
ローパスフィルタ42A,42C及び合成用垂直ハイパ
スフィルタ42B,42Dによって垂直方向の補間処理
が行われ、対応する加算器43A,43Bに送られる。
ここで、前述したように、これらの合成フィルタは、対
応する解析フィルタと(4)式及び(5)式の関係を満
たす必要があり、解析フィルタとして表1に示すものを
用いた場合には、表2に示すフィルタを合成フィルタと
して用いることになる。Vertical up-samplers 41A, 41
The frequency band signals subjected to the vertical upsampling processing by B, 41C, and 41D are subjected to vertical interpolation processing by the combining vertical low-pass filters 42A and 42C and the combining vertical high-pass filters 42B and 42D, respectively. To the adders 43A and 43B.
Here, as described above, these synthesizing filters need to satisfy the relationship between the corresponding analysis filter and the expressions (4) and (5), and when the analysis filter shown in Table 1 is used, The filters shown in Table 2 will be used as synthesis filters.
【0078】合成用垂直ローパスフィルタ42A,42
C及び合成用垂直ハイパスフィルタ42B,42Dによ
り補間処理の施された周波数帯域信号LLLL[i”,
j’],LHLL[i”,j’],HLLL[i”,
j’],HHLL[i”,j’]は、それぞれ加算器4
3A,43Bによって加算された後、水平アップサンプ
リング器43A,43Bに供給され、次の式(9)のよ
うな水平方向のアップサンプリング処理が施される。Vertical low-pass filters for synthesis 42A, 42
C and the frequency band signal LLLL [i ", which is interpolated by the vertical high-pass filters for synthesis 42B and 42D,
j '], LHLL [i ", j'], HLLL [i",
j ′] and HHLL [i ″, j ′] are respectively added by the adder 4
After being added by 3A and 43B, they are supplied to the horizontal upsamplers 43A and 43B, and the upsampling processing in the horizontal direction as in the following equation (9) is performed.
【0079】[0079]
【数9】 [Equation 9]
【0080】そして、合成用水平ローパスフィルタ45
A及び合成用水平ハイパスフィルタ45Bは、水平アッ
プサンプリング処理の施された各信号に対して水平方向
のフィルタリング処理を施し、補間処理を行う。加算器
46は、補間処理の施された2つの信号LLL[i’,
j’],HLL[i’,j’]を加算することによっ
て、低周波数帯域信号LL[i’,j’]を復元する。
そして、この加算貴46により復元された低周波数帯域
信号LL[i’,j’]がメモリ47Aに記憶される。Then, the horizontal low-pass filter for synthesis 45
The A and synthesizing horizontal high-pass filter 45B performs a filtering process in the horizontal direction on each signal subjected to the horizontal upsampling process, and performs an interpolation process. The adder 46 receives the two signals LLL [i ′,
j ′] and HLL [i ′, j ′] are added to restore the low frequency band signal LL [i ′, j ′].
Then, the low frequency band signal LL [i ′, j ′] restored by the adder 46 is stored in the memory 47A.
【0081】次に、この復元されたLL[i,’j’]
と、入力された周波数帯域信号LH[i’,j’],H
L[i’,j’],HH[i’,j’]が、それぞれ対
応するメモリ47A,47B,47C,47Dから読み
出され、これらの読み出された信号に対して上記のよう
な帯域合成処理と同じ処理が施されて、画像信号I
[i,j]が復元される。Next, this restored LL [i, 'j']
And the input frequency band signals LH [i ', j'], H
L [i ', j'] and HH [i ', j'] are read from the corresponding memories 47A, 47B, 47C, 47D, respectively, and the bands as described above are applied to these read signals. The same processing as the combining processing is applied to the image signal I
[I, j] is restored.
【0082】すなわち、メモリ47A,47B,47
C,47Dから読み出された信号LL[i’,j’],
LH[i’,j’],HL[i’,j’],HH
[i’,j’]は、それぞれ垂直アップサンプリング器
48A,48B,48C,48Dにより垂直アップサン
プリング処理が施され、さらに、合成用垂直ローパスフ
ィルタ49A,49C及び合成用垂直ハイパスフィルタ
49B,49Dによって垂直方向の補間処理が施され
る。合成用垂直ローパスフィルタ49A,49C及び合
成用垂直ハイパスフィルタ49B,49Dにより補間処
理の施された周波数帯域信号LL[i’,j],LH
[i’,j],HL[i’,j],HH[i’,j]
は、それぞれ加算器50A,50Bによって加算された
後、水平アップサンプリング器51A,51Bに供給さ
れ、水平方向のアップサンプリング処理が施される。That is, the memories 47A, 47B, 47
The signals LL [i ', j'] read from C and 47D,
LH [i ', j'], HL [i ', j'], HH
[I ', j'] is subjected to vertical upsampling processing by the vertical upsampling units 48A, 48B, 48C, 48D, respectively, and further by the synthesis vertical low-pass filters 49A, 49C and the synthesis vertical high-pass filters 49B, 49D. Vertical interpolation processing is performed. Frequency band signals LL [i ', j], LH interpolated by the synthesizing vertical low-pass filters 49A, 49C and the synthesizing vertical high-pass filters 49B, 49D.
[I ', j], HL [i', j], HH [i ', j]
Are added by adders 50A and 50B, respectively, and then supplied to horizontal up-sampling devices 51A and 51B to be subjected to horizontal up-sampling processing.
【0083】そして、合成用水平ローパスフィルタ52
A及び合成用水平ハイパスフィルタ52Bは、水平アッ
プサンプリング処理の施された各信号に対して水平方向
のフィルタリング処理を施し、補間処理を行う。加算器
53は、補間処理の施された2つの信号L[i,j],
H[i,j]を加算することによって、画像信号I
[i,j]を復元する。Then, the horizontal low-pass filter for synthesis 52
The A and synthesizing horizontal high-pass filter 52B performs a filtering process in the horizontal direction on each signal subjected to the horizontal upsampling process, and performs an interpolation process. The adder 53 receives the two signals L [i, j], which have been subjected to the interpolation processing,
By adding H [i, j], the image signal I
Restore [i, j].
【0084】また、図示しないが、画像信号が10バン
ドの帯域に分割されているときには、入力信号LLLL
を形成するために、同様の合成処理が行われる。Although not shown, when the image signal is divided into 10 bands, the input signal LLLL
A similar compositing process is performed to form
【0085】図5に、動き補償器12,26における予
測値(予測ウェーブレット係数)の算出方法を示す。
I’は、逆ウエーブレット変換器15,25によって既
に復元され、動き補償器12,26の図示せぬフレーム
メモリに保存されている画像であり、W[p,q]を予
測すべきウエーブレット係数とする。いま、このウエー
ブレット係数が、N段目の帯域分割において得られたも
のであるとすると、この係数が得られるまでには水平方
向、及び垂直方向に対してそれぞれにN回のサブサンプ
リング処理が施されていることになる。このことは、こ
のW[p,q]がもとの画像上では、次式のような位置
(k,l)=(p×2N,q×2N)に対応するもので
あることを示しており、したがって、その予測値(予測
ウェーブレット係数)は、従来例における(1)式が示
すように、図示せぬフレームメモリ上の画像I’におけ
る、4つの位置(k’,l’),(k’+1,l’),
(k’,l’+1),(k’+1,l’+1)から計算
できることになる。ここで、k’,l’は、動きベクト
ル検出器11によって得られた、位置(k,l)に対応
する動きベクトルv=(vx(k,l),vy(k,
l))によって次の式(10),(11)のように表さ
れる整数の座標値である。FIG. 5 shows a method of calculating the predicted value (predicted wavelet coefficient) in the motion compensators 12 and 26.
I'is the image already restored by the inverse wavelet transformers 15 and 25 and stored in the frame memory (not shown) of the motion compensators 12 and 26, and the wavelet for which W [p, q] should be predicted. The coefficient. Now, assuming that this wavelet coefficient is obtained in the N-th band division, N times of subsampling processing is performed in each of the horizontal direction and the vertical direction until the coefficient is obtained. It has been given. This indicates that this W [p, q] corresponds to the position (k, l) = (p × 2N, q × 2N) as in the following equation on the original image. Therefore, the predicted value (predicted wavelet coefficient) is four positions (k ′, l ′), (in the image I ′ on the unillustrated frame memory, as shown by the equation (1) in the conventional example. k '+ 1, l'),
It can be calculated from (k ', l' + 1) and (k '+ 1, l' + 1). Here, k ′, l ′ is the motion vector v = (vx (k, l), vy (k, l) obtained by the motion vector detector 11 and corresponding to the position (k, l).
l)) is an integer coordinate value represented by the following equations (10) and (11).
【0086】[0086]
【数10】 (Equation 10)
【0087】[0087]
【数11】 [Equation 11]
【0088】ここで、(1)式と同様に、Tは、現在予
測を行っているウエーブレット係数に対応する画像が入
力された時刻と、フレームメモリ上にある画像I’が入
力された時刻の差であり、int(x)はxを越えない
最大の整数値を表している。ただし、フレームメモリ上
のデータは画像I’の画素値であり、ウエーブレット係
数W[p, q]の予測を行うためには、上記4つの位
置における画素値I’[k’,l’],I’[k’+
1,l],I’[k’,l’+1],I’[k’+1,
l’+1]をW[p,q]が属する周波数帯域のウエー
ブレット係数に変換する必要がある。以下に、画像I’
上の任意の位置における画素値を、所望の周波数帯域の
ウエーブレット係数に変換する方法を、図3に示したウ
エーブレット変換器14において、2段目の分割で得ら
れるウエーブレット係数LHLL[i”,j”]の予測
を例に説明する。Here, as in the equation (1), T is the time when the image corresponding to the currently predicted wavelet coefficient is input and the time when the image I'on the frame memory is input. , And int (x) represents the maximum integer value that does not exceed x. However, the data on the frame memory is the pixel value of the image I ′, and in order to predict the wavelet coefficient W [p, q], the pixel value I ′ [k ′, l ′] at the above four positions is calculated. , I '[k' +
1, l], I '[k', l '+ 1], I' [k '+ 1,
It is necessary to convert l ′ + 1] into wavelet coefficients in the frequency band to which W [p, q] belongs. Below, image I '
The wavelet coefficient LHLL [i] obtained by the second division in the wavelet converter 14 shown in FIG. 3 is a method for converting the pixel value at an arbitrary position above into a wavelet coefficient in a desired frequency band. ", J"] will be described as an example.
【0089】図3からもわかるように、ウエーブレット
係数LHLL[i”,j”]は、入力された画像信号に
対して、2回の水平ローパスフィルタと1回の垂直ロー
パスフィルタ、1回の垂直ハイパスフィルタを施すこと
によって算出されている。ただし、1段目では、入力画
像に対してフィルタリング処理が行われるのに対して、
2段目のフィルタリング処理は、水平方向、垂直方向と
もに1回のサブサンプリング処理が施された後に行われ
る。したがって、2段目のフィルタリング処理は、サブ
サンプリングがなされる前の画像に対して、もとのフィ
ルタ係数に(9)式のようなアップサンプリング処理を
行ったフィルタを施すことと等価になる。例えば、解析
フィルタとして表1に示すものを用いた場合、2段目で
のフィルタリング処理は、入力画像に対して、下記の表
3に示すフィルタを施すことに相当する。より一般的に
は、M 段目の分割で行われるフィルタリング処理は、
入力画像に対してもとのフィルタに(M−1)回のアッ
プサンプリング処理を行ったフィルタを施すことと等価
になる。As can be seen from FIG. 3, the wavelet coefficients LHLL [i ", j"] are two horizontal low-pass filters, one vertical low-pass filter, and one horizontal low-pass filter for the input image signal. It is calculated by applying a vertical high-pass filter. However, in the first stage, while the filtering process is performed on the input image,
The second-stage filtering process is performed after the sub-sampling process is performed once in both the horizontal and vertical directions. Therefore, the second-stage filtering process is equivalent to applying a filter obtained by subjecting the image before sub-sampling to the original filter coefficient to the up-sampling process as shown in equation (9). For example, when the analysis filter shown in Table 1 is used, the filtering process in the second stage corresponds to applying the filter shown in Table 3 below to the input image. More generally, the filtering process performed in the M-th division is
This is equivalent to applying a filter obtained by performing (M-1) times of upsampling to the original filter on the input image.
【0090】[0090]
【表3】 [Table 3]
【0091】したがって、図示せぬフレームメモリに保
存された画像I’上の画素値をLHLL[i”,j”]
の属する周波数帯域のウエーブレット係数に変換するた
めには、水平方向には、もとの解析用ローパスフィルタ
フィルタと、それをアップサンプリングしたローパスフ
ィルタを、垂直方向には、解析用ローパスフィルタと、
解析用ハイパスフィルタをアップサンプリングしたハイ
パスフィルタを施せばよい。Therefore, the pixel value on the image I'stored in the frame memory (not shown) is set to LHLL [i ", j"].
In order to convert to the wavelet coefficient of the frequency band to which the belongs, the original analysis low-pass filter filter and the low-pass filter obtained by up-sampling the same in the horizontal direction, and the analysis low-pass filter in the vertical direction,
A high-pass filter obtained by up-sampling the analysis high-pass filter may be applied.
【0092】ところで、次の式(12)に示すように、
連続する2つのフィルタリング処理は、フィルタどうし
の畳込みによって得られる新たな1つのフィルタによっ
て実現できる。ここで、f,gは任意の線形フィルタで
あり、*はフィルタリング処理すなわち畳み込み演算を
表す。By the way, as shown in the following equation (12),
Two consecutive filtering processes can be realized by a new filter obtained by convoluting filters. Here, f and g are arbitrary linear filters, and * represents a filtering process, that is, a convolution operation.
【0093】[0093]
【数12】 (Equation 12)
【0094】したがって、あらかじめ、ウエーブレット
分割に用いた解析用フィルタに対するアップサンプリン
グ処理や、それによって得られたフィルタどうしの畳み
込み演算を行い、各周波数帯域に対応する水平方向のフ
ィルタ、及び垂直方向のフィルタを生成しておくことが
できる。このように生成されたフィルタ(以後、結合解
析フィルタと呼ぶ)を用いることにより、画像I’上の
任意の位置におけるウエーブレット係数W’(k’,
l’)は、図6に示すような処理によって算出すること
ができる。Therefore, the upsampling process for the analysis filter used for the wavelet division and the convolution operation of the filters obtained by the upsampling process are performed in advance, and the horizontal filter corresponding to each frequency band and the vertical filter corresponding to each frequency band are obtained. A filter can be generated. By using the filter generated in this way (hereinafter referred to as a joint analysis filter), the wavelet coefficient W '(k',
l ′) can be calculated by the processing shown in FIG.
【0095】すなわち、現在の注目位置(k’,l’)
及びその上下数ライン上で同じ水平座標k’を持つ位置
において出力が得られるように、水平方向の結合解析フ
ィルタを置き、各ラインにおいて、フィルタ係数と対応
する画素値との内積演算を行い、フィルタの出力値を求
める。このとき、用いるラインの数は、垂直方向の結合
解析フィルタのタップ数と等しくなるようにし、また、
その垂直方向のフィルタをこれらのラインに対して施し
たときに、垂直座標l’において出力値が得られるよう
に選ぶ。複数ラインに対する水平方向の演算後、得られ
た垂直方向のデータ列と垂直方向の結合解析フィルタの
係数の内積演算を行うことにより、位置(k’,l’)
におけるウエーブレット係数W’(k’,l’)が得ら
れることになる。同様にして、図5に示す4つの位置に
おけるウエーブレット係数W’(k’,l’),W’
(k’+1,l’),W’(k’,l’+1),W’
(k’+1,l’+1)を求め、次の式(13)に代入
することによって、現在予測すべき係数W(p,q)の
予測値W”(p,q)が得られる。That is, the current position of interest (k ', l')
And a horizontal combination analysis filter is placed so that outputs can be obtained at positions having the same horizontal coordinate k'on the upper and lower lines, and in each line, the inner product operation of the filter coefficient and the corresponding pixel value is performed, Obtain the output value of the filter. At this time, the number of lines used should be equal to the number of taps of the vertical coupling analysis filter, and
It is chosen so that when the vertical filter is applied to these lines, the output value is obtained at the vertical coordinate l '. After the horizontal operation is performed on a plurality of lines, the inner product operation of the obtained vertical data string and the coefficient of the vertical joint analysis filter is performed to obtain the position (k ', l').
Thus, the wavelet coefficient W '(k', l ') at is obtained. Similarly, the wavelet coefficients W ′ (k ′, l ′), W ′ at the four positions shown in FIG.
(K '+ 1, l'), W '(k', l '+ 1), W'
The predicted value W ″ (p, q) of the coefficient W (p, q) to be currently predicted is obtained by obtaining (k ′ + 1, l ′ + 1) and substituting it in the following equation (13).
【0096】[0096]
【数13】 (Equation 13)
【0097】次に、上述したようなこの動き補償器12
の動作について、フローチャートを用いて説明する。図
7は、動き補償器12における予測値の求めるための動
作のフローチャートを示している。Next, this motion compensator 12 as described above is used.
The operation of will be described using a flowchart. FIG. 7 shows a flowchart of the operation for obtaining the predicted value in the motion compensator 12.
【0098】まず、ステップS1において、予測すべき
ウェーブレット係数W[p,q]が対応するもとの画像
上での位置(k,l)が、式(k,l)=(p×2N,
q×2N)に基づいて求められる。First, in step S1, the position (k, l) on the original image corresponding to the wavelet coefficient W [p, q] to be predicted is expressed by the equation (k, l) = (p × 2N,
q * 2N).
【0099】次に、ステップS2に進み、動きベクトル
検出器11からの動きベクトルv=(vx(k,l),
vy(k,l))を用いて、もとの画像上に画像Iにお
ける4つの位置(k,l)、(k+1,l),(k,l
+1),(k+1,l+1)に対応する動き補償器12
の図示せぬフレームメモリ上に記憶されている画像I’
における4つの位置(k’,l’),(k’+1,
l’),(k’,l’+1),(k’+1,l’+1)
が、順に、上述の式(10),(11)によって計算さ
れる。Next, in step S2, the motion vector v = (vx (k, l), from the motion vector detector 11 is calculated.
vy (k, l)) on the original image to four positions (k, l), (k + 1, l), (k, l) in the image I.
Motion compensator 12 corresponding to (+1), (k + 1, l + 1)
Image I ′ stored in the frame memory (not shown) of
At four positions (k ', l'), (k '+ 1,
l '), (k', l '+ 1), (k' + 1, l '+ 1)
Are sequentially calculated by the above equations (10) and (11).
【0100】ステップS3では、動き補償器12の図示
せぬフレームメモリ上に記憶されている画像I’におけ
る4つの位置のすべてが計算されたかどうかが判定さ
れ、もし、4つの位置のすべてが計算されていない場合
は、ステップS2に戻り、計算を続ける。また、もし4
つの位置のすべての計算が終了した場合には、ステップ
S4に進む。In step S3, it is determined whether or not all four positions in the image I'stored in the frame memory (not shown) of the motion compensator 12 have been calculated. If not, the process returns to step S2 to continue the calculation. Also, if 4
If all the calculations for one position have been completed, the process proceeds to step S4.
【0101】ステップS4において、ステップS2で計
算された4つの位置(k’,l’),(k’+1,
l’),(k’,l’+1),(k’+1,l’+1)
における画素値I’[k’,l’],I’[k’+1,
l],I’[k’,l’+1],I’[k’+1,l’
+1]及びこれらが対応するウエーブレット係数を算出
するために必要な近傍画素値がフレームメモリから読み
出され、予測すべきウェーブレット係数W[p, q]
が属する周波数帯域に対応する結合解析フィルタ係数を
用いて、予測すべきウェーブレット係数W[p, q]
が属する周波数帯域のウェーブレット係数W’(k’,
l’),W’(k’+1,l’),W’(k’,l’+
1),W’(k’+1,l’+1)に順に変換される。In step S4, the four positions (k ', l') and (k '+ 1, calculated in step S2 are calculated.
l '), (k', l '+ 1), (k' + 1, l '+ 1)
Pixel values I '[k', l '], I' [k '+ 1,
l], I '[k', l '+ 1], I' [k '+ 1, l'
+1] and neighboring pixel values necessary for calculating the wavelet coefficients corresponding to these are read out from the frame memory, and the wavelet coefficients W [p, q] to be predicted are calculated.
Of the wavelet coefficient W [p, q] to be predicted using the joint analysis filter coefficient corresponding to the frequency band to which
Of the frequency band to which W belongs (W '(k',
l '), W' (k '+ 1, l'), W '(k', l '+
1), W '(k' + 1, l '+ 1).
【0102】ステップS5では、4つのウェーブレット
係数W’(k’,l’),W’(k’+1,l’),
W’(k’,l’+1),W’(k’+1,l’+1)
のすべてが計算されたかどうかが判定され、4つの画素
値のすべてが計算されていない場合は、ステップS4に
戻り、計算を続ける。また、もし4つのウェーブレット
係数のすべての計算が終了した場合には、ステップS6
に進む。In step S5, four wavelet coefficients W '(k', l '), W' (k '+ 1, l'),
W '(k', l '+ 1), W' (k '+ 1, l' + 1)
Has been calculated, and if all four pixel values have not been calculated, the process returns to step S4 to continue the calculation. If all four wavelet coefficients have been calculated, step S6
Proceed to.
【0103】ステップS6において、ステップS4で計
算された4つのウェーブレット係数W’(k’,
l’),W’(k’+1,l’), W’(k’,l’
+1),W’(k’+1,l’+1)を用いて、式(1
3)によって、予測すべきウェーブレット係数W(p,
q)の予測値W”(p,q)が計算される。このような
処理が、予測すべきウェーブレット係数W(p,q)毎
に実行される。In step S6, the four wavelet coefficients W '(k',
l '), W' (k '+ 1, l'), W '(k', l '
+1), W ′ (k ′ + 1, l ′ + 1), and the equation (1
3), the wavelet coefficient W (p,
The predicted value W ″ (p, q) of q) is calculated. Such processing is executed for each wavelet coefficient W (p, q) to be predicted.
【0104】次に、本発明の画像符号化装置10より出
力されるビットストリームのフォーマットについて、図
8乃至図13を参照して説明する。図8乃至図13は、
ISO−IEC/JTC1/SC29/WG11 IS
13818−2 で用いられている書式で、本実施形
態のビットストリームのフォーマットを示したものであ
る。太字で示されている部分が実際に伝送されるフラグ
である。本発明における符号化画像信号は、シーケン
ス、GOP(グループ・オブ・ピクチャ)、ピクチャ、
マクロブロック及びブロックの各層からなる階層構造を
有する。シーケンス層は、一連の同じ属性を有する画面
グループからなる。GOP層は、ランダム・アクセスの
単位となる画面グループの最小単位となる。ピクチャ層
は、共通な属性を有する1枚の画面からなる。マクロブ
ロック層は、同一位置に存在する各周波数帯域の係数の
集まり(画素ブロックからなる。ブロック層は、変換係
数、つまり、この場合、ウェーブレット係数そのものか
らなる。各層については、後述する。Next, the format of the bit stream output from the image coding apparatus 10 of the present invention will be described with reference to FIGS. 8 to 13. 8 to 13 show
ISO-IEC / JTC1 / SC29 / WG11 IS
The format used in 13818-2 is the format of the bit stream of this embodiment. The part shown in bold is the flag that is actually transmitted. The coded image signal in the present invention includes a sequence, a GOP (group of pictures), a picture,
It has a hierarchical structure composed of layers of macroblocks and blocks. The sequence layer consists of a series of screen groups with the same attributes. The GOP layer is the minimum unit of the screen group that is the unit of random access. The picture layer is composed of one screen having common attributes. The macroblock layer is a collection of coefficients (pixel blocks) existing in the same position in each frequency band. The block layer is composed of transform coefficients, that is, wavelet coefficients themselves. Each layer will be described later.
【0105】図14は、ウェーブレット変換により10
バンドに分割帯域に分割した場合のバンドを示してい
る。また、図15は、ビットストリームの構成ためのヘ
ッダ付加器7の構成を示している。シーケンスヘッダ回
路61においてビットストリームの先頭にシーケンスヘ
ッダが付加(伝送)される。これによりデコーダが初期
化される。その後、GOPヘッダ回路62においてGO
Pヘッダが付加(伝送)される。さらに、その後、ピク
チャヘッダ回路63においてピクチャヘッダが、また、
マクロブロックヘッダ回路64においてマクロブロック
ヘッダが付加(伝送)される。その後、そのマクロブロ
ックにおけるウェーブレット係数がビットストリームと
して伝送される。さらに、同一のピクチャに存在するマ
クロブロックの伝送が終了した後、次のピクチャの処理
に移り、同一の動作が繰り返される。また、同一のGO
Pに存在するピクチャの処理が終了した後、次のGOP
に移り、同一の動作が実行される。In FIG. 14, 10 is obtained by the wavelet transform.
The band is shown when the band is divided into bands. Further, FIG. 15 shows the structure of the header adder 7 for forming the bit stream. The sequence header circuit 61 adds (transmits) a sequence header to the beginning of the bit stream. This initializes the decoder. After that, GO in the GOP header circuit 62
A P header is added (transmitted). Furthermore, after that, the picture header in the picture header circuit 63
The macroblock header circuit 64 adds (transmits) a macroblock header. Then, the wavelet coefficient in the macroblock is transmitted as a bitstream. Further, after the transmission of the macroblocks existing in the same picture is completed, the processing for the next picture is started and the same operation is repeated. Also, the same GO
After the processing of the picture existing in P is completed, the next GOP
Then, the same operation is executed.
【0106】ここで、マクロブロックについて説明す
る。マクロブロックは、各周波数帯域の同一位置に存在
する係数から構成される。すなわち、図14に示される
ように、例えば、LLLLLLバンド、LLLLHLバ
ンド、LLLLHHバンド及びLLLLLHバンドの同
一位置に存在するそれぞれ1つのウェーブレット係数、
その上記4つの周波数帯域の係数の存在する位置に対応
する、LLHLバンド、LLHHバンド及びLLLHバ
ンドの同一位置に存在するそれぞれ4つのウェーブレッ
ト係数、その上記7つの周波数帯域の係数の存在する位
置に対応する、HLバンド、HHバンド、LHバンドの
同一位置に存在するそれぞれ16つのウェーブレット係
数を有する、合計64個のウェーブレット係数から構成
される。つまり、これらの係数は、周波数帯域は異なる
が、もとの画像上における同一の位置に存在する画像か
ら得られたものである。各ヘッダのフォーマットについ
て、以下に説明する。Here, the macro block will be described. A macroblock is composed of coefficients existing at the same position in each frequency band. That is, as shown in FIG. 14, for example, each of the LLLLLL band, the LLLLHL band, the LLLLHH band, and the LLLLLLH band, each of which has one wavelet coefficient at the same position,
Corresponding to the positions where the coefficients of the above four frequency bands exist, respectively corresponding to four wavelet coefficients existing at the same positions of the LLHL band, the LLHH band and the LLLH band, and the positions where the coefficients of the above seven frequency bands exist. The HL band, the HH band, and the LH band each have 16 wavelet coefficients existing at the same position, and are composed of a total of 64 wavelet coefficients. That is, these coefficients are obtained from images existing in the same position on the original image, though the frequency bands are different. The format of each header will be described below.
【0107】図8は、シーケンスヘッダのフォーマット
を示している。sequence_start_cod
eは、32ビットのコードでシーケンスヘッダの開始を
示している。このsequence_start_co
deの他、各種スタートコードは、固有のビット列であ
り、このビットストリームの他の部分で発生することは
ないコードである。したがって、何らかの原因でビット
ストリームの一部が失われるなど、画像が復号できなく
なった場合、このスタートコードを見い出すことによ
り、再び復号することが可能となる。horizont
al_size_valueは、画像の横の画素数を1
2ビットで示しており、vertical_size_
valueは、画像の縦の画素数を12ビットで示して
いる。aspect_ratio_informati
onは、画像のアスペクト比を4ビットで示しており、
frame_rate_codeは、画像の表示周期を
4ビットで示している。bit_rate_value
は、毎秒のビット数を18ビットで示しており、mar
ker_bitは、“1”という1ビットの値であり、
vbv_buffer_size_valueは、符
号発生量制御用仮想バッファの大きさを決めるパラメー
タを10ビットで示している。FIG. 8 shows the format of the sequence header. sequence_start_cod
e is a 32-bit code and indicates the start of the sequence header. This sequence_start_co
Other than de, various start codes are unique bit strings and are codes that do not occur in other parts of this bit stream. Therefore, if the image cannot be decoded due to a part of the bitstream being lost for some reason, it becomes possible to decode again by finding this start code. horizont
al_size_value is the number of horizontal pixels of the image is 1
It is indicated by 2 bits, and vertical_size_
value indicates the number of vertical pixels of the image in 12 bits. aspect_ratio_informati
on indicates the image aspect ratio in 4 bits,
The frame_rate_code indicates the display cycle of the image with 4 bits. bit_rate_value
Shows the number of bits per second as 18 bits, and mar
ker_bit is a 1-bit value of “1”,
The vbv_buffer_size_value is a 10-bit parameter that determines the size of the code generation amount control virtual buffer.
【0108】また、このシーケンスヘッダの中の wa
velet_layer_numberは、逆ウエーブ
レット変換回路15が幾つのレイヤ(4バンド合成帯域
合成フィルタバンクの数)で構成されているかを示す4
ビットのフラグである。また、wavelet_coe
fficients()は、逆ウエーブレット変換回路
の各レイヤのフィルタで用いられるフィルタ係数を定義
している。ここで、逆ウエーブレット変換の各フィルタ
係数を伝送するには2通りの方法がある。[Wa] in this sequence header
"velet_layer_number" indicates how many layers (the number of four-band synthesis band synthesis filter banks) the inverse wavelet transform circuit 15 is composed of.
It is a bit flag. Also, wavelet_coe
fincients () defines the filter coefficient used in the filter of each layer of the inverse wavelet transform circuit. Here, there are two methods for transmitting each filter coefficient of the inverse wavelet transform.
【0109】図13の(A)は、フィルタ係数に対応す
るフラグを伝送する場合のフォーマットを示している。
つまり、各レイヤの各フィルタで持ちいるフィルタ係数
が、あらかじめ何組か定められており、そのどれを用い
るかを示すフラグを伝送する。ハイパスフィルタ及びロ
ーパスフィルタの組合せは、どちらか一方を決めること
により、決定される。このため、各レイヤに1つこのイ
ンデクスを伝送すれば十分である。図13の(A)で
は、このインデクス wavelet_coeff_i
ndexは、8ビットのフラグであり、256通りのフ
ィルタ係数の組合せを指定することが可能である。本実
施形態では8ビットであるが、任意のビット数で良い。FIG. 13A shows the format for transmitting the flag corresponding to the filter coefficient.
That is, the number of filter coefficients possessed by each filter of each layer is determined in advance, and a flag indicating which one is used is transmitted. The combination of the high-pass filter and the low-pass filter is determined by determining either one. Therefore, it is sufficient to transmit one index to each layer. In FIG. 13A, this index wavelet_coeff_i
The index is an 8-bit flag, and it is possible to specify 256 combinations of filter coefficients. In the present embodiment, it is 8 bits, but any number of bits may be used.
【0110】また、もう一つの逆ウエーブレット変換係
数の伝送フォーマットを図13の(B)に示す。これ
は、各レイヤで持ちいるフィルタ係数を直接伝送する方
法である。この場合、ローパスフィルタ及びハイパスフ
ィルタのタップ数とそのタップ数に応じたフィルタ係数
が伝送される。つまり、ローパスフィルタのタップ数
は、lowpass_tap_numberによって8
ビットのフラグで示され、そのタップ数に応じたフィル
タ係数が、wavelet_coeff[]で伝送され
る。また、ハイパスフィルタのタップ数は、highp
ass_tap_numberによって8ビットのフラ
グで示され、そのタップ数に応じたフィルタ係数が、w
avelet_coeff[]で伝送される。Further, another transmission format of the inverse wavelet transform coefficient is shown in FIG. 13 (B). This is a method of directly transmitting the filter coefficient possessed by each layer. In this case, the number of taps of the low-pass filter and the high-pass filter and the filter coefficient according to the number of taps are transmitted. That is, the number of taps of the low-pass filter is 8 according to lowpass_tap_number.
A filter coefficient indicated by a bit flag and corresponding to the number of taps is transmitted by wavelet_coeff []. In addition, the number of taps of the high-pass filter is high
It is indicated by an ass_tap_number with an 8-bit flag, and the filter coefficient corresponding to the number of taps is w
It is transmitted as aavelet_coeff [].
【0111】また、シーケンスヘッダ内のload_i
ntra_weighting_matrixおよびl
oad_non_intra_weighting_m
atrixは、イントラマクロブロック及びそれ以外の
マクロブロックで用いる重み係数をダウンロードするか
どうかを示すフラグである。ダウンロードする場合、そ
れぞれのフラグのあとに重み係数が続くことになる。こ
れは、8ビット×(wavelet_layer_nu
mber×3+1)のデータサイズになる。(バンドの
数は wavelet_layer_numberで決
定され、それは、wavelet_layer_num
ber×3+1となる。)イントラマクロブロックとそ
れ以外のマクロブロックでは用いる重み係数が異なる。Also, load_i in the sequence header
ntra_weighting_matrix and l
oad_non_intra_weighting_m
Atrix is a flag indicating whether or not to download the weighting factors used in the intra macroblock and the other macroblocks. When downloading, each flag will be followed by a weighting factor. This is 8 bits x (wavelet_layer_nu
The data size is m ber × 3 + 1). (The number of bands is determined by wavelet_layer_number, which is wavelet_layer_num
ber × 3 + 1. ) The weight coefficient used is different between the intra macroblock and other macroblocks.
【0112】次に、GOPヘッダが付加(伝送)され
る。これは、GOPの先頭を示すヘッダで、主にランダ
ムアクセスのために用いられる。図9は、GOPヘッダ
を示している。GOPヘッダは、group_star
t_codeは、GOPの開始を示すコードであり、3
2ビットで表現されている。time_codeは、シ
ーケンスの先頭からの時間を25ビットのフラグで示し
ている。closed_gopは、1ビットのフラグで
あり、GOP内の画像が他のGOPからの独立再生可能
なことを示している。broken_linkは、先行
するGOpデータが編集のためには使用不可であること
を示している。1ビットの GOPヘッダの次には、各
ピクチャのデータの始まりを示すピクチャヘッダが付加
(伝送)される。Next, the GOP header is added (transmitted). This is a header indicating the beginning of GOP and is mainly used for random access. FIG. 9 shows the GOP header. GOP header is group_star
t_code is a code indicating the start of GOP and is 3
It is represented by 2 bits. The time_code indicates the time from the beginning of the sequence with a 25-bit flag. Closed_gop is a 1-bit flag and indicates that an image in a GOP can be independently reproduced from another GOP. broken_link indicates that the preceding GOp data cannot be used for editing. Next to the 1-bit GOP header, a picture header indicating the beginning of the data of each picture is added (transmitted).
【0113】図10は、ピクチャヘッダのフォーマット
を示している。number_of_macroblo
ckは、そのフレームに存在するマクロブロックの数を
示す16ビットのフラグである。他のフラグとして、p
icture_start_codeは、ピクチャの開
始を示す32ビットのフラグであり、temporal
_referenceは、ピクチャの一貫No.であ
り、10ビットのフラグである。picture_co
ding_typeは、ピクチャタイプを示す3ビット
のフラグであり、vbv_delayは、ランダム・ア
クセス時のバッファの初期状態を示す16ビットのフラ
グである。また、full_pel_forward_
vectorは、動きベクトルの精度が整数か半画素単
位かを示す1ビットのフラグであり、forward_
f_codeは、順方向動きベクトルの記述の範囲を示
している。full_pel_backward_ve
ctorは、動きベクトルの精度が整数か半画素単位か
を示す1ビットのフラグであり、backward_f
_codeは、順方向動きベクトルの記述の範囲を示し
ている。FIG. 10 shows the format of the picture header. number_of_macroblo
ck is a 16-bit flag indicating the number of macroblocks existing in the frame. As another flag, p
image_start_code is a 32-bit flag indicating the start of a picture, and is a temporal
_Reference is the consistent No. of the picture. And is a 10-bit flag. picture_co
ding_type is a 3-bit flag indicating the picture type, and vbv_delay is a 16-bit flag indicating the initial state of the buffer during random access. Also, full_pel_forward_
vector is a 1-bit flag indicating whether the precision of the motion vector is an integer or a half-pixel unit, and forward_
f_code indicates the range of description of the forward motion vector. full_pel_backward_ve
ctor is a 1-bit flag indicating whether the precision of the motion vector is an integer or a half-pixel unit, and backword_f
_Code indicates the range of description of the forward motion vector.
【0114】さらに、図12の(A)及び(B)は、動
きベクトルヘッダのフォーマットを示している。mot
ion_vectors(s)は、サブルーチンmot
ion_vector(s)を有しており、motio
n_horizontal_codeは、マクロブロッ
クの動きベクトルの水平成分と前の動きベクトルとの差
分を可変長符号化したものを示したものであり、1から
11ビットのいずれかのフラグである。motion_
horizontal_rは、motion_hori
zontal_codeと一緒に使用されるフラグであ
り、1から8ビットにいずれかで示される。dmv_h
orizontalは、デュアル・プライム予測の場合
の水平差分ベクトルを表す可変長符号化であり、1若し
くは2ビットのいずれかのフラグである。motion
_vertical_codeは、マクロブロックの動
きベクトルの垂直成分と前の動きベクトルとの差分を可
変長符号化したものを示したものであり、1から11ビ
ットのいずれかのフラグである。motion_ver
tical_rは、motion_vertical_
codeと一緒に使用されるフラグであり、1から8ビ
ットにいずれかで示される。dmv_vertical
は、デュアル・プライム予測の場合の水平差分ベクトル
を表す可変長符号化であり、1若しくは2ビットのいず
れかのフラグである。Further, FIGS. 12A and 12B show the format of the motion vector header. mot
ion_vectors (s) is a subroutine mot
has ion_vector (s), and
The n_horizontal_code is a variable-length encoded version of the difference between the horizontal component of the motion vector of the macroblock and the previous motion vector, and is a flag of 1 to 11 bits. motion_
horizontal_r is motion_hori
This flag is used together with the zone_code and is indicated by any one of 1 to 8 bits. dmv_h
The horizontal is a variable length coding that represents a horizontal difference vector in the case of dual prime prediction, and is a flag of either 1 or 2 bits. motion
_Vertical_code represents a difference between the vertical component of the motion vector of the macroblock and the previous motion vector, which is variable-length coded, and is a flag of 1 to 11 bits. motion_ver
temporal_r is motion_vertical_
This flag is used together with the code and is indicated by any one of 1 to 8 bits. dmv_vertical
Is a variable length coding that represents a horizontal difference vector in the case of dual prime prediction, and is a flag of either 1 or 2 bits.
【0115】次に、ピクチャデータの第1の伝送方法に
ついて説明する。動き補償や量子化がマクロブロック単
位で行われる場合を考える。第1の伝送方法では、ピク
チャ中の各動きベクトルや量子化スケール及びウエーブ
レット係数をまとめて1つの単位として伝送する。つま
り、図15に示されるように、この場合、ピクチャヘッ
ダの後にマクロブロックヘッダがマクロブロックヘッダ
回路64により付加(伝送)され、その後、そのマクロ
ブロックに対応するウエーブレット係数がウエーブレッ
ト係数回路65により伝送される。ピクチャ中の全ての
マクロブロックについて同様に伝送した後、次のピクチ
ャヘッダ又はGOPヘッダが伝送される。図11は、こ
の場合のマクロブロックヘッダを示している。詳細に
は、macroblock_escapeは、11ビッ
トで表されるエスケープ・コードを示しており、mac
roblock_address_increment
は、その前にスキップするマクロブロックの数+1を表
す可変長符号化コード、すなわち、画像の右端からマク
ロブロックの数+1を表すフラグであり、このフラグ
は、1から11ビットのいずれかのフラグである。ma
croblock_typeは、マクロブロックの符号
化モードを表す可変長符号化コードを示しており、1か
ら9ビットのいずれかのフラグである。macrobl
ock_sizeは、マクロブロックのサイズを示す2
ビットのフラグである。quantizer_scal
e_codeは、量子化ステップ値を示す5ビットのフ
ラグである。mc_codeは、動きベクトルの予測方
向を示す1ビットのフラグである。intra_dc_
size_luminanceは、イントラブロックの
LLLLLLバンドの輝度信号のサイズを示しており、
2から9ビットのフラグであり、intra_dc_d
ifferentialは、その値を示す1から11ビ
ットのフラグである。intra_dc_size_c
hrominanceはイントラブロックのLLLLL
Lバンドの色差信号のサイズを示しており、2から9ビ
ットのフラグであり、intra_dc_differ
entialはその値を示す1から11ビットのフラグ
である。Next, the first transmission method of picture data will be described. Consider a case where motion compensation and quantization are performed in macroblock units. In the first transmission method, each motion vector, quantization scale, and wavelet coefficient in a picture are collectively transmitted as one unit. That is, as shown in FIG. 15, in this case, the macroblock header is added (transmitted) by the macroblock header circuit 64 after the picture header, and then the wavelet coefficient corresponding to the macroblock is wavelet coefficient circuit 65. Transmitted by. After the same transmission for all macroblocks in a picture, the next picture header or GOP header is transmitted. FIG. 11 shows the macroblock header in this case. More specifically, macroblock_escape indicates an escape code represented by 11 bits.
roblock_address_increment
Is a variable length coding code representing the number of macroblocks to be skipped +1, that is, a flag representing the number of macroblocks +1 from the right end of the image, and this flag is one of 1 to 11 bits. Is. ma
“Croblock_type” indicates a variable-length coding code that represents a coding mode of a macroblock, and is a flag of 1 to 9 bits. macrobl
ock_size indicates the size of the macroblock, which is 2
It is a bit flag. quantizer_scal
e_code is a 5-bit flag indicating a quantization step value. mc_code is a 1-bit flag indicating the prediction direction of the motion vector. intra_dc_
size_luminance indicates the size of the luminance signal of the LLLLLLL band of the intra block,
It is a flag from 2 to 9 bits and is intra_dc_d
differential is a 1- to 11-bit flag indicating the value. intra_dc_size_c
romance is the intrablock LLLLLL
The size of the color difference signal of the L band is shown, and is a flag of 2 to 9 bits, and is an intra_dc_differ.
"ental" is a 1- to 11-bit flag indicating the value.
【0116】次に、ピクチャデータの第2の伝送方法に
ついて説明する。第2の伝送方法は、第1の伝送方法の
変形である。ウエーブレット係数は、各バンド単位で伝
送される。この場合のビットストリームの構成ためのヘ
ッダ付加器7の構成は、図16に示されている。まず、
最初に最低周波成分が伝送される。図14の場合、LL
LLLLが伝送される。この場合、ピクチャヘッダ回路
63によりピクチャヘッダが伝送された後、バンドヘッ
ダ回路66において、ビットストリームの一部としてバ
ンドヘッダが付加(伝送)される。このバンドヘッダ
は、図14のどのバンドのデータが始まるかを示すヘッ
ダであり、シンクコードが付加されている。このバンド
ヘッダの後にマクロブロックヘッダがマクロブロックヘ
ッダ回路64により伝送され、さらに、LLLLLLバ
ンドの対応する係数がウエーブレット係数回路65から
伝送される。その後、次に伝送されるバンドヘッダが伝
送され、同一の動作が繰り返される。すべてのバンドが
処理された後、次のピクチャ若しくはGOPヘッダの伝
送処理に移る。Next, the second transmission method of picture data will be described. The second transmission method is a modification of the first transmission method. The wavelet coefficient is transmitted for each band. The structure of the header adder 7 for forming the bit stream in this case is shown in FIG. First,
First, the lowest frequency component is transmitted. In the case of FIG. 14, LL
LLLL is transmitted. In this case, the picture header circuit 63 transmits the picture header, and then the band header circuit 66 adds (transmits) the band header as a part of the bit stream. The band header is a header indicating which band of data in FIG. 14 starts, and a sync code is added. After this band header, the macroblock header is transmitted by the macroblock header circuit 64, and further, the corresponding coefficient of the LLLLLLL band is transmitted from the wavelet coefficient circuit 65. After that, the band header to be transmitted next is transmitted, and the same operation is repeated. After all bands have been processed, the next picture or GOP header transmission processing starts.
【0117】図17は、伝送されるバンドの順を示して
いる。次のバンドではバンドヘッダが伝送された後、L
LLLLLと同様の順番でウエーブレット係数が伝送さ
れる。このときマクロブロックヘッダは伝送されない。
つまり、上述したように、マクロブロックは、各バンド
のウェーブレット係数から構成されているため、LLL
LLLのバンドの係数を伝送するときに、マクロブロッ
クヘッダを既に付加(伝送)しているためである。全て
のバンドについて同様に伝送された後、次のピクチャヘ
ッダ又はGOPヘッダが伝送される。このバンドヘッダ
のフォーマットは、図18に示されており、また、この
場合のマクロブロックヘッダのヘッダは、図19に示さ
れている。図18に示されるように、band_sta
rt_code及びband_idのフラグを有する。
band_start_codeは、バンドの開始を示
す32ビットのフラグであり、band_idは、その
バンドを示す6ビットのフラグである。FIG. 17 shows the order of transmitted bands. In the next band, after the band header is transmitted, L
Wavelet coefficients are transmitted in the same order as LLLLL. At this time, the macroblock header is not transmitted.
That is, as described above, since the macroblock is composed of wavelet coefficients of each band, LLL
This is because the macroblock header has already been added (transmitted) when transmitting the LLL band coefficient. After the same transmission for all bands, the next picture header or GOP header is transmitted. The format of this band header is shown in FIG. 18, and the header of the macroblock header in this case is shown in FIG. As shown in FIG. 18, band_sta
It has flags of rt_code and band_id.
band_start_code is a 32-bit flag indicating the start of a band, and band_id is a 6-bit flag indicating the band.
【0118】次に、ピクチャデータの第3の伝送方法に
ついて説明する。第3の伝送方法は、第1の伝送方法の
変形である。ウエーブレット係数は、図20に示すよう
なツリー状に構成することができる。つまり、LLLL
HLバンド、LLHLバンド及びHLバンドを1つのツ
リー(ツリー1)として構成し、LLLLHHバンド、
LLHHバンド及びHHバンドを1つのツリー(ツリー
2)として構成し、さらに、LLLLLHバンド、LL
LHバンド及びLHバンドを1つのツリー(ツリー3)
として構成する。第3の伝送方法は、このツリー単位で
データを伝送する。この場合のビットストリームを形成
するためのヘッダ付加器7構成は、図21に示される。
まず、最初に、ツリー0(LLLLLLバンド)が伝送
される。つまり、ピクチャヘッダ回路63によりピクチ
ャヘッダが伝送された後、ツリーヘッダ回路67により
ツリーヘッダが伝送される。このツリーヘッダは、どの
ツリーのデータが始まるかを示すヘッダであり、シンク
コードが付加されている。このツリーヘッダの後に、マ
クロブロックヘッダがマクロブロックヘッダ回路64に
より伝送され、さらに、ツリー0の対応するウェーブレ
ット係数がウェーブレット係数回路75により伝送され
る。Next, a third transmission method of picture data will be described. The third transmission method is a modification of the first transmission method. The wavelet coefficient can be configured in a tree shape as shown in FIG. That is, LLLL
The HL band, the LLHL band, and the HL band are configured as one tree (tree 1), and the LLLLHH band,
LLHH band and HH band are configured as one tree (tree 2), and further LLLLLLH band, LL
One tree for LH band and LH band (Tree 3)
Configure as. The third transmission method transmits data in units of this tree. The structure of the header adder 7 for forming the bit stream in this case is shown in FIG.
First, the tree 0 (LLLLLL band) is transmitted first. That is, after the picture header circuit 63 transmits the picture header, the tree header circuit 67 transmits the tree header. This tree header is a header indicating which tree data starts, and a sync code is added. After this tree header, the macroblock header is transmitted by the macroblock header circuit 64, and the corresponding wavelet coefficient of the tree 0 is further transmitted by the wavelet coefficient circuit 75.
【0119】伝送されるツリーの順は、図20のツリー
0、ツリー1、ツリー2、ツリー3の順である。次のツ
リーではツリーヘッダが伝送された後、ツリー0と同様
の順番でウエーブレット係数が伝送される。このとき、
第2の伝送方法と同様に、マクロブロックヘッダは伝送
されない。つまり、上述したように、マクロブロック
は、各バンドのウェーブレット係数から構成されている
ため、LLLLLLのバンドの係数を伝送するときに、
マクロブロックヘッダを既に付加(伝送)しているため
である。全てのツリーについて同様に伝送された後、次
のピクチャヘッダ又はGOPヘッダが伝送される。図2
2及び下記の表4は、ツリーヘッダを示している。つま
り、tree_start_codeは、ツリーの開始
を示す32ビットのフラグであり、tree_idは、
そのツリーを示す2ビットのフラグである。The order of transmitted trees is tree 0, tree 1, tree 2 and tree 3 in FIG. After the tree header is transmitted in the next tree, the wavelet coefficients are transmitted in the same order as in tree 0. At this time,
As with the second transmission method, the macroblock header is not transmitted. That is, as described above, since the macroblock is composed of the wavelet coefficients of each band, when transmitting the coefficients of the LLLLLLL band,
This is because the macroblock header has already been added (transmitted). After the same transmission for all trees, the next picture header or GOP header is transmitted. FIG.
2 and Table 4 below show the tree header. That is, tree_start_code is a 32-bit flag indicating the start of the tree, and tree_id is
It is a 2-bit flag indicating the tree.
【0120】[0120]
【表4】 [Table 4]
【0121】上記第2及び第3の伝送方法においては、
あるバンド単位及びツリー単位でシンクコード、すなわ
ち、バンドヘッダ及びツリーヘッダが付加されている。
したがって、あるバンドやツリーがエラーなどにより、
復号不能になっても、別のバンドのデータ若しくは別の
ツリーが復号でき致命的な画質の劣化を避けることが可
能である。したがって、第2及び第3の伝送方法は、エ
ラーに強い伝送方法である。上記伝送方法は、ウエーブ
レット変換を用いた符号化方式に適用可能である。In the above second and third transmission methods,
A sync code, that is, a band header and a tree header is added to each band and tree.
Therefore, due to an error in a certain band or tree,
Even if decoding becomes impossible, data of another band or another tree can be decoded and fatal deterioration of image quality can be avoided. Therefore, the second and third transmission methods are error-resistant transmission methods. The above transmission method can be applied to a coding method using the wavelet transform.
【0122】次に、本発明による第2の実施形態の構成
について説明する。第2の実施形態の構成は、図1に示
した第1の実施形態のものと同じであるが、用いる動き
補償器の構成が異なる。図23に第2の実施形態におけ
る動き補償器の構成を示す。Next, the configuration of the second embodiment according to the present invention will be described. The configuration of the second embodiment is the same as that of the first embodiment shown in FIG. 1, but the configuration of the motion compensator used is different. FIG. 23 shows the configuration of the motion compensator according to the second embodiment.
【0123】フレームメモリ71は、第1の実施形態に
おける図示せぬフレームメモリに対応するものであり、
逆ウエーブレット変換によって復元された画像I’を保
存する。結合解析フィルタ72A〜72Gは、各周波数
帯域に対応した結合解析フィルタであり、フレームメモ
リ71上にある復元画像I’全体に対して、第1の実施
形態で述べた各周波数帯域に対応する水平、及び垂直方
向の結合解析フィルタ処理を施し、得られたウエーブレ
ット係数をフレームメモリ群73の中の、対応するフレ
ームメモリに保存する。The frame memory 71 corresponds to the frame memory (not shown) in the first embodiment,
Save the image I ′ restored by the inverse wavelet transform. The combination analysis filters 72A to 72G are combination analysis filters corresponding to the respective frequency bands, and with respect to the entire restored image I ′ on the frame memory 71, horizontal combinations corresponding to the respective frequency bands described in the first embodiment. , And the vertical coupling analysis filter process are performed, and the obtained wavelet coefficients are stored in the corresponding frame memory in the frame memory group 73.
【0124】予測値算出器74は、すべての周波数帯域
に対応するウエーブレット係数がフレームメモリ群73
に準備された後、現在符号化すべき画像に対するすべて
のウエーブレット係数の予測を開始する。この予測処理
は、フレームメモリ群73の中で、予測すべき係数W
(p,q)が属する周波数帯域に対応するフレームメモ
リ上のデータを参照し、(13)式に代入することで実
現できる。この予測値算出器36の動作について、フロ
ーチャートを用いて説明する。The predictive value calculator 74 calculates the wavelet coefficients corresponding to all the frequency bands as the frame memory group 73.
Then, the prediction of all wavelet coefficients for the image currently to be encoded is started. This prediction process is performed by the coefficient W to be predicted in the frame memory group 73.
This can be realized by referring to the data on the frame memory corresponding to the frequency band to which (p, q) belongs and substituting it in the equation (13). The operation of the predicted value calculator 36 will be described using a flowchart.
【0125】図24は、予測値算出器74の動作を説明
するためのフローチャートである。まず、ステップS1
1において、フレームメモリ71に記憶された画像I’
に対して、すべての周波数帯域に対応するウエーブレッ
ト係数がフレームメモリ群73に準備されたどうかを判
定する。もし、すべての周波数帯域に対応するウエーブ
レット係数がフレームメモリ群73に準備されていない
場合は、準備されるまで待機する。もし、すべての周波
数帯域に対応するウエーブレット係数がフレームメモリ
群73に準備されたと判定された場合は、ステップS1
2に進む。ステップS12において、予測すべきウェー
ブレット係数W[p,q]が対応するもとの画像上での
位置(k,l)が、式(k,l)=(p×2N,q×2
N)に基づいて求められる。FIG. 24 is a flow chart for explaining the operation of the prediction value calculator 74. First, step S1
1, the image I ′ stored in the frame memory 71
On the other hand, it is determined whether the wavelet coefficients corresponding to all the frequency bands are prepared in the frame memory group 73. If the wavelet coefficients corresponding to all the frequency bands are not prepared in the frame memory group 73, the process waits until they are prepared. If it is determined that the wavelet coefficients corresponding to all the frequency bands are prepared in the frame memory group 73, step S1
Proceed to 2. In step S12, the position (k, l) on the original image corresponding to the wavelet coefficient W [p, q] to be predicted is expressed by the equation (k, l) = (p × 2N, q × 2).
N).
【0126】次に、ステップS13に進み、動きベクト
ル検出器11からの動きベクトルv=(vx(k,
l),vy(k,l))を用いて、もとの画像上に画像
Iにおける4つの位置(k,l)、(k+1,l),
(k,l+1),(k+1,l+1)に対応する動き補
償器12の図示せぬフレームメモリ上に記憶されている
画像I’における4つの位置(k’,l’),(k’+
1,l’),(k’,l’+1),(k’+1,l’+
1)が、順に、上述の式(10),(11)によって計
算される。Next, in step S13, the motion vector v = (vx (k,
l), vy (k, l)), the four positions (k, l), (k + 1, l), in image I on the original image are
Four positions (k ', l'), (k '+ in image I'stored on the frame memory (not shown) of the motion compensator 12 corresponding to (k, l + 1), (k + 1, l + 1)
1, l '), (k', l '+ 1), (k' + 1, l '+
1) is sequentially calculated by the above equations (10) and (11).
【0127】ステップS14では、動き補償器12の図
示せぬフレームメモリ上に記憶されている画像I’にお
ける4つの位置のすべてが計算されたかどうかが判定さ
れ、もし、4つの位置のすべてが計算されていない場合
は、ステップS13に戻り、計算を続ける。また、もし
4つの位置のすべての計算が終了した場合には、ステッ
プS15に進む。ステップS15では、予測すべきウエ
ーブレット係数W(p,q)が属する周波数帯域に対応
するフレームメモリ上のデータを参照し、ステップS1
3において計算された4つの位置に対応するウェーブレ
ット係数を読み出す。そして、ステップS16におい
て、その読み出された4つの値をその(13)式に代入
することにより、予測すべきウェーブレット係数W
(p,q)の予測値W”(p,q)が計算される。In step S14, it is determined whether all four positions in the image I'stored in the frame memory (not shown) of the motion compensator 12 have been calculated. If all four positions have been calculated, If not, the process returns to step S13 to continue the calculation. If all four positions have been calculated, the process proceeds to step S15. In step S15, the data on the frame memory corresponding to the frequency band to which the wavelet coefficient W (p, q) to be predicted belongs is referred to, and step S1
Read out the wavelet coefficients corresponding to the four positions calculated in 3. Then, in step S16, the read four values are substituted into the equation (13) to obtain the wavelet coefficient W to be predicted.
The predicted value W ″ (p, q) of (p, q) is calculated.
【0128】したがって、本発明における第2の実施形
態では、ウエーブレット分割によって得られる周波数帯
域の数だけのフレームメモリを必要とするが、復元画像
をウエーブレット係数に変換する処理を1度に行うた
め、第1の実施形態のようなフィルタリング演算の重複
が生じない。Therefore, the second embodiment of the present invention requires as many frame memories as the number of frequency bands obtained by wavelet division, but the process of converting a restored image into wavelet coefficients is performed at once. Therefore, the duplication of the filtering operation as in the first embodiment does not occur.
【0129】次に、本発明による第3の実施形態の構成
について説明する。図25に、本発明における第3の実
施形態の構成を示す。第3の実施形態の構成は、図1に
示した第1の実施形態とほぼ同じであるが、画像符号化
装置10側のウエーブレット変換器3の後ろ、及び逆ウ
エーブレット変換器15の前にそれぞれ第2のフレーム
メモリ8、第3のフレームメモリ16を備えている。第
2のフレームメモリ8は、ウエーブレット変換の施され
たウエーブレット係数を1画像分保存し、分割された各
周波数帯域ごとに順次出力する。また、第3のフレーム
メモリ16は、各周波数帯域毎に順次供給された逆量子
化されたウエーブレット係数を1画面分保存し、各係数
を第2のフレームメモリ8への入力と同じ順序になるよ
うに並べ変えて出力する。これに対応して、画像復号装
置20側でも、逆ウエーブレット変換器225の前にフ
レームメモリ28が設置されている。Next, the configuration of the third embodiment according to the present invention will be described. FIG. 25 shows the configuration of the third embodiment of the present invention. The configuration of the third embodiment is almost the same as that of the first embodiment shown in FIG. 1, except that it is behind the wavelet transformer 3 on the image encoding device 10 side and before the inverse wavelet transformer 15. And a second frame memory 8 and a third frame memory 16, respectively. The second frame memory 8 stores the wavelet coefficients subjected to the wavelet transform for one image and sequentially outputs the divided frequency bands. In addition, the third frame memory 16 stores the dequantized wavelet coefficients sequentially supplied for each frequency band for one screen, and stores each coefficient in the same order as input to the second frame memory 8. Rearrange it so that it is output. Correspondingly, the frame memory 28 is installed in front of the inverse wavelet converter 225 also on the image decoding device 20 side.
【0130】また、動き補償器17,29では、各周波
数帯域ごとに予測処理を行う。図26に、第3の実施形
態の動き補償器17,29の構成を示す。Further, the motion compensators 17 and 29 perform prediction processing for each frequency band. FIG. 26 shows the configuration of the motion compensators 17 and 29 of the third embodiment.
【0131】フレームメモリ81は、第1の実施形態に
おける図示せぬフレームメモリに対応するものであり、
逆ウエーブレット変換によって復元された画像I’を保
存する。また、結合解析フィルタ82は、予測値算出器
84より送られてくるコントロール信号cntrlに応
じた結合解析フィルタ係数を用いて、フレームメモリ8
1上の画像I’全体にフィルタリング処理を施し、得ら
れたウエーブレット係数をフレームメモリ83に保存す
る。予測値算出器84では、各周波数帯域ごとに予測処
理を行うが、各周波数帯域の予測処理を始める前に、結
合解析フィルタ82にcntrl信号を送り、これから
予測処理を行う周波数帯域を知らせ、それに対応する結
合解析フィルタ係数を用いたフィルタリング処理を行わ
せる。フレームメモリ83に所望の周波数帯域のウエー
ブレット係数が1画像分準備された時点で、予測処理を
開始する。この予測値算出器84の動作について、フロ
ーチャートを用いて説明する。The frame memory 81 corresponds to the frame memory (not shown) in the first embodiment,
Save the image I ′ restored by the inverse wavelet transform. Further, the combination analysis filter 82 uses the combination analysis filter coefficient corresponding to the control signal cntrl sent from the prediction value calculator 84 to calculate the frame memory 8
The whole image I ′ on 1 is filtered, and the obtained wavelet coefficient is stored in the frame memory 83. The prediction value calculator 84 performs the prediction process for each frequency band. Before starting the prediction process for each frequency band, the cntrl signal is sent to the coupling analysis filter 82 to notify the frequency band for which the prediction process is to be performed, and The filtering process using the corresponding combination analysis filter coefficient is performed. When the wavelet coefficient of a desired frequency band for one image is prepared in the frame memory 83, the prediction process is started. The operation of the predicted value calculator 84 will be described using a flowchart.
【0132】図27は、予測値算出器84の動作を説明
するためのフローチャートである。まず、ステップS2
1において、予測すべきウエーブレット係数W(p,
q)が属する周波数帯域に対応するコントロール信号c
ntrlを結合解析フィルタ82に供給する。これによ
り、結合解析フィルタ82は、コントロール信号に対応
する結合解析フィルタ係数を用いたフィルタリング処理
をフレームメモリ81から供給される画像I’に対して
実行する。次に、ステップS22に進み、結合解析フィ
ルタ82によって処理されたウエーブレット係数がフレ
ームメモリ83に準備されたどうかを判定する。もし、
要求した周波数帯域に対応するウエーブレット係数がフ
レームメモリ83に準備されていない場合は、準備され
るまで待機する。もし、要求した周波数帯域に対応する
ウエーブレット係数がフレームメモリ83に準備された
と判定された場合は、ステップS23に進む。FIG. 27 is a flow chart for explaining the operation of the predicted value calculator 84. First, step S2
1, the wavelet coefficient W (p,
control signal c corresponding to the frequency band to which q) belongs
ntrl is supplied to the combination analysis filter 82. As a result, the combination analysis filter 82 executes the filtering process using the combination analysis filter coefficient corresponding to the control signal on the image I ′ supplied from the frame memory 81. Next, in step S22, it is determined whether the wavelet coefficient processed by the combination analysis filter 82 is prepared in the frame memory 83. if,
If the wavelet coefficient corresponding to the requested frequency band is not prepared in the frame memory 83, the process waits until it is prepared. If it is determined that the wavelet coefficient corresponding to the requested frequency band is prepared in the frame memory 83, the process proceeds to step S23.
【0133】ステップS23では、予測すべきウェーブ
レット係数W[p,q]が対応するもとの画像上での位
置(k,l)が、式(k,l)=(p×2N,q×2
N)に基づいて求められる。次に、ステップS24に進
み、動きベクトル検出器11からの動きベクトルv=
(vx(k,l),vy(k,l))を用いて、もとの
画像上に画像Iにおける4つの位置(k,l)、(k+
1,l),(k,l+1),(k+1,l+1)に対応
する動き補償器12の図示せぬフレームメモリ上に記憶
されている画像I’における4つの位置(k’,
l’),(k’+1,l’),(k’,l’+1),
(k’+1,l’+1)が、順に、上述の式(10),
(11)によって計算される。In step S23, the position (k, l) on the original image corresponding to the wavelet coefficient W [p, q] to be predicted is expressed by the equation (k, l) = (p × 2N, q ×). Two
N). Next, in step S24, the motion vector v = from the motion vector detector 11
Using (vx (k, l), vy (k, l)), four positions (k, l) and (k +
1, l), (k, l + 1), (k + 1, l + 1) corresponding to four positions (k ′, 4) in the image I ′ stored in the frame memory (not shown) of the motion compensator 12.
l '), (k' + 1, l '), (k', l '+ 1),
(K ′ + 1, l ′ + 1) are, in order, the above equations (10),
Calculated by (11).
【0134】ステップS25では、動き補償器12の図
示せぬフレームメモリ上に記憶されている画像I’にお
ける4つの位置のすべてが計算されたかどうかが判定さ
れ、もし、4つの位置のすべてが計算されていない場合
は、ステップS24に戻り、計算を続ける。また、もし
4つの位置のすべての計算が終了した場合には、ステッ
プS25に進む。In step S25, it is determined whether all four positions in the image I'stored on the frame memory (not shown) of the motion compensator 12 have been calculated. If all four positions have been calculated. If not, the process returns to step S24 to continue the calculation. If all four positions have been calculated, the process proceeds to step S25.
【0135】ステップS26では、フレームメモリ45
上のデータを参照し、ステップS23において計算され
た4つの位置に対応するウェーブレット係数を読み出
す。そして、ステップS27において、その読み出され
た4つの値をその(13)式に代入することにより、予
測すべきウェーブレット係数W(p,q)の予測値W”
(p,q)が計算される。In step S26, the frame memory 45
With reference to the above data, the wavelet coefficients corresponding to the four positions calculated in step S23 are read. Then, in step S27, the read out four values are substituted into the equation (13) to obtain the predicted value W ″ of the wavelet coefficient W (p, q) to be predicted.
(P, q) is calculated.
【0136】したがって、本発明における第3の実施形
態では、ウエーブレット係数の並べ換えを行うフレーム
メモリ81,83が必要となるが、第1の実施形態のよ
うなフィルタリング演算の重複は生じない。また、動き
補償器におけるウエーブレット係数を保存するためのフ
レームメモリは1画像分でよい。Therefore, the third embodiment of the present invention requires the frame memories 81 and 83 for rearranging the wavelet coefficients, but the filtering operation does not overlap as in the first embodiment. Further, the frame memory for storing the wavelet coefficient in the motion compensator may be one image.
【0137】なお、上述の実施形態では、ウエーブレッ
ト変換において、1段目で得られたLLの信号のみに対
して、さらにもう1段の分割を行っているが、対応する
分割/合成において、(4)式,(5)式を満たすフィ
ルタ対を用いる限り、分割/合成を施す帯域、分割の回
数は任意であり、どのような仕方に対しても本発明は適
用され得る。In the above-described embodiment, in the wavelet conversion, the LL signal obtained in the first stage is further divided by another stage. However, in the corresponding division / synthesis, As long as a filter pair satisfying equations (4) and (5) is used, the band for division / combination and the number of divisions are arbitrary, and the present invention can be applied to any method.
【0138】また、上記実施形態では、1段目と2段目
の分割/合成において同じフィルタ対を用いているが、
各段において異なるフィルタ対を用いることもできる。
さらに、水平方向と垂直方向の分割を異なるフィルタ対
で行うことも可能である。Further, in the above embodiment, the same filter pair is used in the division / synthesis of the first and second stages.
It is also possible to use different filter pairs in each stage.
Furthermore, it is also possible to perform horizontal and vertical divisions with different filter pairs.
【0139】また、本発明は、動き補償に関するもので
あり、動きを検出する方式は、どのようなものも用いる
ことができる。Further, the present invention relates to motion compensation, and any motion detecting method can be used.
【0140】また、従来の動き補償方式において、現在
予測すべき画像に対して、過去、及び未来の画像を用い
て、前方予測、及び後方予測を行うものがあるが、本発
明においても同様に、両方向の予測を行うようにするこ
とができる。Further, in the conventional motion compensation method, there is one in which the forward prediction and the backward prediction are performed using the images of the past and the future for the image to be currently predicted. , Can be predicted in both directions.
【0141】また、上記実施形態では、ウエーブレット
フィルタを用いた構成になっているが、サブバンドフィ
ルタを用いても全く同様な処理を行うことができる。In the above embodiment, the wavelet filter is used, but the same processing can be performed by using the subband filter.
【0142】さらに、本実施形態において、本発明をブ
ロック図によって説明したが、本発明はこれに限らず、
本発明をソフトウェアとして表現し、CPUなどによっ
て処理するようにしてもよい。Further, although the present invention has been described with reference to the block diagram in the present embodiment, the present invention is not limited to this, and
The present invention may be expressed as software and processed by a CPU or the like.
【0143】[0143]
【発明の効果】以上説明したように、本発明によれば、
ブロック境界上に現れるエッジ状の劣化が、ウエーブレ
ット逆変換、又はサブバンド逆変換によって緩和され、
復号化画像に与える影響を抑えることができる画像符号
化装置、画像復号装置、画像符号化方法、画像復号方
法、画像伝送方法及び符号化された画像データが記録さ
れている記録媒体を提供すること画できる。As described above, according to the present invention,
The edge-like deterioration appearing on the block boundary is mitigated by the wavelet inverse transform or the subband inverse transform,
To provide an image encoding device, an image decoding device, an image encoding method, an image decoding method, an image transmission method, and a recording medium in which encoded image data is recorded, which can suppress the influence on a decoded image. You can draw.
【0144】また、本発明によれば、サブバンド(ウエ
ーブレット)の各バンドにシンクコードを付加すること
により、あるバンドのデータが失われた場合においても
復号画像上で致命的な劣化を避けることができる。Further, according to the present invention, by adding the sync code to each band of the subband (wavelet), even if the data of a certain band is lost, fatal deterioration on the decoded image is avoided. be able to.
【0145】なお、本発明の主旨を逸脱しない範囲にお
いて、さまざまな変形や応用例が考えうる。したがっ
て、本発明の要旨は、実施形態に限定されるものではな
い。Various modifications and application examples are conceivable without departing from the gist of the present invention. Therefore, the gist of the present invention is not limited to the embodiments.
【図1】本発明の第1の実施形態の画像符号化装置及び
画像復号装置の構成を示すブロック図である。FIG. 1 is a block diagram showing configurations of an image encoding device and an image decoding device according to a first embodiment of the present invention.
【図2】画像の走査方向の説明に供する略線図である。FIG. 2 is a schematic diagram for explaining a scanning direction of an image.
【図3】ウエーブレット変換器の構成を示すブロック図
である。FIG. 3 is a block diagram showing a configuration of a wavelet converter.
【図4】逆ウエーブレット変換器の構成を示すブロック
図である。FIG. 4 is a block diagram showing a configuration of an inverse wavelet converter.
【図5】動き補償器における予測値算出の方法の説明に
供する略線図である。FIG. 5 is a schematic diagram for explaining a method of calculating a prediction value in a motion compensator.
【図6】予測値算出のための内積演算の方法の説明に供
する略線図である。FIG. 6 is a schematic diagram for explaining a method of inner product calculation for calculating a predicted value.
【図7】第1の実施形態における画像符号化装置の動き
補償器の動作を示すフローチャートである。FIG. 7 is a flowchart showing the operation of the motion compensator of the image encoding device according to the first embodiment.
【図8】ビットストリームのシーケンスヘッダのフォー
マットを示す図である。FIG. 8 is a diagram showing a format of a sequence header of a bitstream.
【図9】ビットストリームのGOPヘッダのフォーマッ
トを示す図である。FIG. 9 is a diagram showing a format of a GOP header of a bitstream.
【図10】ビットストリームのピクチャヘッダのフォー
マットを示す図である。FIG. 10 is a diagram showing a format of a picture header of a bitstream.
【図11】ビットストリームのマクロブロックヘッダの
フォーマットを示す図である。FIG. 11 is a diagram showing a format of a macroblock header of a bitstream.
【図12】ビットストリームの動きベクトルヘッダのフ
ォーマットを示す図である。FIG. 12 is a diagram showing a format of a motion vector header of a bitstream.
【図13】逆ウェーブレット変換の各係数を示す図であ
る。FIG. 13 is a diagram showing each coefficient of the inverse wavelet transform.
【図14】ウェーブレット変換による10バンドに帯域
分割されたバンドを示す略線図である。FIG. 14 is a schematic diagram showing bands divided into 10 bands by wavelet transform.
【図15】本発明の第1の伝送方法によるビットストリ
ームを構成するヘッダ付加器の構成を示すブロック図で
ある。FIG. 15 is a block diagram showing a configuration of a header adder that constitutes a bitstream according to the first transmission method of the present invention.
【図16】本発明の第2の伝送方法によるビットストリ
ームを構成するヘッダ付加器の構成を示すブロック図で
ある。FIG. 16 is a block diagram showing a configuration of a header adder that constitutes a bitstream according to a second transmission method of the present invention.
【図17】伝送されるバンドの順を示す略線図である。FIG. 17 is a schematic diagram showing the order of bands to be transmitted.
【図18】本発明の第2の伝送方法によるバンドヘッダ
のフォーマットを示す図である。FIG. 18 is a diagram showing a format of a band header according to the second transmission method of the present invention.
【図19】本発明の第2の伝送方法によるマクロヘッダ
のフォーマットを示す図である。FIG. 19 is a diagram showing a format of a macro header according to the second transmission method of the present invention.
【図20】ツリー状に構成されたウェーブレット係数を
示す略線図である。FIG. 20 is a schematic diagram showing wavelet coefficients configured in a tree shape.
【図21】本発明の第3の伝送方法によるビットストリ
ームを構成するヘッダ付加器の構成を示すブロック図で
ある。FIG. 21 is a block diagram showing a configuration of a header adder that constitutes a bitstream according to a third transmission method of the present invention.
【図22】本発明の第3の伝送方法によるツリーヘッダ
のフォーマットを示す図である。FIG. 22 is a diagram showing a format of a tree header according to the third transmission method of the present invention.
【図23】本発明の第2の実施形態による動き補償器の
構成を示すブロック図である。FIG. 23 is a block diagram showing a configuration of a motion compensator according to a second embodiment of the present invention.
【図24】第2の実施形態における画像符号化装置の動
き補償器の動作を示すフローチャートである。FIG. 24 is a flowchart showing the operation of the motion compensator of the image encoding device according to the second embodiment.
【図25】本発明の第3の実施形態の画像符号化装置及
び画像復号装置の構成を示すブロック図である。FIG. 25 is a block diagram showing configurations of an image encoding device and an image decoding device according to a third embodiment of the present invention.
【図26】本発明の第3の実施形態による動き補償器の
構成を示すブロック図である。FIG. 26 is a block diagram showing a configuration of a motion compensator according to a third embodiment of the present invention.
【図27】第3の実施形態における画像符号化装置の動
き補償器の動作を示すフローチャートである。FIG. 27 is a flowchart showing the operation of the motion compensator of the image encoding device according to the third embodiment.
【図28】従来の画像符号化装置及び画像復号装置の構
成を示すブロック図である。[Fig. 28] Fig. 28 is a block diagram illustrating configurations of a conventional image encoding device and image decoding device.
2,8,16 フレームメモリ、3 ウエーブレット変
換器、4 減算器、5量子化器、6 可変長符号化器、
7 ヘッダ付加器、10 画像符号化装置、11 動き
ベクトル検出器、12,17 動き補償器、13 逆量
子化器、14加算器、15 逆ウエーブレット変換器、
20 画像復号装置、22 可変長符号化器、23 逆
量子化器、24 加算器、25 逆ウエーブレット変換
器、26,29 動き補償器、28 フレームメモリ2,8,16 frame memory, 3 wavelet converter, 4 subtractor, 5 quantizer, 6 variable length encoder,
7 header adder, 10 image encoding device, 11 motion vector detector, 12, 17 motion compensator, 13 inverse quantizer, 14 adder, 15 inverse wavelet transformer,
20 image decoding device, 22 variable length encoder, 23 inverse quantizer, 24 adder, 25 inverse wavelet transformer, 26, 29 motion compensator, 28 frame memory
Claims (15)
画像符号化装置において、 入力された画像信号から動きベクトルを検出する動きベ
クトル検出手段と、 入力された画像に対してサブバンド変換による周波数帯
域分割処理を施し、サブバンド係数を生成するサブバン
ド変換手段と、 上記サブバンド係数の差分を符号化し、符号化信号を生
成する符号化手段と、 上記符号化信号を復号し、復号されたサブバンド係数の
差分を生成する復号手段と、 上記動きベクトルと既に復元されている復元画像から上
記サブバンド係数を予測するための予測サブバンド係数
を生成する動き補償手段と、 上記復号されたサブバンド係数の差分に上記予測サブバ
ンド係数を加算し、復元されたサブバンド係数を生成す
る加算手段と、上記復元されたサブバンド係数に対して
逆サブバンド変換を施し、画像を復元する逆サブバンド
変換手段と、 上記サブバンド係数と上記予測サブバンド係数との差分
を算出する係数差分算出手段とを有することを特徴とす
る画像符号化装置。1. An image coding apparatus for an image signal using a subband filter, comprising: a motion vector detecting means for detecting a motion vector from an input image signal; and a frequency band by subband conversion for the input image. Sub-band transforming means for performing division processing to generate sub-band coefficients, coding means for coding the difference between the sub-band coefficients and generating a coded signal, and decoding the coded signal Decoding means for generating a difference in band coefficient, motion compensation means for generating a predicted subband coefficient for predicting the subband coefficient from the motion vector and the restored image already restored, and the decoded subband Adding means for adding the predicted subband coefficient to the coefficient difference to generate a restored subband coefficient; and the restored subband coefficient. And a coefficient difference calculation unit that calculates a difference between the subband coefficient and the predicted subband coefficient. Image encoding device.
ット係数を生成することを特徴とする請求項1記載の画
像符号化装置。2. The image coding apparatus according to claim 1, wherein the subband transforming means generates wavelet coefficients.
対して、予測すべきウエーブレット係数が属する周波数
帯域に対応するようにフィルタリング処理を行い、その
出力から予測値を求めるようになされていることを特徴
とする請求項1記載の画像符号化装置。3. The motion compensating means performs a filtering process on the restored image so as to correspond to a frequency band to which a wavelet coefficient to be predicted belongs, and obtains a predicted value from the output. The image coding apparatus according to claim 1, wherein
画像復号装置において、 動きベクトル及び符号化されたサブバンド係数の差分値
を少なくとも含む画像信号を受信する受信手段と、 上記動きベクトルと上記符号化されたサブバンド係数の
差分値を分離する分離手段と、 上記符号化されたサブバンド係数の差分値を復号し、復
号されたサブバンド係数の差分値を生成する復号手段
と、 上記動きベクトルと復元された画像からサブバンド係数
を予測するための予測サブバンド係数を生成する動き補
償手段と、 上記復号されたサブバンド係数の差分値と上記動き補償
手段によって得られた予測ウエーブレット係数とを加算
する係数加算手段と、 上記係数加算手段からのサブバンド係数に対して逆サブ
バンド変換を施し、画像を復元する逆サブバンド変換手
段とを有することを特徴とする画像復号装置。4. An image decoding apparatus for an image signal using a subband filter, receiving means for receiving an image signal including at least a difference value between a motion vector and an encoded subband coefficient, the motion vector and the code. Separation means for separating the difference value of the encoded subband coefficient, decoding means for decoding the difference value of the encoded subband coefficient, and generating a difference value of the decoded subband coefficient, the motion vector And a motion compensating means for generating a predictive subband coefficient for predicting a subband coefficient from the restored image, a difference value of the decoded subband coefficient, and a predictive wavelet coefficient obtained by the motion compensating means. And an inverse substituting means for performing an inverse subband transform on the subband coefficients from the coefficient adding means to restore an image. An image decoding apparatus comprising: a band conversion unit.
係数であることを特徴とする請求項4記載の画像復号装
置。5. The image decoding apparatus according to claim 4, wherein the sub-band coefficient is a wavelet coefficient.
対して予測すべきサブバンド係数が属する周波数帯域に
対応するようにフィルタリング処理を行い、その出力か
ら予測値を求めるようになされていることを特徴とする
請求項4記載の画像復号装置。6. The motion compensating means performs a filtering process on the reconstructed image so as to correspond to a frequency band to which a subband coefficient to be predicted belongs, and obtains a predicted value from its output. The image decoding device according to claim 4, wherein
画像符号化方法において、 入力された画像信号から動きベクトルを検出するステッ
プと、 入力された画像に対してサブバンド変換による周波数帯
域分割処理を施し、サブバンド係数を生成するステップ
と、 上記サブバンド係数の差分を符号化し、符号化信号を生
成するステップと、 上記符号化信号を復号し、復号されたサブバンド係数の
差分を生成するステップと、 上記動きベクトルと既に復元されている復元画像から上
記サブバンド係数を予測するための予測サブバンド係数
を生成するステップと、 上記復号されたサブバンド係数の差分に上記予測サブバ
ンド係数を加算し、復元されたサブバンド係数を生成す
るステップと、 上記復元されたサブバンド係数に対して逆サブバンド変
換を施し、画像を復元するステップと、 上記サブバンド係数と上記予測サブバンド係数との差分
を算出するステップとを有することを特徴とする画像符
号化方法。7. An image coding method for an image signal using a subband filter, which comprises a step of detecting a motion vector from an input image signal, and a frequency band division process by subband conversion for the input image. And generating a subband coefficient, encoding the difference between the subband coefficients to generate an encoded signal, and decoding the encoded signal to generate a difference between the decoded subband coefficients And a step of generating a prediction subband coefficient for predicting the subband coefficient from the motion vector and a restored image already restored, and adding the prediction subband coefficient to a difference between the decoded subband coefficients. And generating reconstructed subband coefficients, and an inverse subband for the reconstructed subband coefficients. Subjected to conversion, and restoring an image, the image coding method characterized by a step of calculating a difference between the subband coefficients and the predictive subband coefficients.
係数であることを特徴とする請求項7記載の画像符号化
方法。8. The image coding method according to claim 7, wherein the subband coefficient is a wavelet coefficient.
ップは、復元された画像に対して、予測すべきサブバン
ド係数が属する周波数帯域に対応するようにフィルタリ
ング処理を行い、その出力から予測値を求めるようにな
されていることを特徴とする請求項7記載の画像符号化
方法。9. The step of generating the predicted sub-band coefficient performs a filtering process on the restored image so as to correspond to a frequency band to which the sub-band coefficient to be predicted belongs, and outputs a predicted value from the output. The image encoding method according to claim 7, wherein the image encoding method is performed.
の画像復号方法において、 動きベクトル及び符号化されたサブバンド係数の差分値
を少なくとも含む画像信号を受信するステップと、 上記動きベクトルと上記符号化されたサブバンド係数の
差分値を分離するステップと、 上記符号化されたサブバンド係数の差分値を復号し、復
号されたサブバンド係数の差分値を生成するステップ
と、 上記動きベクトルと復元された画像からサブバンド係数
を予測するための予測サブバンド係数を生成するステッ
プと、 上記復号されたサブバンド係数の差分値と上記生成され
た予測サブバンド係数とを加算するステップと、 上記加算されたサブバンド係数に対して逆サブバンド変
換を施し、画像を復元するステップとからなることを特
徴とする画像復号方法。10. An image decoding method for an image signal using a subband filter, the step of receiving an image signal including at least a difference value between a motion vector and an encoded subband coefficient, the motion vector and the encoding. A step of separating the difference value of the decoded subband coefficients, a step of decoding the difference value of the coded subband coefficients, and a step of generating a difference value of the decoded subband coefficients; Generating a prediction subband coefficient for predicting a subband coefficient from the image, adding a difference value of the decoded subband coefficient and the generated prediction subband coefficient, and adding the Image substituting is performed on the subband coefficients, and the image is restored. No. method.
ト係数であることを特徴とする請求項10記載の画像復
号方法。11. The image decoding method according to claim 10, wherein the sub-band coefficient is a wavelet coefficient.
テップは、復元された画像に対して、予測すべきサブバ
ンド係数が属する周波数帯域に対応するようにフィルタ
リング処理を行い、その出力から予測値を求めるように
なされていることを特徴とする請求項10記載の画像復
号方法。12. The step of generating the predicted sub-band coefficient performs a filtering process on the restored image so as to correspond to a frequency band to which the sub-band coefficient to be predicted belongs, and outputs a predicted value from the output. The image decoding method according to claim 10, wherein the image decoding method is performed.
の画像伝送方法において、 入力された画像信号から動きベクトルを検出し、 入力された画像に対してサブバンド変換による周波数帯
域分割処理を施してサブバンド係数を生成し、 上記サブバンド係数の差分を符号化して符号化信号を生
成し、 上記符号化信号を復号して復号されたサブバンド係数の
差分を生成し、 上記動きベクトルと既に復元されている復元画像から上
記サブバンド係数を予測するための予測サブバンド係数
を生成し、 上記復号されたサブバンド係数の差分に上記予測サブバ
ンド係数を加算して復元されたサブバンド係数を生成
し、 上記復元されたサブバンド係数に対して逆サブバンド変
換を施して画像を復元し、 上記サブバンド係数と上記予測サブバンド係数との差分
を算出し、 上記動きベクトルと上記差分サブバンド係数からなるビ
ットストリームを伝送するようにしたことを特徴とする
画像伝送方法。13. An image transmission method for an image signal using a subband filter, wherein a motion vector is detected from an input image signal, and the input image is subjected to frequency band division processing by subband conversion to perform subband conversion. A band coefficient is generated, the difference between the sub-band coefficients is coded to generate a coded signal, the coded signal is decoded to generate a difference between the decoded sub-band coefficients, and the motion vector is already restored. The predicted subband coefficient for predicting the subband coefficient is generated from the restored image, and the predicted subband coefficient is added to the difference between the decoded subband coefficients to generate the restored subband coefficient. , An image is restored by performing an inverse subband transformation on the restored subband coefficient, and the subband coefficient and the predicted subband coefficient Min is calculated and the image transmission method being characterized in that so as to transmit a bit stream consisting of the motion vector and the differential subband coefficients.
しており、 上記ヘッダは、サブバンド係数の各バンド毎に付加され
ていることを特徴とする請求項13記載の画像伝送方
法。14. The image transmission method according to claim 13, wherein the bit stream has a header, and the header is added to each band of the sub-band coefficient.
記録された記録媒体において、 上記記録信号は、入力された画像信号から検出された動
きベクトルと、入力された画像に対してサブバンド変換
による周波数帯域分割処理を施すことにより得られたサ
ブバンド係数と、予測サブバンド係数との差分サブバン
ド係数とを含んでおり、 上記予測サブバンド係数は、上記動きベクトルと既に復
元されている復元画像から生成され、 上記復元画像は、上記サブバンド係数の差分を符号化す
ることにより得られた符号化信号を符号化信号を復号す
ることにより、その復号されたサブバンド係数の差分を
生成し、上記復号されたサブバンド係数の差分に上記予
測サブバンド係数を加算することにより得られた復元さ
れたサブバンド係数に対して逆サブバンド変換を施すこ
とにより復元されるようになされていることを特徴とす
る記録媒体。15. A recording medium on which a recording signal that can be decoded by a decoding device is recorded, wherein the recording signal is a motion vector detected from an input image signal and a subband conversion is performed on the input image. The sub-band coefficient obtained by performing the frequency band division processing and the difference sub-band coefficient between the predicted sub-band coefficient are included, and the predicted sub-band coefficient is the motion vector and the restored image already restored. The decoded image is generated by decoding the coded signal obtained by coding the difference between the subband coefficients to generate a difference between the decoded subband coefficients, Inverse sub-substituting with respect to the restored sub-band coefficient obtained by adding the above-mentioned predicted sub-band coefficient to the above-mentioned decoded sub-band coefficient difference. A recording medium characterized by being restored by performing band conversion.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP28275296A JPH09182085A (en) | 1995-10-26 | 1996-10-24 | Image encoding device, image decoding device, image encoding method, image decoding method, image transmitting method and recording medium |
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP7-279425 | 1995-10-26 | ||
| JP27942595 | 1995-10-26 | ||
| JP28275296A JPH09182085A (en) | 1995-10-26 | 1996-10-24 | Image encoding device, image decoding device, image encoding method, image decoding method, image transmitting method and recording medium |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH09182085A true JPH09182085A (en) | 1997-07-11 |
Family
ID=26553329
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP28275296A Withdrawn JPH09182085A (en) | 1995-10-26 | 1996-10-24 | Image encoding device, image decoding device, image encoding method, image decoding method, image transmitting method and recording medium |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH09182085A (en) |
Cited By (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002527956A (en) * | 1998-10-05 | 2002-08-27 | サーノフ コーポレイション | Coding unit forming apparatus and method |
| JP2002527960A (en) * | 1998-10-05 | 2002-08-27 | サーノフ コーポレイション | Data partitioning apparatus and method for improving error resilience |
| WO2007080939A1 (en) * | 2006-01-10 | 2007-07-19 | Sharp Kabushiki Kaisha | Methods and systems for filter characterization |
| US7760949B2 (en) | 2007-02-08 | 2010-07-20 | Sharp Laboratories Of America, Inc. | Methods and systems for coding multiple dynamic range images |
| US7826673B2 (en) | 2007-01-23 | 2010-11-02 | Sharp Laboratories Of America, Inc. | Methods and systems for inter-layer image prediction with color-conversion |
| US7840078B2 (en) | 2006-07-10 | 2010-11-23 | Sharp Laboratories Of America, Inc. | Methods and systems for image processing control based on adjacent block characteristics |
| US7885471B2 (en) | 2006-07-10 | 2011-02-08 | Sharp Laboratories Of America, Inc. | Methods and systems for maintenance and use of coded block pattern information |
| US8014445B2 (en) | 2006-02-24 | 2011-09-06 | Sharp Laboratories Of America, Inc. | Methods and systems for high dynamic range video coding |
| US8059714B2 (en) | 2006-07-10 | 2011-11-15 | Sharp Laboratories Of America, Inc. | Methods and systems for residual layer scaling |
| US8130822B2 (en) | 2006-07-10 | 2012-03-06 | Sharp Laboratories Of America, Inc. | Methods and systems for conditional transform-domain residual accumulation |
| US8194997B2 (en) | 2006-03-24 | 2012-06-05 | Sharp Laboratories Of America, Inc. | Methods and systems for tone mapping messaging |
| US8233536B2 (en) | 2007-01-23 | 2012-07-31 | Sharp Laboratories Of America, Inc. | Methods and systems for multiplication-free inter-layer image prediction |
| US8422548B2 (en) | 2006-07-10 | 2013-04-16 | Sharp Laboratories Of America, Inc. | Methods and systems for transform selection and management |
| US8503524B2 (en) | 2007-01-23 | 2013-08-06 | Sharp Laboratories Of America, Inc. | Methods and systems for inter-layer image prediction |
| US8532176B2 (en) | 2006-07-10 | 2013-09-10 | Sharp Laboratories Of America, Inc. | Methods and systems for combining layers in a multi-layer bitstream |
| US8665942B2 (en) | 2007-01-23 | 2014-03-04 | Sharp Laboratories Of America, Inc. | Methods and systems for inter-layer image prediction signaling |
| US8767834B2 (en) | 2007-03-09 | 2014-07-01 | Sharp Laboratories Of America, Inc. | Methods and systems for scalable-to-non-scalable bit-stream rewriting |
-
1996
- 1996-10-24 JP JP28275296A patent/JPH09182085A/en not_active Withdrawn
Cited By (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002527960A (en) * | 1998-10-05 | 2002-08-27 | サーノフ コーポレイション | Data partitioning apparatus and method for improving error resilience |
| JP2002527956A (en) * | 1998-10-05 | 2002-08-27 | サーノフ コーポレイション | Coding unit forming apparatus and method |
| WO2007080939A1 (en) * | 2006-01-10 | 2007-07-19 | Sharp Kabushiki Kaisha | Methods and systems for filter characterization |
| US8014445B2 (en) | 2006-02-24 | 2011-09-06 | Sharp Laboratories Of America, Inc. | Methods and systems for high dynamic range video coding |
| US8194997B2 (en) | 2006-03-24 | 2012-06-05 | Sharp Laboratories Of America, Inc. | Methods and systems for tone mapping messaging |
| US8422548B2 (en) | 2006-07-10 | 2013-04-16 | Sharp Laboratories Of America, Inc. | Methods and systems for transform selection and management |
| US7885471B2 (en) | 2006-07-10 | 2011-02-08 | Sharp Laboratories Of America, Inc. | Methods and systems for maintenance and use of coded block pattern information |
| US7840078B2 (en) | 2006-07-10 | 2010-11-23 | Sharp Laboratories Of America, Inc. | Methods and systems for image processing control based on adjacent block characteristics |
| US8059714B2 (en) | 2006-07-10 | 2011-11-15 | Sharp Laboratories Of America, Inc. | Methods and systems for residual layer scaling |
| US8130822B2 (en) | 2006-07-10 | 2012-03-06 | Sharp Laboratories Of America, Inc. | Methods and systems for conditional transform-domain residual accumulation |
| US8532176B2 (en) | 2006-07-10 | 2013-09-10 | Sharp Laboratories Of America, Inc. | Methods and systems for combining layers in a multi-layer bitstream |
| US7826673B2 (en) | 2007-01-23 | 2010-11-02 | Sharp Laboratories Of America, Inc. | Methods and systems for inter-layer image prediction with color-conversion |
| US8233536B2 (en) | 2007-01-23 | 2012-07-31 | Sharp Laboratories Of America, Inc. | Methods and systems for multiplication-free inter-layer image prediction |
| US8503524B2 (en) | 2007-01-23 | 2013-08-06 | Sharp Laboratories Of America, Inc. | Methods and systems for inter-layer image prediction |
| US8665942B2 (en) | 2007-01-23 | 2014-03-04 | Sharp Laboratories Of America, Inc. | Methods and systems for inter-layer image prediction signaling |
| US7760949B2 (en) | 2007-02-08 | 2010-07-20 | Sharp Laboratories Of America, Inc. | Methods and systems for coding multiple dynamic range images |
| US8767834B2 (en) | 2007-03-09 | 2014-07-01 | Sharp Laboratories Of America, Inc. | Methods and systems for scalable-to-non-scalable bit-stream rewriting |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US5777678A (en) | Predictive sub-band video coding and decoding using motion compensation | |
| JP3855286B2 (en) | Image encoding device, image encoding method, image decoding device, image decoding method, and recording medium | |
| KR100253931B1 (en) | Method and apparatus for decoding digital image sequence | |
| US5796434A (en) | System and method for performing motion estimation in the DCT domain with improved efficiency | |
| JP3268306B2 (en) | Image coding method | |
| JP3856262B2 (en) | Motion compensation encoding apparatus, motion compensation encoding method, and motion compensation code recording medium | |
| JP3338639B2 (en) | Digital video decoder and method for decoding digital video signal | |
| JP3464767B2 (en) | Wavelet decoding apparatus and method | |
| US20150036737A1 (en) | Content adaptive predictive and functionally predictive pictures with modified references for next generation video coding | |
| EP0876061A1 (en) | Digital image coding method and digital image coder, and digital image decoding method and digital image decoder, and data storage medium | |
| JPH09182085A (en) | Image encoding device, image decoding device, image encoding method, image decoding method, image transmitting method and recording medium | |
| EP0838953A2 (en) | Image signal padding method for coding/decoding purposes | |
| KR19980063690A (en) | A method for reducing the memory required for decompression by storing compressed information using DCT base technology and a decoder for implementing the method | |
| JP2001211455A (en) | Image coding method and image coder | |
| US20060159173A1 (en) | Video coding in an overcomplete wavelet domain | |
| US5905846A (en) | Image decoding apparatus and process thereof and image reproduction apparatus | |
| JPH06276481A (en) | Picture signal coding and decoding method and recording medium | |
| JPH08275172A (en) | Picture formation | |
| US7787541B2 (en) | Dynamic pre-filter control with subjective noise detector for video compression | |
| US8903196B2 (en) | Video presentation at fractional speed factor using time domain interpolation | |
| JP2898413B2 (en) | Method for decoding and encoding compressed video data streams with reduced memory requirements | |
| US20090034634A1 (en) | Differential coding with lossy embedded compression | |
| JPH04322593A (en) | Picture coder and its decoder | |
| JPH0591498A (en) | Band-division video coding device | |
| JPH07107464A (en) | Image coding apparatus and decoding apparatus |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20040106 |