JPH10243406A - Image coder, image coding method, image decoder, image decoding method and recording medium - Google Patents
Image coder, image coding method, image decoder, image decoding method and recording mediumInfo
- Publication number
- JPH10243406A JPH10243406A JP36016597A JP36016597A JPH10243406A JP H10243406 A JPH10243406 A JP H10243406A JP 36016597 A JP36016597 A JP 36016597A JP 36016597 A JP36016597 A JP 36016597A JP H10243406 A JPH10243406 A JP H10243406A
- Authority
- JP
- Japan
- Prior art keywords
- prediction
- pixel
- image signal
- value
- tap
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/004—Predictors, e.g. intraframe, interframe coding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression Of Band Width Or Redundancy In Fax (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、画像符号化装置お
よび画像符号化方法、画像復号装置および画像復号方
法、並びに記録媒体に関する。特に、原画像とほぼ同一
の復号画像が得られるように、画像を間引いて圧縮符号
化する画像符号化装置および画像符号化方法、画像復号
装置および画像復号方法、並びに記録媒体に関する。[0001] The present invention relates to an image encoding device and an image encoding method, an image decoding device and an image decoding method, and a recording medium. In particular, the present invention relates to an image encoding device and an image encoding method for thinning and compressing and encoding an image so as to obtain a decoded image substantially the same as an original image, an image decoding device and an image decoding method, and a recording medium.
【0002】[0002]
【従来の技術】例えば、標準解像度または低解像度の画
像(以下、適宜、SD画像という)を、高解像度の画像
(以下、適宜、HD画像という)に変換したり、また、
画像を拡大したりする場合においては、いわゆる補間フ
ィルタなどによって、不足している画素の画素値の補間
(補償)が行われるようになされている。2. Description of the Related Art For example, a standard resolution or low resolution image (hereinafter, appropriately referred to as an SD image) is converted into a high resolution image (hereinafter, appropriately referred to as an HD image),
In the case of enlarging an image, interpolation (compensation) of pixel values of missing pixels is performed by a so-called interpolation filter or the like.
【0003】しかしながら、補間フィルタによって画素
の補間を行っても、SD画像に含まれていない、HD画
像の成分(高周波成分)を復元することはできないた
め、高解像度の画像を得ることは困難であった。However, even if interpolation of pixels is performed by an interpolation filter, it is not possible to restore a component (high-frequency component) of an HD image that is not included in the SD image, and thus it is difficult to obtain a high-resolution image. there were.
【0004】そこで、本件出願人は、SD画像を、そこ
に含まれていない高周波成分をも含むHD画像に変換す
る画像変換装置(画像変換回路)を先に提案している。Therefore, the present applicant has previously proposed an image conversion device (image conversion circuit) for converting an SD image into an HD image including high-frequency components not included therein.
【0005】この画像変換装置においては、SD画像
と、所定の予測係数との線形結合により、HD画像の画
素の予測値を求める適応処理を行うことで、SD画像に
は含まれていない高周波成分が復元されるようになされ
ている。[0005] In this image conversion apparatus, by performing an adaptive process for obtaining a predicted value of a pixel of an HD image by a linear combination of an SD image and a predetermined prediction coefficient, a high frequency component not included in the SD image is obtained. Has been made to be restored.
【0006】即ち、例えば、いま、HD画像を構成する
画素(以下、適宜、HD画素という)の画素値yの予測
値E[y]を、幾つかのSD画素(SD画像を構成する
画素)の画素値(以下、適宜、学習データという)
x1,x2,・・・と、所定の予測係数w1,w2,・・・
の線形結合により規定される線形1次結合モデルにより
求めることを考える。この場合、予測値E[y]は、次
式で表すことができる。That is, for example, a prediction value E [y] of a pixel value y of a pixel forming an HD image (hereinafter, appropriately referred to as an HD pixel) is converted into some SD pixels (pixels forming the SD image). Pixel value (hereinafter, appropriately referred to as learning data)
x 1 , x 2 ,... and predetermined prediction coefficients w 1 , w 2 ,.
Is determined by a linear first-order combination model defined by a linear combination of In this case, the predicted value E [y] can be expressed by the following equation.
【0007】 E[y]=w1x1+w2x2+・・・・・・(1)E [y] = w 1 x 1 + w 2 x 2 +... (1)
【0008】そこで、一般化するために、予測係数wの
集合でなる行列W、学習データの集合でなる行列X、お
よび予測値E[y]の集合でなる行列Y’を、Therefore, for generalization, a matrix W composed of a set of prediction coefficients w, a matrix X composed of a set of learning data, and a matrix Y ′ composed of a set of predicted values E [y] are
【数1】 で定義すると、次のような観測方程式が成立する。(Equation 1) Defines the following observation equation.
【0009】XW=Y’・・・(2)XW = Y '(2)
【0010】そして、この観測方程式に最小自乗法を適
用して、HD画素の画素値yに近い予測値E[y]を求
めることを考える。この場合、教師データとなるHD画
素の真の画素値yの集合でなる行列Y、およびHD画素
の画素値yに対する予測値E[y]の残差eの集合でな
る行列Eを、[0010] Then, it is considered that a least square method is applied to this observation equation to obtain a predicted value E [y] close to the pixel value y of the HD pixel. In this case, a matrix Y consisting of a set of true pixel values y of HD pixels serving as teacher data and a matrix E consisting of a set of residuals e of predicted values E [y] for the pixel values y of HD pixels are represented by:
【数2】 で定義すると、式(2)から、次のような残差方程式が
成立する。(Equation 2) From equation (2), the following residual equation is established.
【0011】XW=Y+E・・・(3)XW = Y + E (3)
【0012】この場合、HD画素の画素値yに近い予測
値E[y]を求めるための予測係数wiは、自乗誤差In this case, a prediction coefficient w i for obtaining a prediction value E [y] close to the pixel value y of the HD pixel is a square error.
【数3】 を最小にすることで求めることができる。(Equation 3) Can be obtained by minimizing.
【0013】従って、上述の自乗誤差を予測係数wiで
微分したものが0になる場合、即ち、次式を満たす予測
係数wiが、HD画素の画素値yに近い予測値E[y]
を求めるため最適値ということになる。Therefore, when the above-mentioned squared error is differentiated by the prediction coefficient w i , the result becomes 0, that is, the prediction coefficient w i that satisfies the following equation is a prediction value E [y] close to the pixel value y of the HD pixel.
Is the optimum value.
【0014】[0014]
【数4】 ・・・(4)(Equation 4) ... (4)
【0015】そこで、まず、式(3)を、予測係数wi
で微分することにより、次式が成立する。Therefore, first, the equation (3) is calculated using the prediction coefficient w i
By differentiating with, the following equation is established.
【0016】[0016]
【数5】 ・・・(5)(Equation 5) ... (5)
【0017】式(4)および(5)より、式(6)が得
られる。From equations (4) and (5), equation (6) is obtained.
【0018】[0018]
【数6】 ・・・(6)(Equation 6) ... (6)
【0019】さらに、式(3)の残差方程式における学
習データx、予測係数w、教師データy、および残差e
の関係を考慮すると、式(6)から、次のような正規方
程式を得ることができる。Further, the learning data x, the prediction coefficient w, the teacher data y, and the residual e in the residual equation of the equation (3) are obtained.
In consideration of the relationship, the following normal equation can be obtained from Expression (6).
【0020】[0020]
【数7】 ・・・(7)(Equation 7) ... (7)
【0021】式(7)の正規方程式は、求めるべき予測
係数wの数と同じ数だけたてることができ、従って、式
(7)を解くことで(但し、式(7)を解くには、式
(7)において、予測係数wにかかる係数で構成される
行列が正則である必要がある)、最適な予測係数wを求
めることができる。なお、式(7)を解くにあたって
は、例えば、掃き出し法(Gauss-Jordanの消去法)など
を適用することが可能である。The normal equation of equation (7) can be set as many as the number of prediction coefficients w to be obtained. Therefore, solving equation (7) (however, to solve equation (7) , (7), a matrix composed of coefficients related to the prediction coefficient w needs to be regular), and an optimum prediction coefficient w can be obtained. In solving equation (7), for example, a sweeping-out method (Gauss-Jordan elimination method) or the like can be applied.
【0022】以上のようにして、最適な予測係数wのセ
ットを求め、さらに、その予測係数wのセットを用い、
式(1)により、HD画素の画素値yに近い予測値E
[y]を求めるのが適応処理である(但し、あらかじめ
予測係数wのセットを求めておき、その予測係数wのセ
ットから、予測値を求めるのも、適応処理に含まれるも
のとする)。As described above, an optimal set of prediction coefficients w is obtained, and the set of prediction coefficients w
According to the equation (1), the predicted value E close to the pixel value y of the HD pixel is obtained.
The adaptive processing is to determine [y] (however, it is also assumed that a set of prediction coefficients w is determined in advance and a predicted value is determined from the set of prediction coefficients w in the adaptive processing).
【0023】なお、適応処理は、SD画像には含まれて
いない、HD画像に含まれる成分が再現される点で、補
間処理とは異なる。即ち、適応処理では、式(1)だけ
を見る限りは、いわゆる補間フィルタを用いての補間処
理と同一であるが、その補間フィルタのタップ係数に相
当する予測係数wが、教師データyを用いて、いわば学
習により求められるため、HD画像に含まれる成分を再
現することができる。即ち、容易に、高解像度の画像を
得ることができる。このことから、適応処理は、いわば
画像の創造作用がある処理ということができる。Note that the adaptive processing differs from the interpolation processing in that components not included in the SD image but included in the HD image are reproduced. That is, the adaptive processing is the same as the interpolation processing using the so-called interpolation filter as far as only the equation (1) is viewed, but the prediction coefficient w corresponding to the tap coefficient of the interpolation filter is obtained by using the teacher data y. Therefore, the components included in the HD image can be reproduced because they are obtained by learning. That is, a high-resolution image can be easily obtained. From this, it can be said that the adaptive processing has a so-called image creation action.
【0024】図25は、画像の特徴(クラス)に基づい
て以上のような適応処理により、SD画像をHD画像に
変換する画像変換装置の構成例を示している。FIG. 25 shows an example of the configuration of an image conversion apparatus that converts an SD image into an HD image by the above-described adaptive processing based on the features (classes) of the image.
【0025】SD画像は、クラス分類回路101および
遅延回路102に供給されるようになされており、クラ
ス分類回路101では、SD画像を構成するSD画素が
順次、注目画素とされ、その注目画素が、所定のクラス
にクラス分類される。The SD image is supplied to a class classification circuit 101 and a delay circuit 102. In the class classification circuit 101, the SD pixels constituting the SD image are sequentially set as a pixel of interest, and the pixel of interest is , Into a predetermined class.
【0026】即ち、クラス分類回路101は、まず最初
に、注目画素の周辺にあるSD画素を幾つか集めてブロ
ックを構成し(以下、適宜、処理ブロックという)、そ
の処理ブロックを構成する、例えばすべてのSD画素の
画素値のパターンにあらかじめ割り当てられた値を、注
目画素のクラスとして、係数ROM104のアドレス端
子(AD)に供給する。That is, first, the class classification circuit 101 forms a block by collecting some SD pixels around the target pixel (hereinafter referred to as a processing block as appropriate), and forms the processing block. A value assigned in advance to the pattern of pixel values of all SD pixels is supplied to the address terminal (AD) of the coefficient ROM 104 as the class of the pixel of interest.
【0027】具体的には、クラス分類回路101は、例
えば、図26に点線の四角形で囲んで示すように、注目
画素を中心とする5×5のSD画素(同図において○印
で示す)でなる処理ブロックを、SD画像から抽出し、
これらの25のSD画素の画素値のパターンに対応する
値を、注目画素のクラスとして出力する。More specifically, as shown in FIG. 26, for example, the classifying circuit 101 is a 5 × 5 SD pixel centered on the pixel of interest (indicated by a circle in FIG. 26) as shown by a dotted rectangle. Is extracted from the SD image,
Values corresponding to the pixel value patterns of these 25 SD pixels are output as the class of the pixel of interest.
【0028】ここで、各SD画素の画素値を表すのに、
例えば、8ビットなどの多くのビット数が割り当てられ
ている場合、25のSD画素の画素値のパターン数は、
(28)25通りという莫大な数となり、その後の処理の
迅速化が困難となる。Here, to represent the pixel value of each SD pixel,
For example, when a large number of bits such as 8 bits are assigned, the number of patterns of pixel values of 25 SD pixels is
(2 8 ) A huge number of 25 cases, making it difficult to speed up subsequent processing.
【0029】そこで、クラス分類を行う前の前処理とし
て、処理ブロックには、それを構成するSD画素のビッ
ト数を低減するための処理である、例えばADRC(Ad
aptiv Dynamic Range Coding)処理などが施される。Therefore, as a pre-process before class classification, a process block is a process for reducing the number of bits of SD pixels constituting the process block, for example, ADRC (Ad
aptiv Dynamic Range Coding) processing.
【0030】即ち、ADRC処理では、まず、処理ブロ
ックを構成する25のSD画素から、その画素値の最大
のもの(以下、適宜、最大画素という)と最小のもの
(以下、適宜、最小画素という)とが検出される。そし
て、最大画素の画素値MAXと最小画素の画素値MIN
との差分DR(=MAX−MIN)が演算され、このD
Rを処理ブロックの局所的なダイナミックレンジとす
る。このダイナミックレンジDRに基づいて、処理ブロ
ックを構成する各画素値が、元の割当ビット数より少な
いKビットに再量子化される。つまり、処理ブロックを
構成する各画素値から最小画素の画素値MINが減算さ
れ、各減算値が、DR/2Kで除算される。That is, in the ADRC process, first, out of the 25 SD pixels constituting the processing block, the largest one (hereinafter, appropriately referred to as a maximum pixel) and the smallest one (hereinafter, appropriately referred to as a minimum pixel) of the pixel value. ) Is detected. Then, the pixel value MAX of the maximum pixel and the pixel value MIN of the minimum pixel
DR (= MAX−MIN) is calculated, and this D
Let R be the local dynamic range of the processing block. Based on the dynamic range DR, each pixel value forming the processing block is requantized to K bits smaller than the original number of allocated bits. That is, the pixel value MIN of the minimum pixel from each pixel value forming the process block is subtracted, the subtraction value is divided by DR / 2 K.
【0031】その結果、処理ブロックを構成する各画素
値はKビットで表現されるようになる。従って、例えば
K=1とした場合、25のSD画素の画素値のパターン
数は、(21)25通りになり、ADRC処理を行わない
場合に比較して、パターン数を非常に少ないものとする
ことができる。なお、画素値を、このようにKビットに
するADRC処理を、以下、適宜、KビットADRC処
理という。As a result, each pixel value forming the processing block is represented by K bits. Therefore, for example, when K = 1, the number of patterns of the pixel values of the 25 SD pixels is (2 1 ) 25 , which is a very small number of patterns as compared with the case where the ADRC processing is not performed. can do. The ADRC processing for setting the pixel value to K bits in this manner is hereinafter referred to as K-bit ADRC processing as appropriate.
【0032】係数ROM104は、あらかじめ学習が行
われることにより求められた予測係数のセットを、クラ
スごとに記憶しており、クラス分類回路101からクラ
スが供給されると、そのクラスに対応するアドレスに記
憶されている予測係数のセットを読み出し、予測演算回
路105に供給する。The coefficient ROM 104 stores, for each class, a set of prediction coefficients obtained by performing learning in advance. When a class is supplied from the class classification circuit 101, the coefficient ROM 104 stores an address corresponding to the class. The stored set of prediction coefficients is read and supplied to the prediction calculation circuit 105.
【0033】一方、遅延回路102では、予測演算回路
105に対して、係数ROM104から予測係数のセッ
トが供給されるタイミングと、後述する予測タップ生成
回路103から予測タップが供給されるタイミングとを
一致させるために必要な時間だけ、SD画像が遅延さ
れ、予測タップ生成回路103に供給される。On the other hand, in the delay circuit 102, the timing at which the set of prediction coefficients is supplied from the coefficient ROM 104 to the prediction operation circuit 105 coincides with the timing at which the prediction tap is supplied from the prediction tap generation circuit 103 described later. The SD image is delayed by a time necessary for the SD image to be supplied to the prediction tap generation circuit 103.
【0034】予測タップ生成回路103では、そこに供
給されるSD画像から、予測演算回路105において所
定のHD画素の予測値を求めるのに用いるSD画素が抽
出され、これが予測タップとして、予測演算回路105
に供給される。即ち、予測タップ生成回路103では、
SD画像から、例えば、クラス分類回路101で抽出さ
れたとの同一の処理ブロックが抽出され、その処理ブロ
ックを構成するSD画素が、予測タップとして、予測演
算回路105に供給される。The prediction tap generation circuit 103 extracts, from the SD image supplied thereto, SD pixels used for obtaining a prediction value of a predetermined HD pixel in the prediction calculation circuit 105, and uses the extracted SD pixels as prediction taps. 105
Supplied to That is, in the prediction tap generation circuit 103,
From the SD image, for example, the same processing block as that extracted by the class classification circuit 101 is extracted, and the SD pixels constituting the processing block are supplied to the prediction operation circuit 105 as prediction taps.
【0035】予測演算回路105では、係数ROM10
4からの予測係数w,w2,・・・と、予測タップ生成
回路103からの予測タップx1,x2,・・・とを用い
て、式(1)に示した演算、即ち、適応処理が行われる
ことにより、注目画素yの予測値E[y]が求められ、
これが、HD画素の画素値として出力される。In the prediction operation circuit 105, the coefficient ROM 10
Prediction coefficients w, w 2 from 4, and ..., the prediction taps x 1 from the prediction tap generating circuit 103, x 2, with the ..., computation shown in equation (1), i.e., adaptive By performing the processing, a predicted value E [y] of the target pixel y is obtained,
This is output as the pixel value of the HD pixel.
【0036】即ち、ここでは、例えば、図26において
実線の四角形で囲む、注目画素を中心とする3×3のH
D画素(同図において・点で示す)の予測値が、1つの
予測タップから求められるようになされており、この場
合、予測演算回路105では、この9個のHD画素につ
いて、式(1)の演算が行われる。従って、係数ROM
104では、1のクラスに対応するアドレスに、9セッ
トの予測係数のセットが記憶されている。That is, here, for example, a 3 × 3 H centered on the pixel of interest, which is surrounded by a solid square in FIG.
The prediction value of the D pixel (indicated by a dot in the figure) is determined from one prediction tap. In this case, the prediction calculation circuit 105 calculates the equation (1) for the nine HD pixels. Is performed. Therefore, the coefficient ROM
In 104, nine sets of prediction coefficients are stored at addresses corresponding to one class.
【0037】以下同様の処理が、その他のSD画素を注
目画素として行われ、これにより、SD画像がHD画像
に変換される。Hereinafter, the same processing is performed using other SD pixels as target pixels, thereby converting an SD image into an HD image.
【0038】次に、図27は、図25の係数ROM10
4に記憶させるクラス毎の予測係数のセットを算出する
学習処理を行う学習装置の構成例を示している。Next, FIG. 27 shows the coefficient ROM 10 of FIG.
4 illustrates a configuration example of a learning device that performs a learning process of calculating a set of prediction coefficients for each class to be stored in No. 4.
【0039】学習における教師データyとなるべきHD
画像が、間引き回路111および遅延回路114に供給
されるようになされており、間引き回路111では、H
D画像が、例えば、その画素数が間引かれることにより
少なくされ、これによりSD画像とされる。このSD画
像は、クラス分類回路112および予測タップ生成回路
113に供給される。HD to be teacher data y in learning
The image is supplied to the thinning circuit 111 and the delay circuit 114.
The D image is reduced, for example, by thinning out the number of pixels, and is thereby made an SD image. This SD image is supplied to the class classification circuit 112 and the prediction tap generation circuit 113.
【0040】クラス分類回路112または予測タップ生
成回路113では、図25のクラス分類回路101また
は予測タップ生成回路103における場合と同様の処理
が行われ、これにより注目画素のクラスまたは予測タッ
プがそれぞれ出力される。クラス分類回路112が出力
するクラスは、予測タップメモリ115および教師デー
タメモリ116のアドレス端子(AD)に供給され、予
測タップ生成回路113が出力する予測タップは、予測
タップメモリ115に供給される。In the class classification circuit 112 or the prediction tap generation circuit 113, the same processing as in the case of the class classification circuit 101 or the prediction tap generation circuit 103 in FIG. 25 is performed, whereby the class of the pixel of interest or the prediction tap is output. Is done. The class output from the class classification circuit 112 is supplied to the address terminals (AD) of the prediction tap memory 115 and the teacher data memory 116, and the prediction tap output from the prediction tap generation circuit 113 is supplied to the prediction tap memory 115.
【0041】予測タップメモリ115では、クラス分類
回路112から供給されるクラスに対応するアドレス
に、予測タップ生成回路113から供給される予測タッ
プが記憶される。In the prediction tap memory 115, the prediction tap supplied from the prediction tap generation circuit 113 is stored at the address corresponding to the class supplied from the class classification circuit 112.
【0042】一方、遅延回路114では、注目画素に対
応するクラスが、クラス分類回路112から教師データ
メモリ116に供給される時間だけ、HD画像が遅延さ
れ、そのうちの、予測タップに対して図26に示した位
置関係にあるHD画素の画素値だけが、教師データとし
て、教師データメモリ116に供給される。On the other hand, in the delay circuit 114, the HD image is delayed by the time when the class corresponding to the pixel of interest is supplied from the classifying circuit 112 to the teacher data memory 116. Are supplied to the teacher data memory 116 as teacher data only.
【0043】そして、教師データメモリ116では、ク
ラス分類回路112から供給されるクラスに対応するア
ドレスに、遅延回路114から供給される教師データが
記憶される。In the teacher data memory 116, teacher data supplied from the delay circuit 114 is stored at an address corresponding to the class supplied from the class classification circuit 112.
【0044】以下同様の処理が、あらかじめ学習用に用
意されたすべてのHD画像から得られるSD画像を構成
するすべてのSD画素が注目画素とされるまで繰り返さ
れる。Hereinafter, the same processing is repeated until all the SD pixels constituting the SD image obtained from all the HD images prepared for learning in advance are set as the target pixels.
【0045】以上のようにして、予測タップメモリ11
5または教師データメモリ116の同一のアドレスに
は、図26において○印で示したSD画素または図26
において・印で示したHD画素とそれぞれ同一の位置関
係にあるSD画素またはHD画素が、学習データxまた
は教師データyとして記憶される。As described above, the prediction tap memory 11
26 or the same address in the teacher data memory 116, the SD pixel indicated by a circle in FIG.
In the above, the SD pixel or the HD pixel having the same positional relation as the HD pixel indicated by the mark is stored as the learning data x or the teacher data y.
【0046】なお、予測タップメモリ115と教師デー
タメモリ116においては、同一アドレスに複数の情報
を記憶することができるようになされており、これによ
り、同一アドレスには、同一のクラスに分類される複数
の学習データxと教師データyを記憶することができる
ようになされている。In the prediction tap memory 115 and the teacher data memory 116, a plurality of pieces of information can be stored at the same address, whereby the same address is classified into the same class. A plurality of learning data x and teacher data y can be stored.
【0047】その後、演算回路117は、予測タップメ
モリ115または教師データメモリ116から、同一ア
ドレスに記憶されている学習データとしての予測タップ
または教師データとしてのHD画素の画素値を読み出
し、それらを用いて、最小自乗法によって、予測値と教
師データとの間の誤差を最小にする予測係数のセットを
算出する。即ち、演算回路117では、クラス毎に、式
(7)に示した正規方程式がたてられ、これを解くこと
によりクラス毎の予測係数のセットが求められる。Thereafter, the arithmetic circuit 117 reads the prediction tap as learning data or the pixel value of the HD pixel as teacher data stored at the same address from the prediction tap memory 115 or the teacher data memory 116 and uses them. Then, a set of prediction coefficients that minimizes the error between the predicted value and the teacher data is calculated by the least square method. That is, in the arithmetic circuit 117, a normal equation shown in Expression (7) is established for each class, and by solving this, a set of prediction coefficients for each class is obtained.
【0048】以上のようにして、演算回路117で求め
られたクラス毎の予測係数のセットが、図25の係数R
OM104における、そのクラスに対応するアドレスに
記憶されている。As described above, the set of prediction coefficients for each class obtained by the arithmetic circuit 117 is the coefficient R shown in FIG.
It is stored in the OM 104 at the address corresponding to the class.
【0049】なお、以上のような学習処理において、予
測係数のセットを求めるのに必要な数の正規方程式が得
られないクラスが生じる場合があるが、そのようなクラ
スについては、例えば、クラスを無視して正規方程式を
たてて解くことにより得られる予測係数のセットなど
が、いわばデフォルトの予測係数のセットとして用いら
れる。In the learning process described above, there may be a class in which the number of normal equations necessary for obtaining a set of prediction coefficients cannot be obtained. A set of prediction coefficients obtained by ignoring and solving a normal equation is used as a default set of prediction coefficients.
【0050】ところで、図25の画像変換装置によれ
ば、HD画像の画素数を間引くなどして少なくすること
により得られるSD画像から、上述したように、そこに
含まれていない高周波成分をも含むHD画像を得ること
ができるが、元のHD画像に近づけるのには限界があ
る。その理由として、HD画像の画素数を間引いただけ
のSD画像の画素(SD画素)の画素値が、元のHD画
像を復元するのに、最適ではないことが考えられる。By the way, according to the image conversion apparatus shown in FIG. 25, as described above, high-frequency components not included in the SD image obtained by reducing the number of pixels of the HD image by thinning them out are also used. Although it is possible to obtain an HD image including the original HD image, there is a limit in approaching the original HD image. The reason may be that the pixel value of the pixel of the SD image (SD pixel), which is obtained by thinning out the number of pixels of the HD image, is not optimal for restoring the original HD image.
【0051】そこで、本件出願人は、元のHD画像によ
り近い画質の復号画像を得ることができるようにするた
め、適応処理を利用した画像の圧縮(符号化)について
先に提案している(例えば、特願平8−206552号
など)。Therefore, the applicant of the present application has previously proposed compression (encoding) of an image using adaptive processing in order to obtain a decoded image having an image quality closer to the original HD image ( For example, Japanese Patent Application No. 8-206552.
【0052】即ち、図28は、適応処理によって、元の
HD画像により近い復号画像を得ることができるよう
に、そのHD画像を、最適なSD画像に圧縮(符号化)
する画像符号化装置の構成例を示している。That is, FIG. 28 shows that the HD image is compressed (encoded) into an optimal SD image so that a decoded image closer to the original HD image can be obtained by the adaptive processing.
1 shows an example of the configuration of an image encoding device to be used.
【0053】符号化対象のHD画像は、間引き部121
および誤差算出部43に供給される。The HD image to be encoded is output from the thinning unit 121.
And supplied to the error calculation unit 43.
【0054】間引き部121では、HD画像が、例え
ば、単純に間引かれることによりSD画像とされ、補正
部41に供給される。補正部41は、間引き部121か
らSD画像を受信すると、最初は、そのSD画像を、そ
のままローカルデコード部122に出力する。ローカル
デコード部122は、例えば、図25に示した画像変換
装置と同様に構成され、補正部41からのSD画像を用
いて、上述したような適応処理を行うことにより、HD
画素の予測値を算出し、誤差算出部43に出力する。誤
差算出部43は、ローカルデコード部122からのHD
画素の予測値の、元のHD画素に対する予測誤差(誤差
情報)を算出し、制御部44に出力する。制御部44
は、誤差算出部43からの予測誤差に対応して、補正部
41を制御する。In the thinning section 121, the HD image is converted to an SD image by simply thinning it, for example, and supplied to the correcting section 41. Upon receiving the SD image from the thinning unit 121, the correction unit 41 first outputs the SD image to the local decoding unit 122 as it is. The local decoding unit 122 has, for example, the same configuration as that of the image conversion apparatus shown in FIG. 25, and performs the above-described adaptive processing using the SD image from the correction unit 41, thereby obtaining an HD image.
The prediction value of the pixel is calculated and output to the error calculation unit 43. The error calculation unit 43 receives the HD from the local decode unit 122.
A prediction error (error information) of the prediction value of the pixel with respect to the original HD pixel is calculated and output to the control unit 44. Control unit 44
Controls the correction unit 41 in accordance with the prediction error from the error calculation unit 43.
【0055】即ち、これにより、補正部41は、間引き
部121からのSD画像の画素値を、制御部44からの
制御に従って補正し、ローカルデコード部122に出力
する。ローカルデコード部122では、補正部41から
供給される補正後のSD画像を用いて、再び、HD画像
の予測値が求められる。That is, the correction unit 41 corrects the pixel value of the SD image from the thinning unit 121 under the control of the control unit 44 and outputs the corrected pixel value to the local decoding unit 122. The local decoding unit 122 uses the corrected SD image supplied from the correction unit 41 to obtain the predicted value of the HD image again.
【0056】以下、例えば、誤差算出部43が出力する
予測誤差が、所定値以下となるまで、同様の処理が繰り
返される。Hereinafter, the same processing is repeated until, for example, the prediction error output from the error calculating section 43 becomes equal to or less than a predetermined value.
【0057】そして、誤差算出部43が出力する予測誤
差が、所定値以下となると、制御部44は、補正部41
を制御し、これにより、予測誤差が所定値以下となった
ときの、補正後のSD画像を、HD画像の最適な符号化
結果として出力させる。When the prediction error output from the error calculation section 43 becomes equal to or smaller than a predetermined value, the control section 44 sets the correction section 41
, Whereby the corrected SD image when the prediction error is equal to or less than a predetermined value is output as the optimal encoding result of the HD image.
【0058】従って、この補正後のSD画像によれば、
それに適応処理を施すことにより、予測誤差が所定値以
下のHD画像を得ることができる。Therefore, according to the SD image after this correction,
By applying the adaptive processing thereto, it is possible to obtain an HD image whose prediction error is equal to or less than a predetermined value.
【0059】ここで、以上のようにして、図28の画像
符号化装置から出力されるSD画像は、元のHD画像に
より近い復号画像を得るのに最適なものということがで
きるから、この画像符号化装置の補正部41、ローカル
デコード部122、誤差算出部43、および制御部44
で構成される系が行う処理は、最適化処理ということが
できる。Here, as described above, the SD image output from the image encoding apparatus in FIG. 28 can be said to be the most suitable for obtaining a decoded image closer to the original HD image. Correction unit 41, local decoding unit 122, error calculation unit 43, and control unit 44 of the encoding device
Can be called optimization processing.
【0060】[0060]
【発明が解決しようとする課題】ところで、適応処理
は、いわば、HD画素の周辺のSD画素で予測タップを
構成し、その予測タップを用いて、HD画素の予測値を
求めるものであるが、予測タップとして用いられるSD
画素は、画像とは無関係に選択されるようになされてい
た。By the way, in the adaptive processing, a prediction tap is constituted by SD pixels around the HD pixel, and the prediction value of the HD pixel is obtained using the prediction tap. SD used as prediction tap
Pixels were to be selected independently of the image.
【0061】即ち、図25の画像変換装置の予測タップ
生成回路103や、この画像変換装置と同様に構成され
る図28のローカルデコード部122では、常に、一定
パターンの予測タップが生成(形成)されるようになさ
れていた。That is, in the prediction tap generation circuit 103 of the image conversion apparatus of FIG. 25 and the local decoding unit 122 of FIG. 28 configured similarly to the image conversion apparatus, prediction taps of a constant pattern are always generated (formed). Was to be done.
【0062】しかしながら、画像は、局所的に特性が異
なる場合が多く、従って、特性が異なれば、それに対応
した予測タップを用いて適応処理をした方が、元のHD
画像の画質により近い復号画像を得ることができると考
えられる。However, the image often has locally different characteristics. Therefore, if the characteristics are different, it is better to perform the adaptive processing using the prediction tap corresponding to the characteristics.
It is considered that a decoded image closer to the image quality can be obtained.
【0063】本発明は、このような状況に鑑みてなされ
たものであり、より画質の向上した復号画像を得ること
ができるようにするものである。The present invention has been made in view of such a situation, and it is an object of the present invention to obtain a decoded image with higher image quality.
【0064】[0064]
【課題を解決するための手段】請求項1に記載の画像符
号化装置は、圧縮画像信号を構成する画素のうちの1つ
を注目画素として、その注目画素の近傍の画素を用い
て、複数パターンの予測タップを形成する第1の形成手
段と、複数パターンの予測タップそれぞれと、所定の予
測係数とから、原画像信号を予測し、複数パターンの予
測タップそれぞれに対する予測値を出力する第1の予測
手段と、複数パターンの予測タップそれぞれに対する予
測値の、原画像信号に対する予測誤差を算出する第1の
算出手段と、複数パターンの予測タップのうち、最小の
予測誤差が得られる予測タップに対応するパターンコー
ドを、注目画素の画素値に付加する付加手段とを備える
ことを特徴とする。According to a first aspect of the present invention, there is provided an image encoding apparatus, wherein one of pixels constituting a compressed image signal is set as a target pixel, and a plurality of pixels are used by using pixels in the vicinity of the target pixel. A first forming unit that forms a prediction tap of a pattern, a first prediction unit that predicts an original image signal from each of the prediction taps of a plurality of patterns and a predetermined prediction coefficient, and outputs a prediction value for each of the prediction taps of the plurality of patterns. And a first calculating means for calculating a prediction error of a predicted value for each of a plurality of patterns of prediction taps with respect to an original image signal, and a prediction tap for obtaining a minimum prediction error among the plurality of patterns of prediction taps. An adding means for adding a corresponding pattern code to the pixel value of the target pixel.
【0065】請求項13に記載の画像符号化方法は、圧
縮画像信号を構成する画素のうちの1つを注目画素とし
て、その注目画素の近傍の画素を用いて、複数パターン
の予測タップを形成する第1の形成ステップと、複数パ
ターンの予測タップそれぞれと、所定の予測係数とか
ら、原画像信号を予測し、複数パターンの予測タップそ
れぞれに対する予測値を出力する第1の予測ステップ
と、複数パターンの予測タップそれぞれに対する予測値
の、原画像信号に対する予測誤差を算出する第1の算出
ステップと、複数パターンの予測タップのうち、最小の
予測誤差が得られる予測タップに対応するパターンコー
ドを、注目画素の画素値に付加する付加ステップとを備
えることを特徴とする。According to a thirteenth aspect of the present invention, one of pixels constituting a compressed image signal is set as a target pixel, and a plurality of patterns of prediction taps are formed using pixels in the vicinity of the target pixel. A first forming step, a first prediction step of predicting an original image signal from each of the plurality of patterns of prediction taps and a predetermined prediction coefficient, and outputting a predicted value for each of the plurality of patterns of prediction taps; A first calculation step of calculating a prediction error with respect to an original image signal of a prediction value for each of the prediction taps of the pattern, and a pattern code corresponding to a prediction tap from which a minimum prediction error is obtained among prediction taps of a plurality of patterns, An adding step of adding to the pixel value of the target pixel.
【0066】請求項25に記載の画像復号装置は、符号
化データに含まれる圧縮画像信号を構成する画素のうち
の1つを注目画素として、その注目画素の画素値に付加
されているパターンコードに対応するパターンの予測タ
ップを、注目画素の近傍の画素を用いて形成する形成手
段と、形成手段により形成された予測タップと、予測係
数とから、原画像信号を予測し、その予測値を求める予
測手段とを備えることを特徴とする。According to a twenty-fifth aspect of the present invention, there is provided an image decoding apparatus, wherein one of pixels constituting a compressed image signal included in encoded data is set as a target pixel, and a pattern code added to a pixel value of the target pixel. Forming a prediction tap of a pattern corresponding to the target pixel using pixels in the vicinity of the pixel of interest, a prediction tap formed by the formation unit, and a prediction coefficient, predicting an original image signal, and calculating a prediction value of the original image signal. And a predicting means to be obtained.
【0067】請求項32に記載の画像復号方法は、符号
化データに含まれる圧縮画像信号を構成する画素のうち
の1つを注目画素として、その注目画素の画素値に付加
されているパターンコードに対応するパターンの予測タ
ップを、注目画素の近傍の画素を用いて形成する形成ス
テップと、形成ステップにより形成された予測タップ
と、予測係数とから、原画像信号を予測し、その予測値
を求める予測ステップとを備えることを特徴とする。The image decoding method according to claim 32, wherein one of the pixels constituting the compressed image signal included in the encoded data is set as a target pixel, and the pattern code added to the pixel value of the target pixel. Forming a prediction tap of a pattern corresponding to the target pixel using pixels in the vicinity of the pixel of interest, a prediction tap formed by the formation step, and a prediction coefficient to predict an original image signal, and predicting the prediction value And a prediction step to be determined.
【0068】請求項39に記載の記録媒体は、符号化デ
ータが、圧縮画像信号を構成する画素のうちの1つを注
目画素として、その注目画素の近傍の画素を用いて、複
数パターンの予測タップを形成し、複数パターンの予測
タップそれぞれと、所定の予測係数とから、原画像信号
を予測し、複数パターンの予測タップそれぞれに対する
予測値を出力し、複数パターンの予測タップそれぞれに
対する予測値の、原画像信号に対する予測誤差を算出
し、複数パターンの予測タップのうち、最小の予測誤差
が得られる予測タップに対応するパターンコードを、注
目画素の画素値に付加することにより得られたものであ
ることを特徴とする。In the recording medium according to the thirty-ninth aspect, the encoded data is obtained by predicting a plurality of patterns by using one of pixels constituting a compressed image signal as a pixel of interest and using a pixel near the pixel of interest. Forming a tap, predicting an original image signal from each of the plurality of prediction taps and a predetermined prediction coefficient, outputting a prediction value for each of the plurality of prediction taps, and calculating a prediction value for each of the plurality of prediction taps; , By calculating a prediction error for the original image signal, and adding a pattern code corresponding to a prediction tap for which a minimum prediction error is obtained among prediction taps of a plurality of patterns to a pixel value of a pixel of interest. There is a feature.
【0069】請求項1に記載の画像符号化装置において
は、第1の形成手段は、圧縮画像信号を構成する画素の
うちの1つを注目画素として、その注目画素の近傍の画
素を用いて、複数パターンの予測タップを形成し、第1
の予測手段は、複数パターンの予測タップそれぞれと、
所定の予測係数とから、原画像信号を予測し、複数パタ
ーンの予測タップそれぞれに対する予測値を出力するよ
うになされている。第1の算出手段は、複数パターンの
予測タップそれぞれに対する予測値の、原画像信号に対
する予測誤差を算出し、付加手段は、複数パターンの予
測タップのうち、最小の予測誤差が得られる予測タップ
に対応するパターンコードを、注目画素の画素値に付加
するようになされている。In the image coding apparatus according to the first aspect, the first forming means sets one of the pixels constituting the compressed image signal as a target pixel and uses a pixel near the target pixel. , Forming a plurality of patterns of prediction taps,
The prediction means of each of a plurality of prediction taps,
An original image signal is predicted from a predetermined prediction coefficient, and a predicted value for each of a plurality of prediction taps is output. The first calculating means calculates a prediction error of a predicted value for each of the plurality of patterns of prediction taps with respect to the original image signal, and the adding means calculates a prediction tap for which a minimum prediction error is obtained among the plurality of patterns of prediction taps. The corresponding pattern code is added to the pixel value of the target pixel.
【0070】請求項13に記載の画像符号化方法におい
ては、圧縮画像信号を構成する画素のうちの1つを注目
画素として、その注目画素の近傍の画素を用いて、複数
パターンの予測タップを形成し、複数パターンの予測タ
ップそれぞれと、所定の予測係数とから、原画像信号を
予測し、複数パターンの予測タップそれぞれに対する予
測値を出力し、複数パターンの予測タップそれぞれに対
する予測値の、原画像信号に対する予測誤差を算出し、
複数パターンの予測タップのうち、最小の予測誤差が得
られる予測タップに対応するパターンコードを、注目画
素の画素値に付加するようになされている。In the image coding method according to the thirteenth aspect, one of the pixels constituting the compressed image signal is set as a target pixel, and prediction taps of a plurality of patterns are formed by using pixels near the target pixel. Forming an original image signal from each of the plurality of patterns of prediction taps and a predetermined prediction coefficient, outputting a prediction value for each of the plurality of patterns of prediction taps; Calculating the prediction error for the image signal,
A pattern code corresponding to a prediction tap from which a minimum prediction error is obtained among prediction taps of a plurality of patterns is added to the pixel value of the target pixel.
【0071】請求項25に記載の画像復号装置において
は、形成手段は、符号化データに含まれる圧縮画像信号
を構成する画素のうちの1つを注目画素として、その注
目画素の画素値に付加されているパターンコードに対応
するパターンの予測タップを、注目画素の近傍の画素を
用いて形成し、予測手段は、形成手段により形成された
予測タップと、予測係数とから、原画像信号を予測し、
その予測値を求めるようになされている。In the image decoding apparatus according to the twenty-fifth aspect, the forming means sets one of the pixels constituting the compressed image signal included in the encoded data as a target pixel and adds the pixel value to the pixel value of the target pixel. A prediction tap of a pattern corresponding to the pattern code being formed is formed using pixels near the pixel of interest, and the prediction unit predicts an original image signal from the prediction tap formed by the formation unit and the prediction coefficient. And
The prediction value is obtained.
【0072】請求項32に記載の画像復号方法において
は、符号化データに含まれる圧縮画像信号を構成する画
素のうちの1つを注目画素として、その注目画素の画素
値に付加されているパターンコードに対応するパターン
の予測タップを、注目画素の近傍の画素を用いて形成
し、その予測タップと、予測係数とから、原画像信号を
予測し、その予測値を求めるようになされている。In the image decoding method according to the thirty-second aspect, one of pixels constituting a compressed image signal included in encoded data is set as a target pixel, and a pattern added to the pixel value of the target pixel. A prediction tap of a pattern corresponding to a code is formed using pixels near the pixel of interest, an original image signal is predicted from the prediction tap and a prediction coefficient, and a prediction value is obtained.
【0073】請求項39に記載の記録媒体には、圧縮画
像信号を構成する画素のうちの1つを注目画素として、
その注目画素の近傍の画素を用いて、複数パターンの予
測タップを形成し、複数パターンの予測タップそれぞれ
と、所定の予測係数とから、原画像信号を予測し、複数
パターンの予測タップそれぞれに対する予測値を出力
し、複数パターンの予測タップそれぞれに対する予測値
の、原画像信号に対する予測誤差を算出し、複数パター
ンの予測タップのうち、最小の予測誤差が得られる予測
タップに対応するパターンコードを、注目画素の画素値
に付加することにより得られた符号化データが記録され
ている。In the recording medium according to the thirty-ninth aspect, one of the pixels constituting the compressed image signal is set as a pixel of interest.
A prediction tap of a plurality of patterns is formed using pixels in the vicinity of the pixel of interest, and an original image signal is predicted from each of the prediction taps of the plurality of patterns and a predetermined prediction coefficient, and prediction for each of the prediction taps of the plurality of patterns is performed. A value is output, a prediction error of the prediction value for each of the plurality of patterns of prediction taps is calculated, and a prediction error with respect to the original image signal is calculated. Coded data obtained by adding the pixel value to the pixel value of the target pixel is recorded.
【0074】[0074]
【発明の実施の形態】以下に、本発明の実施の形態を説
明するが、その前に、特許請求の範囲に記載の発明の各
手段と以下の実施の形態との対応関係を明らかにするた
めに、各手段の後の括弧内に、対応する実施の形態(但
し、一例)を付加して、本発明の特徴を記述すると、次
のようになる。DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the present invention will be described below, but before that, the correspondence between each means of the invention described in the claims and the following embodiments will be clarified. For this reason, the features of the present invention are described as follows by adding the corresponding embodiment (however, an example) in parentheses after each means.
【0075】即ち、請求項1に記載の画像符号化装置
は、画像信号を符号化する画像符号化装置であって、原
画像信号の画素数より少ない画素数の圧縮画像信号を発
生する圧縮手段(例えば、図5に示す間引き回路31な
ど)と、圧縮画像信号を構成する画素のうちの1つを注
目画素として、その注目画素の近傍の画素を用いて、複
数パターンの予測タップを形成する第1の形成手段(例
えば、図5に示す予測タップ生成回路32や、図22に
示す予測タップ生成回路61など)と、複数パターンの
予測タップそれぞれと、所定の予測係数とから、原画像
信号を予測し、複数パターンの予測タップそれぞれに対
する予測値を出力する第1の予測手段(例えば、図5に
示すクラス分類適応処理回路33や、図22に示すクラ
ス分類適応処理回路62など)と、複数パターンの予測
タップそれぞれに対する予測値の、原画像信号に対する
予測誤差を算出する第1の算出手段(例えば、図5に示
す予測誤差算出回路34や、図22に示す予測誤差算出
回路63など)と、複数パターンの予測タップのうち、
最小の予測誤差が得られる予測タップに対応するパター
ンコードを、注目画素の画素値に付加する付加手段(例
えば、図5に示すタップパターンコード付加回路36
や、図22に示すタップパターンコード変更回路64な
ど)とを備えることを特徴とする。That is, an image coding apparatus according to claim 1 is an image coding apparatus for coding an image signal, wherein the compression means generates a compressed image signal having a smaller number of pixels than the number of pixels of the original image signal. (For example, the thinning circuit 31 shown in FIG. 5) and one of the pixels constituting the compressed image signal is set as a target pixel, and a plurality of patterns of prediction taps are formed using pixels in the vicinity of the target pixel. An original image signal is formed from first forming means (for example, the prediction tap generation circuit 32 shown in FIG. 5 and the prediction tap generation circuit 61 shown in FIG. 22), prediction taps of a plurality of patterns, and predetermined prediction coefficients. Predicting means for predicting a plurality of patterns and outputting predicted values for each of a plurality of prediction taps (for example, a class classification adaptive processing circuit 33 shown in FIG. 5 or a class classification adaptive processing circuit shown in FIG. 22). 2) and first calculation means (for example, a prediction error calculation circuit 34 shown in FIG. 5 or a prediction error shown in FIG. 22) for calculating a prediction error of a prediction value for each of a plurality of prediction taps with respect to an original image signal. Calculation circuit 63) and a plurality of patterns of prediction taps.
An adding unit (for example, a tap pattern code adding circuit 36 shown in FIG. 5) for adding a pattern code corresponding to a prediction tap that can obtain a minimum prediction error to a pixel value of a target pixel.
And a tap pattern code change circuit 64 shown in FIG. 22).
【0076】請求項3に記載の画像符号化装置は、第1
の予測手段が、原画像信号および圧縮画像信号に基づい
て演算を行うことにより、予測係数を求める演算手段
(例えば、図11に示す演算回路87など)を有するこ
とを特徴とする。According to a third aspect of the present invention, there is provided an image encoding apparatus comprising:
Is characterized in that it has an operation means (for example, an operation circuit 87 shown in FIG. 11) for obtaining a prediction coefficient by performing an operation based on the original image signal and the compressed image signal.
【0077】請求項4に記載の画像符号化装置は、第1
の予測手段が、注目画素を、所定のクラスに分類するク
ラス分類手段(例えば、図11に示すクラス分類回路8
2など)をさらに有し、注目画素のクラスに対応する予
測係数と、予測タップとから、予測値を求め、演算手段
が、原画像信号および圧縮画像信号に基づいて、予測係
数を、クラスごとに求めることを特徴とする。The image coding apparatus according to the fourth aspect is characterized in that the first
Predicting means classifies the target pixel into a predetermined class (for example, the classifying circuit 8 shown in FIG. 11).
2), and a prediction value is obtained from the prediction coefficient corresponding to the class of the pixel of interest and the prediction tap, and the calculating means calculates the prediction coefficient for each class based on the original image signal and the compressed image signal. It is characterized by seeking.
【0078】請求項7に記載の画像符号化装置は、圧縮
画像信号を、最適な圧縮画像信号に変換する最適化手段
(例えば、図3に示す最適化部23など)をさらに備え
ることを特徴とする。The image coding apparatus according to claim 7 further comprises an optimizing means (for example, an optimizing unit 23 shown in FIG. 3) for converting a compressed image signal into an optimal compressed image signal. And
【0079】請求項8に記載の画像符号化装置は、最適
化手段が、注目画素の画素値に付加されたパターンコー
ドに対応するパターンの予測タップを形成する第2の形
成手段(例えば、図16に示す予測タップ生成回路42
Aなど)と、第2の形成手段により形成された予測タッ
プと、予測係数とから、原画像信号を予測し、その予測
値を出力する第2の予測手段(例えば、図16に示すク
ラス分類適応処理回路42Bなど)と、第2の予測手段
により求められた予測値の、原画像信号に対する予測誤
差を算出する第2の算出手段(例えば、図16に示す誤
差算出回路43など)と、第2の算出手段により算出さ
れた予測誤差に対応して、注目画素の画素値を補正する
補正手段(例えば、図16に示す補正部41など)とを
有することを特徴とする。In the image coding apparatus according to the present invention, the optimizing means forms the prediction tap of the pattern corresponding to the pattern code added to the pixel value of the pixel of interest (for example, FIG. The prediction tap generation circuit 42 shown in FIG.
A), a prediction tap formed by the second forming means, and a prediction coefficient, the second predicting means for predicting the original image signal and outputting the predicted value (for example, the class classification shown in FIG. 16) An adaptive processing circuit 42B), a second calculating means (for example, an error calculating circuit 43 shown in FIG. 16) for calculating a prediction error of the predicted value obtained by the second predicting means with respect to the original image signal, The image processing apparatus further includes a correction unit (for example, a correction unit 41 shown in FIG. 16) that corrects the pixel value of the target pixel in accordance with the prediction error calculated by the second calculation unit.
【0080】請求項10に記載の画像符号化装置は、最
適化処理を行うごとに得られる圧縮画像信号と、原画像
信号とに基づいて、第2の予測手段により求められる予
測値の、原画像信号に対する予測誤差を小さくするよう
に、予測係数を修正する修正手段(例えば、図3に示す
適応処理部24など)をさらに備え、第1および第2の
予測手段が、修正手段により修正され予測係数を用い
て、予測値を求めることを特徴とする。An image coding apparatus according to a tenth aspect of the present invention provides an image coding apparatus that calculates an original value of a prediction value obtained by a second prediction unit based on a compressed image signal obtained each time an optimization process is performed and an original image signal. A correction unit (for example, the adaptive processing unit 24 shown in FIG. 3) for correcting the prediction coefficient is further provided so as to reduce the prediction error with respect to the image signal, and the first and second prediction units are corrected by the correction unit. It is characterized in that a prediction value is obtained using a prediction coefficient.
【0081】請求項11に記載の画像符号化装置は、最
適化手段が出力する圧縮画像信号と、修正手段が出力す
る予測係数とを出力する出力手段(例えば、図3に示す
多重化部27など)をさらに備えることを特徴とする。The image coding apparatus according to the eleventh aspect provides an output unit (for example, the multiplexing unit 27 shown in FIG. 3) that outputs a compressed image signal output by the optimization unit and a prediction coefficient output by the correction unit. Etc.).
【0082】請求項12に記載の画像符号化装置は、パ
ターンコードが付加された圧縮画像信号と、予測係数と
を出力する出力手段(例えば、図3に示す多重化部27
など)をさらに備えることを特徴とする。The image encoding apparatus according to the twelfth aspect provides an output means for outputting a compressed image signal to which a pattern code is added and a prediction coefficient (for example, the multiplexing unit 27 shown in FIG.
Etc.).
【0083】請求項25に記載の画像復号装置は、原画
像信号の画素数より少ない画素数の圧縮画像信号を発生
し、圧縮画像信号を構成する画素のうちの1つを注目画
素として、その注目画素の近傍の画素を用いて、複数パ
ターンの予測タップを形成し、複数パターンの予測タッ
プそれぞれと、所定の予測係数とから、原画像信号を予
測し、複数パターンの予測タップそれぞれに対する予測
値を出力し、複数パターンの予測タップそれぞれに対す
る予測値の、原画像信号に対する予測誤差を算出し、複
数パターンの予測タップのうち、最小の予測誤差が得ら
れる予測タップに対応するパターンコードを、注目画素
の画素値に付加することにより得られる圧縮画像信号を
含む符号化データを復号する画像復号装置であって、符
号化データに含まれる圧縮画像信号を構成する画素のう
ちの1つを注目画素として、その注目画素の画素値に付
加されているパターンコードに対応するパターンの予測
タップを、注目画素の近傍の画素を用いて形成する形成
手段(例えば、図24に示す予測タップ生成回路73な
ど)と、形成手段により形成された予測タップと、予測
係数とから、原画像信号を予測し、その予測値を求める
予測手段(例えば、図24に示すクラス分類適応処理回
路74など)とを備えることを特徴とする。An image decoding apparatus according to the twenty-fifth aspect generates a compressed image signal having a smaller number of pixels than the number of pixels of the original image signal, and sets one of the pixels constituting the compressed image signal as a target pixel. A prediction tap of a plurality of patterns is formed using pixels in the vicinity of the pixel of interest, and an original image signal is predicted from each of the prediction taps of the plurality of patterns and a predetermined prediction coefficient, and a prediction value for each of the prediction taps of the plurality of patterns is formed. Is calculated, and a prediction error of a prediction value for each of the plurality of prediction taps with respect to the original image signal is calculated, and a pattern code corresponding to a prediction tap for which a minimum prediction error is obtained among the plurality of prediction taps is noted. An image decoding device for decoding encoded data including a compressed image signal obtained by adding to a pixel value of a pixel, wherein the encoded data includes A prediction tap of a pattern corresponding to a pattern code added to a pixel value of the pixel of interest is formed by using one of pixels constituting the compressed image signal of interest as a pixel of interest using pixels near the pixel of interest. A prediction means (for example, a prediction tap generating circuit 73 shown in FIG. 24), a prediction tap formed by the formation means, and a prediction coefficient for predicting an original image signal and obtaining a prediction value thereof (for example, , A classification adaptive processing circuit 74 shown in FIG. 24).
【0084】請求項28に記載の画像復号装置は、予測
手段が、注目画素を、所定のクラスに分類するクラス分
類手段(例えば、図17に示すクラス分類回路91な
ど)を有し、注目画素のクラスに対応する予測係数と、
予測タップとから、予測値を求め、予測係数が、原画像
信号および圧縮画像信号に基づいて、クラスごとに求め
られたものであることを特徴とする。According to a twenty-eighth aspect of the present invention, the predicting means includes class classifying means for classifying a target pixel into a predetermined class (for example, a class classification circuit 91 shown in FIG. 17). Prediction coefficients corresponding to the classes of
A prediction value is obtained from the prediction tap, and the prediction coefficient is obtained for each class based on the original image signal and the compressed image signal.
【0085】請求項31に記載の画像復号装置は、符号
化データが、予測係数も含んでおり、符号化データか
ら、圧縮画像信号と予測係数とを分離する分離手段(例
えば、図24に示す分離部72など)をさらに備えるこ
とを特徴とする。According to the image decoding apparatus of the present invention, the encoded data also includes a prediction coefficient, and a separating means for separating a compressed image signal and a prediction coefficient from the encoded data (for example, as shown in FIG. 24). (Separating section 72 etc.).
【0086】なお、勿論この記載は、各手段を上記した
ものに限定することを意味するものではない。Note that, of course, this description does not mean that each means is limited to those described above.
【0087】図1は、本発明を適用した画像処理装置の
一実施の形態の構成を示している。送信装置1には、デ
ィジタル化されたHD画像の画像データが供給されるよ
うになされている。送信装置1は、入力された画像デー
タを間引くこと(その画素数を少なくすること)により
圧縮、符号化し、その結果得られるSD画像の画像デー
タを、HD画像の符号化データとして、例えば、光ディ
スクや、光磁気ディスク、磁気テープその他でなる記録
媒体2に記録し、または、例えば、地上波や、衛星回
線、電話回線、CATV網、その他の伝送路3を介して
伝送する。FIG. 1 shows the configuration of an embodiment of an image processing apparatus to which the present invention is applied. The transmission device 1 is supplied with image data of a digitized HD image. The transmission device 1 compresses and encodes the input image data by thinning out (decreasing the number of pixels), and converts the resulting image data of the SD image as encoded data of the HD image into, for example, an optical disc. Alternatively, the data is recorded on a recording medium 2 such as a magneto-optical disk, a magnetic tape, or the like, or transmitted, for example, via a terrestrial wave, a satellite line, a telephone line, a CATV network, or another transmission path 3.
【0088】受信装置4では、記録媒体2に記録された
符号化データが再生され、または、伝送路3を介して伝
送されてくる符号化データが受信され、その符号化デー
タを伸張、復号し、その結果得られるHD画像の復号画
像を、図示せぬディスプレイに供給して表示させる。The receiving device 4 reproduces the coded data recorded on the recording medium 2 or receives the coded data transmitted via the transmission path 3 and expands and decodes the coded data. The resulting decoded HD image is supplied to a display (not shown) for display.
【0089】なお、以上のような画像処理装置は、例え
ば、光ディスク装置や、光磁気ディスク装置、磁気テー
プ装置その他の、画像の記録/再生を行う装置や、ある
いはまた、例えば、テレビ電話装置や、テレビジョン放
送システム、CATVシステムその他の、画像の伝送を
行う装置などに適用される。また、後述するように、送
信装置1が出力する符号化データのデータ量が少ないた
め、図1の画像処理装置は、伝送レートの低い、例え
ば、携帯電話機その他の、移動に便利な携帯端末などに
も適用可能である。The above-described image processing apparatus is, for example, an optical disk device, a magneto-optical disk device, a magnetic tape device, or another device for recording / reproducing images, or, for example, a videophone device, , A television broadcasting system, a CATV system, and other devices for transmitting images. Further, as described later, since the data amount of the encoded data output from the transmission device 1 is small, the image processing device in FIG. 1 has a low transmission rate, such as a mobile phone or other portable terminal that is convenient for movement. Is also applicable.
【0090】図2は、送信装置1の構成例を示してい
る。FIG. 2 shows an example of the configuration of the transmitting device 1.
【0091】I/F(InterFace)11は、外部から供
給されるHD画像の画像データの受信処理と、送信機/
記録装置16に対しての、符号化データの送信処理を行
うようになされている。ROM(Read Only Memory)1
2は、IPL(Initial Program Loading)用のプログ
ラムその他を記憶している。RAM(Random Access Me
mory)13は、外部記憶装置15に記録されているシス
テムプログラム(OS(Operating System))やアプリ
ケーションプログラムを記憶したり、また、CPU(Ce
ntral Processing Unit)14の動作上必要なデータを
記憶するようになされている。CPU14は、ROM1
2に記憶されているIPLプログラムにしたがい、外部
記憶装置15からシステムプログラムおよびアプリケー
ションプログラムを、RAM13に展開し、そのシステ
ムプログラムの制御の下、アプリケーションプログラム
を実行することで、I/F11から供給される画像デー
タについての、後述するような符号化処理を行うように
なされている。外部記憶装置15は、例えば、磁気ディ
スク装置などでなり、上述したように、CPU14が実
行するシステムプログラムやアプリケーションプログラ
ムを記憶している他、CPU14の動作上必要なデータ
も記憶している。送信機/記録装置16は、I/F11
から供給される符号化データを、記録媒体2に記録し、
または伝送路3を介して伝送するようになされている。An I / F (InterFace) 11 performs a process of receiving image data of an externally supplied HD image,
A process of transmitting encoded data to the recording device 16 is performed. ROM (Read Only Memory) 1
Reference numeral 2 stores a program for IPL (Initial Program Loading) and others. RAM (Random Access Me)
mory) 13 stores a system program (OS (Operating System)) and an application program recorded in the external storage device 15, and also stores a CPU (CeC).
The data required for the operation of the ntral processing unit 14 is stored. The CPU 14 has the ROM 1
According to the IPL program stored in the external storage device 15, the system program and the application program are loaded from the external storage device 15 into the RAM 13, and the application program is executed under the control of the system program. The encoding process described below is performed on the image data. The external storage device 15 is, for example, a magnetic disk device and stores the system programs and application programs executed by the CPU 14 as described above, and also stores data necessary for the operation of the CPU 14. The transmitter / recording device 16 includes an I / F 11
Is recorded on the recording medium 2,
Alternatively, the data is transmitted via the transmission path 3.
【0092】なお、I/F11,ROM12,RAM1
3,CPU14、および外部記憶装置15は、相互にバ
スを介して接続されている。また、図2において、送信
装置1はCPUを用いた構成であるが、ハードロジック
で構成することも可能である。The I / F 11, the ROM 12, the RAM 1
3. The CPU 14 and the external storage device 15 are mutually connected via a bus. Further, in FIG. 2, the transmitting device 1 has a configuration using a CPU, but may be configured with hard logic.
【0093】以上のように構成される送信装置1におい
ては、I/F11にHD画像の画像データが供給される
と、その画像データは、CPU14に供給される。CP
U14は、画像データを符号化し、その結果得られる符
号化データとしてのSD画像を、I/F11に供給す
る。I/F11は、符号化データを受信すると、それ
を、送信機/記録装置16に供給する。送信機/記録装
置16では、I/F11からの符号化データが、記録媒
体2に記録され、または伝送路3を介して伝送される。In the transmission device 1 configured as described above, when the image data of the HD image is supplied to the I / F 11, the image data is supplied to the CPU 14. CP
U14 encodes the image data, and supplies an SD image as encoded data obtained as a result to the I / F 11. When receiving the encoded data, the I / F 11 supplies the encoded data to the transmitter / recording device 16. In the transmitter / recording device 16, the encoded data from the I / F 11 is recorded on the recording medium 2 or transmitted via the transmission path 3.
【0094】図3は、図2の送信装置1の、送信機/記
録装置16を除く部分の機能的なブロック図である。FIG. 3 is a functional block diagram of a portion of the transmitting device 1 of FIG. 2 except for the transmitter / recording device 16.
【0095】符号化すべき画像データとしてのHD画像
は、前処理部21、最適化部23、適応処理部24、お
よび予測タップパターン判定部26に供給されるように
なされている。An HD image as image data to be encoded is supplied to a pre-processing unit 21, an optimizing unit 23, an adaptive processing unit 24, and a prediction tap pattern determining unit 26.
【0096】前処理部21は、そこに供給されるHD画
像に対して、後述するような前処理を、例えば、1フレ
ーム(または1フィールド)単位で施し、その結果得ら
れるSD画像または複数パターンの予測タップのそれぞ
れについてのクラス毎の予測係数wのセットを、スイッ
チ22または25の端子aにそれぞれ供給するようにな
されている。スイッチ22の端子aまたはbには、前処
理部21または予測タップパターン判定部26が出力す
るSD画像が、それぞれ供給されるようになされてい
る。スイッチ22は、前処理部21において、あるHD
画像に前処理が施され、これによりSD画像が出力され
るときだけ、端子aを選択し、それ以外のときは、端子
bを選択し、前処理部21または予測タップパターン判
定部26が出力するSD画像を、最適化部23に供給す
るようになされている。The pre-processing unit 21 performs pre-processing, which will be described later, on the HD image supplied thereto, for example, in units of one frame (or one field), and obtains the resulting SD image or a plurality of patterns. The set of prediction coefficients w for each class for each of the prediction taps is supplied to the terminal a of the switch 22 or 25. An SD image output from the preprocessing unit 21 or the prediction tap pattern determination unit 26 is supplied to the terminal a or b of the switch 22, respectively. In the pre-processing unit 21, the switch 22
The terminal a is selected only when the image is subjected to the preprocessing and the SD image is output, and otherwise, the terminal b is selected, and the preprocessing unit 21 or the predicted tap pattern determination unit 26 outputs Is supplied to the optimization unit 23.
【0097】最適化部23は、スイッチ22から供給さ
れるSD画像に対して、前述の図28で説明した最適化
処理を施し、その結果得られる最適SD画像を、適応処
理部25、予測タップパターン判定部26、および多重
化化部27に供給するようになされている。適応処理部
24は、最適化部23からの最適SD画像と、元のHD
画像とを用いて適応処理を行うことによって、最適SD
画像の画素値との線形結合により求められるHD画像の
予測値の予測誤差を小さくするクラス毎の予測係数wの
セットを複数パターンの予測タップ毎に算出し、スイッ
チ25の端子bに出力するようになされている。The optimizing unit 23 performs the optimizing process described with reference to FIG. 28 on the SD image supplied from the switch 22, and outputs the resulting optimal SD image to the adaptive processing unit 25 The data is supplied to a pattern determination unit 26 and a multiplexing unit 27. The adaptive processing unit 24 includes the optimum SD image from the optimization unit 23 and the original HD image.
Optimum SD by performing adaptive processing using images
A set of prediction coefficients w for each class for reducing the prediction error of the prediction value of the HD image obtained by linear combination with the pixel value of the image is calculated for each of a plurality of patterns of prediction taps, and output to the terminal b of the switch 25. Has been made.
【0098】スイッチ25は、前処理部21において、
あるHD画像に前処理が施され、これにより複数パター
ンの予測タップのそれぞれについてのクラス毎の予測係
数wのセットが出力されるときだけ、端子aを選択し、
それ以外のときは、端子bを選択し、前処理部21また
は適応処理部24が出力する複数パターンの予測タップ
のそれぞれについてのクラス毎の予測係数wのセット
を、最適化部23、予測タップパターン判定部26、お
よび多重化部27に供給するようになされている。The switch 25 is operated by the pre-processing unit 21
The terminal a is selected only when a certain HD image is subjected to pre-processing, thereby outputting a set of prediction coefficients w for each class for each of a plurality of prediction taps,
In other cases, the terminal b is selected, and a set of prediction coefficients w for each class for each of the plurality of patterns of prediction taps output by the preprocessing unit 21 or the adaptive processing unit 24 is transmitted to the optimization unit 23 and the prediction taps. The data is supplied to the pattern determination unit 26 and the multiplexing unit 27.
【0099】予測タップパターン判定部26は、最適化
部23から供給される最適SD画像から、複数パターン
の予測タップを形成し、その複数パターンの予測タップ
それぞれを用いて適応処理を行うことで、複数のHD画
像の予測値を求めるようになされている。さらに、予測
タップパターン判定部26は、複数パターンの予測タッ
プのうち、複数のHD画像の予測値の予測誤差を最小に
するものを判定し、その判定結果に対応して、最適化部
23からの最適SD画像の画素値に、後述するパターン
コードを付加して、スイッチ22の端子bに供給するよ
うになされている。The prediction tap pattern determination section 26 forms a plurality of patterns of prediction taps from the optimal SD image supplied from the optimization section 23, and performs an adaptive process using each of the plurality of prediction taps. The prediction values of a plurality of HD images are obtained. Further, the prediction tap pattern determination unit 26 determines, from among the plurality of patterns of prediction taps, one that minimizes the prediction error of the prediction values of the plurality of HD images, and in accordance with the determination result, A pattern code, which will be described later, is added to the pixel value of the optimal SD image, and is supplied to the terminal b of the switch 22.
【0100】多重化部27は、所定の場合に、最適化部
23から供給される最適SD画像と、スイッチ25を介
して供給される複数パターンの予測タップのそれぞれに
ついてのクラス毎の予測係数wのセットとを多重化し、
その多重化結果を、符号化データとして、送信機/記録
装置16(図2)に出力するようになされている。In a predetermined case, the multiplexing unit 27 calculates a prediction coefficient w for each class for each of the optimum SD image supplied from the optimizing unit 23 and a plurality of patterns of prediction taps supplied via the switch 25. Multiplex with the set of
The result of the multiplexing is output to the transmitter / recorder 16 (FIG. 2) as encoded data.
【0101】次に、図4のフローチャートを参照して、
その動作について説明する。Next, referring to the flowchart of FIG.
The operation will be described.
【0102】符号化すべきHD画像が、前処理部21、
最適化部23、適応処理部24、および予測タップパタ
ーン判定部26に供給されると、前処理部21では、ス
テップS1において、HD画像に前処理が施される。The HD image to be coded is
When supplied to the optimizing unit 23, the adaptive processing unit 24, and the predicted tap pattern determining unit 26, the preprocessing unit 21 performs preprocessing on the HD image in step S1.
【0103】即ち、前処理部21は、HD画像の画素数
を少なくして圧縮することによりSD画像を構成し、そ
のSD画像を構成するSD画素それぞれを順次注目画素
として、各注目画素に対して、複数パターンの予測タッ
プを形成する。さらに、前処理部21は、その複数パタ
ーンの予測タップそれぞれについて、式(7)に示した
正規方程式をたてて解くことにより、クラス毎の予測係
数wのセットを求める。そして、前処理部21は、複数
パターンの予測タップと、それぞれについて求めたクラ
ス毎の予測係数wのセットの所定のクラスの予測係数の
セットとを用いて、式(1)に示した線形1次式を計算
することにより、複数パターンの予測タップそれぞれか
ら得られる複数のHD画像の予測値を求める。さらに、
前処理部21は、複数パターンの予測タップのうち、複
数のHD画像の予測値の予測誤差を最も小さくするもの
を検出し、その予測タップのパターンにあらかじめ対応
付けられている、例えば、2ビットのコードであるタッ
プパターンコードを、注目画素となっているSD画素に
付加して出力する。That is, the pre-processing unit 21 configures an SD image by reducing the number of pixels of the HD image and compressing the SD image. To form a plurality of patterns of prediction taps. Further, the preprocessing unit 21 obtains a set of prediction coefficients w for each class by setting up and solving the normal equation shown in Expression (7) for each of the plurality of patterns of prediction taps. Then, the preprocessing unit 21 uses the prediction taps of the plurality of patterns and the set of prediction coefficients w of each class obtained for each of the classes to obtain the linear 1 By calculating the following equation, prediction values of a plurality of HD images obtained from each of the prediction taps of the plurality of patterns are obtained. further,
The preprocessing unit 21 detects a prediction tap of a plurality of patterns that minimizes a prediction error of a prediction value of a plurality of HD images, and, for example, a 2-bit prediction tap that is associated with the pattern of the prediction tap in advance. Is added to the SD pixel that is the target pixel and output.
【0104】以上のようにして、タップパターンコード
が付加されたSD画像は、スイッチ22の端子aに、ま
た、正規方程式を解くことにより得られた複数パターン
の予測タップのそれぞれについてのクラス毎の予測係数
wのセットは、スイッチ25の端子aに、それぞれ出力
される。As described above, the SD image to which the tap pattern code has been added is supplied to the terminal a of the switch 22 and the prediction tap of each of the plurality of patterns obtained by solving the normal equation. The set of prediction coefficients w is output to the terminal a of the switch 25, respectively.
【0105】スイッチ22および25は、上述したよう
に、前処理部21からSD画像および複数パターンの予
測タップのそれぞれについてのクラス毎の予測係数wの
セットが出力されるタイミングでは、いずれも端子aを
選択しており、従って、前処理部21が出力するSD画
像は、スイッチ22を介して、最適化部23に供給さ
れ、また、前処理部21が出力する複数パターンの予測
タップのそれぞれについてのクラス毎の予測係数wのセ
ットは、スイッチ25を介して、最適化部23および予
測タップパターン判定部26に出力される。As described above, the switches 22 and 25 are connected to the terminal a at the timing when the preprocessing unit 21 outputs the set of prediction coefficients w for each class for each of the SD image and the prediction taps of a plurality of patterns. Therefore, the SD image output by the pre-processing unit 21 is supplied to the optimization unit 23 via the switch 22. The set of prediction coefficients w for each class is output to the optimization unit 23 and the prediction tap pattern determination unit 26 via the switch 25.
【0106】最適化部23は、SD画像および複数パタ
ーンの予測タップのそれぞれについてのクラス毎の予測
係数wのセットを受信すると、ステップS2において、
それらを用いて最適化処理を行う。即ち、最適化部23
は、SD画像および複数パターンの予測タップのそれぞ
れについてのクラス毎の予測係数wのセットを用いて適
応処理を行い、その結果得られるHD画像の予測値の予
測誤差が小さくなるように、SD画像の画素値を補正す
る。そして、その結果得られる最適SD画像を、適応処
理部24および予測タップパターン判定部26に供給す
る。Upon receiving the SD image and the set of prediction coefficients w for each class for each of the prediction taps of a plurality of patterns, in step S2,
The optimization processing is performed using them. That is, the optimization unit 23
Performs adaptive processing using a set of prediction coefficients w for each class for each of an SD image and a plurality of patterns of prediction taps, and generates an SD image such that a prediction error of a prediction value of an HD image obtained as a result is reduced. Is corrected. Then, the optimal SD image obtained as a result is supplied to the adaptive processing unit 24 and the prediction tap pattern determining unit 26.
【0107】適応処理部24は、最適化部23から最適
SD画像を受信すると、ステップS3において、適応処
理を行うことにより、最適SD画像を用いて得られるH
D画像の予測値の予測誤差を小さくする複数パターンの
予測タップのそれぞれについてのクラス毎の予測係数w
のセットを算出する。即ち、適応処理部24は、最適S
D画像を構成するSD画素それぞれを順次注目画素とし
て、各注目画素に対して予測タップを形成する。なお、
このとき、予測タップは、注目画素に付加されているタ
ップパターンコードに対応するパターンのものが形成さ
れる。そして、適応処理部24は、複数パターンの予測
タップ毎に、予測タップから正規方程式をたて、それを
解くことにより、複数パターンの予測タップのそれぞれ
についてのクラス毎の予測係数wのセットを求める。こ
の複数パターンの予測タップのそれぞれについてのクラ
ス毎の予測係数wのセットは、スイッチ25の端子bに
供給される。Upon receiving the optimal SD image from the optimizing unit 23, the adaptive processing unit 24 performs an adaptive process in step S3 to obtain an H obtained using the optimal SD image.
A prediction coefficient w for each class for each of a plurality of patterns of prediction taps for reducing the prediction error of the prediction value of the D image
Is calculated. That is, the adaptive processing unit 24 determines the optimal S
A prediction tap is formed for each pixel of interest by sequentially setting each of the SD pixels constituting the D image as a pixel of interest. In addition,
At this time, a prediction tap having a pattern corresponding to the tap pattern code added to the target pixel is formed. Then, for each of the plurality of patterns of prediction taps, the adaptive processing unit 24 obtains a set of prediction coefficients w for each class of each of the plurality of patterns of prediction taps by forming a normal equation from the prediction taps and solving it. . The set of prediction coefficients w for each class for each of the plurality of prediction taps is supplied to the terminal b of the switch 25.
【0108】以上の処理後、ステップS4に進み、スイ
ッチ22および25が、いずれも、端子aからbに切り
換えられ、これにより、適応処理部24において求めら
れた複数パターンの予測タップのそれぞれについてのク
ラス毎の予測係数wのセットが、スイッチ25を介し
て、最適化部23および予測タップパターン判定部26
に供給されるようになる。After the above processing, the process proceeds to step S4, in which both the switches 22 and 25 are switched from the terminal a to the terminal b, whereby the prediction taps of the plurality of patterns obtained by the adaptive processing unit 24 are obtained. The set of the prediction coefficient w for each class is transmitted to the optimization unit 23 and the prediction tap pattern determination unit 26 via the switch 25.
Will be supplied to
【0109】そして、予測タップパターン判定部26
は、最適化部23から最適SD画像を受信し、さらに、
適応処理部24から複数パターンの予測タップのそれぞ
れについてのクラス毎の予測係数wのセットを受信する
と、ステップS5において、その最適SD画像を構成す
る各SD画素を注目画素として形成される予測タップの
最適なパターンが決定される。Then, the prediction tap pattern determination section 26
Receives the optimal SD image from the optimization unit 23,
When a set of prediction coefficients w for each class for each of the plurality of patterns of prediction taps is received from the adaptive processing unit 24, in step S5, each of the SD pixels constituting the optimal SD image is set as a target pixel. The optimal pattern is determined.
【0110】即ち、予測タップパターン判定部26は、
最適SD画像を構成するSD画素それぞれを順次注目画
素として、各注目画素に対して、複数パターンの予測タ
ップを形成する。さらに、予測タップパターン判定部2
6は、その複数パターンの予測タップそれぞれについ
て、適応処理部24からのその予測タップに対応するク
ラス毎の予測係数wのセットのうち、所定のクラスの予
測係数のセットを用いて、式(1)に示した線形1次式
を計算することにより、複数パターンの予測タップそれ
ぞれから得られる複数のHD画像の予測値を求める。そ
して、予測タップパターン判定部26は、複数パターン
の予測タップそれぞれを用いて得られる複数のHD画像
の予測値の予測誤差のうちの最も小さいものに対応する
パターンの予測タップを検出し、その予測タップに対応
するタップパターンコードに、注目画素となっているS
D画素に既に付加されているタップパターンコードを変
更する。即ち、いまの場合、SD画素には、既にタップ
パターンコードが付加されているので、それに代えて、
予測誤差を最も小さくする予測タップのタップパターン
コードが付加される。That is, the prediction tap pattern determination unit 26
A plurality of prediction taps are formed for each pixel of interest, with each of the SD pixels forming the optimal SD image as a pixel of interest. Further, a prediction tap pattern determination unit 2
6 is a formula (1) using a set of prediction coefficients of a predetermined class among a set of prediction coefficients w for each class corresponding to the prediction tap from the adaptive processing unit 24 for each of the plurality of patterns of prediction taps. ) Is calculated to obtain prediction values of a plurality of HD images obtained from each of a plurality of patterns of prediction taps. The prediction tap pattern determination unit 26 detects a prediction tap of a pattern corresponding to the smallest one of prediction errors of prediction values of a plurality of HD images obtained using each of the prediction taps of the plurality of patterns, and performs the prediction. In the tap pattern code corresponding to the tap, S
The tap pattern code already added to the D pixel is changed. That is, in this case, since a tap pattern code has already been added to the SD pixel,
A tap pattern code of a prediction tap that minimizes the prediction error is added.
【0111】以上のようにして、タップパターンコード
が変更されたSD画像は、スイッチ22の端子bに出力
される。As described above, the SD image whose tap pattern code has been changed is output to the terminal b of the switch 22.
【0112】スイッチ22は、ステップS4で切り換え
られ、端子bを選択しているので、予測タップパターン
判定部26が出力するSD画像は、スイッチ22を介し
て、最適化部23に供給される。最適化部23では、ス
テップS6において、ステップS2における場合と同様
に、最適化処理が行われ、これにより、最適SD画像が
出力される。なお、この場合、最適化部23では、ステ
ップS2で説明したように適応処理が行われるが、この
適応処理は、スイッチ25を介して、適応処理部24か
ら供給される複数パターンの予測タップのそれぞれにつ
いてのクラス毎の予測係数wのセットを用いて行われ
る。The switch 22 is switched in step S4 to select the terminal b, so that the SD image output from the predictive tap pattern determining section 26 is supplied to the optimizing section 23 via the switch 22. In step S6, the optimizing unit 23 performs an optimizing process in the same manner as in step S2, thereby outputting an optimal SD image. In this case, in the optimization unit 23, the adaptive processing is performed as described in step S2. This adaptive processing is performed for a plurality of patterns of prediction taps supplied from the adaptive processing unit 24 via the switch 25. This is performed using a set of prediction coefficients w for each class.
【0113】最適化部23から出力される最適SD画像
は、適応処理部24および予測タップパターン判定部2
6に供給され、適応処理部24では、ステップS7にお
いて、ステップS3における場合と同様に、最適化部2
3が出力する最適SD画像を用いて適応処理が行われる
ことにより、複数パターンの予測タップのそれぞれにつ
いてのクラス毎の予測係数wのセットが求められ、スイ
ッチ25を介して、最適化部23および予測タップパタ
ーン判定部26に出力される。The optimum SD image output from the optimizing unit 23 is output to the adaptive processing unit 24 and the prediction tap pattern determining unit 2.
6 and in the adaptive processing unit 24, in step S7, as in the case of step S3, the optimization unit 2
The adaptive processing is performed using the optimal SD image output by the third unit 3, whereby a set of prediction coefficients w for each class for each of a plurality of prediction taps is obtained. The prediction tap pattern is output to the prediction tap pattern determination unit 26.
【0114】その後、ステップS8に進み、ステップS
5乃至S8の処理を所定の規定回数だけ行ったかどうか
が判定される。ステップS8において、ステップS5乃
至S8の処理を、所定の規定回数だけ、まだ行っていな
いと判定された場合、ステップS5に戻り、上述の処理
を繰り返す。また、ステップS8において、ステップS
5乃至S8の処理を、所定の規定回数だけ行ったと判定
された場合、ステップS9に進み、多重化部27は、前
回のステップS6の処理において、最適化部23が出力
した最適SD画像と、そのとき用いられた複数パターン
の予測タップのそれぞれについてのクラス毎の予測係数
wのセットとを多重化し、符号化データとして出力し
て、処理を終了する。Thereafter, the process proceeds to step S8, where
It is determined whether the processes from 5 to S8 have been performed a predetermined number of times. If it is determined in step S8 that the processes of steps S5 to S8 have not been performed a predetermined number of times, the process returns to step S5, and the above processes are repeated. Also, in step S8, step S8
When it is determined that the processes of 5 to S8 have been performed a predetermined number of times, the process proceeds to step S9, where the multiplexing unit 27 determines, in the previous process of step S6, the optimal SD image output by the optimization unit 23, The set of prediction coefficients w for each class for each of the plurality of patterns of prediction taps used at that time is multiplexed and output as encoded data, and the process ends.
【0115】以上の処理が、例えば、1フレーム単位な
どで繰り返される。The above processing is repeated, for example, in units of one frame.
【0116】なお、上述の場合、ステップS8におい
て、ステップS5乃至S8の処理を所定の規定回数だけ
行ったかどうかを判定するようにしたが、その他、ステ
ップS8では、例えば、その時点で最適化部23から出
力された最適SD画像を用いて適応処理を行うことによ
り得られるHD画像の予測値の予測誤差の、1フレーム
分の絶対値和などが、所定の閾値以下であるかどうかを
判定し、閾値以下である場合には、ステップS9に進
み、閾値以下でない場合には、ステップS5に戻るよう
にすることも可能である。即ち、ステップS5乃至S8
の処理は、最適SD画像を用いて適応処理を行うことに
より得られるHD画像の予測値の予測誤差の、1フレー
ム分の絶対値和が、所定の閾値以下となるまで繰り返す
ようにすることが可能である。In the above case, in step S8, it is determined whether or not the processes of steps S5 to S8 have been performed a predetermined specified number of times. In step S8, for example, the optimization unit It is determined whether or not the sum of the absolute values of the prediction errors of the prediction values of the HD image obtained by performing the adaptive processing using the optimal SD image output from 23 for one frame is equal to or less than a predetermined threshold value. If the value is equal to or less than the threshold value, the process proceeds to step S9. If the value is not equal to or less than the threshold value, the process returns to step S5. That is, steps S5 to S8
May be repeated until the sum of the absolute value of the prediction error of the prediction value of the HD image obtained by performing the adaptive process using the optimal SD image for one frame is equal to or less than a predetermined threshold value. It is possible.
【0117】次に、図5は、図3の前処理部21の構成
例を示している。FIG. 5 shows an example of the configuration of the pre-processing unit 21 shown in FIG.
【0118】符号化すべきHD画像は、間引き回路3
1、クラス分類適応処理回路33、および予測誤差算出
回路34に供給されるようになされている。The HD image to be encoded is output from the thinning circuit 3
1. It is supplied to a class classification adaptive processing circuit 33 and a prediction error calculation circuit 34.
【0119】間引き回路31は、HD画像の画素数を、
例えば、間引くことにより少なくし、SD画像を構成し
て、予測タップ生成回路32およびタップパターンコー
ド付加回路36に供給するようになされている。即ち、
間引き回路31は、例えば、HD画像を、横×縦が3×
3画素の9画素でなる正方形状のブロックに分割し、各
ブロックの9画素の平均値を、その中心の画素の画素値
として、SD画像を構成するようになされている。これ
により、間引き回路31では、例えば、図6に・印で示
すHD画素からなるHD画像から、同図に○印で示すS
D画素からなるSD画像が構成される。The thinning circuit 31 calculates the number of pixels of the HD image by
For example, the number is reduced by thinning to form an SD image, which is supplied to the prediction tap generation circuit 32 and the tap pattern code addition circuit 36. That is,
The thinning circuit 31 converts, for example, an HD image into 3 ×
The image is divided into square blocks each including three pixels of nine pixels, and an SD image is configured by using the average value of the nine pixels in each block as the pixel value of the center pixel. Thereby, in the thinning circuit 31, for example, an HD image composed of HD pixels indicated by a mark in FIG.
An SD image composed of D pixels is configured.
【0120】なお、間引き回路31には、その他、例え
ば、上述のブロックの中心の画素だけを抽出させて、S
D画像を構成させるようにすることなども可能である。Note that the thinning circuit 31 extracts only the pixel at the center of the above-mentioned block.
It is also possible to configure a D image.
【0121】予測タップ生成回路32は、間引き回路3
1からのSD画像を構成する各SD画素(図6におい
て、○印で示した部分)を、順次注目画素として、各注
目画素について、複数パターンの予測タップを構成する
ようになされている。即ち、本実施の形態では、例え
ば、図7乃至図10にそれぞれ示すように、注目画素を
中心とする3×3画素、5×3画素、3×5画素、また
は7×5画素の4パターンの予測タップが形成されるよ
うになされている。これらの4パターンの予測タップ
は、クラス分類適応処理回路33に供給されるようにな
されている。The prediction tap generation circuit 32 includes a thinning circuit 3
Each of the SD pixels constituting the SD image from No. 1 (indicated by a circle in FIG. 6) is sequentially set as a target pixel, and a plurality of patterns of prediction taps are formed for each target pixel. That is, in the present embodiment, for example, as shown in FIGS. 7 to 10, four patterns of 3 × 3 pixels, 5 × 3 pixels, 3 × 5 pixels, or 7 × 5 pixels centering on the pixel of interest. Of prediction taps are formed. These four prediction taps are supplied to the classification adaptive processing circuit 33.
【0122】クラス分類適応処理回路33は、予測タッ
プ生成回路32から供給される4パターンの予測タップ
それぞれについて、クラス分類を行い、さらに、各クラ
スについて、HD画像を用いて式(7)に示した正規方
程式をたてて解くことにより、4パターンの予測タップ
のそれぞれについてのクラス毎の予測係数wのセットを
求めるようになされている。また、クラス分類適応処理
回路33は、求めた4パターンの予測タップのそれぞれ
についてのクラス毎の予測係数wのセットのうち、所定
のクラスの予測係数wのそれぞれと、4パターンの予測
タップそれぞれとから、式(1)に示した線形1次式を
演算することにより、4パターンの予測タップそれぞれ
から得られる複数のHD画像の予測値を求め、予測誤差
算出回路34に出力するようにもなされている。The class classification adaptive processing circuit 33 classifies each of the four patterns of prediction taps supplied from the prediction tap generation circuit 32, and furthermore, for each class, an HD image is used as shown in equation (7). By setting up and solving the normal equation, a set of prediction coefficients w for each class for each of the four prediction taps is obtained. In addition, the class classification adaptive processing circuit 33 includes, among the set of prediction coefficients w for each class obtained for each of the obtained four patterns of prediction taps, a predetermined class of prediction coefficients w and four patterns of prediction taps. By calculating the linear linear expression shown in Expression (1), the prediction values of a plurality of HD images obtained from each of the four prediction taps are obtained, and output to the prediction error calculation circuit 34. ing.
【0123】なお、クラス分類適応処理回路33におい
て、4パターンの予測タップそれぞれについて求められ
たクラス毎の予測係数wのセットは、メモリ35に供給
されるようになされている。In the class classification adaptive processing circuit 33, a set of prediction coefficients w for each class obtained for each of the four prediction taps is supplied to the memory 35.
【0124】また、本実施の形態では、クラス分類適応
処理回路33において、4パターンの予測タップのそれ
ぞれについて、正規方程式は、予測タップのパターンと
は無関係に、例えば、図6に点線で囲んで示すように、
注目画素となっているSD画素を中心とする3×3のH
D画素の予測値を求めるようにたてられるようになされ
ている。従って、クラス分類適応処理回路33では、3
×3のHD画素の予測値を生成するための4パターンの
予測タップのそれぞれについてのクラス毎の予測係数の
セットが求められる。このクラス分類適応処理回路33
の詳細な構成については後述する。In the present embodiment, in the class classification adaptive processing circuit 33, for each of the four prediction taps, the normal equation is surrounded by a dotted line in FIG. 6, for example, regardless of the prediction tap pattern. As shown,
3 × 3 H centered on the SD pixel that is the pixel of interest
It is designed to obtain a predicted value of the D pixel. Therefore, in the classification adaptive processing circuit 33, 3
A set of prediction coefficients for each class is obtained for each of four patterns of prediction taps for generating a prediction value of × 3 HD pixels. This classification adaptive processing circuit 33
The detailed configuration will be described later.
【0125】予測誤差算出回路34は、各注目画素につ
いて、4パターンの予測タップそれぞれから得られたH
D画像の予測値の、元のHD画像の画素値に対する予測
誤差を求めるようになされている。つまり、4パターン
の予測タップのそれぞれについて、例えば、HD画素の
9画素の予測値と元のHD画像の9画素の画素値との差
分の自乗和が演算される。そして、予測誤差算出回路3
4は、4パターンの予測タップのうち、予測誤差(差分
の自乗和)が最も小さいものを検出する。さらに、予測
誤差算出回路34は、予測誤差が最も小さい予測タップ
のパターンに対応する2ビットのタップパターンコード
を、メモリ35およびタップパターンコード付加回路3
6に出力するようになされている。The prediction error calculation circuit 34 calculates, for each pixel of interest, H obtained from each of the four prediction taps.
The prediction error of the prediction value of the D image with respect to the pixel value of the original HD image is obtained. That is, for each of the four prediction taps, for example, the sum of squares of the difference between the prediction value of the nine HD pixels and the pixel value of the nine HD pixels is calculated. Then, the prediction error calculation circuit 3
Reference numeral 4 detects a prediction tap having the smallest prediction error (sum of squares of the difference) among the four prediction taps. Further, the prediction error calculation circuit 34 stores the 2-bit tap pattern code corresponding to the pattern of the prediction tap having the smallest prediction error in the memory 35 and the tap pattern code adding circuit 3.
6 is output.
【0126】メモリ35は、クラス分類適応処理回路3
3から供給される、4パターンの予測タップそれぞれに
ついて求められたクラス毎の予測係数wのセットを一時
記憶するようになされている。そして、メモリ35は、
例えば、1フレーム(または1フィールド)のHD画像
の処理が終了する(つまり、すべてのSD画素にタップ
パターンコードが付加される)と、4パターンの予測タ
ップのそれぞれについて求められたクラス毎の予測係数
wのセットを読み出し、スイッチ25の端子aに出力す
るようになされている。The memory 35 includes a class classification adaptive processing circuit 3
A set of prediction coefficients w for each class obtained for each of the four prediction taps supplied from 3 is temporarily stored. And the memory 35
For example, when the processing of the HD image of one frame (or one field) is completed (that is, a tap pattern code is added to all SD pixels), prediction for each class obtained for each of the four prediction taps is performed. The set of the coefficient w is read and output to the terminal a of the switch 25.
【0127】タップパターンコード付加回路36は、そ
こに供給されるSD画像に対して、予測誤差算出回路3
4から供給されるタップパターンコードを付加するよう
になされている。即ち、タップパターンコード付加回路
36は、注目画素となっているSD画素の画素値(例え
ば、8ビットなどで構成される)のLSB(Least Sign
ificant Bit)側の2ビットを削除し、そこに、2ビッ
トのタップパターンコードを配置するようになされてい
る。タップパターンコード付加回路36においてタップ
パターンコードの付加されたSD画像は、スイッチ22
の端子aに出力されるようになされている。The tap pattern code adding circuit 36 applies a prediction error calculating circuit 3 to the SD image supplied thereto.
4 is added to the tap pattern code. That is, the tap pattern code addition circuit 36 generates the LSB (Least Sign) of the pixel value (for example, composed of 8 bits) of the SD pixel serving as the target pixel.
2 bits on the side of the significant bit are deleted, and a 2-bit tap pattern code is arranged there. The SD image added with the tap pattern code in the tap pattern code adding circuit 36 is
Is output to the terminal a of
【0128】ここで、クラス分類適応処理回路33の構
成について説明する。クラス分類適応処理回路33は、
4パターンの予測タップのそれぞれに対して処理を施
す、クラス分類適応処理回路(予測係数、予測値算出)
を有している。すなわち、クラス分類適応処理回路33
は、4パターンの予測タップそれぞれのための独立した
4つのクラス分類適応処理回路(予測係数、予測値算
出)を有している。図11及び図12は、そのうちの1
つのクラス分類適応処理回路(予測係数、予測値算出)
を示している。なお、4つのクラス分類適応処理回路
(予測係数、予測値算出)は、異なる4つの予測タップ
が供給される他は、同様の構成であるので、1つのクラ
ス分類適応処理回路(予測係数、予測値算出)を説明し
て、その他は省略する。Here, the configuration of the class classification adaptive processing circuit 33 will be described. The classification adaptive processing circuit 33
Classification adaptive processing circuit that performs processing on each of the four prediction taps (calculation of prediction coefficients and prediction values)
have. That is, the classification adaptive processing circuit 33
Has four independent class classification adaptive processing circuits (prediction coefficient, prediction value calculation) for each of the four prediction taps. 11 and 12 show one of them.
Classification adaptive processing circuit (calculation of prediction coefficient and prediction value)
Is shown. The four class classification adaptive processing circuits (prediction coefficient and prediction value calculation) have the same configuration except that four different prediction taps are supplied. Value calculation), and the others are omitted.
【0129】図11及び図12に示されるクラス分類適
応処理回路(予測係数、予測値算出)は、クラス分類回
路82、遅延回路84、予測タップメモリ85、教師デ
ータメモリ86、演算回路87及び遅延回路88(図1
1)、並びにクラス分類回路91、係数RAM94及び
予測演算回路95(図12)から構成されている。The class classification adaptive processing circuit (calculation of prediction coefficients and prediction values) shown in FIGS. 11 and 12 includes a class classification circuit 82, a delay circuit 84, a prediction tap memory 85, a teacher data memory 86, an arithmetic circuit 87, and a delay circuit. The circuit 88 (FIG. 1)
1) and a class classification circuit 91, a coefficient RAM 94, and a prediction calculation circuit 95 (FIG. 12).
【0130】図11に示されるクラス分類適応処理回路
(予測係数、予測値算出)の一部を構成する、遅延回路
88を除く、クラス分類回路82、遅延回路84、予測
タップメモリ85、教師データメモリ86、または演算
回路87は、図27に示される学習装置のクラス分類回
路112、遅延回路114、予測タップメモリ115、
教師データメモリ116、または演算回路117と、そ
れぞれ同様に構成されている。ただし、予測タップが予
測タップ生成回路32から供給されるため、図27に示
される予測タップ生成回路113の代わりに遅延回路8
8が設けられており、予測タップ生成回路32からの予
測タップは遅延回路88に供給されるようになされてい
る。そして、遅延回路88では、遅延回路84と同様
に、注目画素に対するクラスが、クラス分類回路82か
ら予測タップメモリ85に供給される時間だけ、予測タ
ップが遅延され、予測タップメモリ85に供給されて記
憶されるようになされている。The class classification circuit 82, the delay circuit 84, the prediction tap memory 85, the teacher data, except the delay circuit 88, which constitutes a part of the class classification adaptive processing circuit (prediction coefficient, prediction value calculation) shown in FIG. The memory 86 or the arithmetic circuit 87 includes a class classification circuit 112, a delay circuit 114, a prediction tap memory 115,
The configuration is the same as that of the teacher data memory 116 or the arithmetic circuit 117. However, since the prediction tap is supplied from the prediction tap generation circuit 32, the delay circuit 8 is used instead of the prediction tap generation circuit 113 shown in FIG.
8 is provided, and the prediction tap from the prediction tap generation circuit 32 is supplied to the delay circuit 88. Then, in the delay circuit 88, similarly to the delay circuit 84, the prediction tap is delayed by the time when the class for the target pixel is supplied from the class classification circuit 82 to the prediction tap memory 85, and is supplied to the prediction tap memory 85. It is made to be memorized.
【0131】また、図12に示されるクラス分類適応処
理回路(予測係数、予測値算出)の他の一部を構成す
る、係数RAM94を除くクラス分類回路91または予
測演算回路95は、図25に示されるクラス分類回路1
01または予測演算回路105と、それぞれ同様に構成
されている。係数RAM94は、図11の演算回路87
が出力するクラス毎の予測係数のセットを記憶するよう
になされている。A class classification circuit 91 or a prediction calculation circuit 95, which is another part of the class classification adaptive processing circuit (prediction coefficient and prediction value calculation) shown in FIG. Classification circuit 1 shown
01 or the prediction operation circuit 105 respectively. The coefficient RAM 94 corresponds to the arithmetic circuit 87 of FIG.
Is stored as a set of prediction coefficients for each class.
【0132】以上のように構成されるクラス分類適応処
理回路(予測係数、予測値算出)では、1フレームのH
D画素に対するデータが、図27における場合と、ほぼ
同様にして、予測タップメモリ85及び教師データメモ
リ86に記憶され、クラス毎の予測係数のセットが生成
される。この生成されたクラス毎の予測係数のセット
が、図12の係数RAM94に供給されて記憶されると
ともに、図5の前処理部21のメモリ35に供給されて
記憶される。なお、上述したように、4パターンの予測
タップのそれぞれについてのクラス毎の予測係数のセッ
トが独立の回路で生成されるため、4パターンの予測タ
ップのそれぞれについてのクラス毎の予測係数のセット
が図12の係数RAM94に供給されて記憶されるとと
もに、図5の前処理部21のメモリ35に供給されて記
憶される。In the class adaptive processing circuit (predictive coefficient, predictive value calculation) configured as described above, one frame of H
Data for the D pixel is stored in the prediction tap memory 85 and the teacher data memory 86 in substantially the same manner as in FIG. 27, and a set of prediction coefficients for each class is generated. The generated set of prediction coefficients for each class is supplied to and stored in the coefficient RAM 94 in FIG. 12, and is also supplied to and stored in the memory 35 of the preprocessing unit 21 in FIG. As described above, a set of prediction coefficients for each class for each of the four prediction taps is generated by an independent circuit, so that a set of prediction coefficients for each class for each of the four prediction taps is generated. It is supplied to and stored in the coefficient RAM 94 of FIG. 12, and is also supplied to and stored in the memory 35 of the preprocessing unit 21 of FIG.
【0133】図12に示されるクラス分類適応処理回路
(予測係数、予測値算出)の一部を構成するクラス分類
回路91、係数RAM94及び予測演算回路95では、
係数RAM94にクラス毎の予測係数のセットが記憶さ
れると、図25の画像変換装置のクラス分類回路10
1、係数RAM104、または予測演算回路105と、
それぞれ同一の処理が行われ、これによりHD画像の予
測値が求められる。即ち、4パターンの予測タップのそ
れぞれについてのクラス毎の予測係数のセットが図12
の係数RAM94に記憶されると、クラス分類回路91
において、クラス分類が行われ、クラス情報が係数RA
M94に供給される。係数RAM94は、供給されたク
ラス情報に対応する予測係数のセットを出力して、予測
演算回路95に供給する。予測演算回路95は、供給さ
れた予測タップと予測係数のセットとから式(1)に示
した線形一次式を演算することにより、複数のHD画像
の予測値を求める。The class classification circuit 91, coefficient RAM 94, and prediction calculation circuit 95 which form part of the class classification adaptive processing circuit (calculation of prediction coefficients and prediction values) shown in FIG.
When the set of prediction coefficients for each class is stored in the coefficient RAM 94, the class classification circuit 10 of the image conversion apparatus shown in FIG.
1, a coefficient RAM 104 or a prediction operation circuit 105;
The same processing is performed for each of them, whereby the predicted value of the HD image is obtained. That is, the set of prediction coefficients for each class for each of the four prediction taps is shown in FIG.
Stored in the coefficient RAM 94 of the classifying circuit 91
, A class classification is performed, and the class information is a coefficient RA
M94. The coefficient RAM 94 outputs a set of prediction coefficients corresponding to the supplied class information and supplies it to the prediction calculation circuit 95. The prediction calculation circuit 95 obtains prediction values of a plurality of HD images by calculating the linear linear expression shown in Expression (1) from the supplied prediction tap and the set of prediction coefficients.
【0134】なお、クラス分類回路82とクラス分類回
路91は、同一の構成であるため、いずれか一方を設け
るだけでもよい。Since the class classification circuit 82 and the class classification circuit 91 have the same configuration, only one of them may be provided.
【0135】次に、図13のフローチャートを参照し
て、前処理部21の処理について説明する。Next, the processing of the pre-processing unit 21 will be described with reference to the flowchart of FIG.
【0136】前処理部21に、符号化すべきHD画像が
入力されると、そのHD画像は、間引き回路31、クラ
ス分類適応処理回路33、および予測誤差算出回路34
に供給される。間引き回路31は、HD画像を受信する
と、ステップS11において、その画素数を間引き、S
D画像を構成する。When an HD image to be coded is input to the preprocessing unit 21, the HD image is subjected to a thinning circuit 31, a class classification adaptive processing circuit 33, and a prediction error calculating circuit 34.
Supplied to Upon receiving the HD image, the thinning circuit 31 thins out the number of pixels in step S11, and
Construct D image.
【0137】即ち、ステップS11では、図14のフロ
ーチャートに示すように、まず最初に、ステップS21
において、HD画像が、例えば、3×3画素のHD画像
のブロックに分割され、ステップS22に進む。That is, in step S11, as shown in the flowchart of FIG.
In, the HD image is divided into, for example, 3 × 3 pixel HD image blocks, and the process proceeds to step S22.
【0138】なお、本実施の形態において、HD画像
は、例えば、輝度信号Yと、色差信号U,Vとから構成
され、ステップS21では、輝度信号のブロックと色差
信号のブロックとが構成されるようになされている。In this embodiment, the HD image is composed of, for example, a luminance signal Y and color difference signals U and V. In step S21, a luminance signal block and a color difference signal block are composed. It has been made like that.
【0139】ステップS22では、いずれかのブロック
が注目ブロックとされ、その注目ブロックを構成する3
×3のHD画素の画素値の平均値が計算される。さら
に、ステップS22では、その平均値が、注目ブロック
の中心の画素(SD画素)の画素値とされ、ステップS
23に進む。In step S22, one of the blocks is set as a target block, and 3
The average value of the pixel values of the × 3 HD pixels is calculated. Further, in step S22, the average value is used as the pixel value of the pixel (SD pixel) at the center of the block of interest.
Proceed to 23.
【0140】ステップS23では、注目ブロックが輝度
信号のブロックであるかどうかが判定される。ステップ
S23において、注目ブロックが輝度信号のブロックで
あると判定された場合、ステップS24に進み、SD画
素としての注目ブロックの中心の画素の画素値(ここで
は、輝度信号)のLSB側の2ビットが、タップパター
ンコードを付加するために、例えば0にクリアされ、ス
テップS25に進む。また、ステップS23において、
注目ブロックが輝度信号のブロックでないと判定された
場合、即ち、注目ブロックが色差信号のブロックである
場合、ステップS24をスキップして、ステップS25
に進む。In step S23, it is determined whether or not the target block is a block of a luminance signal. If it is determined in step S23 that the block of interest is a block of a luminance signal, the process proceeds to step S24, where the LSB side 2 bits of the pixel value (here, the luminance signal) of the center pixel of the block of interest as the SD pixel Is cleared to, for example, 0 to add a tap pattern code, and the process proceeds to step S25. Also, in step S23,
If it is determined that the block of interest is not a block of a luminance signal, that is, if the block of interest is a block of a chrominance signal, step S24 is skipped and step S25 is skipped.
Proceed to.
【0141】ここで、本実施の形態では、輝度信号につ
いてのみ、複数パターンの予測タップが用意されてお
り、色差信号については、固定パターンの予測タップが
用いられるようになされている。従って、タップパター
ンコードが付加されるのは、輝度信号についてのみで、
色差信号については、タップパターンコードは付加され
ないため、そのLSB側の2ビットをクリアすることは
行われないようになされている。In this embodiment, a plurality of patterns of prediction taps are prepared only for the luminance signal, and a fixed pattern prediction tap is used for the color difference signal. Therefore, the tap pattern code is added only for the luminance signal.
Since the tap pattern code is not added to the color difference signal, the two bits on the LSB side are not cleared.
【0142】ステップS25では、ステップS21で構
成されたブロックすべてを、注目ブロックとして処理し
たかどうかが判定され、まだ、すべてのブロックを、注
目ブロックとして処理していないと判定された場合、ス
テップS22に戻り、まだ注目ブロックとしていないブ
ロックを、新たに注目ブロックとして、同様の処理を繰
り返す。また、ステップS25において、すべてのブロ
ックを、注目ブロックとして処理したと判定された場
合、即ち、SD画像が構成された場合、リターンする。In step S25, it is determined whether or not all the blocks formed in step S21 have been processed as the block of interest. If it is determined that all the blocks have not been processed as the block of interest, the process proceeds to step S22. Then, the same processing is repeated with a block that has not been set as a target block as a new target block. If it is determined in step S25 that all blocks have been processed as the block of interest, that is, if an SD image has been formed, the process returns.
【0143】図13に戻り、ステップS11において、
以上のようにして構成されたSD画像は、間引き回路3
1から予測タップ生成回路32およびタップパターンコ
ード付加回路36に供給される。予測タップ生成回路3
2は、間引き回路31からSD画像を受信すると、ステ
ップS12において、それを構成するSD画素を、順次
注目画素として、各注目画素について、図7乃至図10
に示した4パターンの予測タップを形成(生成)し、ク
ラス分類適応処理回路33に供給する。Returning to FIG. 13, in step S11,
The SD image constructed as described above is output to the thinning circuit 3
1 is supplied to the prediction tap generation circuit 32 and the tap pattern code addition circuit 36. Predictive tap generation circuit 3
When the SD image is received from the thinning circuit 31, in step S12, the SD pixels constituting the SD image are sequentially set as target pixels, and the target pixels are shown in FIGS.
Are formed (generated) and supplied to the classification adaptive processing circuit 33.
【0144】なお、上述したように、4パターンの予測
タップが形成されるのは輝度信号についてのみで、色差
信号については、例えば、図10に示したような、7×
5画素の予測タップだけが、常時形成される。As described above, four prediction taps are formed only for the luminance signal, and for the color difference signal, for example, the 7 × as shown in FIG.
Only 5 pixel prediction taps are always formed.
【0145】クラス分類適応処理回路33は、ステップ
S13において、まず、予測タップ生成回路32から供
給される4パターンの予測タップ(輝度信号の場合)そ
れぞれについて、図11および図12に示したように構
成される、それぞれのクラス分類適応処理回路(予測係
数、予測値算出)でクラス分類を行う。In step S13, the class classification adaptive processing circuit 33 first obtains, for each of the four prediction taps (in the case of a luminance signal) supplied from the prediction tap generation circuit 32, as shown in FIG. 11 and FIG. Classification is performed by each of the configured classification adaptive processing circuits (calculation of prediction coefficients and prediction values).
【0146】ここで、本実施の形態では、クラス分類回
路82および91(図11および図12)において、4
パターンの予測タップそれぞれについて、例えば、次の
ようなクラス分類用のタップ(以下、適宜、クラスタッ
プという)が構成され、クラス分類が行われるようにな
されている。Here, in the present embodiment, in classifying circuits 82 and 91 (FIGS. 11 and 12), 4
For each prediction tap of the pattern, for example, the following tap for class classification (hereinafter, appropriately referred to as a class tap) is configured to perform the class classification.
【0147】即ち、輝度信号については、4パターンの
予測タップのいずれに関しても、例えば、図15(A)
に点線で囲んで示すように、注目画素を中心とする、ひ
し形状の範囲の5のSD画素によって、クラスタップが
構成される。そして、この5画素の画素値のうちの最大
値と最小値との差をダイナミックレンジDRとし、この
ダイナミックレンジDRを用いて、クラスタップのうち
の、縦に並ぶ3画素(図15(A)において実線で囲む
3画素)が1ビットADRC処理される。そして、その
3画素の画素値のパターンに、予測タップに対応するタ
ップコードを付加したものが、注目画素のクラスとされ
る。従って、この場合、クラスタップのうちの、縦に並
ぶ3画素を1ビットADRC処理して得られる画素値の
パターンは3ビットで表現され、また、タップコードは
2ビットであるから、輝度信号は、32(=25)クラ
スのうちのいずれかにクラス分類される。That is, as for the luminance signal, for any of the four prediction taps, for example, FIG.
As shown by a dotted line, a class tap is formed by five SD pixels in a diamond-shaped range centered on the target pixel. Then, a difference between the maximum value and the minimum value of the pixel values of the five pixels is defined as a dynamic range DR, and three pixels arranged vertically in the class tap are used by using the dynamic range DR (FIG. 15A). Are subjected to one-bit ADRC processing. Then, a pattern obtained by adding a tap code corresponding to the prediction tap to the pixel value pattern of the three pixels is set as the class of the target pixel. Therefore, in this case, among the class taps, a pattern of pixel values obtained by performing 1-bit ADRC processing on three pixels arranged vertically is expressed by 3 bits, and since the tap code is 2 bits, the luminance signal is , 32 (= 2 5 ) classes.
【0148】一方、色差信号については、例えば、図1
5(B)に点線で囲んで示すように、注目画素を中心と
する、正方形状の範囲の9のSD画素によって、クラス
タップが構成される。そして、この9画素の画素値のう
ちの最大値と最小値との差をダイナミックレンジDRと
し、このダイナミックレンジDRを用いて、クラスタッ
プのうちの、注目画素を中心とするひし形状の範囲の5
のSD画素(図15(B)において実線で囲む5画素)
が1ビットADRC処理される。そして、その5画素の
画素値のパターンが、注目画素のクラスとされる。従っ
て、この場合、クラスタップのうちの、注目画素を中心
とする5画素を1ビットADRC処理して得られる画素
値のパターンは5ビットで表現されるから、色差信号
も、輝度信号と同様に、32(=25)クラスのうちの
いずれかにクラス分類される。On the other hand, as for the color difference signal, for example, FIG.
As shown by the dotted line in FIG. 5 (B), a class tap is constituted by nine SD pixels in a square range centered on the target pixel. Then, a difference between the maximum value and the minimum value of the pixel values of the nine pixels is defined as a dynamic range DR, and the dynamic range DR is used to define a diamond-shaped range of the class tap centered on the target pixel. 5
SD pixel (5 pixels surrounded by a solid line in FIG. 15B)
Are subjected to 1-bit ADRC processing. Then, the pattern of the pixel values of the five pixels is set as the class of the target pixel. Therefore, in this case, since a pixel value pattern obtained by performing 1-bit ADRC processing on 5 pixels centered on the target pixel among the class taps is expressed by 5 bits, the color difference signal is also similar to the luminance signal. , 32 (= 2 5 ) classes.
【0149】クラス分類適応処理回路33では、以上の
ようにして、注目画素のクラスが決定されていき、これ
により、予測タップメモリ85または教師データメモリ
86(図11)の各アドレスに、対応するクラスの予測
タップまたはHD画素(教師データ)が記憶される。そ
して、演算回路87(図11)において、4パターンの
予測タップのそれぞれについて、各クラスごとに、予測
タップメモリ85または教師データメモリ86にそれぞ
れ記憶された予測タップまたはHD画像(教師データ)
を用いて、式(7)の正規方程式がたてられ、それを解
くことにより、4パターンの予測タップのそれぞれにつ
いてのクラス毎の予測係数wのセットが求められる。4
パターンの予測タップそれぞれを用いて得られた、4パ
ターンの予測タップのそれぞれについての各クラス毎の
予測係数wのセットは、いずれもメモリ35および係数
RAM94に供給されて記憶される。In the class classification adaptive processing circuit 33, the class of the pixel of interest is determined as described above, whereby the address corresponding to each address of the prediction tap memory 85 or the teacher data memory 86 (FIG. 11). A prediction tap or HD pixel (teacher data) of the class is stored. Then, in the arithmetic circuit 87 (FIG. 11), for each of the four prediction taps, the prediction tap or the HD image (teacher data) stored in the prediction tap memory 85 or the teacher data memory 86 for each class.
Is used to solve the normal equation of Expression (7), and by solving the equation, a set of prediction coefficients w for each class for each of the four prediction taps is obtained. 4
A set of prediction coefficients w for each class for each of the four prediction taps obtained using each of the pattern prediction taps is supplied to the memory 35 and the coefficient RAM 94 and stored.
【0150】その後、クラス分類適応処理回路33は、
ステップS14において、4パターンの予測タップを用
いて得られた4パターンの予測タップのそれぞれについ
てのクラス毎の予測係数wのセットそれぞれと、4パタ
ーンの予測タップそれぞれとから、式(1)に示した線
形1次式を演算することにより、4パターンの予測タッ
プそれぞれから得られるHD画像の予測値を求め、予測
誤差算出回路34に出力する。Thereafter, the classification adaptive processing circuit 33
In step S14, from each set of prediction coefficients w for each class for each of the four prediction taps obtained using the four prediction taps, and from each of the four prediction taps, Equation (1) is used. By calculating the calculated linear linear equation, a prediction value of the HD image obtained from each of the four prediction taps is obtained, and output to the prediction error calculation circuit.
【0151】即ち、ステップS14では、間引き回路3
1が出力するSD画像を構成するSD画素のうちの1つ
を注目画素として、予測タップ生成回路32で生成され
た予測タップについて、クラス分類回路91(図12)
が出力するクラスに対応するアドレスに記憶された予測
係数wのセットが、係数RAM94(図12)から読み
出される。そして、予測演算回路95(図12)におい
て、係数RAM94からの予測係数wのセットと、注目
画素についての予測タップとを用いて、式(1)の線形
1次式が演算されることにより、図6で説明した注目画
素の周辺にある9個のHD画素の予測値が求められ、予
測誤差算出回路34に供給される。That is, in step S14, the thinning circuit 3
With one of the SD pixels constituting the SD image output from the target pixel 1 as a target pixel, the prediction tap generated by the prediction tap generation circuit 32 is classified into a class classification circuit 91 (FIG. 12).
Is read from the coefficient RAM 94 (FIG. 12) stored at the address corresponding to the class output by. Then, in the prediction calculation circuit 95 (FIG. 12), the linear linear expression of the expression (1) is calculated by using the set of the prediction coefficient w from the coefficient RAM 94 and the prediction tap for the pixel of interest. The prediction values of the nine HD pixels around the pixel of interest described with reference to FIG. 6 are obtained and supplied to the prediction error calculation circuit 34.
【0152】なお、クラス分類適応処理回路33におい
ては、予測値が、4つの予測タップそれぞれについて求
められる。In the classification adaptive processing circuit 33, a prediction value is obtained for each of the four prediction taps.
【0153】予測誤差算出回路34は、ステップS15
において、クラス分類適応処理回路33から供給され
る、4パターンの予測タップそれぞれについてのHD画
像の予測値の、元のHD画像の画素値に対する予測誤差
を求める。つまり、例えば、4パターンの予測タップの
それぞれについて、HD画素の9画素の予測値と元のH
D画素の画素値との差分の自乗和を、予測誤差として求
める。そして、ステップS16に進み、注目画素につい
て、予測誤差が最小の予測タップを検出する。さらに、
予測誤差算出回路34は、その予測タップに対応する2
ビットのタップパターンコードを、タップパターンコー
ド付加回路36に出力する。The prediction error calculation circuit 34 determines in step S15
In, the prediction error of the prediction value of the HD image for each of the four prediction taps supplied from the classification adaptive processing circuit 33 with respect to the pixel value of the original HD image is determined. That is, for example, for each of the four prediction taps, the prediction value of nine HD pixels and the original H
The sum of squares of the difference between the pixel value of the D pixel and the pixel value is obtained as a prediction error. Then, the process proceeds to step S16, and a prediction tap with a minimum prediction error is detected for the target pixel. further,
The prediction error calculation circuit 34 calculates 2
The bit tap pattern code is output to the tap pattern code adding circuit 36.
【0154】タップパターンコード付加回路36では、
ステップS17において、間引き回路31からのSD画
像を構成するSD画素のうちの注目画素の画素値(但
し、本実施の形態では、輝度信号についてだけ)のLS
B側の2ビットが、タップパターンコードとされて(注
目画素の画素値のLSB側の2ビットに代えて、2ビッ
トのタップパターンコードが付加されて)出力される。In the tap pattern code adding circuit 36,
In step S17, the LS of the pixel value of the target pixel among the SD pixels constituting the SD image from the thinning circuit 31 (however, in the present embodiment, only for the luminance signal)
The two bits on the B side are output as a tap pattern code (a 2-bit tap pattern code is added instead of the two LSB bits of the pixel value of the target pixel).
【0155】その後、ステップS18に進み、すべての
SD画素にタップパターンコードが付加されたかどうか
が判定され、まだ、すべてのSD画素にタップパターン
コードが付加されていないと判定された場合、ステップ
S14に戻り、タップパターンコードが付加されていな
いSD画素のうちのいずれかを、新たに注目画素とし
て、ステップS14乃至S18の処理を繰り返す。一
方、ステップS18において、すべてのSD画素にタッ
プパターンコードが付加されたと判定された場合、メモ
リ35は、ステップS19において、4パターンの予測
タップのそれぞれについてのクラス毎の予測係数wのセ
ットを出力して、処理を終了する。Thereafter, the flow advances to step S18 to determine whether or not the tap pattern code has been added to all the SD pixels. If it is determined that the tap pattern code has not yet been added to all the SD pixels, the process proceeds to step S14. Then, the processing of steps S14 to S18 is repeated with any one of the SD pixels to which the tap pattern code is not added as a new target pixel. On the other hand, if it is determined in step S18 that the tap pattern code has been added to all SD pixels, the memory 35 outputs a set of prediction coefficients w for each class for each of the four prediction taps in step S19. Then, the process ends.
【0156】前処理部21では、以上のようにして、間
引き回路31が出力するSD画像を構成するSD画素
(ここでは、上述したように、3×3のHD画素の平均
値を画素値として有する画素)それぞれについて、予測
誤差が最小となる予測タップのタップパターンコード
が、いわば仮に付加される。As described above, the pre-processing unit 21 uses the average value of the 3 × 3 HD pixels as the pixel value in the SD pixels constituting the SD image output from the thinning circuit 31 as described above. ), A tap pattern code of a prediction tap that minimizes a prediction error is temporarily added.
【0157】次に、図16は、図3の最適化部23の構
成例を示している。なお、図中、図28の画像符号化装
置における場合と基本的に同様に構成される部分につい
ては、同一の符号を付してある。即ち、最適化部23
は、間引き回路121がなく、ローカルデコード部12
2に代えてローカルデコード部42が設けられている他
は、図28の画像符号化装置と基本的に同様に構成され
ている。Next, FIG. 16 shows an example of the configuration of the optimizing unit 23 shown in FIG. Note that, in the figure, the same reference numerals are given to portions configured basically in the same manner as in the image encoding device in FIG. That is, the optimization unit 23
Has no thinning circuit 121 and has a local decoding unit 12
The configuration is basically the same as that of the image encoding device in FIG. 28 except that a local decoding unit 42 is provided in place of 2.
【0158】ローカルデコード部42は、予測タップ生
成回路42Aおよびクラス分類適応処理回路42Bから
構成され、そこには、補正部41からSD画像が供給さ
れるようになされている。予測タップ生成回路42A
は、補正部41から供給されるSD画像のSD画素のL
SB側に配置されているタップパターンコードに対応し
て予測タップを形成(生成)し、クラス分類適応処理回
路42Bに供給するようになされている。クラス分類適
応処理回路42Bには、予測タップの他、クラス分類用
のSD画素、4パターンの予測タップのそれぞれについ
てのクラス毎の予測係数wのセットが供給されるように
なされている。クラス分類適応処理回路42Bは、予測
タップを構成する注目画素を、図15で説明したように
して、クラス分類用のSD画素を用いてクラス分類し、
そのクラスに対応した予測係数wのセットと、予測タッ
プとから、式(1)に示した線形1次式を演算すること
により、図6に点線で囲んで示した、注目画素となって
いるSD画素を中心とする3×3のHD画素の画素値の
予測値を求めるようになされている。この予測値は、誤
差算出部43に供給されるようになされている。The local decoding section 42 is composed of a prediction tap generating circuit 42A and a class classification adaptive processing circuit 42B, to which an SD image is supplied from the correcting section 41. Predictive tap generation circuit 42A
Is the L of the SD pixel of the SD image supplied from the correction unit 41.
A prediction tap is formed (generated) in accordance with the tap pattern code arranged on the SB side, and is supplied to the classification adaptive processing circuit 42B. The class classification adaptive processing circuit 42B is supplied with a set of prediction coefficients w for each class of SD pixels for class classification and four types of prediction taps in addition to the prediction taps. The class classification adaptive processing circuit 42B classifies the pixel of interest forming the prediction tap using the SD pixel for class classification as described with reference to FIG.
By calculating the linear linear expression shown in Expression (1) from the set of prediction coefficients w corresponding to the class and the prediction tap, the pixel of interest is indicated by a dotted line in FIG. A prediction value of a pixel value of a 3 × 3 HD pixel centered on the SD pixel is obtained. This prediction value is supplied to the error calculation unit 43.
【0159】ここで、図17は、図16のクラス分類適
応処理回路42Bの構成例を示している。なお、図中、
図12における場合と対応する部分については、同一の
符号を付してある。即ち、クラス分類適応処理回路42
Bは、図12に示したクラス分類適応処理回路33を構
成する1つのクラス分類適応処理回路(予測係数、予測
値算出)の一部と同一に構成されており、その説明は省
略する。FIG. 17 shows an example of the configuration of the classification adaptive processing circuit 42B of FIG. In the figure,
Parts corresponding to those in FIG. 12 are denoted by the same reference numerals. That is, the classification adaptive processing circuit 42
B has the same configuration as a part of one class classification adaptive processing circuit (prediction coefficient, prediction value calculation) constituting the class classification adaptive processing circuit 33 shown in FIG. 12, and a description thereof will be omitted.
【0160】次に、図18のフローチャートを参照し
て、その動作について説明する。Next, the operation will be described with reference to the flowchart of FIG.
【0161】最適化部23は、SD画像を受信すると、
そのSD画像を構成するSD画素のうちの1つを注目画
素とし、ステップS31において、注目画素の画素値を
補正する補正量を表す変数△を、例えば0に初期化す
る。また、ステップS31では、補正量を変化させる変
化量(以下、適宜、オフセット量という)を表す変数S
に、初期値としての、例えば4または1がセットされ
る。When the optimizer 23 receives the SD image,
One of the SD pixels constituting the SD image is set as a target pixel, and in step S31, a variable △ representing a correction amount for correcting the pixel value of the target pixel is initialized to, for example, 0. In step S31, a variable S representing a change amount for changing the correction amount (hereinafter, appropriately referred to as an offset amount) is set.
For example, 4 or 1 is set as an initial value.
【0162】即ち、輝度信号については、上述したよう
に、そのLSB側の2ビットがタップパターンコードで
あり、画素値を構成するものではないため、オフセット
量Sには、4(=22)がセットされる。また、色差信
号については、そのようなことはなく、すべてのビット
が画素値を構成するため、オフセット量Sには、1(=
20)がセットされる。That is, as described above, since the two bits on the LSB side of the luminance signal are the tap pattern code and do not constitute the pixel value, the offset amount S is 4 (= 2 2 ). Is set. This is not the case for the color difference signal, and all the bits constitute a pixel value.
2 0 ) is set.
【0163】さらに、ステップS31では、注目画素の
補正の回数をカウントする変数iに、初期値としての−
1がセットされ、ステップS32に進む。ステップS3
2では、回数iが1だけインクリメントされ、ステップ
S33に進み、注目画素の画素値を補正量△だけ補正し
た補正値を用いて適応処理を行った場合に、その補正に
より影響を受けるHD画素の予測値の予測誤差Eが算出
される。In step S31, a variable i for counting the number of corrections of the target pixel is set to-
1 is set, and the process proceeds to step S32. Step S3
In step 2, the number i is incremented by one, and the process proceeds to step S33. When the adaptive processing is performed using the correction value obtained by correcting the pixel value of the target pixel by the correction amount △, the HD pixel affected by the correction is subjected to the adaptive processing. A prediction error E of the prediction value is calculated.
【0164】即ち、この場合、補正部41は、注目画素
の画素値に、例えば、補正量△を加算し、その加算値
を、注目画素の画素値として、ローカルデコード部42
に出力する。ここで、注目画素について、最初にステッ
プS33の処理が施される場合、即ち、回数i=0の場
合、補正量△は、ステップS31でセットされた初期値
である0のままであるから、補正部41からは、注目画
素の画素値がそのまま出力される。That is, in this case, the correction unit 41 adds, for example, a correction amount △ to the pixel value of the pixel of interest, and uses the added value as the pixel value of the pixel of interest as the local decoding unit 42.
Output to Here, when the process of step S33 is first performed on the target pixel, that is, when the number of times i = 0, the correction amount △ remains 0, which is the initial value set in step S31. The correction unit 41 outputs the pixel value of the target pixel as it is.
【0165】ローカルデコード部42では、予測タップ
生成回路42Aにおいて、注目画素の画素値のLSB側
の2ビットに配置されているタップパターンコードに対
応して、予測タップが形成され、クラス分類適応処理回
路42Bに出力される。クラス分類適応処理回路42B
では、まず、注目画素が、図5のクラス分類適応処理回
路33における場合と同様にクラス分類される。さら
に、クラス分類適応処理回路42Bでは、そのクラスに
対応する予測係数と、予測タップ生成回路42Aからの
予測タップとから、式(1)に示した線形1次式を演算
することにより、HD画素の画素値の予測値が求められ
る。In the local decoding section 42, a prediction tap is formed in the prediction tap generation circuit 42A in accordance with the tap pattern code arranged in the two LSB bits of the pixel value of the target pixel, and the classification adaptive processing is performed. Output to the circuit 42B. Classification adaptive processing circuit 42B
First, the target pixel is classified into the same class as in the case of the classification adaptive processing circuit 33 shown in FIG. Further, the class classification adaptive processing circuit 42B computes the linear linear expression shown in Expression (1) from the prediction coefficient corresponding to the class and the prediction tap from the prediction tap generation circuit 42A, thereby obtaining the HD pixel. Is calculated.
【0166】即ち、クラス分類適応処理回路42Bで
は、クラス分類回路91(図17)において、予測タッ
プ生成回路42Aからの予測タップを構成するSD画素
から、図15で説明したようなクラスタップが構成さ
れ、クラス分類が行われる。このクラス分類回路91に
おけるクラス分類の結果得られるクラスは、係数RAM
94(図17)に供給される。That is, in the class classification adaptive processing circuit 42B, in the class classification circuit 91 (FIG. 17), the class tap described in FIG. 15 is formed from the SD pixels forming the prediction tap from the prediction tap generation circuit 42A. Then, classification is performed. The class obtained as a result of the classification by the classification circuit 91 is a coefficient RAM
94 (FIG. 17).
【0167】係数RAM94(図17)は、スイッチ2
5を介して供給される4パターンの予測タップそれぞれ
についてのクラス毎の予測係数のセットを記憶してお
り、クラス分類回路91からのクラスに対応する予測係
数のセットであって、注目画素に付加されているタップ
パターンコードに対応する予測タップについての予測係
数のセットを読み出す。この予測係数のセットは、予測
演算回路95(図17)に供給される。The coefficient RAM 94 (FIG. 17)
A set of prediction coefficients for each class for each of the four patterns of prediction taps supplied via 5 is stored as a set of prediction coefficients corresponding to the class from the class classification circuit 91 and added to the pixel of interest. The set of prediction coefficients for the prediction tap corresponding to the tap pattern code being read is read. This set of prediction coefficients is supplied to the prediction calculation circuit 95 (FIG. 17).
【0168】予測演算回路95では、係数RAM94か
らの予測係数のセットと、予測タップ生成回路42Aか
ら供給される予測タップとを用いて、式(1)の線形1
次式が演算されることにより、HD画素の予測値が求め
られる。The prediction operation circuit 95 uses the set of prediction coefficients from the coefficient RAM 94 and the prediction tap supplied from the prediction tap generation circuit 42A to calculate the linear 1
By calculating the following equation, a predicted value of the HD pixel is obtained.
【0169】また、クラス分類適応処理回路42Bで
は、注目画素の画素値を補正量△だけ補正した場合に、
その補正により影響を受けるHD画素についても、同様
にして、予測値が求められる。In the classification adaptive processing circuit 42B, when the pixel value of the target pixel is corrected by the correction amount △,
For HD pixels affected by the correction, a predicted value is similarly obtained.
【0170】即ち、例えば、いま、図19に示すよう
に、SD画素Aを注目画素として補正したとする。本実
施の形態では、予測タップの範囲が最も広いのは、図1
0に示したように、7×5のSD画素で予測タップが構
成される場合で、このように、7×5のSD画素で予測
タップが構成される場合に、その予測タップにSD画素
Aが含まれるケースであって、SD画素Aから最も離れ
たSD画素が注目画素とされるのは、SD画素B,C,
D,Eが注目画素とされ、7×5画素の予測タップが構
成されるケースである。そして、SD画素B,C,D,
Eが注目画素とされ、7×5画素の予測タップが構成さ
れた場合、本実施の形態では、同図に実線で囲んで示す
範囲b,c,d,eの中の3×3のHD画素の予測値が
それぞれ求められる。従って、SD画素Aを注目画素と
して、その画素値を補正した場合に、その補正により影
響を受けるのは、最悪のケースで、範囲b,c,d,e
を含む最小の長方形である、図19において点線で示す
範囲内の21×15のHD画素の予測値ということにな
る。That is, for example, it is assumed that the SD pixel A is corrected as a target pixel as shown in FIG. In the present embodiment, the range of the prediction tap is the widest in FIG.
As shown in FIG. 0, when a prediction tap is composed of 7 × 5 SD pixels, and when a prediction tap is composed of 7 × 5 SD pixels, an SD pixel A is included in the prediction tap. Is included, and the SD pixel farthest from the SD pixel A is set as the target pixel because the SD pixels B, C,
In this case, D and E are regarded as target pixels, and prediction taps of 7 × 5 pixels are formed. Then, the SD pixels B, C, D,
In the case where E is the pixel of interest and a prediction tap of 7 × 5 pixels is configured, in the present embodiment, 3 × 3 HDs in the ranges b, c, d, and e surrounded by solid lines in FIG. A predicted value of the pixel is obtained. Therefore, when the pixel value is corrected using the SD pixel A as the target pixel, the correction is affected in the worst case by the ranges b, c, d, and e.
Are the predicted values of 21 × 15 HD pixels within the range indicated by the dotted line in FIG.
【0171】従って、本実施の形態では、クラス分類適
応処理回路42Bにおいて、このような21×15のH
D画素の予測値が求められる。Therefore, in the present embodiment, in the classification adaptive processing circuit 42B, such a 21 × 15 H
A predicted value of the D pixel is obtained.
【0172】クラス分類適応処理回路42Bで求められ
たHD画素の予測値は、誤差算出部43に供給される。
誤差算出部43では、クラス分類適応処理回路42Bか
らのHD画素の予測値から、対応するHD画素の真の画
素値が減算され、その減算値である予測誤差の、例えば
自乗和が求められる。そして、この自乗和が、誤差情報
Eとして、制御部44に供給される。The predicted value of the HD pixel obtained by the classification adaptive processing circuit 42B is supplied to the error calculator 43.
The error calculator 43 subtracts the true pixel value of the corresponding HD pixel from the predicted value of the HD pixel from the classification adaptive processing circuit 42B, and obtains, for example, the sum of squares of the prediction error as the subtracted value. Then, this sum of squares is supplied to the control unit 44 as error information E.
【0173】制御部44は、誤差算出部43から誤差情
報を受信すると、ステップS34において、回数iが0
であるかどうかを判定する。ステップS34において、
回数iが0であると判定された場合、即ち、制御部44
が受信した誤差情報Eが、注目画素の補正を行わずに得
られたものである場合、ステップS35に進み、注目画
素の補正を行わずに得られた誤差情報(未補正時の誤差
情報)を記憶する変数E0に、誤差情報Eがセットさ
れ、また、前回得られた誤差情報を記憶する変数E’に
も、誤差情報Eがセットされる。さらに、ステップS3
5では、補正量△が、オフセット量Sだけインクリメン
トされ、制御部44は、それにより得られた補正量△だ
け、注目画素の画素値を補正するように、補正部41を
制御する。その後は、ステップS32に戻り、以下、同
様の処理を繰り返す。Upon receiving the error information from the error calculating unit 43, the control unit 44 determines in step S34 that the number of times i is 0.
Is determined. In step S34,
When it is determined that the number of times i is 0, that is, the control unit 44
If the received error information E is obtained without correcting the target pixel, the process proceeds to step S35, and the error information obtained without correcting the target pixel (error information at the time of uncorrection). Is set to a variable E 0 for storing the error information, and the error information E is also set to a variable E ′ for storing the error information obtained last time. Further, step S3
In 5, the correction amount △ is incremented by the offset amount S, and the control unit 44 controls the correction unit 41 to correct the pixel value of the target pixel by the correction amount △ obtained thereby. Thereafter, the process returns to step S32, and thereafter, the same processing is repeated.
【0174】この場合、ステップS32において、回数
iは1だけインクリメントされて1となるから、ステッ
プS34では、回数iが0でないと判定され、ステップ
S36に進む。ステップS36では、回数iが1である
かどうかが判定される。この場合、回数iは1となって
いるから、ステップS36では、回数iは1であると判
定され、ステップS37に進み、前回の誤差情報E’
が、今回の誤差情報E以上であるかどうかが判定され
る。ステップS37において、前回の誤差情報E’が、
今回の誤差情報E以上でないと判定された場合、即ち、
補正量△だけ注目画素の画素値を補正することにより、
今回の誤差情報Eの方が、前回の誤差情報E’(ここで
は、補正をしてない場合の誤差情報)より増加した場
合、ステップS38に進み、制御部44は、オフセット
量Sに、−1を乗算したものを、新たなオフセット量S
とし、さらに、補正量△をオフセット量Sの2倍だけイ
ンクリメントし、ステップS32に戻る。In this case, in step S32, the number i is incremented by 1 to become 1. In step S34, it is determined that the number i is not 0, and the flow advances to step S36. In step S36, it is determined whether the number i is one. In this case, since the count i is 1, the count i is determined to be 1 in step S36, the process proceeds to step S37, and the previous error information E ′ is obtained.
Is greater than or equal to the current error information E. In step S37, the previous error information E '
If it is determined that it is not more than the current error information E, ie,
By correcting the pixel value of the target pixel by the correction amount △,
If the current error information E is larger than the previous error information E ′ (here, error information without correction), the process proceeds to step S38, and the control unit 44 sets the offset amount S to − 1 is multiplied by a new offset amount S
Further, the correction amount △ is incremented by twice the offset amount S, and the process returns to step S32.
【0175】即ち、注目画素の画素値を、補正量△(こ
の場合、△=S)だけ補正することにより、補正しなか
ったときよりも誤差が増加した場合には、オフセット量
Sの符号が反転される(本実施の形態では、ステップS
31において正の値がオフセット量Sにセットされてい
るので、ステップS38では、オフセット量Sの符号
は、正から負にされる)。さらに、前回はSであった補
正量△が、−Sにされる。That is, by correcting the pixel value of the target pixel by the correction amount △ (in this case, △ = S), if the error increases compared to the case without correction, the sign of the offset amount S is changed. Inverted (in the present embodiment, step S
Since a positive value is set to the offset amount S at 31, the sign of the offset amount S is changed from positive to negative at step S38). Further, the correction amount あ っ た, which was S the previous time, is changed to −S.
【0176】また、ステップS37において、前回の誤
差情報E’が、今回の誤差情報E以上であると判定され
た場合、即ち、補正量△だけ注目画素の画素値を補正す
ることにより、今回の誤差情報Eが、前回の誤差情報
E’より減少した場合(または前回の誤差情報E’と同
じである場合)、ステップS39に進み、制御部44
は、補正量△をオフセット量Sだけインクリメントする
とともに、前回の誤差情報E’に、今回の誤差情報Eを
セットすることにより更新して、ステップS32に戻
る。In step S37, when it is determined that the previous error information E 'is equal to or greater than the current error information E, that is, by correcting the pixel value of the target pixel by the correction amount △, the current error information E' is corrected. If the error information E has decreased from the previous error information E '(or if it is the same as the previous error information E'), the process proceeds to step S39, and the control unit 44
Increments the correction amount だ け by the offset amount S, updates the previous error information E ′ by setting the current error information E, and returns to step S32.
【0177】この場合、ステップS32において、回数
iは、さらに1だけインクリメントされて2となるか
ら、ステップS34またはS36では、回数iが0また
は1でないとそれぞれ判定され、その結果、ステップS
36からS40に進む。ステップS40では、回数iが
2であるかどうかが判定される。いま、回数iは2とな
っているから、ステップS40では、回数iは2である
と判定され、ステップS41に進み、未補正時の誤差情
報E0が今回の誤差情報E以下であり、かつオフセット
量Sが負であるかどうかが判定される。In this case, in step S32, the number i is further incremented by 1 to 2, so that in step S34 or S36, it is determined that the number i is not 0 or 1, respectively.
The process proceeds from S36 to S40. In step S40, it is determined whether the number i is two. Now, since the number of times i is 2, in step S40, it is determined that the number of times i is 2, and the process proceeds to step S41, where the uncorrected error information E 0 is equal to or less than the current error information E, and It is determined whether the offset amount S is negative.
【0178】ステップS40において、未補正時の誤差
情報E0が今回の誤差情報E以下であり、かつオフセッ
ト量Sが負であると判定された場合、即ち、注目画素を
+Sだけ補正しても、また、−Sだけ補正しても、補正
しないときより誤差が増加する場合、ステップS42に
進み、補正量△が0とされ、ステップS47に進む。[0178] In step S40, or less uncorrected when the error information E 0 is the current error information E, and if the offset amount S is determined to be negative, i.e., be corrected pixel of interest + S only If the error increases by -S compared to when no correction is made, the process proceeds to step S42, where the correction amount △ is set to 0, and the process proceeds to step S47.
【0179】また、ステップS40において、未補正時
の誤差情報E0が今回の誤差情報E以下でないか、また
はオフセット量Sが負でないと判定された場合、ステッ
プS44に進み、前回の誤差情報E’が、今回の誤差情
報E以上であるかどうかが判定される。ステップS44
において、前回の誤差情報E’が、今回の誤差情報E以
上であると判定された場合、即ち、補正量△だけ注目画
素の画素値を補正することにより、今回の誤差情報E
が、前回の誤差情報E’より減少した場合、ステップS
45に進み、制御部44は、補正量△をオフセット量S
だけインクリメントするとともに、前回の誤差情報E’
に、今回の誤差情報Eをセットすることにより更新し
て、ステップS32に戻る。[0179] Further, in step S40, if the error information E 0 at the time of non-correction is determined or not less than the current error information E, or offset amount S is not negative, the process proceeds to step S44, the previous error information E Is greater than or equal to the current error information E. Step S44
In the above, when it is determined that the previous error information E ′ is equal to or greater than the current error information E, that is, by correcting the pixel value of the target pixel by the correction amount △, the current error information E ′ is corrected.
Is smaller than the previous error information E ′, step S
The control unit 44 proceeds to 45 and sets the correction amount △ to the offset amount S.
Is incremented and the previous error information E '
Then, the current error information E is set, and the process returns to step S32.
【0180】この場合、ステップS32において、回数
iは、さらに1だけインクリメントされて3となるか
ら、以下では、ステップS34,S36、またはS40
では、回数iが0,1、または2でないとそれぞれ判定
され、その結果、ステップS40からS44に進む。従
って、ステップS44において、前回の誤差情報E’
が、今回の誤差情報E以上でないと判定されるまで、ス
テップS32乃至S34、S36,S40,S44,S
45のループ処理が繰り返される。In this case, in step S32, the number of times i is further incremented by 1 to 3, so that in the following, step S34, S36 or S40
In this case, it is determined that the number i is not 0, 1, or 2, and as a result, the process proceeds from step S40 to S44. Therefore, in step S44, the previous error information E '
Are not greater than or equal to the current error information E, until steps S32 through S34, S36, S40, S44, S
Forty-five loop processes are repeated.
【0181】そして、ステップS44において、前回の
誤差情報E’が、今回の誤差情報E以上でないと判定さ
れた場合、即ち、補正量△だけ注目画素の画素値を補正
することにより、今回の誤差情報Eの方が、前回の誤差
情報E’より増加した場合、ステップS46に進み、制
御部44は、補正量△をオフセット量Sだけデクリメッ
トし、ステップS47に進む。即ち、この場合、補正量
△は、誤差が増加する前の値とされる。In step S44, when it is determined that the previous error information E 'is not more than the current error information E, that is, by correcting the pixel value of the target pixel by the correction amount △, the current error If the information E has increased from the previous error information E ', the process proceeds to step S46, where the control unit 44 decrements the correction amount △ by the offset amount S, and proceeds to step S47. That is, in this case, the correction amount △ is a value before the error increases.
【0182】ステップS47では、制御部44は、補正
部41を制御することにより、ステップS42またはS
46で得られた補正量△だけ注目画素の画素値を補正さ
せ、これにより、注目画素の画素値は、適応処理により
予測値を得るのに、予測誤差が最小となるような最適な
ものに補正される。In step S47, the control section 44 controls the correction section 41 to execute step S42 or step S42.
The pixel value of the target pixel is corrected by the correction amount △ obtained in step 46, whereby the pixel value of the target pixel is optimized to minimize the prediction error in order to obtain a prediction value through adaptive processing. Will be corrected.
【0183】そして、ステップS48に進み、すべての
SD画素を注目画素として処理を行ったかどうかが判定
される。ステップS48において、すべてのSD画素を
注目画素として、まだ処理を行っていないと判定された
場合、ステップS31に戻り、まだ、注目画素とされて
いないSD画素を新たな注目画素として、同様の処理を
繰り返す。また、ステップS48において、すべてのS
D画素を注目画素として処理を行ったと判定された場
合、処理を終了する。Then, the process proceeds to a step S48, wherein it is determined whether or not the processing has been performed with all the SD pixels as target pixels. If it is determined in step S48 that all the SD pixels have been set as the target pixel and the processing has not been performed yet, the process returns to step S31, and the same processing is performed by setting the SD pixel that has not been set as the target pixel as a new target pixel. repeat. In step S48, all S
If it is determined that the process has been performed with the D pixel as the target pixel, the process ends.
【0184】以上のようにして、SD画像の画素値は、
HD画像の予測値を求めるのに、最適なものに最適化さ
れる。As described above, the pixel value of the SD image is
It is optimized to the optimal one for obtaining the predicted value of the HD image.
【0185】次に、図20は、図3の適応処理部24の
構成例を示している。Next, FIG. 20 shows an example of the configuration of the adaptive processing section 24 of FIG.
【0186】予測タップ生成回路51には、最適化部2
3からの最適SD画像が供給されるようになされてお
り、そこでは、図16の予測タップ生成回路42Aにお
ける場合と同様に、その画素値のLSB側の2ビットに
配置されているタップパターンコードが検出され、その
タップパターンコードにしたがって、予測タップが構成
され、クラス分類適応処理回路52に供給されるように
なされている。The prediction tap generation circuit 51 includes an optimization unit 2
3 is supplied, where the tap pattern code arranged in the 2 bits on the LSB side of the pixel value is provided in the same manner as in the prediction tap generation circuit 42A of FIG. Is detected, a prediction tap is formed according to the tap pattern code, and is supplied to the classification adaptive processing circuit 52.
【0187】クラス分類適応処理回路52には、予測タ
ップの他、クラス分類に使用される最適SD画像及び元
のHD画像も供給されるようになされており、そこで
は、予測タップを構成する注目画素のクラス分類が、例
えば、図15で説明した場合と同様にして行われ、さら
に、その結果得られる各クラスについて、予測タップと
HD画像を用いて式(7)に示した正規方程式がたてら
れるようになされている。そして、クラス分類適応処理
回路52は、そのクラスごとの正規方程式を解くことに
より新たな4パターンの予測タップのそれぞれについて
の予測係数wのセットを求めて出力するようになされて
いる。In addition to the prediction taps, the optimum SD image and the original HD image used for the classification are also supplied to the classification adaptive processing circuit 52. The pixel classification is performed, for example, in the same manner as described with reference to FIG. 15, and for each class obtained as a result, the normal equation shown in Expression (7) is obtained using the prediction tap and the HD image. It has been made to be. Then, the class classification adaptive processing circuit 52 obtains and outputs a set of prediction coefficients w for each of the four new prediction taps by solving a normal equation for each class.
【0188】次に、その動作について、図21のフロー
チャートを参照して説明する。予測タップ生成回路51
は、最適SD画像を受信すると、ステップS51におい
て、その最適SD画素を構成する各SD画素に付加され
ているタップパターンコードを検出(抽出)し、ステッ
プS52に進み、その抽出したタップパターンコードに
基づいて、予測タップを形成する。そして、予測タップ
生成回路51は、形成した予測タップを、クラス分類適
応処理回路52に出力する。クラス分類適応処理回路5
2は、ステップS53において、予測タップを構成する
注目画素のクラス分類を行い、その結果得られる各クラ
スについて、予測タップとHD画像を用いて正規方程式
をたてて解くことにより予測係数wを求めて出力し、処
理を終了する。Next, the operation will be described with reference to the flowchart of FIG. Prediction tap generation circuit 51
Receives the optimal SD image, in step S51, detects (extracts) the tap pattern code added to each SD pixel constituting the optimal SD pixel, and proceeds to step S52 to add the extracted tap pattern code to the extracted tap pattern code. Based on this, a prediction tap is formed. Then, the prediction tap generation circuit 51 outputs the formed prediction tap to the classification adaptive processing circuit 52. Classification adaptive processing circuit 5
2. In step S53, a prediction coefficient w is obtained by performing a class classification of a pixel of interest forming a prediction tap and, for each class obtained as a result, forming and solving a normal equation using the prediction tap and the HD image. And output, and the process ends.
【0189】これにより、適応処理部24では、最適S
D画像から、元のHD画像を得るのに、予測誤差を最も
小さくする4パターンの予測タップのそれぞれについて
のクラス毎の予測係数wのセットが求められる。この4
パターンの予測タップのそれぞれについてのクラス毎の
予測係数wのセットは、上述したように、最適化部23
と予測タップパターン判定部26に供給され、適応処理
(式(1)に示す線形1次式の計算)に用いられる。As a result, the adaptive processing unit 24 determines the optimal S
In order to obtain the original HD image from the D image, a set of prediction coefficients w for each of the four patterns of prediction taps that minimize the prediction error is obtained. This 4
As described above, the set of prediction coefficients w for each class for each prediction tap of the pattern is determined by the optimization unit 23
Are supplied to the prediction tap pattern determination unit 26 and are used for adaptive processing (calculation of a linear linear expression shown in Expression (1)).
【0190】なお、図20の実施の形態では、予測タッ
プ生成回路51において、画素値のLSB側の2ビット
に配置されているタップパターンコードを検出し、その
タップパターンコードに従って予測タップを構成するよ
うにしたが、予測タップ生成回路51は、図5の前処理
部21の予測タップ生成回路32と同様に構成すること
も可能である。つまり、予測タップ生成回路51には、
4パターンの予測タップすべてを構成させ、クラス分類
適応処理回路52に供給させることができる。この場
合、クラス分類適応処理回路52は、4パターンの予測
タップのそれぞれに対応する4つの予測係数を算出する
ためのクラス分類適応処理回路(輝度信号用)で構成す
ることができ、このクラス分類適応処理回路のそれぞれ
は、図11で示される、クラス分類適応処理回路(予測
係数、予測値算出)を構成する一部と同様に構成するこ
とができる。In the embodiment shown in FIG. 20, the prediction tap generation circuit 51 detects a tap pattern code arranged in two bits on the LSB side of the pixel value, and forms a prediction tap according to the tap pattern code. However, the prediction tap generation circuit 51 can be configured similarly to the prediction tap generation circuit 32 of the preprocessing unit 21 in FIG. That is, the prediction tap generation circuit 51 includes:
All four prediction taps can be configured and supplied to the classification adaptive processing circuit 52. In this case, the classification adaptive processing circuit 52 can be constituted by a classification adaptive processing circuit (for a luminance signal) for calculating four prediction coefficients corresponding to each of the four prediction taps. Each of the adaptive processing circuits can be configured in the same way as a part of the class classification adaptive processing circuit (prediction coefficient, prediction value calculation) shown in FIG.
【0191】そして、その場合、各クラス分類適応処理
回路には、HD画像を構成する各HD画素に対して対応
する各パターンの予測タップが供給され、その予測タッ
プを構成する最適SD画素を用いてクラスタップが形成
されて、それぞれクラス分類が行われる。さらに、各ク
ラス分類適応処理回路において、1フレームのHD画素
と、そのHD画素に対する予測タップとが、それぞれ教
師データメモリ86と予測タップメモリ85とにクラス
毎に記憶される。その後、各クラス分類適応処理回路の
それぞれにおいて、図27の学習装置における場合と同
様にして、4パターンの予測タップについての新たなク
ラス毎の予測係数のセットが生成される。In that case, prediction taps of each pattern corresponding to each HD pixel constituting the HD image are supplied to each class classification adaptive processing circuit, and the optimum SD pixels constituting the prediction tap are used. Thus, class taps are formed, and each class is classified. Further, in each class classification adaptive processing circuit, one frame of HD pixels and prediction taps for the HD pixels are stored in the teacher data memory 86 and the prediction tap memory 85 for each class. Thereafter, in each of the class classification adaptive processing circuits, a new set of prediction coefficients for each class is generated for four patterns of prediction taps in the same manner as in the learning device of FIG.
【0192】次に、図22は、図3の予測タップパター
ン判定部26の構成例を示している。Next, FIG. 22 shows an example of the configuration of the prediction tap pattern determination section 26 of FIG.
【0193】予測タップパターン判定部26は、同図に
示すように、予測タップ生成回路61、クラス分類適応
処理回路62、予測誤差算出回路63、およびタップパ
ターンコード変更回路64から構成されており、これら
の予測タップ生成回路61、クラス分類適応処理回路6
2、予測誤差算出回路63、またはタップパターンコー
ド変更回路64は、図5における前処理部21の予測タ
ップ生成回路32、クラス分類適応処理回路33、予測
誤差算出回路34、またはタップパターンコード付加回
路36と基本的に同様に構成されている。As shown in the figure, the prediction tap pattern determination section 26 comprises a prediction tap generation circuit 61, a class classification adaptive processing circuit 62, a prediction error calculation circuit 63, and a tap pattern code change circuit 64. These prediction tap generation circuit 61 and class classification adaptive processing circuit 6
2. The prediction error calculation circuit 63 or the tap pattern code change circuit 64 is a prediction tap generation circuit 32, a classification adaptive processing circuit 33, a prediction error calculation circuit 34, or a tap pattern code addition circuit of the preprocessing unit 21 in FIG. It is basically configured in the same manner as 36.
【0194】次に、図23のフローチャートを参照し
て、その動作について説明する。Next, the operation will be described with reference to the flowchart of FIG.
【0195】予測タップパターン判定部26には、最適
SD画像、4パターンの予測タップのそれぞれについて
のクラス毎の予測係数のセット、HD画像が供給される
ようになされており、最適SD画像は、予測タップ生成
回路61とタップパターンコード変更回路64に供給さ
れ、また、4パターンの予測タップのそれぞれについて
のクラス毎の予測係数のセットまたはHD画像は、クラ
ス分類適応処理回路62または予測誤差算出回路63に
それぞれ供給されるようになされている。The prediction tap pattern determination section 26 is supplied with an optimal SD image, a set of prediction coefficients for each class for each of the four prediction taps, and an HD image. The prediction tap generation circuit 61 and the tap pattern code changing circuit 64 are supplied to the prediction tap generation circuit 61 and the tap pattern code change circuit 64. The prediction coefficient set or HD image for each class for each of the four prediction taps is obtained by the classification adaptive processing circuit 62 or the prediction error calculation circuit 63, respectively.
【0196】予測タップ生成回路61は、最適SD画像
を受信すると、ステップS61において、図5の予測タ
ップ生成回路32と同様に、そのうちの1つを注目画素
とし、その注目画素について、図7乃至図10に示した
4パターンの予測タップを形成する。そして、この4パ
ターンの予測タップは、クラス分類適応処理回路62に
出力される。When the prediction tap generation circuit 61 receives the optimum SD image, in step S61, as in the prediction tap generation circuit 32 of FIG. 5, one of the pixels is set as a target pixel, and the target pixel is set as shown in FIGS. The four prediction taps shown in FIG. 10 are formed. The four prediction taps are output to the classification adaptive processing circuit 62.
【0197】クラス分類適応処理回路62は、注目画素
を対象に形成された4パターンの予測タップを受信する
と、ステップS62において、その4パターンの予測タ
ップそれぞれと、対応するクラス毎の予測係数wのセッ
トそれぞれとを用いて、式(1)で表される線形1次式
を計算し、これにより、4パターンの予測タップそれぞ
れから得られるHD画像の9画素の予測値を求め、予測
誤差算出回路63に出力される。Upon receiving the four patterns of prediction taps formed for the pixel of interest, the class classification adaptive processing circuit 62 determines in step S62 that each of the four patterns of prediction taps has a corresponding prediction coefficient w for each class. Using each of the sets, a linear linear expression represented by Expression (1) is calculated, whereby a prediction value of 9 pixels of the HD image obtained from each of the four prediction taps is obtained, and a prediction error calculation circuit 63 is output.
【0198】予測誤差算出回路63では、ステップS6
3またはS64において、図5の予測誤差算出回路34
が行う図13のステップS15またはS16における場
合とそれぞれ同様の処理が行われ、これにより、4パタ
ーンの予測タップのうち、予測誤差を最小にするものの
タップパターンコードが、タップパターンコード変更回
路64に出力される。In the prediction error calculation circuit 63, step S6
3 or S64, the prediction error calculation circuit 34 of FIG.
Are performed in the same manner as in step S15 or S16 in FIG. 13, whereby the tap pattern code of the four prediction taps that minimizes the prediction error is transmitted to the tap pattern code change circuit 64. Is output.
【0199】タップパターンコード変更回路64では、
ステップS65において、注目画素(最適SD画像のS
D画素)のLSB側の2ビットに付加されているタップ
パターンコードが、予測誤差算出回路63から供給され
るタップパターンコードに変更され、ステップS66に
進む。In the tap pattern code change circuit 64,
In step S65, the target pixel (S
The tap pattern code added to the 2 bits on the LSB side of (D pixel) is changed to the tap pattern code supplied from the prediction error calculation circuit 63, and the process proceeds to step S66.
【0200】ステップS66では、すべてのSD画素を
注目画素として処理が行われたかどうかが判定され、ま
だ、すべてのSD画素を注目画素としていないと判定さ
れた場合、ステップS61に戻り、また注目画素とされ
ていないSD画素を新たに注目画素として、同様の処理
を繰り返す。一方、ステップS66において、すべての
SD画素を注目画素として処理を行ったと判定された場
合、処理を終了する。In step S66, it is determined whether or not processing has been performed with all SD pixels as the target pixel. If it is determined that not all SD pixels have been set as the target pixel, the process returns to step S61. The same processing is repeated with the SD pixel that has not been set as a new target pixel. On the other hand, if it is determined in step S66 that the process has been performed with all SD pixels as the pixel of interest, the process ends.
【0201】予測タップパターン判定部26では、以上
のように、適応処理部24で得られた4パターンの予測
タップのそれぞれについての予測係数wのセットを用い
て、タップパターンコードが、より予測誤差が小さくな
る予測タップに対応するものに変更される。As described above, the predictive tap pattern determining unit 26 uses the set of predictive coefficients w for each of the four predictive taps obtained by the adaptive processing unit 24 to change the tap pattern code Is changed to the one corresponding to the prediction tap in which is smaller.
【0202】次に、図24は、図1の受信装置4の構成
例を示している。Next, FIG. 24 shows a configuration example of the receiving device 4 of FIG.
【0203】受信機/再生装置71においては、記録媒
体2に記録された符号化データが再生され、または伝送
路3を介して伝送されてくる符号化データが受信され、
分離部72に供給される。分離部72では、符号化デー
タが、SD画像の画像データと4パターンの予測タップ
のそれぞれについてのクラス毎の予測係数wのセットに
分離され、SD画像の画像データは、予測タップ生成回
路73に供給され、4パターンの予測タップのそれぞれ
についてのクラス毎の予測係数wのセットは、クラス分
類適応処理回路74に供給される。[0203] In the receiver / reproducing device 71, the encoded data recorded on the recording medium 2 is reproduced, or the encoded data transmitted via the transmission path 3 is received.
It is supplied to the separation unit 72. The separation unit 72 separates the coded data into a set of prediction coefficients w for each class of the image data of the SD image and the four prediction taps, and the image data of the SD image is transmitted to the prediction tap generation circuit 73. The set of prediction coefficients w for each class for each of the four prediction taps is supplied to the classification adaptive processing circuit 74.
【0204】予測タップ生成回路73またはクラス分類
適応処理回路74は、図16に示した最適化部23のロ
ーカルデコード部42を構成する予測タップ生成回路4
2Aまたはクラス分類適応処理回路42B(図17)と
それぞれ同様に構成されている。従って、ローカルデコ
ード部42における場合と同様にして、HD画像の予測
値が求められ、これが復号画像として出力される。この
復号画像は、上述したように、元の画像とほぼ同一の画
像となる。The prediction tap generation circuit 73 or the class classification adaptive processing circuit 74 includes the prediction tap generation circuit 4 constituting the local decoding section 42 of the optimization section 23 shown in FIG.
The configuration is the same as that of 2A or the class classification adaptive processing circuit 42B (FIG. 17). Therefore, a predicted value of the HD image is obtained in the same manner as in the case of the local decoding unit 42, and this is output as a decoded image. This decoded image is almost the same as the original image, as described above.
【0205】なお、受信側においては、図24に示すよ
うな受信装置4でなくても、間引きされた画像を単純な
補間により復号する装置により、予測係数を用いずに、
通常の補間を行うことで復号画像を得ることができる。
但し、この場合に得られる復号画像は、画質(解像度)
の劣化したものとなる。On the receiving side, even if the receiving apparatus is not the receiving apparatus 4 as shown in FIG. 24, the apparatus for decoding the decimated image by simple interpolation does not use prediction coefficients,
A decoded image can be obtained by performing normal interpolation.
However, the decoded image obtained in this case has image quality (resolution)
Is deteriorated.
【0206】以上のように、HD画像を圧縮することに
より得られるSD画像を構成する画素のうちの1つを注
目画素として、その注目画素に対して、複数パターンの
予測タップを形成し、予測タップと予測係数との線形結
合により、HD画像の予測値を求める適応処理を行い、
複数パターンの予測タップそれぞれから得られる予測値
の予測誤差を算出し、複数パターンの予測タップのう
ち、最小の予測誤差が得られるものに対応するタップパ
ターンコードを、注目画素の画素値に付加するようにし
たので、画像の局所的な特性に対応した予測タップを用
いて適応処理が行われ、その結果、より画質の良い復号
画像を得ることが可能となる。As described above, one of the pixels constituting the SD image obtained by compressing the HD image is set as a pixel of interest, and a plurality of patterns of prediction taps are formed for the pixel of interest to perform prediction. Adaptive processing for obtaining a predicted value of an HD image is performed by a linear combination of a tap and a prediction coefficient,
A prediction error of a prediction value obtained from each of the prediction taps of the plurality of patterns is calculated, and a tap pattern code corresponding to the prediction tap of the plurality of patterns that provides the minimum prediction error is added to the pixel value of the pixel of interest. As a result, adaptive processing is performed using prediction taps corresponding to local characteristics of an image, and as a result, a decoded image with higher image quality can be obtained.
【0207】また、2ビットのタップパターンコード
を、画素値のLSB側の2ビットに代えて配置するよう
にしたので、データ量の増加を防止することが可能とな
る。なお、タップパターンコードは、画素値のLSB側
に配置されるので、それほど大きな画質の劣化はない。Further, since the 2-bit tap pattern code is arranged instead of the 2 bits on the LSB side of the pixel value, it is possible to prevent an increase in the data amount. Since the tap pattern code is arranged on the LSB side of the pixel value, there is not so much deterioration in image quality.
【0208】さらに、最適化部23において、誤差を最
小にする予測タップを用いて適応処理を行うことによ
り、SD画像を最適化するようにしたので、元のHD画
像をほぼ同一の復号画像を得ることが可能となる。Furthermore, the optimization unit 23 optimizes the SD image by performing the adaptive processing using the prediction tap that minimizes the error, so that the original HD image can be converted to a substantially identical decoded image. It is possible to obtain.
【0209】また、適応処理部24において、最適SD
画像を用いて適応処理を行い、複数パターンの予測タッ
プのそれぞれについてのクラス毎の予測係数のセット
を、いわば、より適切なものに更新(修正)し、予測タ
ップパターン判定部26において、その更新された複数
パターンの予測タップのそれぞれについてのクラス毎の
予測係数のセットを用いて、予測タップを決め直すよう
にしたので、さらに画質の向上した復号画像を得ること
が可能となる。In the adaptive processing unit 24, the optimum SD
An adaptive process is performed using the image, and a set of prediction coefficients for each class for each of a plurality of prediction taps is updated (corrected) to a more appropriate one, so to speak, and the prediction tap pattern determination unit 26 updates the set. The prediction tap is determined again using the set of prediction coefficients for each class for each of the prediction taps of the plurality of patterns, so that it is possible to obtain a decoded image with further improved image quality.
【0210】以上、本発明を、HD画像を符号化/復号
する画像処理装置に適用した場合について説明したが、
本発明は、その他、SD画像などの標準解像度の画像そ
の他を符号化/復号する場合にも適用可能である。即
ち、例えば、NTSC方式などの標準方式のテレビジョ
ン信号を符号化/復号する場合にも適用可能である。但
し、本発明は、データ量の多い、いわゆるハイビジョン
方式のテレビジョン信号などを符号化/復号する場合
に、特に有効である。また、本発明は、いわゆる階層符
号化を行う場合などにも適用可能である。[0210] The case where the present invention is applied to the image processing apparatus for encoding / decoding HD images has been described above.
The present invention is also applicable to encoding / decoding a standard resolution image or the like such as an SD image. That is, for example, the present invention is also applicable to encoding / decoding of a television signal of a standard system such as the NTSC system. However, the present invention is particularly effective when encoding / decoding a so-called high-vision television signal or the like having a large data amount. Further, the present invention is also applicable to a case where so-called hierarchical coding is performed.
【0211】なお、本実施の形態では、輝度信号につい
てのみ、複数パターンの予測タップを用意し、色差信号
については、5×7画素の予測タップだけを用いるよう
にしたが、色差信号も、輝度信号と同様に処理すること
が可能である。In this embodiment, prediction taps of a plurality of patterns are prepared only for luminance signals, and only prediction taps of 5 × 7 pixels are used for color difference signals. It can be processed in the same way as a signal.
【0212】また、本実施の形態においては、タップパ
ターンコードを2ビットとするようにしたが、タップパ
ターンコードは2ビットに限定されるものではない。但
し、より少ないビット数であることが望ましい。Further, in the present embodiment, the tap pattern code has two bits, but the tap pattern code is not limited to two bits. However, it is desirable that the number of bits be smaller.
【0213】さらに、本実施の形態では、画素値のLS
B側の2ビットに代えて、タップパターンコードを配置
するようにしたが、タップパターンコードは、画素値と
は別に記録または伝送することも可能である。Further, in the present embodiment, the pixel value LS
Although the tap pattern code is arranged instead of the two bits on the B side, the tap pattern code can be recorded or transmitted separately from the pixel value.
【0214】また、本実施の形態では、前処理部21で
前処理し、最適化部23で最適化した最適SD画像を用
いて、予測係数を更新し、その予測係数を用いて、再
度、タップパターンコードを決め直すようにしたが、前
処理部21で前処理し、最適化部23で最適化した最適
SD画像を、そのまま符号化データとすることも可能で
ある。この場合、復号画像の画質(S/N)は、タップ
パターンコードを決め直す場合に比較して、多少劣化す
るが、処理の高速化を図ることが可能となる。Also, in the present embodiment, the prediction coefficient is updated using the optimal SD image pre-processed by the pre-processing unit 21 and optimized by the optimization unit 23, and the prediction coefficient is updated again using the prediction coefficient. Although the tap pattern code is determined again, the optimal SD image that has been pre-processed by the pre-processing unit 21 and optimized by the optimizing unit 23 can be directly used as encoded data. In this case, the image quality (S / N) of the decoded image is slightly degraded as compared with the case where the tap pattern code is determined again, but it is possible to speed up the processing.
【0215】さらに、本実施の形態では、3×3,5×
3,3×5,7×5画素の4パターンの予測タップを用
いるようにしたが、これ以外の、例えば、1×5や5×
1画素などの予測タップを用いるようにすることも可能
である。また、予測タップのパターンも4種類に限定さ
れるものではない。Further, in the present embodiment, 3 × 3, 5 ×
Although four prediction taps of 3, 3 × 5, 7 × 5 pixels are used, other than this, for example, 1 × 5 or 5 ×
It is also possible to use a prediction tap such as one pixel. Further, the pattern of the prediction tap is not limited to four types.
【0216】さらに、本実施の形態では特に言及しなか
ったが、画素値に、タップパターンコードを付加した後
は、そのタップパターンコードが付加されたLSB側の
2ビットを所定値にしたものを画素値として処理しても
良いし、また、タップパターンコードも含めて画素値と
し、処理を行うようにしても良い。なお、本件発明者が
行った実験によれば、タップパターンコードも含めて画
素値とした場合、そのタップパターンコードの部分を所
定値としての0とした場合に比較して、S/Nは多少劣
化するが、階調が多少向上するという結果が得られてい
る。Further, although not particularly mentioned in the present embodiment, after adding a tap pattern code to a pixel value, the LSB side bit to which the tap pattern code is added is set to a predetermined value. The processing may be performed as a pixel value, or the processing may be performed with the pixel value including the tap pattern code. According to an experiment conducted by the present inventor, the S / N is slightly higher when a pixel value is included including the tap pattern code than when the tap pattern code portion is set to 0 as a predetermined value. Deterioration is obtained, but the result is that the gradation is slightly improved.
【0217】また、図18においては、注目画素の画素
値を、オフセット量Sとしての4または1ずつ補正する
ことにより、予測誤差Eが最初に極小となる補正量△を
検出するようにしたが、その他、例えば、注目画素の画
素値がとり得る値すべてについて予測誤差Eを求め、そ
の最小値を検出し、その場合の補正量△によって、注目
画素の画素値を補正するようにすることも可能である。
この場合、処理に時間を要することとなるが、よりS/
Nの高い復号画像を得ることが可能となる。In FIG. 18, the pixel value of the target pixel is corrected by 4 or 1 as the offset amount S, thereby detecting the correction amount な る at which the prediction error E becomes the minimum first. Alternatively, for example, the prediction error E may be obtained for all possible values of the pixel value of the target pixel, the minimum value thereof may be detected, and the pixel value of the target pixel may be corrected by the correction amount 場合 in that case. It is possible.
In this case, the processing takes time, but more S /
A decoded image with a high N can be obtained.
【0218】さらに、このように注目画素の画素値がと
り得る値すべてについて予測誤差Eを求める場合には、
注目画素の画素値の初期値は、どのような値(但し、注
目画素の画素値がとり得る範囲内の値)であっても良
い。即ち、この場合、初期値がどのような値であって
も、予測誤差Eを最小にする補正値△を求めることがで
きる。Further, when the prediction error E is obtained for all the possible values of the pixel value of the target pixel,
The initial value of the pixel value of the target pixel may be any value (however, a value within a range that the pixel value of the target pixel can take). That is, in this case, a correction value に す る that minimizes the prediction error E can be obtained regardless of the initial value.
【0219】なお、本発明の主旨を逸脱しない範囲にお
いて、さまざまな変形や応用例が考えうる。従って、本
発明の要旨は、上述の実施の形態に限定されるものでは
ない。Various modifications and application examples can be considered without departing from the gist of the present invention. Therefore, the gist of the present invention is not limited to the above embodiment.
【0220】[0220]
【発明の効果】本発明の画像符号化装置および画像符号
化方法によれば、圧縮画像信号を構成する画素のうちの
1つを注目画素として、その注目画素の近傍の画素を用
いて、複数パターンの予測タップが形成され、複数パタ
ーンの予測タップそれぞれと、所定の予測係数とから、
原画像信号が予測され、複数パターンの予測タップそれ
ぞれに対する予測値が出力される。そして、複数パター
ンの予測タップそれぞれに対する予測値の、原画像信号
に対する予測誤差が算出され、複数パターンの予測タッ
プのうち、最小の予測誤差が得られる予測タップに対応
するパターンコードが、注目画素の画素値に付加され
る。従って、そのパターンコードにしたがって予測タッ
プを形成して復号を行うことで、より画質の向上した復
号画像を得ることが可能となる。According to the image encoding apparatus and the image encoding method of the present invention, one of the pixels constituting the compressed image signal is set as a target pixel, and a plurality of pixels are used by using pixels in the vicinity of the target pixel. A pattern prediction tap is formed, and from each of the plurality of pattern prediction taps and a predetermined prediction coefficient,
An original image signal is predicted, and a prediction value for each of a plurality of patterns of prediction taps is output. Then, a prediction error of a prediction value for each of the plurality of patterns of prediction taps with respect to the original image signal is calculated. It is added to the pixel value. Accordingly, by forming a prediction tap in accordance with the pattern code and performing decoding, a decoded image with higher image quality can be obtained.
【0221】本発明の画像復号装置およびの画像復号方
法によれば、符号化データに含まれる圧縮画像信号を構
成する画素のうちの1つを注目画素として、その注目画
素の画素値に付加されているパターンコードに対応する
パターンの予測タップが、注目画素の近傍の画素を用い
て形成され、その予測タップと、予測係数とから、原画
像信号が予測され、その予測値が求められる。従って、
より原画像信号に近い予測値を得ることが可能となる。According to the image decoding apparatus and the image decoding method of the present invention, one of the pixels constituting the compressed image signal included in the encoded data is set as a target pixel, and added to the pixel value of the target pixel. The prediction tap of the pattern corresponding to the pattern code is formed using pixels near the pixel of interest, the original image signal is predicted from the prediction tap and the prediction coefficient, and the predicted value is obtained. Therefore,
It is possible to obtain a predicted value closer to the original image signal.
【0222】請求項39に記載の記録媒体には、圧縮画
像信号を構成する画素のうちの1つを注目画素として、
その注目画素の近傍の画素を用いて、複数パターンの予
測タップを形成し、複数パターンの予測タップそれぞれ
と、所定の予測係数とから、原画像信号を予測し、複数
パターンの予測タップそれぞれに対する予測値を出力
し、複数パターンの予測タップそれぞれに対する予測値
の、原画像信号に対する予測誤差を算出し、複数パター
ンの予測タップのうち、最小の予測誤差が得られる予測
タップに対応するパターンコードを、注目画素の画素値
に付加することにより得られた符号化データが記録され
ている。従って、そのパターンコードにしたがって予測
タップを形成して復号を行うことで、より画質の向上し
た復号画像を得ることが可能となる。In the recording medium according to the thirty-ninth aspect, one of the pixels constituting the compressed image signal is set as a pixel of interest.
A prediction tap of a plurality of patterns is formed using pixels in the vicinity of the pixel of interest, and an original image signal is predicted from each of the prediction taps of the plurality of patterns and a predetermined prediction coefficient, and prediction for each of the prediction taps of the plurality of patterns is performed. A value is output, a prediction error of the prediction value for each of the plurality of patterns of prediction taps is calculated, and a prediction error with respect to the original image signal is calculated. Coded data obtained by adding the pixel value to the pixel value of the target pixel is recorded. Accordingly, by forming a prediction tap in accordance with the pattern code and performing decoding, a decoded image with higher image quality can be obtained.
【図1】本発明を適用した画像処理装置の一実施の形態
の構成を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration of an embodiment of an image processing apparatus to which the present invention has been applied.
【図2】図1の送信装置1の構成例を示すブロック図で
ある。FIG. 2 is a block diagram illustrating a configuration example of a transmission device 1 of FIG.
【図3】図2の送信装置1の機能的構成例を示すブロッ
ク図である。FIG. 3 is a block diagram illustrating a functional configuration example of a transmission device 1 of FIG. 2;
【図4】図3の送信装置1の動作を説明するためのフロ
ーチャートである。FIG. 4 is a flowchart for explaining an operation of the transmission device 1 of FIG. 3;
【図5】図3の前処理部21の構成例を示すブロック図
である。FIG. 5 is a block diagram illustrating a configuration example of a preprocessing unit 21 in FIG. 3;
【図6】図5の間引き回路31の処理を説明するための
図である。FIG. 6 is a diagram for explaining the processing of the thinning circuit 31 of FIG. 5;
【図7】予測タップの構成例を示す図である。FIG. 7 is a diagram illustrating a configuration example of a prediction tap.
【図8】予測タップの構成例を示す図である。FIG. 8 is a diagram illustrating a configuration example of a prediction tap.
【図9】予測タップの構成例を示す図である。FIG. 9 is a diagram illustrating a configuration example of a prediction tap.
【図10】予測タップの構成例を示す図である。FIG. 10 is a diagram illustrating a configuration example of a prediction tap.
【図11】図5のクラス分類適応処理回路33を構成す
るクラス分類適応処理回路(予測係数、予測値算出)の
一部の構成例を示すブロック図である。11 is a block diagram illustrating an example of a partial configuration of a class classification adaptive processing circuit (calculation of prediction coefficients and predicted values) included in the class classification adaptive processing circuit 33 of FIG. 5;
【図12】図5のクラス分類適応処理回路33を構成す
るクラス分類適応処理回路(予測係数、予測値算出)の
他の一部の構成例を示すブロック図である。12 is a block diagram showing another configuration example of another part of the class classification adaptive processing circuit (calculation of prediction coefficients and prediction values) constituting the classification adaptive processing circuit 33 of FIG. 5;
【図13】図5の前処理部21の処理を説明するための
フローチャートである。FIG. 13 is a flowchart illustrating a process of a preprocessing unit 21 in FIG. 5;
【図14】図13のステップS11の処理のより詳細を
説明するためのフローチャートである。FIG. 14 is a flowchart for explaining the processing in step S11 in FIG. 13 in more detail;
【図15】クラス分類を行うためのクラスタップの構成
例を示す図である。FIG. 15 is a diagram illustrating a configuration example of a class tap for performing class classification.
【図16】図3の最適化部23の構成例を示すブロック
図である。16 is a block diagram illustrating a configuration example of an optimization unit 23 in FIG.
【図17】図16のクラス分類適応処理回路42B及び
図24のクラス分類適応処理回路74の構成例を示すブ
ロック図である。17 is a block diagram illustrating a configuration example of a class classification adaptive processing circuit 42B of FIG. 16 and a class classification adaptive processing circuit 74 of FIG. 24;
【図18】図16の最適化部23の処理を説明するため
のフローチャートである。FIG. 18 is a flowchart illustrating a process performed by the optimizing unit 23 of FIG. 16;
【図19】図18のステップS33の処理を説明するた
めの図である。FIG. 19 is a diagram for explaining the processing in step S33 in FIG. 18;
【図20】図3の適応処理部24の構成例を示すブロッ
ク図である。20 is a block diagram illustrating a configuration example of an adaptive processing unit 24 in FIG.
【図21】図20の適応処理部24の処理を説明するた
めのフローチャートである。FIG. 21 is a flowchart for explaining processing of an adaptive processing unit 24 in FIG. 20;
【図22】図3の予測タップパターン判定部26の構成
例を示すブロック図である。22 is a block diagram illustrating a configuration example of a prediction tap pattern determination unit 26 in FIG.
【図23】図22の予測タップパターン判定部26の処
理を説明するためのフローチャートである。FIG. 23 is a flowchart illustrating a process of a prediction tap pattern determination unit 26 in FIG. 22.
【図24】図1の受信装置4の構成例を示すブロック図
である。24 is a block diagram illustrating a configuration example of a receiving device 4 in FIG.
【図25】本件出願人が先に提案した画像変換装置の構
成例を示すブロック図である。FIG. 25 is a block diagram showing a configuration example of an image conversion device previously proposed by the present applicant.
【図26】図25のクラス分類回路101の処理を説明
するための図である。FIG. 26 is a diagram for explaining the processing of the class classification circuit 101 in FIG. 25;
【図27】本件出願人が先に提案した学習装置の構成例
を示すブロック図である。FIG. 27 is a block diagram illustrating a configuration example of a learning device previously proposed by the present applicant.
【図28】本件出願人が先に提案した画像符号化装置の
構成例を示すブロック図である。FIG. 28 is a block diagram illustrating a configuration example of an image encoding device previously proposed by the present applicant.
1 送信装置, 2 記録媒体, 3 伝送路, 4
受信装置, 11 I/F, 12 ROM, 13
RAM, 14 CPU, 15 外部記憶装置, 1
6 送信機/記録装置, 21 前処理部, 22 ス
イッチ, 23最適化部, 24 適応処理部, 25
スイッチ, 26 予測タップパターン判定部, 3
1 間引き回路, 32 予測タップ生成回路, 33
クラス分類適応処理回路, 34 予測誤差算出回
路, 35 メモリ, 36 タップパターンコード付
加回路, 41 補正部, 42 ローカルデコード
部,42A 予測タップ生成回路, 42B クラス分
類適応処理回路, 43誤差算出部, 44 制御部,
51 予測タップ生成回路, 52 クラス分類適応
処理回路, 61 予測タップ生成回路, 62 クラ
ス分類適応処理回路, 63 予測誤差算出回路, 6
4 タップパターンコード変更回路, 71 受信機/
再生装置, 72 分離部, 73 予測タップ生成回
路, 74クラス分類適応処理回路, 82 クラス分
類回路, 84 遅延回路, 85 予測タップメモ
リ, 86 教師データメモリ, 87 演算回路,
88遅延回路, 91 クラス分類回路, 94 係数
RAM, 95 予測演算回路1 transmission device, 2 recording medium, 3 transmission line, 4
Receiver, 11 I / F, 12 ROM, 13
RAM, 14 CPU, 15 external storage device, 1
6 transmitter / recording device, 21 preprocessing unit, 22 switch, 23 optimization unit, 24 adaptive processing unit, 25
Switch, 26 predictive tap pattern determining unit, 3
1 thinning circuit, 32 prediction tap generation circuit, 33
Classification adaptive processing circuit, 34 prediction error calculation circuit, 35 memory, 36 tap pattern code addition circuit, 41 correction unit, 42 local decoding unit, 42A prediction tap generation circuit, 42B class classification adaptive processing circuit, 43 error calculation unit, 44 Control unit,
51 prediction tap generation circuit, 52 class classification adaptive processing circuit, 61 prediction tap generation circuit, 62 class classification adaptive processing circuit, 63 prediction error calculation circuit, 6
4 Tap pattern code change circuit, 71 receiver /
Playback device, 72 separation unit, 73 prediction tap generation circuit, 74 class classification adaptive processing circuit, 82 class classification circuit, 84 delay circuit, 85 prediction tap memory, 86 teacher data memory, 87 arithmetic circuit,
88 delay circuit, 91 class classification circuit, 94 coefficient RAM, 95 prediction operation circuit
Claims (40)
あって、 原画像信号の画素数より少ない画素数の圧縮画像信号を
発生する圧縮手段と、 前記圧縮画像信号を構成する画素のうちの1つを注目画
素として、その注目画素の近傍の画素を用いて、複数パ
ターンの予測タップを形成する第1の形成手段と、 前記複数パターンの予測タップそれぞれと、所定の予測
係数とから、前記原画像信号を予測し、前記複数パター
ンの予測タップそれぞれに対する予測値を出力する第1
の予測手段と、 前記複数パターンの予測タップそれぞれに対する前記予
測値の、前記原画像信号に対する予測誤差を算出する第
1の算出手段と、 前記複数パターンの予測タップのうち、最小の前記予測
誤差が得られる予測タップに対応するパターンコード
を、前記注目画素の画素値に付加する付加手段とを備え
ることを特徴とする画像符号化装置。1. An image encoding apparatus for encoding an image signal, comprising: compression means for generating a compressed image signal having a smaller number of pixels than the number of pixels of an original image signal; A first forming unit that forms a plurality of patterns of prediction taps using a pixel in the vicinity of the one pixel as a target pixel, and a plurality of prediction taps of the plurality of patterns and a predetermined prediction coefficient, A first method of predicting the original image signal and outputting a predicted value for each of the plurality of patterns of prediction taps;
Prediction means, a first calculation means for calculating a prediction error of the prediction value for each of the plurality of pattern prediction taps with respect to the original image signal, and a minimum prediction error of the plurality of pattern prediction taps is An image encoding apparatus comprising: an adding unit that adds a pattern code corresponding to the obtained prediction tap to a pixel value of the target pixel.
のLSB(Least Significant Bit)側のNビットに代
えて、前記パターンコードを配置することを特徴とする
請求項1に記載の画像符号化装置。2. The image code according to claim 1, wherein the adding unit arranges the pattern code in place of N bits on a Least Significant Bit (LSB) side of a pixel value of the target pixel. Device.
および圧縮画像信号に基づいて演算を行うことにより、
前記予測係数を求める演算手段を有することを特徴とす
る請求項1に記載の画像符号化装置。3. The first predicting unit performs an operation based on the original image signal and the compressed image signal,
2. The image coding apparatus according to claim 1, further comprising a calculation unit that calculates the prediction coefficient.
段をさらに有し、 前記注目画素のクラスに対応する予測係数と、前記予測
タップとから、前記予測値を求め、 前記演算手段は、前記原画像信号および圧縮画像信号に
基づいて、前記予測係数を、前記クラスごとに求めるこ
とを特徴とする請求項3に記載の画像符号化装置。4. The method according to claim 1, wherein the first prediction unit further includes a class classification unit configured to classify the pixel of interest into a predetermined class, and a prediction coefficient corresponding to a class of the pixel of interest and the prediction tap. The image coding apparatus according to claim 3, wherein the prediction value is obtained, and the calculation unit obtains the prediction coefficient for each of the classes based on the original image signal and the compressed image signal.
測タップそれぞれについて、前記予測係数を求めること
を特徴とする請求項3に記載の画像符号化装置。5. The image coding apparatus according to claim 3, wherein said calculating means calculates said prediction coefficient for each of said plurality of patterns of prediction taps.
測タップそれぞれについて、前記予測係数を、前記クラ
スごとに求め、 前記第1の予測手段は、前記複数パターンの予測タップ
それぞれと、前記注目画素のクラスに対応する予測係数
とから、前記複数パターンの予測タップそれぞれに対す
る予測値を求めることを特徴とする請求項4に記載の画
像符号化装置。6. The calculation means obtains the prediction coefficient for each of the plurality of patterns of prediction taps for each of the classes, and the first prediction means calculates the prediction coefficients of the plurality of patterns and the target pixel. The image coding apparatus according to claim 4, wherein a prediction value for each of the plurality of patterns of prediction taps is obtained from prediction coefficients corresponding to the class.
号に変換する最適化手段をさらに備えることを特徴とす
る請求項1乃至6のうちのいずれかに記載の画像符号化
装置。7. The image encoding apparatus according to claim 1, further comprising an optimization unit configured to convert the compressed image signal into an optimal compressed image signal.
に対応するパターンの予測タップを形成する第2の形成
手段と、 前記第2の形成手段により形成された前記予測タップ
と、前記予測係数とから、前記原画像信号を予測し、そ
の予測値を出力する第2の予測手段と、 前記第2の予測手段により求められた前記予測値の、前
記原画像信号に対する予測誤差を算出する第2の算出手
段と、 前記第2の算出手段により算出された前記予測誤差に対
応して、前記注目画素の画素値を補正する補正手段とを
有することを特徴とする請求項7に記載の画像符号化装
置。8. The optimizing unit is formed by a second forming unit that forms a prediction tap of a pattern corresponding to the pattern code added to the pixel value of the pixel of interest, and the second forming unit. A second prediction unit that predicts the original image signal from the prediction tap and the prediction coefficient, and outputs a prediction value of the original image signal; A second calculating unit that calculates a prediction error for the image signal; and a correcting unit that corrects a pixel value of the pixel of interest in accordance with the prediction error calculated by the second calculating unit. The image encoding device according to claim 7, wherein:
付加された前記パターンコードに対応するパターンの予
測タップを形成し、 前記第2の予測手段において、前記第2の形成手段によ
り形成された前記予測タップと、前記予測係数とから、
前記予測値を求め、 前記第2の算出手段において、前記第2の予測手段によ
り求められた前記予測値の、前記原画像信号に対する予
測誤差を算出し、 前記補正手段において、前記第2の算出手段により算出
された前記予測誤差に対応して、前記注目画素の画素値
を補正する最適化処理を、前記圧縮画像信号が、最適な
圧縮画像信号となるまで繰り返すことを特徴とする請求
項8に記載の画像符号化装置。9. The optimization means, wherein the second formation means forms a prediction tap of a pattern corresponding to the pattern code added to the pixel value of the pixel of interest, and wherein the second prediction means , The prediction tap formed by the second forming means, and the prediction coefficient,
Calculating the predicted value; calculating, by the second calculating means, a prediction error of the predicted value calculated by the second predicting means with respect to the original image signal; 9. An optimization process for correcting a pixel value of the pixel of interest in accordance with the prediction error calculated by a means, until the compressed image signal becomes an optimal compressed image signal. An image encoding device according to claim 1.
圧縮画像信号と、前記原画像信号とに基づいて、前記第
2の予測手段により求められる前記予測値の、前記原画
像信号に対する予測誤差を小さくするように、前記予測
係数を修正する修正手段をさらに備え、 前記第1および第2の予測手段は、前記修正手段により
修正され予測係数を用いて、前記予測値を求めることを
特徴とする請求項9に記載の画像符号化装置。10. A prediction error of said predicted value obtained by said second prediction means with respect to said original image signal, based on a compressed image signal obtained each time said optimization processing is performed and said original image signal. Correction means for correcting the prediction coefficient, so that the first and second prediction means obtain the prediction value by using the prediction coefficient corrected by the correction means. The image encoding device according to claim 9.
号と、前記修正手段が出力する予測係数とを出力する出
力手段をさらに備えることを特徴とする請求項10に記
載の画像符号化装置。11. The image encoding apparatus according to claim 10, further comprising an output unit that outputs a compressed image signal output by said optimization unit and a prediction coefficient output by said correction unit.
画像信号と、前記予測係数とを出力する出力手段をさら
に備えることを特徴とする請求項1乃至6のうちのいず
れかに記載の画像符号化装置。12. The image encoding apparatus according to claim 1, further comprising an output unit that outputs the compressed image signal to which the pattern code is added and the prediction coefficient. apparatus.
であって、 原画像信号の画素数より少ない画素数の圧縮画像信号を
発生する圧縮ステップと、 前記圧縮画像信号を構成する画素のうちの1つを注目画
素として、その注目画素の近傍の画素を用いて、複数パ
ターンの予測タップを形成する第1の形成ステップと、 前記複数パターンの予測タップそれぞれと、所定の予測
係数とから、前記原画像信号を予測し、前記複数パター
ンの予測タップそれぞれに対する予測値を出力する第1
の予測ステップと、 前記複数パターンの予測タップそれぞれに対する前記予
測値の、前記原画像信号に対する予測誤差を算出する第
1の算出ステップと、 前記複数パターンの予測タップのうち、最小の前記予測
誤差が得られる予測タップに対応するパターンコード
を、前記注目画素の画素値に付加する付加ステップとを
備えることを特徴とする画像符号化方法。13. An image encoding method for encoding an image signal, comprising: a compression step of generating a compressed image signal having a smaller number of pixels than the number of pixels of an original image signal; A first formation step of forming a plurality of patterns of prediction taps using pixels in the vicinity of the one pixel as a pixel of interest, and a plurality of prediction taps of the plurality of patterns and a predetermined prediction coefficient, First predicting the original image signal and outputting a predicted value for each of the plurality of patterns of prediction taps;
A first calculating step of calculating a prediction error of the prediction value for each of the plurality of patterns of prediction taps with respect to the original image signal; An adding step of adding a pattern code corresponding to the obtained prediction tap to the pixel value of the target pixel.
画素の画素値のLSB(Least Significant Bit)側の
Nビットに代えて、前記パターンコードを配置すること
を特徴とする請求項13に記載の画像符号化方法。14. The image code according to claim 13, wherein in the adding step, the pattern code is arranged instead of N bits on the LSB (Least Significant Bit) side of the pixel value of the pixel of interest. Method.
像信号および圧縮画像信号に基づいて演算を行うことに
より、前記予測係数を求める演算ステップを有すること
を特徴とする請求項13に記載の画像符号化方法。15. The method according to claim 13, wherein the first prediction step includes a calculation step of calculating the prediction coefficient by performing a calculation based on the original image signal and the compressed image signal. Image coding method.
テップをさらに有し、 前記注目画素のクラスに対応する予測係数と、前記予測
タップとから、前記予測値を求め、 前記演算ステップにおいて、前記原画像信号および圧縮
画像信号に基づいて、前記予測係数を、前記クラスごと
に求めることを特徴とする請求項15に記載の画像符号
化方法。16. The first prediction step further includes a class classification step of classifying the pixel of interest into a predetermined class, wherein: a prediction coefficient corresponding to the class of the pixel of interest; and the prediction tap, 16. The image encoding method according to claim 15, wherein the prediction value is obtained, and in the calculating step, the prediction coefficient is obtained for each of the classes based on the original image signal and the compressed image signal.
パターンの予測タップそれぞれについて、前記予測係数
を求めることを特徴とする請求項15に記載の画像符号
化方法。17. The image encoding method according to claim 15, wherein, in the calculating step, the prediction coefficient is obtained for each of the plurality of prediction taps.
パターンの予測タップそれぞれについて、前記予測係数
を、前記クラスごとに求め、 前記第1の予測ステップにおいて、前記複数パターンの
予測タップそれぞれと、前記注目画素のクラスに対応す
る予測係数とから、前記複数パターンの予測タップそれ
ぞれに対する予測値を求めることを特徴とする請求項1
6に記載の画像符号化方法。18. In the calculating step, the prediction coefficient is obtained for each of the classes in each of the plurality of patterns of the prediction taps. In the first prediction step, each of the plurality of patterns of the prediction taps and the target pixel 2. A prediction value for each of the plurality of patterns of prediction taps is obtained from a prediction coefficient corresponding to the class of
7. The image encoding method according to item 6.
信号に変換する最適化ステップをさらに備えることを特
徴とする請求項13乃至18のうちのいずれかに記載の
画像符号化方法。19. The image encoding method according to claim 13, further comprising an optimization step of converting said compressed image signal into an optimal compressed image signal.
の画素値に付加された前記パターンコードに対応するパ
ターンの予測タップを形成する第2の形成ステップと、 前記第2の形成ステップにより形成された前記予測タッ
プと、前記予測係数とから、前記原画像信号を予測し、
その予測値を出力する第2の予測ステップと、 前記第2の予測ステップにより求められた前記予測値
の、前記原画像信号に対する予測誤差を算出する第2の
算出ステップと、 前記第2の算出ステップにより算出された前記予測誤差
に対応して、前記注目画素の画素値を補正する補正ステ
ップとを有することを特徴とする請求項19に記載の画
像符号化方法。20. The optimization step is formed by a second forming step of forming a prediction tap of a pattern corresponding to the pattern code added to the pixel value of the target pixel, and the second forming step. Predicting the original image signal from the prediction tap and the prediction coefficient,
A second prediction step of outputting the predicted value, a second calculation step of calculating a prediction error of the predicted value obtained in the second prediction step with respect to the original image signal, and the second calculation 20. The image encoding method according to claim 19, further comprising: a correcting step of correcting a pixel value of the pixel of interest in accordance with the prediction error calculated in the step.
値に付加された前記パターンコードに対応するパターン
の予測タップを形成し、 前記第2の予測ステップにおいて、前記第2の形成ステ
ップにより形成された前記予測タップと、前記予測係数
とから、前記予測値を求め、 前記第2の算出ステップにおいて、前記第2の予測ステ
ップにより求められた前記予測値の、前記原画像信号に
対する予測誤差を算出し、 前記補正ステップにおいて、前記第2の算出ステップに
より算出された前記予測誤差に対応して、前記注目画素
の画素値を補正する最適化処理を、前記圧縮画像信号
が、最適な圧縮画像信号となるまで繰り返すことを特徴
とする請求項20に記載の画像符号化方法。21. In the optimizing step, in the second forming step, a prediction tap of a pattern corresponding to the pattern code added to the pixel value of the pixel of interest is formed. Calculating the predicted value from the prediction tap formed by the second forming step and the prediction coefficient; and, in the second calculating step, calculating the predicted value of the predicted value obtained by the second predicting step. Calculating a prediction error with respect to the original image signal; and in the correcting step, performing an optimization process of correcting a pixel value of the pixel of interest in accordance with the prediction error calculated in the second calculating step. 21. The image encoding method according to claim 20, wherein the repetition is performed until the compressed image signal becomes an optimal compressed image signal.
圧縮画像信号と、前記原画像信号とに基づいて、前記第
2の予測ステップにより求められる前記予測値の、前記
原画像信号に対する予測誤差を小さくするように、前記
予測係数を修正する修正ステップをさらに備え、 前記第1および第2の予測ステップにおいて、前記修正
ステップにより修正され予測係数を用いて、前記予測値
を求めることを特徴とする請求項21に記載の画像符号
化方法。22. A prediction error of the predicted value obtained in the second prediction step with respect to the original image signal, based on a compressed image signal obtained each time the optimization process is performed and the original image signal. Further comprising a correction step of correcting the prediction coefficient so as to reduce the prediction coefficient, wherein in the first and second prediction steps, the prediction value is obtained by using the prediction coefficient corrected by the correction step. 22. The image encoding method according to claim 21.
圧縮画像信号と、前記修正ステップにおいて得られる予
測係数とを出力する出力ステップをさらに備えることを
特徴とする請求項22に記載の画像符号化方法。23. The image encoding method according to claim 22, further comprising an output step of outputting a compressed image signal obtained in said optimizing step and a prediction coefficient obtained in said correcting step.
画像信号と、前記予測係数とを出力する出力ステップを
さらに備えることを特徴とする請求項13乃至18のう
ちのいずれかに記載の画像符号化方法。24. The image encoding apparatus according to claim 13, further comprising an output step of outputting the compressed image signal to which the pattern code is added and the prediction coefficient. Method.
の圧縮画像信号を発生し、 前記圧縮画像信号を構成する画素のうちの1つを注目画
素として、その注目画素の近傍の画素を用いて、複数パ
ターンの予測タップを形成し、 前記複数パターンの予測タップそれぞれと、所定の予測
係数とから、前記原画像信号を予測し、前記複数パター
ンの予測タップそれぞれに対する予測値を出力し、 前記複数パターンの予測タップそれぞれに対する前記予
測値の、前記原画像信号に対する予測誤差を算出し、 前記複数パターンの予測タップのうち、最小の前記予測
誤差が得られる予測タップに対応するパターンコード
を、前記注目画素の画素値に付加することにより得られ
る前記圧縮画像信号を含む符号化データを復号する画像
復号装置であって、 前記符号化データに含まれる前記圧縮画像信号を構成す
る画素のうちの1つを注目画素として、その注目画素の
画素値に付加されている前記パターンコードに対応する
パターンの前記予測タップを、前記注目画素の近傍の画
素を用いて形成する形成手段と、 前記形成手段により形成された前記予測タップと、前記
予測係数とから、前記原画像信号を予測し、その予測値
を求める予測手段とを備えることを特徴とする画像復号
装置。25. A compressed image signal having a smaller number of pixels than the number of pixels of an original image signal is generated, and one of pixels constituting the compressed image signal is set as a target pixel, and a pixel near the target pixel is used. Forming a plurality of patterns of prediction taps, predicting the original image signal from each of the plurality of patterns of prediction taps and a predetermined prediction coefficient, and outputting a prediction value for each of the plurality of patterns of prediction taps; Calculating a prediction error of the prediction value for each of the plurality of pattern prediction taps with respect to the original image signal; of the plurality of pattern prediction taps, a pattern code corresponding to a prediction tap from which the minimum prediction error is obtained, An image decoding apparatus for decoding encoded data including the compressed image signal obtained by adding to a pixel value of a target pixel, comprising: One of the pixels constituting the compressed image signal included in the encoded data is set as a target pixel, and the prediction tap of the pattern corresponding to the pattern code added to the pixel value of the target pixel is set as the target tap. Forming means for forming by using pixels in the vicinity of the pixel; predicting means for predicting the original image signal from the prediction tap formed by the forming means and the prediction coefficient, and obtaining a predicted value thereof; An image decoding device characterized by the above-mentioned.
画像信号を構成する画素の画素値のLSB(Least Sign
ificant Bit)側のNビットに代えて、前記パターンコ
ードが配置されていることを特徴とする請求項25に記
載の画像復号装置。26. An LSB (Least Sign) of a pixel value of a pixel constituting the compressed image signal included in the encoded data.
26. The image decoding apparatus according to claim 25, wherein the pattern code is arranged instead of the N bits on the significant bit) side.
び圧縮画像信号に基づいて求められたものであることを
特徴とする請求項25に記載の画像復号装置。27. The image decoding apparatus according to claim 25, wherein the prediction coefficient is obtained based on the original image signal and the compressed image signal.
段を有し、 前記注目画素のクラスに対応する予測係数と、前記予測
タップとから、前記予測値を求め、 前記予測係数は、前記原画像信号および圧縮画像信号に
基づいて、前記クラスごとに求められたものであること
を特徴とする請求項27に記載の画像復号装置。28. The prediction means, comprising: classifying means for classifying the pixel of interest into a predetermined class; and calculating the prediction value from a prediction coefficient corresponding to the class of the pixel of interest and the prediction tap. 28. The image decoding apparatus according to claim 27, wherein the prediction coefficient is obtained for each of the classes based on the original image signal and the compressed image signal.
予測タップそれぞれについて求められたものであること
を特徴とする請求項27に記載の画像復号装置。29. The image decoding apparatus according to claim 27, wherein the prediction coefficient is obtained for each of the plurality of patterns of prediction taps.
予測タップそれぞれについて、前記クラスごとに求めら
れたものであり、 前記予測手段は、前記注目画素の画素値に付加されてい
る前記パターンコードに対応するパターンの前記予測タ
ップと、その予測タップについての予測係数のうちの前
記注目画素のクラスに対応する予測係数とから、前記予
測値を求めることを特徴とする請求項28に記載の画像
復号装置。30. The prediction coefficient is calculated for each of the classes for each of the prediction taps of the plurality of patterns, and the prediction means calculates the prediction code for the pattern code added to the pixel value of the pixel of interest. The image decoding according to claim 28, wherein the prediction value is obtained from the prediction tap of the corresponding pattern and a prediction coefficient corresponding to the class of the pixel of interest among prediction coefficients of the prediction tap. apparatus.
含んでおり、 前記符号化データから、前記圧縮画像信号と予測係数と
を分離する分離手段をさらに備えることを特徴とする請
求項25乃至30のうちのいずれかに記載の画像復号装
置。31. The coded data also includes the prediction coefficient, and further comprising a separation unit for separating the compressed image signal and the prediction coefficient from the coded data. 30. The image decoding device according to any one of 30.
の圧縮画像信号を発生し、 前記圧縮画像信号を構成する画素のうちの1つを注目画
素として、その注目画素の近傍の画素を用いて、複数パ
ターンの予測タップを形成し、 前記複数パターンの予測タップそれぞれと、所定の予測
係数とから、前記原画像信号を予測し、前記複数パター
ンの予測タップそれぞれに対する予測値を出力し、 前記複数パターンの予測タップそれぞれに対する前記予
測値の、前記原画像信号に対する予測誤差を算出し、 前記複数パターンの予測タップのうち、最小の前記予測
誤差が得られる予測タップに対応するパターンコード
を、前記注目画素の画素値に付加することにより得られ
る前記圧縮画像信号を含む符号化データを復号する画像
復号方法であって、 前記符号化データに含まれる前記圧縮画像信号を構成す
る画素のうちの1つを注目画素として、その注目画素の
画素値に付加されている前記パターンコードに対応する
パターンの前記予測タップを、前記注目画素の近傍の画
素を用いて形成する形成ステップと、 前記形成ステップにより形成された前記予測タップと、
前記予測係数とから、前記原画像信号を予測し、その予
測値を求める予測ステップとを備えることを特徴とする
画像復号方法。32. A compressed image signal having a smaller number of pixels than the number of pixels of an original image signal is generated, and one of pixels constituting the compressed image signal is set as a target pixel, and a pixel near the target pixel is used. Forming a plurality of patterns of prediction taps, predicting the original image signal from each of the plurality of patterns of prediction taps and a predetermined prediction coefficient, and outputting a prediction value for each of the plurality of patterns of prediction taps; Calculating a prediction error of the prediction value for each of the plurality of pattern prediction taps with respect to the original image signal; of the plurality of pattern prediction taps, a pattern code corresponding to a prediction tap from which the minimum prediction error is obtained, An image decoding method for decoding encoded data including the compressed image signal obtained by adding to a pixel value of a pixel of interest, comprising: One of the pixels constituting the compressed image signal included in the encoded data is set as a target pixel, and the prediction tap of the pattern corresponding to the pattern code added to the pixel value of the target pixel is set as the target tap. A forming step of forming using a pixel in the vicinity of the pixel; and the prediction tap formed by the forming step;
A prediction step of predicting the original image signal from the prediction coefficient and obtaining a prediction value thereof.
画像信号を構成する画素の画素値のLSB(Least Sign
ificant Bit)側のNビットに代えて、前記パターンコ
ードが配置されていることを特徴とする請求項32に記
載の画像復号方法。33. An LSB (Least Sign) of a pixel value of a pixel constituting the compressed image signal included in the encoded data.
33. The image decoding method according to claim 32, wherein the pattern code is arranged instead of the N bits on the significant bit) side.
び圧縮画像信号に基づいて求められたものであることを
特徴とする請求項32に記載の画像復号方法。34. The image decoding method according to claim 32, wherein the prediction coefficient is obtained based on the original image signal and the compressed image signal.
テップを有し、 前記注目画素のクラスに対応する予測係数と、前記予測
タップとから、前記予測値を求め、 前記予測係数は、前記原画像信号および圧縮画像信号に
基づいて、前記クラスごとに求められたものであること
を特徴とする請求項34に記載の画像復号方法。35. The predicting step includes a class classifying step of classifying the pixel of interest into a predetermined class. The predicting step calculates the predicted value from a prediction coefficient corresponding to the class of the pixel of interest and the prediction tap. 35. The image decoding method according to claim 34, wherein the prediction coefficient is obtained for each of the classes based on the original image signal and the compressed image signal.
予測タップそれぞれについて求められたものであること
を特徴とする請求項34に記載の画像復号方法。36. The image decoding method according to claim 34, wherein said prediction coefficient is obtained for each of said plurality of patterns of prediction taps.
予測タップそれぞれについて、前記クラスごとに求めら
れたものであり、 前記予測ステップは、前記注目画素の画素値に付加され
ている前記パターンコードに対応するパターンの前記予
測タップと、その予測タップについての予測係数のうち
の前記注目画素のクラスに対応する予測係数とから、前
記予測値を求めることを特徴とする請求項35に記載の
画像復号方法。37. The prediction coefficient is obtained for each of the classes for each of the prediction taps of the plurality of patterns, and the prediction step includes the step of adding the prediction code to the pattern code added to the pixel value of the pixel of interest. 36. The image decoding according to claim 35, wherein the prediction value is obtained from the prediction tap of a corresponding pattern and a prediction coefficient corresponding to the class of the pixel of interest among prediction coefficients of the prediction tap. Method.
含んでおり、 前記符号化データから、前記圧縮画像信号と予測係数と
を分離する分離ステップをさらに備えることを特徴とす
る請求項32乃至37のうちのいずれかに記載の画像復
号方法。38. The coded data also includes the prediction coefficient, further comprising a separating step of separating the compressed image signal and the prediction coefficient from the coded data. 38. The image decoding method according to any one of 37.
されている記録媒体であって、 前記符号化データは、 原画像信号の画素数より少ない画素数の圧縮画像信号を
発生し、 前記圧縮画像信号を構成する画素のうちの1つを注目画
素として、その注目画素の近傍の画素を用いて、複数パ
ターンの予測タップを形成し、 前記複数パターンの予測タップそれぞれと、所定の予測
係数とから、前記原画像信号を予測し、前記複数パター
ンの予測タップそれぞれに対する予測値を出力し、 前記複数パターンの予測タップそれぞれに対する前記予
測値の、前記原画像信号に対する予測誤差を算出し、 前記複数パターンの予測タップのうち、最小の前記予測
誤差が得られる予測タップに対応するパターンコード
を、前記注目画素の画素値に付加することにより得られ
たものであることを特徴とする記録媒体。39. A recording medium on which encoded data obtained by encoding an image is recorded, wherein the encoded data generates a compressed image signal having a number of pixels smaller than the number of pixels of an original image signal. One of the pixels constituting the image signal is set as a target pixel, a plurality of patterns of prediction taps are formed using pixels in the vicinity of the target pixel, and each of the plurality of patterns of prediction taps has a predetermined prediction coefficient. Predicting the original image signal, outputting a prediction value for each of the plurality of patterns of prediction taps, calculating a prediction error for the original image signal of the prediction value for each of the plurality of patterns of prediction taps, Adding, to the pixel value of the target pixel, a pattern code corresponding to a prediction tap from which the minimum prediction error is obtained among pattern prediction taps. A recording medium characterized by being obtained by:
特徴とする請求項39に記載の記録媒体。40. The recording medium according to claim 39, wherein said prediction coefficient is also recorded.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP36016597A JP3844031B2 (en) | 1996-12-26 | 1997-12-26 | Image coding apparatus and image coding method, and image decoding apparatus and image decoding method |
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP8-347309 | 1996-12-26 | ||
| JP34730996 | 1996-12-26 | ||
| JP36016597A JP3844031B2 (en) | 1996-12-26 | 1997-12-26 | Image coding apparatus and image coding method, and image decoding apparatus and image decoding method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPH10243406A true JPH10243406A (en) | 1998-09-11 |
| JP3844031B2 JP3844031B2 (en) | 2006-11-08 |
Family
ID=26578478
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP36016597A Expired - Fee Related JP3844031B2 (en) | 1996-12-26 | 1997-12-26 | Image coding apparatus and image coding method, and image decoding apparatus and image decoding method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP3844031B2 (en) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2000021301A1 (en) * | 1998-10-05 | 2000-04-13 | Sony Corporation | Image transform device and method, learning device and method, and recording medium |
| WO2001065847A1 (en) * | 2000-02-29 | 2001-09-07 | Sony Corporation | Data processing device and method, and recording medium and program |
| JP2001320682A (en) * | 2000-02-29 | 2001-11-16 | Sony Corp | Data processing unit and data processing method, and recording medium and program |
| WO2003001709A1 (en) * | 2001-06-26 | 2003-01-03 | Sony Corporation | Transmission apparatus, transmission method, reception apparatus, reception method, and transmission/reception apparatus |
| KR101108635B1 (en) | 2004-04-20 | 2012-02-06 | 소니 주식회사 | Apparatus and method for generating coefficient data, apparatus and method for processing information signal, and medium on which it is recorded |
-
1997
- 1997-12-26 JP JP36016597A patent/JP3844031B2/en not_active Expired - Fee Related
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2000021301A1 (en) * | 1998-10-05 | 2000-04-13 | Sony Corporation | Image transform device and method, learning device and method, and recording medium |
| US6414717B1 (en) | 1998-10-05 | 2002-07-02 | Sony Corporation | Picture converting apparatus, picture converting method, learning apparatus, learning method, and record medium |
| WO2001065847A1 (en) * | 2000-02-29 | 2001-09-07 | Sony Corporation | Data processing device and method, and recording medium and program |
| JP2001320682A (en) * | 2000-02-29 | 2001-11-16 | Sony Corp | Data processing unit and data processing method, and recording medium and program |
| US7679678B2 (en) | 2000-02-29 | 2010-03-16 | Sony Corporation | Data processing device and method, and recording medium and program |
| WO2003001709A1 (en) * | 2001-06-26 | 2003-01-03 | Sony Corporation | Transmission apparatus, transmission method, reception apparatus, reception method, and transmission/reception apparatus |
| US7366660B2 (en) | 2001-06-26 | 2008-04-29 | Sony Corporation | Transmission apparatus, transmission method, reception apparatus, reception method, and transmission/reception apparatus |
| KR101108635B1 (en) | 2004-04-20 | 2012-02-06 | 소니 주식회사 | Apparatus and method for generating coefficient data, apparatus and method for processing information signal, and medium on which it is recorded |
Also Published As
| Publication number | Publication date |
|---|---|
| JP3844031B2 (en) | 2006-11-08 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP3748088B2 (en) | Image processing apparatus and method, and learning apparatus and method | |
| US5912708A (en) | Picture signal encoding device, picture signal encoding method, picture signal decoding device, picture signal decoding method, and recording medium | |
| KR100538731B1 (en) | Image coding and decoding using mapping coefficients corresponding to class information of pixel blocks | |
| JP3915855B2 (en) | Image coding apparatus, image coding method, learning apparatus, and learning method | |
| KR100504415B1 (en) | Image encoding apparatus, image encoding method, image decoding apparatus, image decoding method and recording medium | |
| US6160845A (en) | Picture encoding device, picture encoding method, picture decoding device, picture decoding method, and recording medium | |
| EP0892558B1 (en) | Picture signal coding device, picture signal coding method, picture signal decoding device, picture signal decoding method, and recording medium | |
| KR100574732B1 (en) | Image coding apparatus, image coding method, image decoding method, image decoding apparatus, image data transmitting method and recording medium | |
| JPH10243406A (en) | Image coder, image coding method, image decoder, image decoding method and recording medium | |
| JP3747970B2 (en) | Image encoding device, image encoding method, image decoding device, and image decoding method | |
| JP3844030B2 (en) | Image signal encoding apparatus, image signal encoding method, image signal decoding apparatus, and image signal decoding method | |
| JP3912558B2 (en) | Image encoding apparatus, image encoding method, and recording medium | |
| JP3912628B2 (en) | Image encoding device, image encoding method, image encoding and decoding system, image encoding and decoding method, and recording medium | |
| JP4552264B2 (en) | Error correction apparatus and method | |
| JPH1093981A (en) | Image encoder and image encoding method, image decoder and image decoding method, transmitting method and recording medium | |
| JP4566877B2 (en) | Image processing apparatus and method | |
| KR100567710B1 (en) | Image coding apparatus, image coding method, image decoding method, image decoding apparatus, image data transmitting method and recording medium | |
| JP4807349B2 (en) | Learning apparatus and method | |
| JP4496494B2 (en) | Image coding apparatus and image coding method | |
| KR100598754B1 (en) | Device for coding original image data, device for decoding coded image data, method for coding original image data, method for decoding coded image data, method for transmitting image data, computer-readable storing media | |
| EP1298934A1 (en) | Apparatus and method for image coding and decoding | |
| JPH1084549A (en) | Image coder, image coding method, image decoder, image decoding method, transmission method and recording medium | |
| JP2006115526A (en) | Image processing system, image decoding apparatus, image decoding method, and recording medium | |
| JPH089387A (en) | High frequency component controller |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050916 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050927 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20051125 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060726 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060808 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100825 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110825 Year of fee payment: 5 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120825 Year of fee payment: 6 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130825 Year of fee payment: 7 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| LAPS | Cancellation because of no payment of annual fees |