JPH08275119A - Signal converter and signal conversion method - Google Patents
Signal converter and signal conversion methodInfo
- Publication number
- JPH08275119A JPH08275119A JP7100691A JP10069195A JPH08275119A JP H08275119 A JPH08275119 A JP H08275119A JP 7100691 A JP7100691 A JP 7100691A JP 10069195 A JP10069195 A JP 10069195A JP H08275119 A JPH08275119 A JP H08275119A
- Authority
- JP
- Japan
- Prior art keywords
- image signal
- input image
- class
- class classification
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000006243 chemical reaction Methods 0.000 title claims abstract description 18
- 238000004364 calculation method Methods 0.000 claims description 37
- 101710163391 ADP-ribosyl cyclase/cyclic ADP-ribose hydrolase Proteins 0.000 abstract description 22
- 230000009466 transformation Effects 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 11
- 238000010606 normalization Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000005070 sampling Methods 0.000 description 5
- 230000003044 adaptive effect Effects 0.000 description 4
- 238000013144 data compression Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 101001106432 Homo sapiens Rod outer segment membrane protein 1 Proteins 0.000 description 2
- 102100021424 Rod outer segment membrane protein 1 Human genes 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 101100524644 Toxoplasma gondii ROM4 gene Proteins 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
Landscapes
- Television Systems (AREA)
Abstract
Description
【0001】[0001]
【目次】以下の順序で本発明を説明する。 産業上の利用分野 従来の技術(図10〜図12) 発明が解決しようとする課題 課題を解決するための手段(図1〜図9) 作用 実施例(図1〜図9) 発明の効果[Table of Contents] The present invention will be described in the following order. Industrial Application Conventional Technology (FIGS. 10 to 12) Problem to be Solved by the Invention Means for Solving the Problem (FIGS. 1 to 9) Action Example (FIGS. 1 to 9) Effect of the Invention
【0002】[0002]
【産業上の利用分野】本発明は信号変換装置及び信号変
換方法に関し、例えばNTSC等の標準解像度信号(S
D:Standard Difinition )をハイビジヨン等の高解像
度信号(HD:High Difinition )に変換するアツプコ
ンバータに適用して好適なものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a signal conversion device and a signal conversion method, for example, a standard resolution signal (S) such as NTSC.
It is suitable to be applied to an up converter for converting D: Standard Definition) into a high resolution signal (HD: High Definition) such as high vision.
【0003】[0003]
【従来の技術】従来、この種のアツプコンバータにおい
ては、SD画像信号に対して周波数補間処理を施すこと
により、画素数を増やしてHD画像信号を形成してい
る。例えば図10に示すように、HD画像の走査線1上
で大きな「○」印及び大きな「△」印でなるSD画像信
号に対して水平及び垂直方向にそれぞれ2倍の周波数補
間を施すことにより、小さな「○」印及び小さな「△」
印でなるHD画像信号を生成する。2. Description of the Related Art Conventionally, in this type of up-converter, an HD image signal is formed by increasing the number of pixels by performing frequency interpolation processing on the SD image signal. For example, as shown in FIG. 10, by performing double frequency interpolation in the horizontal and vertical directions on the SD image signal having a large “◯” mark and a large “Δ” mark on the scanning line 1 of the HD image, respectively. , Small "○" mark and small "△"
An HD image signal represented by a mark is generated.
【0004】アツプコンバータによる補間例としては、
SD画像信号のフイールドデータから、4種類の位置の
HD画素を生成する方法がある。例えば図中の「◎」印
のSD画素に注目すると、その近傍の4種類mode1,mode
2,mode3 及びmode4 の位置のHD画素を補間により生成
する。このとき用いる補間フイルタとしては、図11に
示す空間内2次元ノンセパラブルフイルタ2や、図12
に示す水平/垂直セパラブルフイルタ3がある。As an example of interpolation by an up converter,
There is a method of generating HD pixels at four types of positions from the field data of the SD image signal. For example, paying attention to the SD pixels marked with "◎" in the figure, there are four types of mode1 and mode in the vicinity.
The HD pixels at the positions of 2, mode3 and mode4 are generated by interpolation. As the interpolation filter used at this time, the two-dimensional non-separable filter 2 in space shown in FIG.
There is a horizontal / vertical separable filter 3 shown in FIG.
【0005】2次元ノンセパラブルフイルタ2は4種類
の位置のHD画素mode1,mode2,mode3 及びmode4 それぞ
れに対して2次元フイルタ4A〜4Dによつて独立に補
間処理を実行し、各補間結果を選択部5において直列化
しHD画像信号を得る。水平/垂直セパラブルフイルタ
3は垂直補間フイルタ6Aによりmode1及びmode3用の
処理を実行し、垂直補間フイルタ6Bによりmode2及び
mode4用の処理を実行してHD画像信号の2本の走査線
データを形成する。次に各走査線に対して水平フイルタ
7A及び7Bを用いて4種類の位置のHD画素を補間し
て選択部8において直列化することによりHD画像信号
を生成する。The two-dimensional non-separable filter 2 independently executes interpolation processing on the HD pixels mode1, mode2, mode3 and mode4 at four types of positions by the two-dimensional filters 4A to 4D, and outputs each interpolation result. The selection unit 5 serializes and obtains an HD image signal. The horizontal / vertical separable filter 3 executes the processing for mode 1 and mode 3 by the vertical interpolation filter 6A, and executes the processing for mode 2 and mode 3 by the vertical interpolation filter 6B.
The process for mode 4 is executed to form the two scanning line data of the HD image signal. Next, the horizontal filters 7A and 7B are used for each scanning line to interpolate the HD pixels at four types of positions and serialize them in the selecting section 8 to generate an HD image signal.
【0006】[0006]
【発明が解決しようとする課題】ところで上述したよう
な従来のアツプコンバータでは補間フイルタとして理想
フイルタを使用した場合でも、画素数は増えるものの空
間解像度はSD画像信号と変わらない。また実際には理
想フイルタを用いることはできないため、SD画像信号
より解像度の低下したHD画像信号を生成することしか
できないという問題がある。By the way, in the conventional up-converter as described above, even when the ideal filter is used as the interpolation filter, the spatial resolution is the same as that of the SD image signal although the number of pixels increases. Further, in reality, since an ideal filter cannot be used, there is a problem that only an HD image signal whose resolution is lower than that of an SD image signal can be generated.
【0007】このような問題を解決する方法として、入
力SD画像信号の特徴に基づいてSD画像信号をいくつ
かのクラスに分類し、予め学習により生成されたクラス
毎の予測データでなる予測係数を用いて高解像度のHD
画像信号を生成するクラス分類適応処理方法が提案され
ている(特開平5-328185号公報参照)。As a method for solving such a problem, the SD image signal is classified into several classes based on the characteristics of the input SD image signal, and a prediction coefficient composed of prediction data for each class generated by learning in advance is used. Use high resolution HD
A class classification adaptive processing method for generating an image signal has been proposed (see Japanese Patent Laid-Open No. 5-328185).
【0008】ところがクラス分類適応処理法を用いてH
D画像信号を生成する場合、学習によつて予測係数を生
成するときに入力SD画像信号の特徴に応じて適切なク
ラス分類が行なわれないとHD画像信号の予測精度が低
下するという問題があつた。すなわちクラス分類の能力
が十分でないと、本来、別のクラスに分かれるべきHD
画像信号が同じクラスに分類される。このため学習によ
り得られる予測係数は、性質の異なるHD画像信号の平
均値を予測することになり、その結果、解像度復元能力
が低下するという問題があつた。However, using the class classification adaptive processing method, H
In the case of generating a D image signal, there is a problem that the prediction accuracy of the HD image signal decreases unless proper class classification is performed according to the characteristics of the input SD image signal when generating a prediction coefficient by learning. It was In other words, if the ability to classify is not sufficient, HD that should originally be divided into different classes
Image signals are classified into the same class. For this reason, the prediction coefficient obtained by learning predicts the average value of HD image signals having different properties, and as a result, there is a problem that the resolution restoration capability deteriorates.
【0009】本発明は以上の点を考慮してなされたもの
で、入力信号の特徴に応じた適切なクラス分類のできる
信号変換装置及び信号変換方法を提案しようとするもの
である。The present invention has been made in consideration of the above points, and it is an object of the present invention to propose a signal conversion apparatus and a signal conversion method capable of performing an appropriate class classification according to the characteristics of an input signal.
【0010】[0010]
【課題を解決するための手段】かかる課題を解決するた
め本発明においては、低解像度の入力画像信号を高解像
度の画像信号に変換する信号変換装置において、入力画
像信号の時空間領域でのレベル分布パターンに応じて入
力画像信号をクラス分類する第1のクラス分類手段と入
力画像信号の周波数特性に応じて入力画像信号をクラス
分類する第2のクラス分類手段とを有し、入力画像信号
を各クラス分類手段毎にクラス分類し、各クラス分類手
段の出力を組み合わせたクラスを出力するクラス分類部
と、予め設定された入力画像信号の補間画素の予測係数
をクラス毎に対応付けして記憶する予測係数記憶手段
と、入力画像信号に対して予測係数を用いた予測演算を
施し、補間画素を生成する予測演算部とを備える。In order to solve such a problem, according to the present invention, in a signal conversion device for converting a low resolution input image signal into a high resolution image signal, the level of the input image signal in the spatiotemporal region is obtained. It has a first class classification means for classifying the input image signal according to the distribution pattern and a second class classification means for classifying the input image signal according to the frequency characteristic of the input image signal. A class classification unit that classifies each class classification unit and outputs a class that combines the outputs of each class classification unit and a preset prediction coefficient of an interpolation pixel of an input image signal are stored in association with each class. And a prediction calculation unit that performs a prediction calculation using the prediction coefficient on the input image signal to generate an interpolated pixel.
【0011】[0011]
【作用】第1のクラス分類手段のクラスと第2のクラス
分類手段の出力を組み合わせたクラスをもとにして新た
にクラスを生成し、当該クラスに対応させて予め設定し
ておいた予測データを読み出して入力画像信号の補間画
素を得る。入力画像信号の特徴に応じた適切なクラス分
けができることを記載すること。A new class is generated based on a class obtained by combining the output of the first class classification means and the output of the second class classification means, and the prediction data set in advance corresponding to the class. Is read to obtain an interpolated pixel of the input image signal. Describe that classification can be appropriately performed according to the characteristics of the input image signal.
【0012】[0012]
【実施例】以下図面について本発明の一実施例を詳述す
る。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described in detail below with reference to the drawings.
【0013】図1に示す10は全体としてクラス分類適
応処理を適用してSD画像信号からHD画像信号を生成
する2次元ノンセパラブルフイルタによるアツプコンバ
ータを示す。このアツプコンバータ10に入力端11を
通じて入力されるSD画像信号S1 は、クラス分類部1
2及び予測演算部13に並列に送出される。クラス分類
部12では新たに生成するHD画像信号の周辺のSD画
像信号S1 の特徴に基づいてクラスデータd0を生成す
る。クラスd0は記憶手段である予測係数ROM(Read On
ly Memory)14にアドレスデータとして送出される。Reference numeral 10 shown in FIG. 1 shows an up-converter by a two-dimensional non-separable filter which applies a class classification adaptive process as a whole to generate an HD image signal from an SD image signal. The SD image signal S 1 input to the up-converter 10 through the input terminal 11 is the class classification unit 1
2 and the prediction calculation unit 13 in parallel. Generating a class data d0 based on the SD image signal, wherein the S 1 near the HD image signal to generate a new in the classification unit 12. The class d0 is a prediction coefficient ROM (Read On
ly Memory) 14 is sent as address data.
【0014】予測係数ROM14には、予め学習により
求められたクラス毎の予測係数がクラスd0に対応して格
納されている。予測係数ROM14ではクラスd0をアド
レスデータとして予測データd1を読み出して予測演算部
13に送出する。予測演算部13は、SD画像信号S1
に対して予測データd1を用いた所定の予測演算を実行す
ることによりHD画像信号S2 に変換して出力端16よ
り送出する。The predictive coefficient ROM 14 stores predictive coefficients for each class obtained by learning in advance in association with the class d0. The prediction coefficient ROM 14 reads the prediction data d1 using the class d0 as address data and sends it to the prediction calculation unit 13. The prediction calculation unit 13 uses the SD image signal S 1
Then, a predetermined prediction calculation using the prediction data d1 is executed to convert it into the HD image signal S 2 and sends it from the output terminal 16.
【0015】アツプコンバータ10の予測演算部13は
4つの予測演算部13A〜13Dから形成され、各演算
部においてそれぞれ走査線1上の4種類の位置mode1 、
mode2 、 mode3及びmode4 に対応するHD画素d2、d3、
d4及びd5を生成する。各予測演算部13A〜13Dでは
それぞれSD画像信号S1 に対して予測データd1を用い
た積和演算を実行する。各予測演算部13A〜13Dに
おいて生成された各HD画素d2、d3、d4及びd5は選択部
15に送出される。選択部15では各HD画素d2、d3、
d4及びd5をバツフアメモリ(図示せず)を用いて所望の
時系列に並び替えて出力端16からHD画像信号S2 と
して出力する。The predictive calculation unit 13 of the up-converter 10 is composed of four predictive calculation units 13A to 13D. In each calculation unit, four kinds of positions mode1 on the scanning line 1,
HD pixels corresponding to mode2, mode3 and mode4 d2, d3,
Generate d4 and d5. Each Each prediction computation unit 13A~13D performing product-sum computation using prediction data d1 with respect to SD image signal S 1. The HD pixels d2, d3, d4, and d5 generated in the prediction calculation units 13A to 13D are sent to the selection unit 15. In the selection unit 15, each HD pixel d2, d3,
The d4 and d5 are rearranged in a desired time series using a buffer memory (not shown) and output from the output terminal 16 as the HD image signal S 2 .
【0016】図2に示すようにクラス分類部12では、
入力端20を通じて入力されるSD画像信号S1 がAD
RCクラス分類部21及びアダマール変換クラス分類部
22に並列に送出される。ADRCクラス分類部21及
びアダマール変換クラス分類部22はそれぞれクラスc0
及びc1を生成し、後段の予測係数ROM14に送出す
る。予測係数ROM14では図3に示すように、ADR
Cクラスc0と周波数クラスc1と独立した2種類のクラス
を組み合わせて新たにクラスd0を生成し、このクラスd0
に基づいて予測係数ROM14に予め格納されている予
測データd1を読み出す。As shown in FIG. 2, in the class classification unit 12,
The SD image signal S 1 input through the input terminal 20 is AD
It is sent in parallel to the RC class classification unit 21 and the Hadamard transform class classification unit 22. The ADRC class classifying unit 21 and the Hadamard transform class classifying unit 22 each have a class c0.
And c1 are generated and sent to the prediction coefficient ROM 14 in the subsequent stage. In the prediction coefficient ROM 14, as shown in FIG.
The C class c0 and the frequency class c1 are combined with two independent classes to generate a new class d0.
Based on the above, the prediction data d1 previously stored in the prediction coefficient ROM 14 is read.
【0017】クラス分類部12では、図4に示すような
入力SD画像信号S1 (図中◎で示す)に対してクラス
生成タツプ(図中○で示す)でなる7画素を入力SD画
像信号S1 のクラス生成タツプとしてサンプリングす
る。これらの7画素を用いて入力信号の波形特性に応じ
てクラスを生成する。In the class classification unit 12, for the input SD image signal S 1 (indicated by ∘ in the figure) as shown in FIG. 4, 7 pixels which are class generation taps (indicated by ◯ in the figure) are input SD image signal. Sampling is performed as a class generation tap of S 1 . Using these 7 pixels, a class is generated according to the waveform characteristic of the input signal.
【0018】ADRCクラス分類部21では、上述した
7画素分のPCMデータに対してADRCにより再量子
化によるデータ圧縮処理を施してクラス数を削減する。
すなわち7画素のデータから定義されるダイナミツクレ
ンジDRに基づいて7画素の最小値を除去し、各画素の
画素レベルを適応的に1ビツト量子化することによつて
クラス数を128 クラスに削減する。ADRCはVTR(V
ideo Tape Recorder)用信号圧縮方式として開発された
ものであるが、少ないクラス数で入力信号の波形特性を
表現するのに適している。The ADRC class classification unit 21 reduces the number of classes by performing data compression processing by requantization by ADRC on the PCM data for 7 pixels described above.
That is, the minimum value of 7 pixels is removed based on the dynamic range DR defined from the data of 7 pixels, and the number of classes is reduced to 128 classes by adaptively quantizing the pixel level of each pixel by 1 bit. To do. ADRC is VTR (V
Although it was developed as a signal compression method for video tape recorders), it is suitable for expressing the waveform characteristics of input signals with a small number of classes.
【0019】ADRCによるデータ圧縮処理は再量子化
として定義される量子化ステツプ幅により、画素を再量
子化するものである。再量子化により得られるADRC
コードci はダイナミツクレンジDR、再量子化ビツト
数k、SD画素xi 及びその近傍領域内の最小画素レベ
ルMINとを用いて次式The data compression process by ADRC is to requantize a pixel according to a quantization step width defined as requantization. ADRC obtained by requantization
The code c i is given by the following equation using the dynamic range DR, the number of requantization bits k, the SD pixel x i and the minimum pixel level MIN in the neighboring area.
【数1】 によつて表される。このようにして入力SD画像信号S
1 に対して(1)式で定義されるADRCコードci を
用いてADRCクラスc0が生成される。このようにして
得られるADRCクラスc0は時空間領域に属するもの
で、表現される画素の状態は有限クラス数では注目画素
近傍の信号変化に重点を置いたものとなる。[Equation 1] Is represented by In this way, the input SD image signal S
An ADRC class c0 is generated for 1 using the ADRC code c i defined by the equation (1). The ADRC class c0 obtained in this way belongs to the spatiotemporal region, and the state of the represented pixel is such that, with a finite number of classes, emphasis is placed on signal changes in the vicinity of the pixel of interest.
【0020】一方、アダマール変換クラス分類部22で
はアダマール変換により周波数特性によるクラス分類を
実行する。アダマール変換は互いに直交する複数の直交
変換基底より構成される直交変換である。このアダマー
ル変換によつて入力SD画像信号S1 に対して直交変換
を施し、入力SD画像信号S1 を互いに独立で無相関な
複数の直交変換成分に分離する。On the other hand, the Hadamard transform class classification unit 22 executes class classification based on frequency characteristics by Hadamard transform. The Hadamard transform is an orthogonal transform composed of a plurality of orthogonal transform bases that are orthogonal to each other. By this Hadamard transform, the input SD image signal S 1 is subjected to orthogonal transform, and the input SD image signal S 1 is separated into a plurality of orthogonal transform components that are independent of each other and are uncorrelated.
【0021】すなわちアダマール変換クラス分類部22
では1次元の入力SD画像信号S1に対して4次アダマ
ール変換を施す。4次アダマール変換は入力データX、
アダマール変換行列H、出力Yとして次式That is, the Hadamard transform class classification unit 22.
Then, the fourth-order Hadamard transform is applied to the one-dimensional input SD image signal S 1 . The fourth-order Hadamard transform is the input data X,
Hadamard transformation matrix H and output Y as the following equation
【数2】 によつて表される。この(2)式のアダマール変換行列
Hの係数から分かるようにアダマール変換は加減算のみ
で出力が得られるため回路の負担が小さい。[Equation 2] Is represented by As can be seen from the coefficients of the Hadamard transform matrix H in the equation (2), the Hadamard transform has a small load on the circuit because the output can be obtained only by addition and subtraction.
【0022】4次アダマール変換ではアダマール変換行
列Hの中に4つのアダマール基底が存在する。各基底は
互いに直交しており、いくつかの周波数成分への分離が
可能となる。アダマール基底と入力信号との演算によ
り、4個のアダマール成分y1〜y4が得られる。4個
のアダマール成分y1〜y4は次段の予測係数ROM1
4に送られる。このアダマール変換クラス分類部22よ
り得られる周波数クラスc1は入力SD画像信号S1 の比
較的広い範囲に亘る信号特性を把握して画素に反映す
る。In the fourth-order Hadamard transform, the Hadamard transform matrix H has four Hadamard bases. The bases are orthogonal to each other and can be separated into several frequency components. By calculating the Hadamard basis and the input signal, four Hadamard components y1 to y4 are obtained. The four Hadamard components y1 to y4 are prediction coefficients ROM1 in the next stage.
Sent to 4. Frequency Class obtained from the Hadamard transform class classification unit 22 c1 reflects the pixel to understand the signal characteristics over a relatively wide range of input SD image signal S 1.
【0023】クラス分類部12は図3に示すように、A
DRCクラスc0及び周波数クラスc1の2種類のクラス分
類結果を用いて特定クラスd0を生成する。このように1
つの入力SD画像信号S1 に対して2種類のクラス分類
法を組み合わせたクラス分類を実行することにより、1
種類だけのクラス分類に比して、より広範囲の信号特性
に対応したクラス分類ができる。As shown in FIG.
The specific class d0 is generated using the two types of classification results of the DRC class c0 and the frequency class c1. Like this one
By performing a class classification combining two kinds of class classification methods on one input SD image signal S 1 ,
It is possible to perform class classification corresponding to a wider range of signal characteristics compared to class classification only.
【0024】クラス分類部12より出力されるクラスd0
は予測係数ROM14に送出される。予測係数ROM1
4はクラスd0をROMのアドレスとして予測データd1を
読み出して予測演算部13に送出する。予測演算部13
A〜13Dでは予測データd1を用いて入力SD画像信号
S1 に対して予測演算を実行する。この結果、各予測演
算部13A〜13DにおいてHD画像上の位置mode1 〜
mode4 に相当するHD補間画素の推定画素y′がそれぞ
れ生成される。Class d0 output from class classification unit 12
Is sent to the prediction coefficient ROM 14. Prediction coefficient ROM1
4 reads the prediction data d1 using the class d0 as the ROM address and sends it to the prediction calculation unit 13. Prediction calculation unit 13
In A to 13D, the prediction calculation is executed on the input SD image signal S 1 by using the prediction data d1. As a result, in each of the prediction calculation units 13A to 13D, the positions mode1 to
Estimated pixels y ′ of HD interpolation pixels corresponding to mode 4 are generated.
【0025】予測演算部13A〜13Dにおいて生成さ
れる推定画素y′は図5に示すように入力SD画像信号
S1 による注目画素(図中◎で示す)及び周辺画素(図
中○で示す)でなる13個のタツプデータxi と、予測係
数ROM14からクラスC0に応じて読み出された予測
データd1でなる予測係数wi を用いて次の予測式As shown in FIG. 5, the estimated pixel y'generated in the prediction calculation units 13A to 13D is a pixel of interest (indicated by ∘ in the figure) and peripheral pixels (indicated by ∘ in the figure) by the input SD image signal S 1 . The following prediction formula is obtained using 13 pieces of tap data x i and the prediction coefficient w i composed of the prediction data d1 read from the prediction coefficient ROM 14 according to the class C0.
【数3】 を用いて生成する。(Equation 3) To generate.
【0026】ここで用いられる予測係数wi は予め学習
によつて求められ、予測係数ROM13に格納されてい
る。The prediction coefficient w i used here is previously obtained by learning and is stored in the prediction coefficient ROM 13.
【0027】予測係数の学習は実際上、図6に示す予測
係数学習回路30によつて実行される。すなわちHD画
像信号S20を間引きフイルタ31によつてSD画像信号
S10に変換してクラス分類部12と同様の構成でなるク
ラス分類部32に送出する。クラス分類部32はSD画
像信号S10を用いてクラス分類処理を実行し、各クラス
分類法毎にそれぞれ得られるクラスc0及びc1に基づいて
クラスd0を設定する。The learning of the prediction coefficient is actually executed by the prediction coefficient learning circuit 30 shown in FIG. That is, the HD image signal S 20 is converted into the SD image signal S 10 by the thinning filter 31 and sent to the class classification unit 32 having the same configuration as the class classification unit 12. The class classification unit 32 performs a class classification process using the SD image signal S 10 , and sets the class d0 based on the classes c0 and c1 obtained for each class classification method.
【0028】一方、予測係数算出回路33は、各クラス
毎に対応したHD補間画素の予測データd1を入力HD画
像信号S20から得られるHD画素及びSD画素でなる一
組の学習データを用いて算出する。具体的には上述した
学習データから予測データでなる予測係数を用いて線形
一次結合モデルをたて、最小自乗法を用いて予測係数を
求める。これにより、予測係数ROM14にはクラスd0
に対応付けられた予測データd1が登録される。On the other hand, the prediction coefficient calculation circuit 33 uses the prediction data d1 of HD interpolation pixels corresponding to each class by using a set of learning data composed of HD pixels and SD pixels obtained from the input HD image signal S 20. calculate. Specifically, a linear linear combination model is created from the above-mentioned learning data using the prediction coefficient composed of prediction data, and the prediction coefficient is obtained using the least square method. As a result, the prediction coefficient ROM 14 is stored in the class d0.
The prediction data d1 associated with is registered.
【0029】次に予測係数ROM14に格納する予測式
(3)式の予測係数の学習について、具体的な算出方法
を図7に示す予測係数学習手順にそつて説明する。すな
わち予測係数学習手順はステツプSP1で開始される
と、先ずステツプSP2において予測係数を学習するた
めに、既に知られている画像に対応した学習データを生
成する。Next, a concrete calculation method for learning the prediction coefficient of the prediction expression (3) stored in the prediction coefficient ROM 14 will be described with reference to the prediction coefficient learning procedure shown in FIG. That is, when the prediction coefficient learning procedure is started in step SP1, first, in step SP2, learning data corresponding to an already known image is generated in order to learn the prediction coefficient.
【0030】具体的には、図10に示すHD画像におい
て、HD画素をHD注目画素として、このHD注目画素
を周辺のHD画素及びSD画素でなる一組の学習データ
によつて予測係数を用いた線形一次結合モデルによつて
表す。このとき用いた予測係数を各クラス毎に最小自乗
法を用いて求める。なお、このように学習データを生成
する際に、1つの画像のみを用いるのではなく複数の画
像を用いて多数の学習データを生成すれば、より正確な
予測係数を得ることができる。More specifically, in the HD image shown in FIG. 10, the HD pixel is used as the HD pixel of interest, and the HD pixel of interest is used as a prediction coefficient according to a set of learning data composed of HD pixels and SD pixels in the periphery. It is represented by the linear linear combination model. The prediction coefficient used at this time is obtained for each class by using the least squares method. In addition, when generating a large number of learning data by using a plurality of images instead of using only one image when generating the learning data, a more accurate prediction coefficient can be obtained.
【0031】ステツプSP3では、ステツプSP2で生
成した学習データの数が予測係数を得るのに必要なだけ
生成されたか否か判定する。ここで学習データ数が必要
数に満たないと判定された場合には予測係数学習手順は
ステツプSP4に移る。ステツプSP4では、クラス学
習データをクラス分類する。クラス分類は先ず、初めに
学習サンプリングデータの局所的な平坦度を検出し、当
該検出結果に応じてクラス分類に用いる画素を選択す
る。これにより入力信号の変化の小さいものを学習対象
から除外してノイズの影響を排除することができる。こ
のクラス学習データのクラス分類は入力SD画像信号S
1 をクラス分類する場合と同様の処理を実行することに
よつてなされる。In step SP3, it is determined whether or not the number of learning data generated in step SP2 has been generated enough to obtain the prediction coefficient. If it is determined that the number of learning data is less than the required number, the prediction coefficient learning procedure proceeds to step SP4. At step SP4, the class learning data is classified into classes. In the classification, first, the local flatness of the learning sampling data is detected, and the pixel used for the classification is selected according to the detection result. As a result, it is possible to eliminate the influence of noise by excluding the input signal having a small change from the learning target. The classification of the class learning data is based on the input SD image signal S
This is done by performing the same processing as in classifying 1 .
【0032】続いて予測係数学習手順はステツプSP5
において、クラス分類された学習データに基づき、各ク
ラス毎に正規化方程式を形成する。ステツプSP5での
処理を具体的に説明する。ここでは一般化するために学
習データとしてn個のサンプリング画素が存在する場合
について述べる。先ず各サンプリング画素の画素レベル
x1 、……、xn と注目補間画素のサブサンプル以前の
画素レベルyの関係を、クラス毎に予測係数w1 、…
…、wn によるnタツプの線型一次結合モデルによる予
測式で表す。この予測式を次式Subsequently, the prediction coefficient learning procedure is step SP5.
In, a normalization equation is formed for each class based on the classified learning data. The processing in step SP5 will be specifically described. Here, for generalization, a case where n sampling pixels are present as learning data will be described. First, the relationship between the pixel level x 1 , ..., X n of each sampling pixel and the pixel level y before the sub-sampling of the interpolation pixel of interest is predicted coefficient w 1 , ...
, W n is represented by a prediction formula based on an n-tap linear primary combination model. This prediction formula is
【数4】 に示す。この(4)式における予測係数w1 、……、w
n を求めることにより、画素レベルyを推定する。[Equation 4] Shown in Prediction coefficient w 1 , ..., W in equation (4)
The pixel level y is estimated by obtaining n .
【0033】次に予測係数w1 、……、wn を最小自乗
法により生成する例を示す。最小自乗法は次のように適
用される。一般化した例として、Xを入力データ、Wを
予測係数、Yを推定値として次の観測方程式を考える。Next, an example of generating the prediction coefficients w 1 , ..., W n by the method of least squares will be shown. The least squares method is applied as follows. As a generalized example, consider the following observation equation, where X is input data, W is a prediction coefficient, and Y is an estimated value.
【数5】 この(5)式の観測方程式により収集されたデータに対
して最小自乗法を適用する。(5)式の例においては、
n=13、mが学習データ数となる。(Equation 5) The least squares method is applied to the data collected by the observation equation (5). In the example of equation (5),
n = 13, m is the number of learning data.
【0034】先ず、(5)式の観測方程式をもとに、次
の残差方程式を考える。First, the following residual equation will be considered based on the observation equation (5).
【数6】 (5)式の残差方程式から、各wi の最確値は次式(Equation 6) From the residual equation of equation (5), the most probable value of each w i is
【数7】 を最小にする条件が成り立つ場合と考えられる。すなわ
ち(7)式のwi による偏微分が次式(Equation 7) It is considered that the condition that minimizes is satisfied. That is, the partial differentiation of equation (7) with w i is
【数8】 のときに、この(8)式のiに基づくn個の条件を考
え、これを満たすw1 、w2 、……、wn を算出すれば
良い。そこで残差方程式(8)式から次式が得られる。(Equation 8) At this time, n conditions based on i in equation (8) are considered, and w 1 , w 2 , ..., W n satisfying these conditions may be calculated. Therefore, the following equation is obtained from the residual equation (8).
【数9】 この(9)式と(8)式とにより次式[Equation 9] From the equations (9) and (8), the following equation
【数10】 が得られる。そして(6)式及び(10)式から次に示
す正規方程式が得られる。[Equation 10] Is obtained. Then, the following normal equation is obtained from the equations (6) and (10).
【数11】 (11)式の正規方程式は、未知数の数nと同じ数の方
程式を立てることが可能なので、これにより各ωi の最
確値を求めることができる。この正規方程式は、掃き出
し法(Gauss-Jordanの消去法)を用いて解くことができ
る。[Equation 11] Since the same number of equations as the number n of unknowns can be established for the normal equation of the equation (11), the most probable value of each ω i can be obtained. This normal equation can be solved using the sweep method (Gauss-Jordan elimination method).
【0035】この予測係数算出処理手順では、各クラス
毎に未定係数w1 、……、wn を求めるために未知数の
数nと同じ数の正規化方程式が形成されるまでステツプ
SP2−SP3−SP4−SP5−SP2のループを繰
り返す。In this predictive coefficient calculation processing procedure, in order to obtain the undetermined coefficients w 1 , ..., W n for each class, steps SP2-SP3- are formed until the normalization equations of the same number as the unknown number n are formed. The loop of SP4-SP5-SP2 is repeated.
【0036】このようにして必要な数の正規化方程式が
得られると、ステツプSP3では学習データが終了した
か否かの判定に対して肯定結果が得られ、処理はステツ
プSP6の予測係数決定に移る。When the necessary number of normalization equations are obtained in this way, an affirmative result is obtained in step SP3 for the determination as to whether or not the learning data has been completed, and the processing proceeds to step SP6 for determining the prediction coefficient. Move.
【0037】ステツプSP6では、(11)式の正規化
方程式を解いて各クラス毎の予測係数w1 、……、wn
を決定する。このようにして得られた予測係数を次のス
テツプSP7でクラス毎にアドレス分割されたROM等
の記憶手段に登録する。以上の学習により、クラス分類
適応処理の予測係数が生成され次のステツプSP8で予
測係数算出処理手順を終了する。At step SP6, the normalization equation (11) is solved to predict the prediction coefficients w 1 , ..., W n for each class.
To decide. The prediction coefficient thus obtained is registered in a storage means such as a ROM which is divided into addresses for each class in the next step SP7. By the above learning, the prediction coefficient of the class classification adaptive processing is generated, and the prediction coefficient calculation processing procedure is ended in the next step SP8.
【0038】以上の構成において、アツプコンバータ1
0の入力端11よりSD画像信号S1 が入力されると、
SD画像信号S1 はクラス分類部12及び予測係数演算
部13に並列に送出される。クラス分類部12ではSD
画像信号S1 に基づいてクラスデータd0を生成して予測
係数ROM14に送出する。予測係数ROM14では予
め学習によつて求められている予測係数d1をクラスデー
タd0に応じて読み出し、予測係数演算部13に送出す
る。In the above configuration, the up converter 1
When the SD image signal S 1 is input from the input terminal 11 of 0,
The SD image signal S 1 is sent to the class classification unit 12 and the prediction coefficient calculation unit 13 in parallel. SD in class classification unit 12
The class data d0 is generated based on the image signal S1 and sent to the prediction coefficient ROM 14 . The prediction coefficient ROM 14 reads the prediction coefficient d1 previously obtained by learning according to the class data d0 and sends it to the prediction coefficient calculation unit 13.
【0039】クラス分類部12には、入力端20を通じ
て入力されるSD画像信号S1 がADRCクラス分類部
21及びアダマール変換クラス分類部22に同時に送出
される。ADRCクラス分類部21では入力SD画像信
号S1 をADRCによつてデータ圧縮してADRCクラ
スc0を生成する。一方、アダマール変換クラス分類部2
2では入力SD画像信号S1 をアダマール変換により互
いに独立した複数の直交成分に分離して周波数クラスc1
を生成する。The SD image signal S 1 input through the input terminal 20 is sent to the class classification unit 12 simultaneously to the ADRC class classification unit 21 and the Hadamard transform class classification unit 22. The ADRC class classification unit 21 compresses the input SD image signal S 1 by ADRC to generate an ADRC class c0. On the other hand, Hadamard transform class classification unit 2
2, the input SD image signal S 1 is separated into a plurality of independent orthogonal components by Hadamard transform to obtain a frequency class c 1
Generate
【0040】クラス分類部12ではADRCクラスc0及
び周波数クラスc1とを組み合わせてクラスd0を生成して
予測係数ROM14に送出する。このようにして生成さ
れたクラスd0はADRCクラスc0及び周波数クラスc1の
2種類のクラス分類結果を合わせたものとなる。従つ
て、入力SD画像信号S1 は時空間領域のADRCクラ
スd0と周波数領域の周波数クラスd1とを合わせたクラス
分類特性を有することになる。これにより1種類のクラ
ス分類だけを用いた場合に比して、より広い範囲の信号
特性に対応することができる。つまりSD画像信号S1
の特徴に応じた適切なクラス分けができるようになる。The class classification unit 12 combines the ADRC class c0 and the frequency class c1 to generate a class d0 and sends it to the prediction coefficient ROM 14. The class d0 generated in this way is a combination of the two classification results of the ADRC class c0 and the frequency class c1. Therefore, the input SD image signal S 1 has a class classification characteristic in which the ADRC class d0 in the spatiotemporal domain and the frequency class d1 in the frequency domain are combined. As a result, it is possible to deal with a wider range of signal characteristics as compared with the case where only one type of classification is used. That is, the SD image signal S 1
You will be able to classify appropriately according to the characteristics of.
【0041】予測係数演算部13では各予測演算部13
A〜13Dにおいて入力端11から送出されてくるSD
画像信号S1 及び予測係数ROM14から送出される予
測データd1をもとにして走査線上の4つの位置(mode1
〜mode4)に対応したHD画像信号S2 を生成する。In the prediction coefficient calculation unit 13, each prediction calculation unit 13
SD sent from the input terminal 11 in A to 13D
Based on the image signal S 1 and the prediction data d1 sent from the prediction coefficient ROM 14 , four positions (mode1
~ HD4 image signal S 2 corresponding to mode 4) is generated.
【0042】以上の構成によれば、入力SD画像信号S
1 に対してADRCクラス分類及びアダマール変換クラ
ス分類を施してその結果得られるADRCクラスc0、周
波数クラスc1の両方の特性を合わせたクラスd0を用いて
対応する予測係数を選択できる。これにより1種類のク
ラス分類だけを用いた場合に比較して、より広範囲に入
力信号特性に対応したクラス分類ができる。これにより
入力SD画像信号S1 の多様な信号特性に対応した適切
なクラス分類がなし得、HD画像信号を生成する際に用
いる予測係数の精度を向上させて、空間解像度の向上し
たHD画像信号を得ることができる。According to the above configuration, the input SD image signal S
ADRC class classification and Hadamard transform class classification are performed on 1 , and the corresponding prediction coefficient can be selected by using the class d0 obtained by combining the characteristics of both the ADRC class c0 and the frequency class c1. As a result, as compared with the case where only one type of class classification is used, class classification corresponding to the input signal characteristics can be performed in a wider range. As a result, an appropriate class classification corresponding to various signal characteristics of the input SD image signal S 1 can be performed, the accuracy of the prediction coefficient used when generating the HD image signal is improved, and the HD image signal with improved spatial resolution is obtained. Can be obtained.
【0043】なお上述の実施例においては、入力画像信
号をADRCクラス分類とアダマール変換クラス分類の
独立した組み合わせによるクラスに基づいてクラス分類
した場合について述べたが、本発明はこれに限らず、A
DRCクラス分類とアダマール変換クラス分類とを従属
的に組み合わせたクラスによつてクラス分類するように
しても良い。これにより、より精度の高いクラス分類が
なし得る。In the above embodiment, the case where the input image signal is classified based on the class by the independent combination of the ADRC class classification and the Hadamard transform class classification has been described, but the present invention is not limited to this.
The DRC class classification and the Hadamard transform class classification may be classified according to the subordinately combined class. This allows more accurate class classification.
【0044】また上述の実施例においては、タツプデー
タのデータ圧縮にADRCの手法を用いた場合について
述べたが、本発明はこれに限らず、例えばDPCM(Di
fferential Pulse Code Modulatin )やVQ(Vector Q
uantization )の手法を用いてデータ圧縮しても良い。In the above-described embodiment, the case of using the ADRC method for compressing the tap data has been described, but the present invention is not limited to this. For example, DPCM (Di
fferential Pulse Code Modulatin) and VQ (Vector Q)
uantization) may be used for data compression.
【0045】さらに上述の実施例においては、周波数領
域のクラス分類法としてアダマール変換クラス分類法を
用いた場合について述べたが、本発明はこれに限らず、
例えば直交変換手法として、フーリエ変換、カルーネン
レーベ変換、ハール変換、離散余弦変換(DCT)等の
手法を用いても良い。Further, in the above embodiment, the case where the Hadamard transform class classification method is used as the frequency domain class classification method has been described, but the present invention is not limited to this.
For example, as an orthogonal transform method, a Fourier transform, a Karhunen-Loeve transform, a Haar transform, a discrete cosine transform (DCT), or the like may be used.
【0046】また上述の実施例においては、アツプコン
バータとして2次元ノンセパラブルフイルタを用いた場
合について述べたが、本発明はこれに限らず、図1との
対応部分に同符号を付した、図8に示すような垂直/水
平セパラブル構成でなるアツプコンバータ40を用いて
も良い。Further, in the above-mentioned embodiment, the case where the two-dimensional non-separable filter is used as the up converter has been described, but the present invention is not limited to this, and the portions corresponding to those in FIG. An up converter 40 having a vertical / horizontal separable configuration as shown in FIG. 8 may be used.
【0047】アツプコンバータ40においては、先ず、
入力端41を通じて入力されたSD画像信号S1 がクラ
ス分類部12と予測演算部43に供給される。予測演算
部43は走査線の位置mode1、mode2に対応する垂直予
測演算部43A及び水平予測演算部43Bと走査線の位
置mode3、mode4に対応する垂直予測演算部43C及び
水平予測演算部43Dの2種類に分かれる。クラス分類
部12では入力SD画像信号S1 に応じたクラスd0が生
成され、タツプ予測係数を予め記憶している記憶手段で
ある予測係数ROM44に送出する。予測係数ROM4
4はタツプ予測係数の垂直成分と水平成分を記憶する垂
直係数ROM44Aと水平係数ROM44Bとに分かれ
ている。クラスd0は垂直係数ROM44Aと水平係数R
OM44Bのそれぞれに供給される。In the up converter 40, first,
The SD image signal S 1 input through the input terminal 41 is supplied to the class classification unit 12 and the prediction calculation unit 43. The prediction calculation unit 43 includes a vertical prediction calculation unit 43A and a horizontal prediction calculation unit 43B corresponding to scanning line positions mode1 and mode2, and a vertical prediction calculation unit 43C and a horizontal prediction calculation unit 43D corresponding to scanning line positions mode3 and mode4. Divided into types. The class classification unit 12 generates a class d0 according to the input SD image signal S 1 and sends it to the prediction coefficient ROM 44, which is a storage unit that stores the tap prediction coefficient in advance. Prediction coefficient ROM4
Reference numeral 4 is divided into a vertical coefficient ROM 44A and a horizontal coefficient ROM 44B for storing the vertical and horizontal components of the tap prediction coefficient. Class d0 is vertical coefficient ROM44A and horizontal coefficient R
It is supplied to each of the OM44B.
【0048】まず垂直係数ROM44Aより出力される
垂直予測係数d6は垂直予測演算部43A及び43Cに供
給される。入力SD画像信号S1 と垂直予測係数d6によ
る積和演算により垂直推定値d7、d8が生成される。この
垂直推定値d7、d8は次段の水平予測演算部43B及び4
3Dに供給される。First, the vertical prediction coefficient d6 output from the vertical coefficient ROM 44A is supplied to the vertical prediction calculation units 43A and 43C. Vertical estimated values d7 and d8 are generated by the sum of products operation using the input SD image signal S 1 and the vertical prediction coefficient d6. These vertical estimated values d7 and d8 are the horizontal prediction calculation units 43B and 4 of the next stage.
Supplied in 3D.
【0049】水平係数ROM44Bより生成される水平
予測係数d9は水平予測演算部43B及び43Dに供給さ
れ、垂直推定値d7、d8との積和演算によりHD画素d10
、d11 信号を得る。このHD画素d10 、d11 信号は選
択的に伝送され、選択部15において適切に並び替えら
れ、出力端46より最終的な出力であるHD画像信号S
2 として出力される。これにより上述した実施例と同様
の効果が得られる。The horizontal prediction coefficient d9 generated by the horizontal coefficient ROM 44B is supplied to the horizontal prediction calculation units 43B and 43D, and the HD pixel d10 is calculated by multiply-add operation with the vertical estimated values d7 and d8.
, Get the d11 signal. The HD pixel signals d10 and d11 are selectively transmitted, rearranged appropriately in the selection unit 15, and output from the output terminal 46 as the final HD image signal S.
It is output as 2 . As a result, the same effect as that of the above-described embodiment can be obtained.
【0050】また上述の実施例においては、HD注目画
素と注目画素周辺の伝送画素との相関関係を表す予測係
数を用いてSD画素から注目画素周辺のHD画素を生成
した場合について述べたが、本発明はこれに限らず、予
測係数に代えて各クラス毎のHD注目画素の予測値を予
め設定して記憶手段に格納するようにしても良い。予測
値によるSD画像信号のHD画像信号への信号変換は、
図1との対応部分に同符号を付した、図9に示すような
アツプコンバータ60を用いる。In the above-described embodiment, the case has been described in which the HD pixel around the pixel of interest is generated from the SD pixel by using the prediction coefficient representing the correlation between the HD pixel of interest and the transmission pixel around the pixel of interest. The present invention is not limited to this, and instead of the prediction coefficient, the predicted value of the HD pixel of interest for each class may be preset and stored in the storage means. The signal conversion of the SD image signal to the HD image signal by the predicted value is
An up-converter 60 as shown in FIG. 9 is used in which the same parts as those in FIG.
【0051】このアツプコンバータ60には入力端61
を通じてクラス分類部12にSD画像信号S1 が送出さ
れる。このクラス分類部12は、新たに生成するHD画
像信号の周辺のSD画像信号S1 の特徴に基づいてクラ
スd0を生成して予測値ROM62A〜62Dに送出す
る。予測値ROM62A〜62Dには予め学習により求
められた注目画素周辺のHD画素の予測値がクラス毎に
クラスd0に対応して格納されている。予測値ROM62
A〜62Dはクラスd0をアドレスデータとして予測値d2
0 〜d23 を読み出し、選択部15を通じて出力端63よ
りHD画像信号S2 として出力する。The up converter 60 has an input terminal 61.
The SD image signal S 1 is sent to the class classification unit 12 through the. The classification unit 12 transmits the predicted value ROM62A~62D to generate a class d0 based on the newly surrounding of the generated HD image signal SD image signal characteristic of S 1. In the predicted value ROMs 62A to 62D, predicted values of HD pixels around the target pixel, which are obtained in advance by learning, are stored for each class in association with the class d0. Predicted value ROM 62
Predicted value d2 for A to 62D using class d0 as address data
0 to d23 are read out and output as an HD image signal S 2 from the output terminal 63 through the selection unit 15.
【0052】ここで予測値を求める第1の方法としては
加重平均法を用いた学習法がある。加重平均法は、注目
画素周辺のSD画素を用いて注目画素をクラス分類し、
クラス毎に積算した注目画素(すなわちHD画素)の画
素値を注目画素の個数に応じてインクリメントされた度
数によつて割り算するといつた処理を様々な画像に対し
て行うことにより予測値を求める。Here, as a first method for obtaining the predicted value, there is a learning method using a weighted average method. The weighted average method classifies the target pixel using SD pixels around the target pixel,
When the pixel value of the pixel of interest (that is, the HD pixel) accumulated for each class is divided by the frequency incremented according to the number of pixels of interest, the predicted value is obtained by performing various processes on various images.
【0053】さらに予測係数を求める第2の方法として
は、正規化による学習法がある。この学習法は、先ず注
目画素を含む複数の画素からなるブロツクを形成し、ブ
ロツク内のダイナミツクレンジによつて注目画素の画素
値からそのブロツクの基準値を減算した値を正規化す
る。次にこの正規化された値の累積値を累積度数で割り
算することにより予測値を得る。As a second method for obtaining the prediction coefficient, there is a learning method by normalization. In this learning method, first, a block composed of a plurality of pixels including a target pixel is formed, and a value obtained by subtracting the reference value of the block from the pixel value of the target pixel is normalized by the dynamic range in the block. Next, the predicted value is obtained by dividing the cumulative value of this normalized value by the cumulative frequency.
【0054】また上述の実施例においては、SD画像信
号をHD画像信号に信号変換した場合について述べた
が、本発明はこれに限らず、画像拡大する際の補間画素
を生成するのに用いても良い。Further, in the above-mentioned embodiment, the case where the SD image signal is converted into the HD image signal has been described, but the present invention is not limited to this, and it is used to generate an interpolation pixel when enlarging an image. Is also good.
【0055】[0055]
【発明の効果】上述のように本発明によれば、入力画像
信号を時空間領域でのレベル分布パターンに応じた第1
のクラス分類手段と入力画像信号の周波数特性に応じた
第2のクラス分類手段によつてクラス分類した後、各ク
ラス分類結果を組み合わせたクラスによつてクラス分類
することによつて、1種類だけのクラス分類法に比し
て、より入力画像信号の特性に応じた適切なクラス分類
がなされ、出力画像信号の解像度を向上した信号変換装
置及び信号変換方法を実現し得る。As described above, according to the present invention, the first image signal corresponding to the level distribution pattern in the spatio-temporal region is input.
After classifying by the second class classifying unit according to the second class classifying unit according to the frequency characteristic of the input image signal, and by classifying by the combined class of each class classification result, only one kind is obtained. As compared with the class classification method described in (1), a more appropriate class classification according to the characteristics of the input image signal can be performed, and the signal conversion device and the signal conversion method that improve the resolution of the output image signal can be realized.
【図1】2次元ノンセパラブルフイルタで構成されるア
ツプコンバータを示すブロツク図である。FIG. 1 is a block diagram showing an upconverter composed of a two-dimensional non-separable filter.
【図2】図1のクラス分類部、予測係数ROM及び予測
演算部の説明に供するブロツク図である。FIG. 2 is a block diagram for explaining a class classification unit, a prediction coefficient ROM, and a prediction calculation unit in FIG.
【図3】クラス分類部から出力されるクラスの説明に供
する図表である。FIG. 3 is a diagram for explaining a class output from a class classification unit.
【図4】クラス生成のタツプパターンを示す略線図であ
る。FIG. 4 is a schematic diagram showing a tap pattern for class generation.
【図5】学習データの予測タツプパターンを示す略線図
である。FIG. 5 is a schematic diagram showing a prediction tap pattern of learning data.
【図6】予測データの登録の説明に供するブロツク図で
ある。FIG. 6 is a block diagram provided for explaining registration of prediction data.
【図7】予測係数の学習手順を示すフローチヤートであ
る。FIG. 7 is a flowchart showing a procedure for learning prediction coefficients.
【図8】垂直/水平セパラブルフイルタによるアツプコ
ンバータを示すブロツク図である。FIG. 8 is a block diagram showing an up-converter using a vertical / horizontal separable filter.
【図9】予測値を用いて補間画素を生成するアツプコン
バータを示すブロツク図である。FIG. 9 is a block diagram showing an up converter that generates an interpolation pixel using a prediction value.
【図10】SD/HD画素の空間配置例を示す略線図で
ある。FIG. 10 is a schematic diagram showing an example of a spatial arrangement of SD / HD pixels.
【図11】従来の2次元ノンセパラブルフイルタを示す
ブロツク図である。FIG. 11 is a block diagram showing a conventional two-dimensional non-separable filter.
【図12】従来の垂直/水平セパラブルフイルタを示す
ブロツク図である。FIG. 12 is a block diagram showing a conventional vertical / horizontal separable filter.
2、3……補間フイルタ、4A〜4D……2次元フイル
タ、5、8、15……選択部、6A、6B……垂直補間
フイルタ、7A、7B……水平補間フイルタ、10、4
0、60……アツプコンバータ、11、20、41、6
1……入力端、12、32……クラス分類部、13、4
3……予測演算部、14、44……予測係数ROM、1
6、23、46、63……出力端、21……ADRCク
ラス分類部、22……アダマール変換部クラス分類部。2, 3 ... Interpolation filter, 4A-4D ... Two-dimensional filter, 5, 8, 15 ... Selector, 6A, 6B ... Vertical interpolation filter, 7A, 7B ... Horizontal interpolation filter, 10, 4
0, 60 ... Upconverter, 11, 20, 41, 6
1 ... Input end, 12, 32 ... Class classification part, 13, 4
3 ... Prediction calculation unit, 14, 44 ... Prediction coefficient ROM, 1
6, 23, 46, 63 ... Output end, 21 ... ADRC class classification section, 22 ... Hadamard conversion section class classification section.
Claims (4)
信号に変換する信号変換装置において、 上記入力画像信号の時空間領域でのレベル分布パターン
に応じて上記入力画像信号をクラス分類する第1のクラ
ス分類手段と上記入力画像信号の周波数特性に応じて上
記入力画像信号をクラス分類する第2のクラス分類手段
とを有し、上記入力画像信号を各クラス分類手段毎にク
ラス分類し、各クラス分類手段の出力を組み合わせたク
ラスを出力するクラス分類部と、 上記入力画像信号の補間画素を生成するために上記クラ
ス分類部のクラス分類結果に基づいて予め設定された予
測係数を上記クラス毎に対応付けして記憶する予測係数
記憶手段と、 上記入力画像信号に対して上記予測係数を用いた予測演
算を施し、上記補間画素を生成する予測演算部とを具え
ることを特徴とする信号変換装置。1. A signal conversion device for converting a low-resolution input image signal into a high-resolution image signal, wherein the input image signal is classified into classes according to a level distribution pattern of the input image signal in a spatiotemporal region. A first class classification means and a second class classification means for classifying the input image signal according to the frequency characteristic of the input image signal, and classifying the input image signal for each class classification means; A class classification unit that outputs a class that combines the outputs of the class classification units, and a prediction coefficient that is preset based on the classification result of the class classification unit to generate the interpolation pixel of the input image signal. Prediction coefficient storage means for storing the input image signal in association with each other, and prediction for performing the prediction calculation using the prediction coefficient on the input image signal to generate the interpolated pixel Signal converting apparatus characterized by comprising a calculation unit.
信号に変換する信号変換装置において、 上記入力画像信号の時空間領域でのレベル分布パターン
に応じて上記入力画像信号をクラス分類する第1のクラ
ス分類手段と上記入力画像信号の周波数特性に応じて上
記入力画像信号をクラス分類する第2のクラス分類手段
とを有し、上記入力画像信号を各クラス分類手段毎にク
ラス分類し、各クラス分類手段の出力を組み合わせたク
ラスを出力するクラス分類部と、 上記入力画像信号の補間画素として上記クラス分類部の
クラス分類結果に基づいて予め設定した予測値を上記ク
ラス毎に対応付けして記憶する予測係数記憶手段とを具
え、上記クラスに応じて読み出した上記予測値を用いて
上記入力画像信号の信号画素を補間して高解像度の画像
信号を生成することを特徴とする信号変換装置。2. A signal conversion device for converting a low resolution input image signal into a high resolution image signal, wherein the input image signal is classified into classes according to a level distribution pattern of the input image signal in a spatio-temporal region. A first class classification means and a second class classification means for classifying the input image signal according to the frequency characteristic of the input image signal, and classifying the input image signal for each class classification means; A class classification unit that outputs a class that combines the outputs of each class classification unit, and a prediction value preset based on the class classification result of the class classification unit as an interpolation pixel of the input image signal is associated with each class. And a prediction coefficient storage means for storing the high-resolution image by interpolating the signal pixels of the input image signal using the predicted value read according to the class. Signal conversion device and generates a signal.
信号に変換する信号変換方法において、 上記入力画像信号を時空間領域でのレベル分布パターン
に応じてクラス分類すると共に、上記入力画像信号の周
波数特性に応じてクラス分類し、各上記クラス分類法に
応じた複数のクラスに分類するクラス分類ステツプと、 各上記クラスを組み合わせたクラスを生成して出力する
ステツプと、 上記クラスに対応して上記クラス分類ステツプによつて
予め設定された上記入力画像信号の補間画素の予測係数
を読み出すステツプと、 上記入力画像信号に対して上記予測係数を用いて予測演
算を実行し、上記入力画像信号の信号画素の補間画素を
生成して上記入力画像信号を高解像度の画像信号に信号
変換するステツプとを具えることを特徴とする信号変換
方法。3. A signal conversion method for converting a low-resolution input image signal into a high-resolution image signal, wherein the input image signal is classified into classes according to a level distribution pattern in a spatiotemporal region, and the input image signal is also classified. The class classification step that classifies the classes according to the frequency characteristics of the above and classifies them into a plurality of classes according to the above class classification method, and the step that generates and outputs the class combining the above classes, and the class corresponding to the above classes. And a step of reading the prediction coefficient of the interpolated pixel of the input image signal preset by the class classification step, and a prediction calculation is performed on the input image signal using the prediction coefficient to obtain the input image signal. And a step of converting the input image signal into a high-resolution image signal by generating an interpolation pixel of the signal pixel of FIG. No. conversion method.
信号に変換する信号変換方法において、 上記入力画像信号を時空間領域でのレベル分布パターン
に応じてクラス分類すると共に、上記入力画像信号の周
波数特性に応じてクラス分類し、各上記クラス分類法に
応じた複数のクラスに分類するクラス分類ステツプと、 各上記クラスを組み合わせたクラスを生成して出力する
ステツプと、 上記クラスに対応して上記クラス分類ステツプによつて
予め設定された上記入力画像信号の補間画素の予測値を
読み出し、上記入力画像信号の信号画素を補間して上記
入力画像信号を高解像度の画像信号に信号変換するステ
ツプとを具えることを特徴とする信号変換方法。4. A signal conversion method for converting a low resolution input image signal into a high resolution image signal, wherein said input image signal is classified into a class according to a level distribution pattern in a spatio-temporal region, and said input image signal. The class classification step that classifies the classes according to the frequency characteristics of the above and classifies them into a plurality of classes according to the above class classification method, and the step that generates and outputs the class combining the above classes, and the class corresponding to the above classes. Then, the predicted value of the interpolated pixel of the input image signal preset by the class classification step is read, the signal pixel of the input image signal is interpolated, and the input image signal is converted into a high resolution image signal. A signal conversion method comprising: a step.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP10069195A JP3693187B2 (en) | 1995-03-31 | 1995-03-31 | Signal conversion apparatus and signal conversion method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP10069195A JP3693187B2 (en) | 1995-03-31 | 1995-03-31 | Signal conversion apparatus and signal conversion method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPH08275119A true JPH08275119A (en) | 1996-10-18 |
| JP3693187B2 JP3693187B2 (en) | 2005-09-07 |
Family
ID=14280761
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP10069195A Expired - Lifetime JP3693187B2 (en) | 1995-03-31 | 1995-03-31 | Signal conversion apparatus and signal conversion method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP3693187B2 (en) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2001238185A (en) * | 2000-02-24 | 2001-08-31 | Sony Corp | Image signal converting apparatus, image signal conversion method, image display device using it, and device and method for generating coefficient data used for it |
| US6907413B2 (en) | 2000-08-02 | 2005-06-14 | Sony Corporation | Digital signal processing method, learning method, apparatuses for them, and program storage medium |
| US7412384B2 (en) | 2000-08-02 | 2008-08-12 | Sony Corporation | Digital signal processing method, learning method, apparatuses for them, and program storage medium |
| US7584008B2 (en) | 2000-08-02 | 2009-09-01 | Sony Corporation | Digital signal processing method, learning method, apparatuses for them, and program storage medium |
| JP2010103981A (en) * | 2008-09-29 | 2010-05-06 | Sony Corp | Coefficient learning apparatus and method, image processing apparatus and method, program, and recording medium |
-
1995
- 1995-03-31 JP JP10069195A patent/JP3693187B2/en not_active Expired - Lifetime
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2001238185A (en) * | 2000-02-24 | 2001-08-31 | Sony Corp | Image signal converting apparatus, image signal conversion method, image display device using it, and device and method for generating coefficient data used for it |
| US6907413B2 (en) | 2000-08-02 | 2005-06-14 | Sony Corporation | Digital signal processing method, learning method, apparatuses for them, and program storage medium |
| US6990475B2 (en) | 2000-08-02 | 2006-01-24 | Sony Corporation | Digital signal processing method, learning method, apparatus thereof and program storage medium |
| US7412384B2 (en) | 2000-08-02 | 2008-08-12 | Sony Corporation | Digital signal processing method, learning method, apparatuses for them, and program storage medium |
| US7584008B2 (en) | 2000-08-02 | 2009-09-01 | Sony Corporation | Digital signal processing method, learning method, apparatuses for them, and program storage medium |
| JP2010103981A (en) * | 2008-09-29 | 2010-05-06 | Sony Corp | Coefficient learning apparatus and method, image processing apparatus and method, program, and recording medium |
Also Published As
| Publication number | Publication date |
|---|---|
| JP3693187B2 (en) | 2005-09-07 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP3794505B2 (en) | Signal conversion apparatus and signal conversion method | |
| JP3781203B2 (en) | Image signal interpolation apparatus and image signal interpolation method | |
| US7679676B2 (en) | Spatial signal conversion | |
| JP3271101B2 (en) | Digital image signal processing apparatus and processing method | |
| JPH0779418A (en) | Picture signal converter | |
| JPH08275119A (en) | Signal converter and signal conversion method | |
| JP3511645B2 (en) | Image processing apparatus and image processing method | |
| JP3400055B2 (en) | Image information conversion device, image information conversion method, image processing device, and image processing method | |
| JP3743077B2 (en) | Image signal conversion apparatus and method | |
| JPH0888856A (en) | Hierarchical encoding and decoding device for digital picture signal | |
| JP3723995B2 (en) | Image information conversion apparatus and method | |
| KR101098300B1 (en) | Spatial signal conversion | |
| JP3243861B2 (en) | Image information conversion device | |
| JP3326879B2 (en) | Image signal converter | |
| JP3856244B2 (en) | Signal conversion apparatus and signal conversion method | |
| JPH0888849A (en) | Picture signal processing method and picture signal transmitter | |
| JP3669522B2 (en) | Signal conversion device, signal conversion method, coefficient learning device, and coefficient learning method | |
| JPH10112844A (en) | Image processor and image processing method | |
| JP3630246B2 (en) | Image signal interpolation apparatus and image signal interpolation method | |
| JP3814850B2 (en) | Signal conversion apparatus and method | |
| JP4085396B2 (en) | Learning apparatus and learning method | |
| JPH08317347A (en) | Image information converting device | |
| JP2900620B2 (en) | Image transmission processing system | |
| JP4131049B2 (en) | Signal processing apparatus and signal processing method | |
| JP3653287B2 (en) | Image information conversion apparatus and image information conversion method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20040204 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040213 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040412 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20041022 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041216 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050603 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050616 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080701 Year of fee payment: 3 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090701 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100701 Year of fee payment: 5 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100701 Year of fee payment: 5 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110701 Year of fee payment: 6 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120701 Year of fee payment: 7 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130701 Year of fee payment: 8 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| EXPY | Cancellation because of completion of term |