[go: up one dir, main page]

JPH07264597A - Motion compensation method - Google Patents

Motion compensation method

Info

Publication number
JPH07264597A
JPH07264597A JP4821494A JP4821494A JPH07264597A JP H07264597 A JPH07264597 A JP H07264597A JP 4821494 A JP4821494 A JP 4821494A JP 4821494 A JP4821494 A JP 4821494A JP H07264597 A JPH07264597 A JP H07264597A
Authority
JP
Japan
Prior art keywords
area division
image
region
methods
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4821494A
Other languages
Japanese (ja)
Inventor
Hiroyuki Tsuji
裕之 辻
Yutaka Watanabe
裕 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP4821494A priority Critical patent/JPH07264597A/en
Publication of JPH07264597A publication Critical patent/JPH07264597A/en
Pending legal-status Critical Current

Links

Landscapes

  • Color Television Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

(57)【要約】 【目的】 動き補償方法について、不正確な領域分割を
改善し、符号化効率を高める。 【構成】 領域分割部3は、フレーム内領域分割部8に
おいて現時刻の画像7をフレーム内の輝度信号と色差信
号に基づいた閾値処理によって領域分割し、動き推定部
10において、分割された各領域をブロックとして前時
刻の画像11を参照して動き推定を行ない、領域統合部
13で動きベクトル12を参照して、領域分割を更新
し、領域修正部15においてエッジ抽出オペレータによ
り領域分割画像14を修正し、最終的な領域分割画像1
6を出力する。予測画像作成部20は最終的な領域分割
画像16をもとに動き補償予測画像29と符号量を示す
データ33を作成する。
(57) [Abstract] [Purpose] For a motion compensation method, improve inaccurate region segmentation and increase coding efficiency. A region dividing unit 3 divides an image 7 at the current time into a region by an in-frame region dividing unit 8 by threshold processing based on a luminance signal and a color difference signal in the frame, and each of the divided regions in a motion estimating unit 10. Motion estimation is performed by referring to the image 11 at the previous time using the region as a block, the region integration unit 13 refers to the motion vector 12 to update the region division, and the region correction unit 15 updates the region division image 14 by the edge extraction operator. The final area-divided image 1
6 is output. The predicted image creation unit 20 creates a motion-compensated predicted image 29 and data 33 indicating the code amount based on the final area-divided image 16.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は動き補償方法に関する。FIELD OF THE INVENTION The present invention relates to a motion compensation method.

【0002】[0002]

【従来の技術】従来、画像の動き補償を行う際の領域分
割法として、画像の輝度信号または色差信号による領域
分割法と、2フレーム間の動き情報による領域分割法
と、エッジ抽出フィルタによる領域分割法とがあった。
例えば、輝度信号と色差信号を用いたK−平均アルゴリ
ズムを用いた領域分割法はしばしば領域分割法に用いら
れる。
2. Description of the Related Art Conventionally, as a region dividing method for performing motion compensation of an image, a region dividing method using a luminance signal or a color difference signal of an image, a region dividing method using motion information between two frames, and a region using an edge extraction filter. There was a division method.
For example, a region segmentation method using a K-means algorithm using a luminance signal and a color difference signal is often used as the region segmentation method.

【0003】[0003]

【発明が解決しようとする課題】従来法のうち、動き情
報だけによる領域分割法では、被写体(オブジェクト)
の一部が静止したときに領域として抽出されず、連続し
た画像のフレームにおいて異なったオブジェクトになり
得る。輝度信号による領域分割法では、あるフレームに
おいて、前景の物体の輝度と背景の輝度が同じであると
きには、前景の物体の輪郭は正確に得られない。アフィ
ン変換はオブジェクトの形(領域)が正確に得られてい
るときに、領域の変形を記述するパラメータであるた
め、このようにオブジェクトの形が崩れた場合、アフィ
ン変換のパラメータが不正確になりフレーム間予測効率
が低下する。
Among the conventional methods, in the area division method using only motion information, the object (object)
When a part of the image is stationary, it is not extracted as a region, and may become different objects in successive image frames. In the area division method using the luminance signal, the contour of the foreground object cannot be accurately obtained when the luminance of the foreground object and the background luminance are the same in a certain frame. Since the affine transformation is a parameter that describes the deformation of the area when the shape (area) of the object is obtained accurately, if the shape of the object collapses in this way, the parameters of the affine transformation become inaccurate. Interframe prediction efficiency is reduced.

【0004】また、輝度信号と色差信号を用いたK−平
均アルゴリズムを用いた領域分割法では、動きの情報が
反映されないため、動いていない背景に模様がある場合
にも、オブジェクトが多数検出される。それぞれの動き
のパラメータを符号化伝送すると符号化効率が低下す
る。
Further, in the area dividing method using the K-averaging algorithm using the luminance signal and the color difference signal, since the motion information is not reflected, a large number of objects are detected even when there is a pattern on the stationary background. It When the parameters of each motion are coded and transmitted, the coding efficiency decreases.

【0005】また、エッジ検出フィルタあるいは輪郭抽
出フィルタを用いた領域分割法では、細かなエッジ検出
が可能な反面、オブジェクトの境界がどこであるかを検
出することが困難であった。一般にエッジ検出フィルタ
は閉領域を決定するものではないため、先端が途切れた
細線が多数出現する。
Further, in the area division method using the edge detection filter or the contour extraction filter, fine edge detection is possible, but it is difficult to detect where the boundary of the object is. In general, the edge detection filter does not determine the closed area, and therefore a large number of fine lines with broken ends appear.

【0006】本発明の目的は、従来の不正確な領域分割
を改善するとともに、符号化効率の高い動き補償方法を
提供することにある。
An object of the present invention is to provide a motion compensation method which improves the conventional inaccurate area division and has high coding efficiency.

【0007】[0007]

【課題を解決するための手段】本発明の動き補償方法
は、複数の種類の領域分割法に、当該領域分割法を適用
する順位をつけ、該順位にしたがってこれら領域分割法
を順次適用して分割領域を更新してゆき、最終的な領域
分割画像を基に予測画像を作成する。
According to the motion compensation method of the present invention, a plurality of types of area division methods are given a rank to which the area division method is applied, and the area division methods are sequentially applied according to the rank. The divided areas are updated, and a predicted image is created based on the final area divided image.

【0008】[0008]

【作用】請求項1の発明を、フレーム内の画像信号、2
フレーム間の動き情報、エッジ抽出フィルタの各領域分
割法を用いる場合について説明する。
According to the invention of claim 1, an image signal in a frame, 2
A case where the motion information between frames and each area division method of the edge extraction filter are used will be described.

【0009】まず、フレーム内の画像信号、2フレーム
間の動き情報、及びエッジ抽出フィルタによるそれぞれ
の領域分割法に適用順位をつける。本発明は最優先の領
域分割法により得られた領域分割を基盤に、その他の2
領域分割法を順次適用し、分割領域を更新してゆく手法
である。
First, the order of application is given to the image signal in a frame, the motion information between frames, and the respective area division methods by the edge extraction filter. The present invention is based on the area division obtained by the highest priority area division method and
This is a method of sequentially applying the area division method and updating the divided areas.

【0010】いま、適用順位を仮に、フレーム内画像信
号、動き情報、エッジ抽出フィルタの順として説明す
る。なお、ここではフレーム内画像信号として、輝度信
号、色差信号を適用する。まず、輝度信号に基づいた閾
値処理等に基づいて領域を分割する。次に、得られた各
領域に対して色差信号に基づいた閾値処理を行ない、閾
値をこえる色差値の変動がある領域についてはさらに分
割を行なう。ただし、ここではK−平均アルゴリズムを
用いた領域分割のように輝度信号と色差信号を同時に扱
う方法をとることも可能である。次に、現在領域を分割
しているフレームと時間的に連続したフレームとの間で
各領域の動きベクトルを求め、動きベクトルの差分が一
定の閾値以内に収まる隣接した領域を統合する。最後
に、エッジ抽出オペレータを現在のフレームに対して施
し、抽出されたエッジと一致しない領域境界を削除・修
正するなどの処理を行ない、最終的な領域分割を得る。
Now, the application order will be described assuming that the intra-frame image signal, the motion information, and the edge extraction filter are in this order. Note that here, a luminance signal and a color difference signal are applied as the in-frame image signal. First, the area is divided based on threshold processing based on the luminance signal. Next, threshold value processing is performed on each of the obtained areas based on the color difference signal, and areas in which the color difference value changes beyond the threshold value are further divided. However, here, it is also possible to adopt a method of simultaneously handling a luminance signal and a color difference signal, such as area division using a K-averaging algorithm. Next, the motion vector of each area is obtained between the frame that divides the current area and the temporally continuous frame, and adjacent areas in which the difference between the motion vectors falls within a certain threshold are integrated. Finally, an edge extraction operator is applied to the current frame to perform processing such as deleting / correcting an area boundary that does not match the extracted edge to obtain a final area division.

【0011】なお、以上説明した方法は一例にすぎな
い。3種類の領域分割法の適用順位を変えることによ
り、様々な領域分割手法を得ることが可能である。たと
えば、動き情報による領域分割法を再優先する場合に
は、初期画面の領域分割を動き情報に従って逐次更新し
て得られた現フレームの領域分割を基に、輝度信号、色
差信号、エッジ情報により領域境界の修正を行なうなど
の手法をとることもできる。また、3種類の領域分割法
の適用順位が同じでも、個々の領域分割アルゴリズムを
替えることによって、代替手法を得ることが可能であ
る。また、上記の3種類の領域分割法のうちの2種類を
組合せてもよく、さらに上記の3種類の領域分割法以外
の領域分割法を組合せてもよい。
The method described above is merely an example. By changing the application order of the three types of area division methods, various area division methods can be obtained. For example, when prioritizing the area division method based on the motion information, the area division of the initial screen is sequentially updated according to the movement information, and based on the area division of the current frame, the luminance signal, the color difference signal, and the edge information are used. It is also possible to take a method such as correcting the area boundary. Even if the application order of the three types of area division methods is the same, it is possible to obtain an alternative method by changing each area division algorithm. Further, two kinds of the above three kinds of area division methods may be combined, and further area division methods other than the above three kinds of area division methods may be combined.

【0012】次に、請求項2の発明について説明する。
上記のように、請求項1の領域分割手法は多数存在す
る。そこで、これらを予め数種類用意しておき、それぞ
れに識別情報を付け、使用した領域分割手法の識別情報
を復号側に送信する。この情報により、原画像でなくロ
ーカルデコーダで再生した画像を領域分割して領域情報
を送らずに済ませる手法をとる場合にも、符号化側と復
号側で同じ領域分割を行なうことができる。
Next, the invention of claim 2 will be described.
As described above, there are many area division methods according to claim 1. Therefore, several kinds of these are prepared in advance, identification information is attached to each, and the identification information of the used area division method is transmitted to the decoding side. With this information, the same area division can be performed on the encoding side and the decoding side even when a method is adopted in which an image reproduced by a local decoder instead of the original image is divided and the area information is not sent.

【0013】次に、請求項3の発明について説明する。
予め用意された数種類の領域分割手法によって得られた
領域分割を基に、領域情報、動き情報、予測誤差情報を
あわせた符号量を計算し、これらのデータから符号化情
報量が最も少ない領域分割手法を判定し、その予測画像
と識別情報を復号側に送信することにより、最も効率の
良い領域分割手法を選択することが可能となる。
Next, the invention of claim 3 will be described.
The amount of code that combines the region information, motion information, and prediction error information is calculated based on the region division obtained by several types of region division methods prepared in advance, and the region division with the smallest amount of encoded information is calculated from these data. By determining the method and transmitting the predicted image and the identification information to the decoding side, it is possible to select the most efficient area division method.

【0014】したがって、本発明を用いれば、オブジェ
クト領域を正確に切り出した領域分割が可能となり、動
き補償による予測効率が高まり、また、非オブジェクト
領域の冗長な領域分割が削減され、領域情報が低減され
る。
Therefore, according to the present invention, it is possible to accurately segment an object region, improve prediction efficiency by motion compensation, reduce redundant region segmentation of a non-object region, and reduce region information. To be done.

【0015】[0015]

【実施例】次に、本発明の実施例について図面を参照し
て説明する。
Embodiments of the present invention will now be described with reference to the drawings.

【0016】図1は本発明の一実施例の動き補償方法を
示すブロック図、図2,図3はそれぞれ請求項1,2,
3に対応する処理を示すフローチャートである。
FIG. 1 is a block diagram showing a motion compensation method according to an embodiment of the present invention, and FIGS. 2 and 3 are claims 1, 2 and 3, respectively.
It is a flowchart which shows the process corresponding to 3.

【0017】本実施例は、フレーム内画像信号による領
域分割法(以下、領域分割法Aと称す)、2フレーム間
の動き情報による領域分割法(以下、領域分割法Bと称
す)、エッジ抽出フィルタによる領域分割法(以下、領
域分割法Cと称す)の3つの領域分割法を用いて領域分
割を行なうものである。
In this embodiment, an area division method using an in-frame image signal (hereinafter referred to as area division method A), an area division method based on motion information between two frames (hereinafter referred to as area division method B), and edge extraction. The area division is performed by using three area division methods, which are an area division method using a filter (hereinafter, referred to as an area division method C).

【0018】(請求項1の実施例)領域分割部3は、
A,B,Cの順序に領域分割法を適用し(ステップ4
1,42)、予測画像作成部20は領域分割部3から出
力された最終的な領域分割画像16を入力し、予測画像
29と符号量のデータ33を作成し、出力する(ステッ
プ43)。
(Embodiment of claim 1) The area dividing unit 3
The area division method is applied in the order of A, B, and C (step 4
1, 42), the predicted image creating unit 20 receives the final area-divided image 16 output from the area dividing unit 3, creates the predicted image 29 and the code amount data 33, and outputs (Step 43).

【0019】領域分割部3の処理について詳しく説明す
る。まず、現時刻の画像7はフレーム内領域分割部8に
おいてフレーム内の輝度信号と色差信号に基づいた閾値
処理によって領域分割される。閾値処理には、分離・統
合法、K−平均クラスタリング等のアルゴリズムを用い
る。ここで得られた領域分割の情報9は動き推定部10
に送られ、分割された各領域をブロックとし、前時刻の
画像11を参照して、動き推定が行なわれる。次に、領
域統合部13は得られた動きベクトル12を参照し、あ
る閾値内に含まれる類似のベクトルを持つ領域を統合
し、領域分割の更新を行なう。更新された領域分割画像
14は、領域修正部15においてエッジ抽出オペレータ
により得られたエッジを参照しながらさらに修正され、
最終的な領域分割画像16が予測画像作成部20に出力
される。次に、予測画像作成部20の処理を説明する。
領域分割部3から得られた領域分割画像16を基に、動
き推定・補償部24において動きベクトルの推定と動き
補償予測画像の作成を行なう。ここで作成された予測画
像25はフレームメモリ26に蓄えられる。また、符号
量計算部28では、画像16の分割領域を示す符号量と
動きベクトル27の符号量と予測誤差信号の符号量を計
算し、これら合わせたデータ33を出力する。
The processing of the area dividing section 3 will be described in detail. First, the image 7 at the current time is divided into regions by the intra-frame region dividing unit 8 by threshold processing based on the luminance signal and the color difference signals in the frame. Algorithms such as the separation / integration method and K-means clustering are used for the threshold processing. The information 9 of the area division obtained here is the motion estimation unit 10.
The divided regions are sent as blocks and the motion estimation is performed with reference to the image 11 at the previous time. Next, the region integration unit 13 refers to the obtained motion vector 12, integrates regions having similar vectors included within a certain threshold, and updates the region division. The updated area-divided image 14 is further modified in the area modification unit 15 with reference to the edge obtained by the edge extraction operator,
The final area division image 16 is output to the prediction image creation unit 20. Next, the processing of the predicted image creating unit 20 will be described.
Based on the area division image 16 obtained from the area division unit 3, the motion estimation / compensation unit 24 estimates a motion vector and creates a motion compensation prediction image. The predicted image 25 created here is stored in the frame memory 26. Further, the code amount calculation unit 28 calculates the code amount indicating the divided area of the image 16, the code amount of the motion vector 27, and the code amount of the prediction error signal, and outputs the combined data 33.

【0020】(請求項2の実施例)領域分割部3の他に
領域分割部4,5,6が備えられ、領域分割部4,5,
6に対応して予測画像作成部21,22,23がそれぞ
れ備えられている(ステップ51)。
(Embodiment 2) In addition to the area dividing section 3, area dividing sections 4, 5, 6 are provided, and the area dividing sections 4, 5, 5 are provided.
The predicted image creating units 21, 22, and 23 are provided corresponding to 6 (step 51).

【0021】領域分割部4は、B,C,Aの順序に領域
分割法を適用し、領域分割部5は、C,A,Bの順序に
領域分割法を適用し、領域分割部6は、A,C,Bの順
序に領域分割法を適用し、予測画像作成部21,22,
23はそれぞれ領域分割部4,5,6から出力された最
終的な領域分割画像17,18,19を入力し、予測画
像30,31,32と符号化量のデータ34,35,3
6を作成する。
The area dividing unit 4 applies the area dividing method in the order of B, C, A, the area dividing unit 5 applies the area dividing method in the order of C, A, B, and the area dividing unit 6 , A, C, B are applied in the order of the region division method, and the prediction image creation units 21, 22,
23 inputs the final area-divided images 17, 18, and 19 output from the area-division units 4, 5, and 6, respectively, and predicts images 30, 31, 32 and data 34, 35, 3 of the encoding amount.
Create 6.

【0022】領域分割部4,5,6も領域分割部3と同
様の処理を行ない、予測画像作成部21,22,23は
予測画像作成部20と同様の処理を行なう。
The area dividing units 4, 5 and 6 also perform the same processing as that of the area dividing unit 3, and the predicted image creating units 21, 22 and 23 perform the same processing as the predicted image creating unit 20.

【0023】領域分割手法指定情報1(識別情報)が領
域分割制御部2に入力されると、領域分割制御部2は領
域分割手法指定情報1で指定された領域分割部を起動
し、領域分割および該領域分割部に接続された予測画像
作成部による予測画像および符号量のデータの作成を実
行させる(ステップ52)。作成された予測画像と符号
量のデータは領域分割手法指定情報1とともに復号側
(不図示)に送られる(ステップ53)。復号側では符
号化側と同じ領域分割が同じ順位で行なわれる。
When the area division method designation information 1 (identification information) is input to the area division control unit 2, the area division control unit 2 activates the area division unit designated by the area division method designation information 1 to perform the area division. Then, the predicted image creating unit connected to the area dividing unit creates the predicted image and the data of the code amount (step 52). The generated predicted image and code amount data are sent to the decoding side (not shown) together with the area division method designating information 1 (step 53). On the decoding side, the same area division as on the encoding side is performed in the same order.

【0024】(請求項3の実施例)複数の領域分割部3
〜6および予測画像作成部20〜23を予め用意するの
は前述の実施例と同じである(ステップ61)。次に、
領域分割制御部2から領域分割部3,4,5,6に順
次、起動信号を出力し、領域分割部3,4,5,6によ
る領域分割と予測画像作成部20,21,22,23に
よる予測画像29,30,31,32および符号量のデ
ータ33,34,35,36の作成を実行させる(ステ
ップ62)。次に、領域分割手法決定部37はこれらの
符号化量デーッタ33,34,35,36を入力し、互
いに比較して、最も符号化情報量の少ない領域分割部を
示す情報と、該領域分割部による動き補償予測画像38
を復号側に出力する(ステップ63)。
(Claim 3) A plurality of area dividing units 3
6 and the predicted image creating units 20 to 23 are prepared in advance as in the above-described embodiment (step 61). next,
An activation signal is sequentially output from the area division control unit 2 to the area division units 3, 4, 5, and 6, and the area division and prediction image creation units 20, 21, 22, and 23 by the area division units 3, 4, 5, and 6 are performed. The predicted images 29, 30, 31, 32 and the code amount data 33, 34, 35, 36 are generated (step 62). Next, the area division method determination unit 37 inputs these encoding amount data 33, 34, 35, 36, and compares them with each other to obtain information indicating the area division unit having the smallest amount of encoded information and the area division. Motion compensated prediction image 38
Is output to the decoding side (step 63).

【0025】なお、以上の実施例では、領域分割法A,
B,C全てを組合せる例について説明したが、これら3
つの領域分割法A,B,Cのいずれか2つを組合せても
よく、また領域分割法A,B,C以外の領域分割法を組
合せてもよい。
In the above embodiment, the area division method A,
An example of combining all B and C has been explained, but these 3
Any two of the two area division methods A, B and C may be combined, or area division methods other than the area division methods A, B and C may be combined.

【0026】[0026]

【発明の効果】【The invention's effect】

(1)請求項1の発明は、相異なる複数の種類の領域分
割法を指定された順序に適用して領域分割を更新してゆ
くことにより、オブジェクト領域を正確に切り出す領域
分割が得られるため、オブジェクトの動き推定が正確に
なり、予測効率が上がり、また非オブジェクト領域の冗
長な領域分割が削減できるため、領域情報が低減され
る。これにより効率の良い符号化を実現できる。 (2)請求項2の発明は、複数の種類の領域分割法の組
合せを任意の数用意しておいて、これらの組合せのいず
れかを選択することにより、任意の領域分割法の組合せ
を選択することができる。 (3)請求項3の発明は、複数の種類の領域分割法の組
合せを複数用意し、これらの領域分割結果から符号化情
報量の最も少ない手法を選択することにより、さらに効
率のよい動画像符号化を実現できる。
(1) According to the first aspect of the present invention, since a plurality of different types of area division methods are applied in a specified order to update the area division, an area division that accurately cuts out an object area can be obtained. Since the motion estimation of the object is accurate, the prediction efficiency is improved, and the redundant area division of the non-object area can be reduced, the area information is reduced. As a result, efficient encoding can be realized. (2) In the invention of claim 2, an arbitrary number of combinations of a plurality of types of area division methods are prepared, and any one of these combinations is selected to select an arbitrary combination of area division methods. can do. (3) The invention of claim 3 further prepares a plurality of combinations of a plurality of types of area division methods, and selects a method with the smallest amount of coded information from these area division results, so that a more efficient moving image is obtained. Encoding can be realized.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例の動き補償方法を示すブロッ
ク図である。
FIG. 1 is a block diagram showing a motion compensation method according to an embodiment of the present invention.

【図2】請求項1を示すフローチャートである。FIG. 2 is a flowchart showing claim 1.

【図3】請求項2を示すフローチャートである。FIG. 3 is a flowchart showing claim 2.

【図4】請求項3を示すフローチャートである。FIG. 4 is a flowchart showing claim 3.

【符号の説明】[Explanation of symbols]

1 領域分割手法識別情報 2 領域分割制御部 3〜6 領域分割部 7 現時刻の入力画像 8 フレーム内領域分割部 9 初期の領域分割画像 10 動き推定部 11 前時刻の入力画像 12 動きベクトル情報 13 領域統合部 14 領域統合後の領域分割情報 15 領域修正部 16〜19 最終的な領域分割画像 20〜23 予測画像作成部 24 動き推定・補償部 25 予測画像 26 フレームメモリ 27 動きベクトル情報 28 符号量計算部 29〜32 予測画像 33〜36 符号量データ 37 領域分割手法決定部 38 採用した領域分割手法の識別情報と予測画像 41〜43,51〜53,61〜63 ステップ 1 area division method identification information 2 area division control section 3 to 6 area division section 7 input image at current time 8 intra-frame area division section 9 initial area division image 10 motion estimation section 11 input image at previous time 12 motion vector information 13 Region integration unit 14 Region division information after region integration 15 Region correction unit 16 to 19 Final region division image 20 to 23 Prediction image creation unit 24 Motion estimation / compensation unit 25 Prediction image 26 Frame memory 27 Motion vector information 28 Code amount Calculation unit 29 to 32 Predicted image 33 to 36 Code amount data 37 Region division method determination unit 38 Identification information of adopted region division method and predicted image 41 to 43, 51 to 53, 61 to 63 steps

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 画像をいくつかの領域に区切り、それぞ
れの領域に対して動きを表すパラメータを作用させて予
測画像を作成する動き補償方法であって、 複数の種類の領域分割法に、当該領域分割法を適用する
順位をつけ、該順位にしたがってこれら領域分割法を順
次適用して分割領域を更新してゆき、最終的な領域分割
画像を基に予測画像を作成する動き補償方法。
1. A motion compensation method that divides an image into several regions and applies a parameter representing motion to each region to create a predicted image, which is applicable to a plurality of types of region segmentation methods. A motion compensation method in which the order of applying the area division method is set, the area division methods are sequentially applied according to the order to update the divided areas, and a prediction image is created based on the final area division image.
【請求項2】 複数の種類の領域分割法を予め決められ
た順位で適用する領域分割手法であって、組合される領
域分割法の種類が異なったり、組合される領域分割法が
同じでもそれらが適用される順位が異なる複数の領域分
割手法を用意し、これら領域分割手法のうちのいずれか
を指定して領域分割およびその後の予測画像作成を実行
し、作成された予測画像と、該指定された領域分割手法
を示す識別情報を復号側に伝送する、請求項1記載の動
き補償方法。
2. A region segmentation method for applying a plurality of types of region segmentation methods in a predetermined order, even if different types of region segmentation methods are combined or the same region segmentation methods are combined. Is prepared, a plurality of area division methods with different orders are prepared, and one of these area division methods is designated to perform area division and subsequent prediction image creation, and the created prediction image and the specified The motion compensation method according to claim 1, wherein identification information indicating the generated area division method is transmitted to the decoding side.
【請求項3】 複数の種類の領域分割法を予め決められ
た順位で適用する領域分割手法であって、組合される領
域分割法の種類が異なったり、組合される領域分割法が
同じでもそれらが適用される順位が異なる複数の領域分
割手法を用意し、これら領域分割手法による領域分割お
よびその後の予測画像作成を実行し、予測画像作成にお
いて算出された符号化情報の量が最小の領域分割手法に
より作成された予測画像と、該領域分割手法を示す識別
情報を復号側に伝送する、請求項1記載の動き補償方
法。
3. A region segmentation method for applying a plurality of types of region segmentation methods in a predetermined order, even if different types of region segmentation methods are combined or the same region segmentation methods are combined. A plurality of area division methods with different order of application are prepared, area division by these area division methods and subsequent prediction image creation are executed, and the area division with the minimum amount of coding information calculated in the prediction image creation is performed. The motion compensation method according to claim 1, wherein the prediction image created by the method and the identification information indicating the area division method are transmitted to the decoding side.
【請求項4】 前記の複数の種類の領域分割法として、
フレーム内の画像信号による領域分割法と、2フレーム
間の動き情報による領域分割法と、エッジ抽出フィルタ
による領域分割法の少なくとも1つの領域分割法を含
む、請求項1から3のいずれか1項記載の動き補償方
法。
4. As the plurality of types of area division methods,
4. The method according to claim 1, which includes at least one area division method using an image signal in a frame, an area division method using motion information between two frames, and an area division method using an edge extraction filter. The described motion compensation method.
JP4821494A 1994-03-18 1994-03-18 Motion compensation method Pending JPH07264597A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4821494A JPH07264597A (en) 1994-03-18 1994-03-18 Motion compensation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4821494A JPH07264597A (en) 1994-03-18 1994-03-18 Motion compensation method

Publications (1)

Publication Number Publication Date
JPH07264597A true JPH07264597A (en) 1995-10-13

Family

ID=12797169

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4821494A Pending JPH07264597A (en) 1994-03-18 1994-03-18 Motion compensation method

Country Status (1)

Country Link
JP (1) JPH07264597A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100761846B1 (en) * 2006-05-18 2007-09-28 삼성전자주식회사 Motion detection device and motion detection method for detecting whether there is motion in successive images
JP2008092301A (en) * 2006-10-02 2008-04-17 Toshiba Corp Video encoding apparatus, video decoding apparatus, and video decoding method
US7526027B2 (en) 2002-04-16 2009-04-28 Mitsubishi Denki Kabushiki Kaisha Video data converter and video data converting method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7526027B2 (en) 2002-04-16 2009-04-28 Mitsubishi Denki Kabushiki Kaisha Video data converter and video data converting method
KR100761846B1 (en) * 2006-05-18 2007-09-28 삼성전자주식회사 Motion detection device and motion detection method for detecting whether there is motion in successive images
JP2008092301A (en) * 2006-10-02 2008-04-17 Toshiba Corp Video encoding apparatus, video decoding apparatus, and video decoding method
US8320691B2 (en) 2006-10-02 2012-11-27 Kabushiki Kaisha Toshiba Image coding apparatus, image decoding apparatus, and image decoding method

Similar Documents

Publication Publication Date Title
JP3847827B2 (en) Motion vector detection method
US5572258A (en) Motion compensation estimating device and method achieving improved motion compensation
KR100609249B1 (en) Image object tracking method and corresponding system
KR20040028911A (en) Method and apparatus for motion estimation between video frames
JPH08275180A (en) Contour coding device
JP2009509417A (en) Extraction of moving object boundary
CN109903315B (en) Method, apparatus, device and readable storage medium for optical flow prediction
KR20000013212A (en) Method for dividing moving picture object by outline track
JP4123539B2 (en) Image segmentation method
JPH08340553A (en) Video signal encoder
JPH089379A (en) Motion vector detection method
JPH07264597A (en) Motion compensation method
JPH08335268A (en) Area extracting method
JP2006521740A (en) Motion vector determination method
JP3537616B2 (en) Motion estimation method by computer for temporally consecutive image pixels of video sequence
JP2590705B2 (en) Motion compensation prediction device
JP4094699B2 (en) Image segmentation method and circuit for implementing the same
JPH10341441A (en) Movement estimation method for moving image using twodimensional triangle patch line grating model
JPH09182077A (en) Image coding method and image coding apparatus
JPH09191461A (en) A computer-based motion estimation method for temporally sequential image pixels of a video sequence.
JP2980810B2 (en) Motion vector search method and apparatus
JPH0879759A (en) Image encoding device and image decoding device
JP3237815B2 (en) Motion vector search method and apparatus
Morier et al. Relative depth estimation of video objects for image interpolation
CN115037933B (en) Method and equipment for inter-frame prediction