JP7460384B2 - Prediction device, encoding device, decoding device, and program - Google Patents
Prediction device, encoding device, decoding device, and program Download PDFInfo
- Publication number
- JP7460384B2 JP7460384B2 JP2020020955A JP2020020955A JP7460384B2 JP 7460384 B2 JP7460384 B2 JP 7460384B2 JP 2020020955 A JP2020020955 A JP 2020020955A JP 2020020955 A JP2020020955 A JP 2020020955A JP 7460384 B2 JP7460384 B2 JP 7460384B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- prediction
- block
- region
- outputs
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 116
- 238000002156 mixing Methods 0.000 claims description 68
- 230000015572 biosynthetic process Effects 0.000 claims description 26
- 238000003786 synthesis reaction Methods 0.000 claims description 26
- 238000004364 calculation method Methods 0.000 claims description 24
- 239000013598 vector Substances 0.000 claims description 19
- 238000001308 synthesis method Methods 0.000 claims description 10
- 238000013139 quantization Methods 0.000 description 48
- 238000010586 diagram Methods 0.000 description 14
- 230000009466 transformation Effects 0.000 description 9
- 238000000354 decomposition reaction Methods 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 5
- 230000002194 synthesizing effect Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 239000000203 mixture Substances 0.000 description 3
- 238000005192 partition Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000011664 signaling Effects 0.000 description 2
- 238000000638 solvent extraction Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
本発明は、予測装置、符号化装置、復号装置、及びプログラムに関する。 The present invention relates to a prediction device, an encoding device, a decoding device, and a program.
動画像(映像)の符号化方式においては、符号化装置は、原画像をブロックに分割し、フレーム間の時間的相関を利用したインター予測とフレーム内の空間的相関を利用したイントラ予測とを切り替えながら符号化対象ブロックを予測し、予測されたブロックと符号化対象ブロックとの差を表す予測残差に対して変換処理、量子化処理、及びエントロピー符号化処理を施し、ビットストリームである符号化データを出力する。 In a video encoding system, the encoding device divides the original image into blocks and performs inter prediction using temporal correlation between frames and intra prediction using spatial correlation within frames. The block to be encoded is predicted while switching, and the prediction residual representing the difference between the predicted block and the block to be encoded is subjected to transformation processing, quantization processing, and entropy encoding processing, and a code that is a bit stream is generated. Output converted data.
次世代の符号化方式であるVVC(Versatile Video Coding)では、インター予測のモードの1つとして三角形分割予測(TPM:Triangle Partitioning Mode)が採用されている。TPMは、符号化対象ブロックを対角線で分割した領域のそれぞれに動きべクトルを割り当て、動き補償予測を行うものである。 Versatile Video Coding (VVC), a next-generation coding method, employs triangular partitioning prediction (TPM: Triangle Partitioning Mode) as one of the inter-prediction modes. TPM divides the coding target block diagonally, assigning motion vectors to each area, and performs motion compensation prediction.
TPMでは、領域境界付近の予測画像については、領域ごとの予測画像の位置に応じた重み付け合成(加重平均)より混合する混合処理(blendingと呼ばれる)を行うことで、領域ごとの動き予測補償による不連続性を抑制している。スクリーンコンテンツなどのようにフラットな領域及びエッジが多く含まれているシーケンスにおいては、blendingによってエッジのぼやけを引き起こす場合がある。このため、非特許文献1においては、TPMによる予測において、blendingを行わなわずに予測画像を合成するNon-blending モードを導入している。
In TPM, for predicted images near region boundaries, a mixing process (called blending) is performed in which predicted images for each region are mixed using weighted synthesis (weighted average) according to their position, thereby suppressing discontinuity caused by motion prediction compensation for each region. In sequences that contain many flat regions and edges, such as screen content, blending can cause edge blurring. For this reason, Non-Patent
非特許文献1のようにTPMにおいて複数のblendingモード(複数の合成方式)を導入する場合、どのモードを用いるかを示すフラグを符号化側から復号側にシグナリングする必要がある。このため、シグナリングするフラグ量が増加し、符号化効率の低下を招くという問題がある。
When introducing multiple blending modes (multiple combining methods) in TPM as in Non-Patent
そこで、本発明は、複数の合成方式を分割予測に導入する場合であっても、シグナリングするフラグ量の増加を抑制できる予測装置、符号化装置、復号装置、及びプログラムを提供することを目的とする。 SUMMARY OF THE INVENTION Therefore, an object of the present invention is to provide a prediction device, an encoding device, a decoding device, and a program that can suppress an increase in the amount of flags to be signaled even when a plurality of combining methods are introduced into segmented prediction. do.
第1の態様に係る予測装置は、画像を分割したブロック単位で予測を行う予測装置であって、予測対象ブロックを直線により分割して少なくとも2つの予測領域を出力する分割部と、前記2つの予測領域のそれぞれについて、動きベクトルを用いて領域予測画像を生成する生成部と、前記生成部が生成した2つの領域予測画像間の類似度を示す類似度情報を算出する算出部と、前記算出部が算出した前記類似度情報に基づいて、前記2つの領域予測画像の合成に用いる合成方式を複数の方式の中から決定する決定部と、前記決定部が決定した前記合成方式を用いて前記2つの領域予測画像を合成し、前記予測対象ブロックに対応する予測ブロックを出力する合成部とを備えることを要旨とする。 A prediction device according to a first aspect is a prediction device that performs prediction in units of blocks obtained by dividing an image, and includes a dividing unit that divides a prediction target block along a straight line and outputs at least two prediction regions; For each prediction region, a generation unit that generates a region prediction image using a motion vector, a calculation unit that calculates similarity information indicating a degree of similarity between two region prediction images generated by the generation unit, and the calculation unit. a determining unit that determines a combining method to be used for combining the two region predicted images from among a plurality of methods based on the similarity information calculated by the determining unit; The gist of the present invention is to include a combining unit that combines two region predicted images and outputs a predicted block corresponding to the prediction target block.
第2の態様に係る符号化装置は、第1の態様に係る予測装置を備えることを要旨とする。 The encoding device according to the second aspect is characterized in that it includes the prediction device according to the first aspect.
第3の態様に係る復号装置は、第1の態様に係る予測装置を備えることを要旨とする。 The decoding device according to the third aspect is characterized in that it includes the prediction device according to the first aspect.
第4の態様に係るプログラムは、コンピュータを第1の態様に係る予測装置として機能させることを要旨とする。 The gist of the program according to the fourth aspect is to cause a computer to function as the prediction device according to the first aspect.
本発明によれば、複数の合成方式を分割予測に導入する場合であっても、シグナリングするフラグ量の増加を抑制できる予測装置、符号化装置、復号装置、及びプログラムを提供できる。 According to the present invention, it is possible to provide a prediction device, an encoding device, a decoding device, and a program that can suppress an increase in the amount of flags to be signaled even when a plurality of combining methods are introduced into divided prediction.
図面を参照して、実施形態に係る符号化装置及び復号装置について説明する。実施形態に係る符号化装置及び復号装置は、MPEGに代表される動画像の符号化及び復号をそれぞれ行う。以下の図面の記載において、同一又は類似の部分には同一又は類似の符号を付している。 An encoding device and a decoding device according to an embodiment will be described with reference to the drawings. The encoding device and the decoding device according to the embodiment encode and decode moving images represented by MPEG, respectively. In the description of the drawings below, the same or similar parts are designated by the same or similar symbols.
<符号化装置の構成>
まず、本実施形態に係る符号化装置の構成について説明する。図1は、本実施形態に係る符号化装置1の構成を示す図である。符号化装置1は、画像を分割して得たブロック単位で符号化を行う装置である。
<Configuration of encoding device>
First, the configuration of the encoding device according to this embodiment will be explained. FIG. 1 is a diagram showing the configuration of an
図1に示すように、符号化装置1は、ブロック分割部100と、減算部110と、変換・量子化部120と、エントロピー符号化部130と、逆量子化・逆変換部140と、合成部150と、メモリ160と、予測部170とを有する。
As shown in FIG. 1, the
ブロック分割部100は、動画像を構成するフレーム(或いはピクチャ)単位の入力画像を複数の画像ブロックに分割し、分割により得た画像ブロックを減算部110に出力する。画像ブロックのサイズは、例えば32×32画素、16×16画素、8×8画素、又は4×4画素等である。画像ブロックの形状は正方形に限らず矩形(非正方形)であってもよい。画像ブロックは、符号化装置1が符号化を行う単位(符号化対象ブロック)であり、且つ復号装置が復号を行う単位(復号対象ブロック)である。このような画像ブロックはCU(Coding Unit)と呼ばれることがある。
The
ブロック分割部100は、輝度信号と色差信号とに対してブロック分割を行う。以下において、ブロック分割の形状が輝度信号と色差信号とで同じである場合について主として説明するが、輝度信号と色差信号とで分割を独立に制御可能であってもよい。輝度ブロック及び色差ブロックを特に区別しないときは単に符号化対象ブロックと呼ぶ。
The
減算部110は、ブロック分割部100が出力する符号化対象ブロックと、符号化対象ブロックを予測部170が予測して得た予測ブロックとの差分(誤差)を表す予測残差を算出する。減算部110は、ブロックの各画素値から予測ブロックの各画素値を減算することにより予測残差を算出し、算出した予測残差を変換・量子化部120に出力する。
The
変換・量子化部120は、ブロック単位で変換処理及び量子化処理を行う。変換・量子化部120は、変換部121と、量子化部122とを有する。
The conversion/
変換部121は、減算部110が出力する予測残差に対して変換処理を行って周波数成分ごとの変換係数を算出し、算出した変換係数を量子化部122に出力する。変換処理(変換)とは、画素領域の信号を周波数領域の信号に変換する処理をいい、例えば、離散コサイン変換(DCT)や離散サイン変換(DST)、カルーネンレーブ変換(KLT)、及びそれらを整数化した変換等をいう。
The
量子化部122は、変換部121が出力する変換係数を量子化パラメータ(Qp)及び量子化行列を用いて量子化し、量子化した変換係数をエントロピー符号化部130及び逆量子化・逆変換部140に出力する。なお、量子化パラメータ(Qp)は、ブロック内の各変換係数に対して共通して適用されるパラメータであって、量子化の粗さを定めるパラメータである。量子化行列は、各変換係数を量子化する際の量子化値を要素として有する行列である。
The
エントロピー符号化部130は、量子化部122が出力する変換係数に対してエントロピー符号化を行い、データ圧縮を行って符号化ストリーム(ビットストリーム)を生成し、符号化ストリームを符号化装置1の外部に出力する。エントロピー符号化には、ハフマン符号やCABAC(Context-based Adaptive Binary Arithmetic Coding;コンテキスト適応型2値算術符号)等を用いることができる。なお、エントロピー符号化部130は、ブロック分割部100から各符号化対象ブロックのサイズ・形状等の情報を取得し、予測部170から予測に関する情報(例えば、予測モードや動きベクトルの情報)を取得し、これらの情報の符号化も行う。
The
逆量子化・逆変換部140は、ブロック単位で逆量子化処理及び逆変換処理を行う。逆量子化・逆変換部140は、逆量子化部141と、逆変換部142とを有する。
The inverse quantization and
逆量子化部141は、量子化部122が行う量子化処理に対応する逆量子化処理を行う。具体的には、逆量子化部141は、量子化部122が出力する変換係数を、量子化パラメータ(Qp)及び量子化行列を用いて逆量子化することにより変換係数を復元し、復元した変換係数を逆変換部142に出力する。
The
逆変換部142は、変換部121が行う変換処理に対応する逆変換処理を行う。例えば、変換部121がDCTを行った場合には、逆変換部142は逆DCTを行う。逆変換部142は、逆量子化部141が出力する変換係数に対して逆変換処理を行って予測残差を復元し、復元した予測残差である復元予測残差を合成部150に出力する。
The
合成部150は、逆変換部142が出力する復元予測残差を、予測部170が出力する予測ブロックと画素単位で合成する。合成部150は、復元予測残差の各画素値と予測ブロックの各画素値を加算して符号化対象ブロックを復元(復号)し、復元したブロック単位の復号画像(復元ブロック)をメモリ160に出力する。
The synthesis unit 150 synthesizes the reconstructed prediction residual output by the
メモリ160は、合成部150が出力する復元ブロックをフレーム単位で復号画像として蓄積する。メモリ160は、記憶している復号画像を予測部170に出力する。なお、合成部150とメモリ160との間にループフィルタが介在してもよい。
The
予測部170は、ブロック単位で予測処理を行うことにより、符号化対象ブロックに対応する予測ブロックを生成し、生成した予測ブロックを減算部110及び合成部150に出力する。予測処理が行われる符号化対象ブロックを予測対象ブロックと呼ぶ。
The
予測部170は、イントラ予測部171と、インター予測部172と、切替部173とを有する。本実施形態において、インター予測部172は、ブロック単位で予測処理を行う予測装置に相当する。
The
イントラ予測部171は、複数のイントラ予測モードの中から、予測対象ブロックに適用する最適なイントラ予測モードを選択し、選択したイントラ予測モードを用いて予測対象ブロックを予測する。イントラ予測部171は、メモリ160に記憶された復号画像のうち、予測対象ブロックに隣接する復号済み画素値を参照してイントラ予測ブロックを生成し、生成したイントラ予測ブロックを切替部173に出力する。また、イントラ予測部171は、選択したイントラ予測モードに関する情報をエントロピー符号化部130に出力する。
The intra prediction unit 171 selects an optimal intra prediction mode to be applied to the prediction target block from among multiple intra prediction modes, and predicts the prediction target block using the selected intra prediction mode. The intra prediction unit 171 generates an intra prediction block by referring to decoded pixel values adjacent to the prediction target block in the decoded image stored in the
インター予測部172は、メモリ160に記憶された復号画像を参照画像として用いて、ブロックマッチング等の手法により動きベクトルを算出し、予測対象ブロックを予測してインター予測ブロックを生成し、生成したインター予測ブロックを切替部173に出力する。インター予測部172は、複数の参照画像を用いるインター予測(典型的には、双予測)や、1つの参照画像を用いるインター予測(片方向予測)の中から最適なインター予測方法を選択し、選択したインター予測方法を用いてインター予測を行う。インター予測部172は、インター予測に関する情報(動きベクトル情報等)をエントロピー符号化部130に出力する。
The
本実施形態において、インター予測部172は、三角形分割予測(TPM)を行う三角形分割予測部172aを有する(図2参照)。三角形分割予測部172aは、符号化対象ブロックを対角線で分割した領域のそれぞれに動きべクトルを割り当て、動き補償予測を行うものである。インター予測部172は、予測対象ブロックに三角形分割予測を適用する場合、この予測対象ブロックに三角形分割予測を適用することを示す三角形分割予測適用フラグをエントロピー符号化部130に出力し、エントロピー符号化部130から復号側に三角形分割予測適用フラグを伝送する。三角形分割予測部172aの詳細については後述する。
In this embodiment, the
切替部173は、インター予測部172が出力するインター予測ブロックとイントラ予測部171が出力するイントラ予測ブロックとを切り替えて、いずれかの予測ブロックを減算部110及び合成部150に出力する。
The
次に、本実施形態に係る三角形分割予測部172aについて説明する。図2は、本実施形態に係る三角形分割予測部172aの構成を示す図である。
Next, the
図2に示すように、三角形分割予測部172aは、分割部1721と、生成部1722と、算出部1723と、決定部1724と、合成部1725とを有する。
As shown in FIG. 2, the
分割部1721は、予測対象ブロックを対角線で分割し、2つの三角形領域を生成部1722に出力する。三角形領域は、予測対象ブロックを直線により分割した予測領域の一例である。分割方法には、図3(a)に示す方法と図3(b)に示す方法との2種類がある。図3(a)に示す方法では、分割部1721は、符号化対象ブロックの左上の頂天位置及び右下の頂天位置を通る分割線で分割する。図3(b)に示す方法では、分割部1721は、符号化対象ブロックの右上の頂天位置及び左下の頂天位置を通る分割線で分割する。分割部1721は、分割の方向が図3(a)に示す対角線方向及び図3(b)に示す対角線方向のいずれであるかを示す分割方向フラグをエントロピー符号化部130に出力し、エントロピー符号化部130から復号側に分割方向フラグを伝送する。
The
生成部1722は、2つの三角形領域のそれぞれについて動きベクトルを用いて領域予測画像を生成し、2つの領域予測画像を算出部1723及び合成部1725に出力する。具体的には、生成部1722は、予測対象ブロックを分割した各領域に動きべクトルを割り当て、割り当てた動きべクトルを用いて各領域の予測画像を生成する。ここで、生成部1722は、動きベクトルの参照元とする複数の候補を優先度順に並べて、上位一定数の動きベクトルの中から三角形領域ごとに1つの動きベクトルを選択する。生成部1722は、選択した動きベクトルを示す動きベクトル情報をエントロピー符号化部130に出力し、エントロピー符号化部130から復号側に動きベクトル情報を伝送する。
The
算出部1723は、生成部1722が生成した2つの領域予測画像間の類似度を示す類似度情報を算出し、算出した類似度情報を決定部1724に出力する。例えば、算出部1723は、図4(a)に示すように、領域予測画像1における領域予測画像2との境界領域R1と、領域予測画像2における領域予測画像1との境界領域R2との類似度を示す類似度情報を算出する。類似度情報は、類似度を示す情報であればどのような情報であってもよいが、例えば、差の絶対値の総和(SAD:Sum of Abusolute Difference)を類似度情報として用いることができる。
The
算出部1723は、境界領域R1内の画素値(複数)と、対応する境界領域R2内の画素値(複数)との間のSADを類似度情報として算出してもよい。SADが小さいほど類似度が高いことを示し、SADが大きいほど類似度が低いことを示す。
The
類似度情報を算出することは、2つの領域予測画像に対応する2つの参照画像間の類似度を算出することであってもよい。参照画像間の類似度は、一方の参照画像内の画素値(複数)と、対応する他方の参照画像内の画素値(複数)との間のSADとして算出されてもよい。 Calculating the similarity information may be calculating the similarity between two reference images corresponding to the two region predicted images. The degree of similarity between reference images may be calculated as the SAD between pixel values in one reference image and corresponding pixel values in the other reference image.
決定部1724は、算出部1723が算出した類似度情報に基づいて、2つの領域予測画像の合成に用いる合成方式を複数の方式の中から決定し、決定した合成方式を示す情報を合成部1725に出力する。例えば、複数の方式は、2つの領域予測画像間の境界領域を、画素位置ごとの重み係数を用いた重み付け合成により混合する第1方式(以下、「Blending方式」と呼ぶ)を含む。決定部1724は、算出部1723が算出した類似度情報に基づいて、2つの領域予測画像の合成に用いる合成方式としてBlending方式を用いるか否かを決定する。Blending方式によれば、領域ごとの動き予測補償による不連続性を抑制できる。
Based on the similarity information calculated by the
本実施形態において、複数の方式は、境界領域を重み付け合成により混合しない第2方式(以下、「Non-blending方式」と呼ぶ)をさらに含む。決定部1724は、算出部1723が算出した類似度情報に基づいて、2つの領域予測画像の合成に用いる合成方式としてBlending方式及びNon-blending方式のいずれを用いるかを決定する。Non-blending方式によれば、フラットな領域及びエッジが多く含まれているシーケンスについて、Blending方式によるエッジのぼやけを回避できる。
In this embodiment, the plurality of methods further includes a second method (hereinafter referred to as a "Non-blending method") in which boundary regions are not mixed by weighted synthesis. Based on the similarity information calculated by the calculating
このようなBlending方式及びNon-blending方式の切り替えを可能とする場合、Blending方式及びNon-blending方式のいずれを適用するかを示すフラグを復号側に伝送する必要があり得る。しかしながら、画像における背景領域(例えば、空などの滑らかな領域)では、Blending方式であってもNon-blending方式であっても生成される予測画像の特徴は変わることはなく、どちらの方式を選択しても符号化効率に影響は生じない。 When switching between the blending method and the non-blending method is enabled, it may be necessary to transmit a flag indicating which of the blending method and the non-blending method is applied to the decoding side. However, in the background area of an image (for example, a smooth area such as the sky), the characteristics of the predicted image generated will not change whether the blending method or the non-blending method is used, and it is difficult to select which method. However, the encoding efficiency is not affected.
本実施形態では、決定部1724は、算出部1723が算出した類似度情報に基づいてBlending方式及びNon-blending方式のいずれかを決定する。このような類似度情報は復号側でも算出可能な情報であるため、Blending方式及びNon-blending方式のいずれを適用するかを示すフラグを復号側に伝送しなくても、符号化側及び復号側で共通の方式を暗黙的に決定できる。これにより、このようなフラグの復号側への伝送(シグナリング)を不要とし、シグナリングするフラグ量の増加を抑制できる。
In this embodiment, the determining
例えば、決定部1724は、図4(b)及び(c)に示すように、算出部1723が算出した類似度情報に基づいて、類似度情報が示す類似度が閾値よりも低い場合はBlending方式を決定し、類似度情報が示す類似度が閾値よりも高い場合はNon-blending方式を決定する。この閾値は、予め定められた固定値であってもよいし、符号化側から復号側に伝送する可変値であってもよい。
For example, as shown in Figures 4(b) and (c), based on the similarity information calculated by the
合成部1725は、決定部1724が決定した合成方式を用いて、生成部1722が出力する2つの領域予測画像を合成し、予測対象ブロックに対応する予測ブロックを出力する。本実施形態では、合成部1725は、決定部1724がBlending方式を決定した場合は2つの領域予測画像をBlending方式で合成し、決定部1724がNon-blending方式を決定した場合は2つの領域予測画像をNon-blending方式で合成する。
The combining
図5は、2つの領域予測画像P1及びP2を合成する動作を示す図である。図5(a)に示すように、合成部1725は、2つの領域予測画像P1及びP2をBlending方式で合成する場合、予測対象ブロックのブロックサイズ及びブロック形状に応じた重み係数マップ(Weight map)を用いて2つの領域予測画像P1及びP2を加重平均により合成する。これにより、図4(a)に示す境界領域R1及びR2が連続的になるよう調整される。一方、図5(b)に示すように、合成部1725は、2つの領域予測画像P1及びP2をNon-blending方式で合成する場合、2つの領域予測画像P1及びP2を加重平均せずに合成する。
FIG. 5 is a diagram showing the operation of combining two region predicted images P 1 and P 2 . As shown in FIG. 5A, when combining two region predicted images P 1 and P 2 using the blending method, the combining
<復号装置の構成>
次に、本実施形態に係る復号装置の構成について、上述した符号化装置の構成との相違点を主として説明する。図6は、本実施形態に係る復号装置2の構成を示す図である。復号装置2は、符号化ストリームから復号対象ブロックを復号する装置である。
<Configuration of Decoding Device>
Next, the configuration of a decoding device according to this embodiment will be described, focusing mainly on the differences from the configuration of the encoding device described above. Fig. 6 is a diagram showing the configuration of a
図6に示すように、復号装置2は、エントロピー復号部200と、逆量子化・逆変換部210と、合成部220と、メモリ230と、予測部240とを有する。
As shown in FIG. 6, the
エントロピー復号部200は、符号化装置1により生成された符号化ストリームを復号し、量子化された変換係数を取得し、取得した変換係数を逆量子化・逆変換部210(逆量子化部211)に出力する。また、エントロピー復号部200は、各種のシグナリング情報を取得する。例えば、エントロピー復号部200は、復号対象ブロックに適用する予測処理に関する情報を取得し、取得した情報を予測部240に出力する。
The
逆量子化・逆変換部210は、ブロック単位で逆量子化処理及び逆変換処理を行う。逆量子化・逆変換部210は、逆量子化部211と、逆変換部212とを有する。
The inverse quantization and
逆量子化部211は、符号化装置1の量子化部122が行う量子化処理に対応する逆量子化処理を行う。逆量子化部211は、エントロピー復号部200が出力する量子化変換係数を、量子化パラメータ(Qp)及び量子化行列を用いて逆量子化することにより、復号対象ブロックの変換係数を復元し、復元した変換係数を逆変換部212に出力する。
The
逆変換部212は、符号化装置1の変換部121が行う変換処理に対応する逆変換処理を行う。逆変換部212は、逆量子化部211が出力する変換係数に対して逆変換処理を行って予測残差を復元し、復元した予測残差(復元予測残差)を合成部220に出力する。
The
合成部220は、逆変換部212が出力する予測残差と、予測部240が出力する予測ブロックとを画素単位で合成することにより、復号対象ブロックを復元(復号)し、復元ブロックをメモリ230に出力する。
The synthesis unit 220 reconstructs (decodes) the block to be decoded by synthesizing the prediction residual output by the
メモリ230は、合成部220が出力する復元ブロックをフレーム単位で復号画像として記憶する。メモリ230は、フレーム単位の復号画像を復号装置2の外部に出力する。なお、合成部220とメモリ230との間にループフィルタが介在してもよい。
The
予測部240は、ブロック単位で予測を行う。予測部240は、イントラ予測部241と、インター予測部242と、切替部243とを有する。
The
イントラ予測部241は、メモリ230に記憶された復号画像のうち復号対象ブロックに隣接する参照画素を参照し、エントロピー復号部200が出力する情報に基づいて、復号対象ブロックをイントラ予測により予測する。そして、イントラ予測部241は、イントラ予測ブロックを生成し、生成したイントラ予測ブロックを切替部243に出力する。
The
インター予測部242は、メモリ230に記憶された復号画像を参照画像として用いて、復号対象ブロックをインター予測により予測する。インター予測部242は、エントロピー復号部200が出力する動きベクトル情報を用いてインター予測を行うことによりインター予測ブロックを生成し、生成したインター予測ブロックを切替部243に出力する。
The
本実施形態において、インター予測部242は、三角形分割予測(TPM)を行う三角形分割予測部242aを有する(図7参照)。インター予測部242は、予測対象ブロックに三角形分割予測を適用することを示す三角形分割予測適用フラグをエントロピー復号部200が取得した場合、予測対象ブロックに三角形分割予測を適用する。三角形分割予測部242aの詳細については後述する。
In this embodiment, the
切替部243は、イントラ予測部241が出力するイントラ予測ブロックとインター予測部242が出力するインター予測ブロックとを切り替えて、いずれかの予測ブロックを合成部220に出力する。
The
次に、本実施形態に係る三角形分割予測部242aについて説明する。図7は、本実施形態に係る三角形分割予測部242aの構成を示す図である。
Next, the triangular
図7に示すように、三角形分割予測部242aは、分割部2421と、生成部2422と、算出部2423と、決定部2424と、合成部2425とを有する。
As shown in FIG. 7, the
分割部2421は、エントロピー復号部200が取得した分割方向フラグに基づいて予測対象ブロックを対角線で分割し、2つの三角形領域を生成部2422に出力する。
The
生成部2422は、エントロピー復号部200が取得した動きベクトル情報に基づいて2つの三角形領域のそれぞれについて領域予測画像を生成し、2つの領域予測画像を算出部2423及び合成部2425に出力する。
The
算出部2423は、生成部2422が生成した2つの領域予測画像間の類似度を示す類似度情報を算出し、算出した類似度情報を決定部2424に出力する。類似度情報の算出方法は符号化側と同じ方法であり、符号化側及び復号側で共通の規則(アルゴリズム)を用いて類似度情報を算出する。
The
決定部2424は、算出部2423が算出した類似度情報に基づいて、2つの領域予測画像の合成に用いる合成方式を複数の方式の中から決定し、決定した合成方式を示す情報を合成部2425に出力する。本実施形態において、決定部2424は、算出部2423が算出した類似度情報に基づいて、2つの領域予測画像の合成に用いる合成方式としてBlending方式及びNon-blending方式のいずれを用いるかを決定する。合成方式の決定方法は符号化側と同じ方法であり、符号化側及び復号側で共通の規則を用いて合成方式を決定する。すなわち、決定部2424は、Blending方式及びNon-blending方式のいずれを適用するかを示すフラグを基づくことなく、類似度情報に基づいて合成方式を決定する。
The
合成部2425は、決定部2424が決定した合成方式を用いて、生成部2422が出力する2つの領域予測画像を合成し、予測対象ブロックに対応する予測ブロックを出力する。本実施形態では、合成部2425は、決定部2424がBlending方式を決定した場合は2つの領域予測画像をBlending方式で合成し、決定部2424がNon-blending方式を決定した場合は2つの領域予測画像をNon-blending方式で合成する。
The combining
<三角形分割予測部の動作>
次に、本実施形態に係る三角形分割予測部172a及び242aの動作について説明する。三角形分割予測部172a及び242aは同様な動作を行うため、ここでは三角形分割予測部242aを例に挙げて説明する。図8は、本実施形態に係る三角形分割予測部242aの動作フローを示す図である。
<Operation of Triangulation Prediction Unit>
Next, the operation of the triangular
図8に示すように、ステップS1において、分割部2421は、エントロピー復号部200が取得した分割方向フラグに基づいて予測対象ブロックを対角線で分割し、2つの三角形領域を生成部2422に出力する。
As shown in FIG. 8, in step S1, the
ステップS2において、生成部2422は、エントロピー復号部200が取得した動きベクトル情報に基づいて2つの三角形領域のそれぞれについて領域予測画像を生成し、2つの領域予測画像を算出部2423及び合成部2425に出力する。
In step S2, the
ステップS3において、算出部2423は、生成部2422が生成した2つの領域予測画像間の類似度を示す類似度情報を算出し、算出した類似度情報を決定部2424に出力する。
In step S3, the
ステップS4において、決定部2424は、算出部2423が算出した類似度情報に基づいて、2つの領域予測画像の合成に用いる合成方式としてBlending方式及びNon-blending方式のいずれを用いるかを決定する。
In step S4, the
ステップS5において、合成部2425は、決定部2424が決定した合成方式を用いて、生成部2422が出力する2つの領域予測画像を合成し、予測対象ブロックに対応する予測ブロックを出力する。
In step S5, the
このように、本実施形態によれば、Blending方式及びNon-blending方式のいずれを適用するかを示すフラグを復号側に伝送しなくても、符号化側及び復号側で共通の方式を暗黙的に決定できる。これにより、複数の合成方式を三角形分割予測に導入する場合であっても、合成方式を示すフラグの復号側への伝送(シグナリング)を不要とし、シグナリングするフラグ量の増加を抑制できる。 In this way, according to this embodiment, a common method can be implicitly determined on the encoding side and the decoding side without transmitting a flag indicating whether the blending method or the non-blending method is to be applied to the decoding side. This makes it unnecessary to transmit (signal) a flag indicating the blending method to the decoding side even when multiple blending methods are introduced into the triangulation prediction, and can suppress an increase in the amount of flags to be signaled.
<その他の実施形態>
上述した実施形態において、類似度情報に基づいて、2つの領域予測画像の合成に用いる合成方式としてBlending方式及びNon-blending方式のいずれを用いるかを決定する一例について説明した。しかしながら、複数のBlending方式を導入する場合、類似度情報に基づいて複数のBlending方式のいずれを用いるかを決定してもよい。
<Other embodiments>
In the above-mentioned embodiment, an example is described in which the blending method or the non-blending method is determined as the synthesis method used for synthesizing two area prediction images based on similarity information. However, when introducing a plurality of blending methods, it is also possible to determine which of the plurality of blending methods is used based on similarity information.
複数のBlending方式は、境界領域を混合するパラメータが互いに異なっていてもよい。ここで、パラメータは、境界領域の範囲及び重み係数のセットのうち少なくとも1つであってもよい。例えば、Blending処理を適用する境界領域の範囲が第1範囲(狭範囲)であり、重み係数の第1セットを用いる第1Blending方式と、Blending処理を適用する境界領域の範囲が第2範囲(広範囲)であり、重み係数の第2セットを用いる第2Blending方式とを導入する。ここで、第2セットを構成する重み係数は、第1セットに比べて多い。 The plurality of blending methods may have different parameters for blending the boundary areas. Here, the parameter may be at least one of a boundary region range and a set of weighting factors. For example, the range of the boundary area to which the blending process is applied is the first range (narrow range), the first blending method uses the first set of weighting coefficients, and the range of the boundary area to which the blending process is applied is the second range (wide range). ) and a second blending scheme using a second set of weighting coefficients. Here, the number of weighting coefficients forming the second set is larger than that of the first set.
このような前提下において、決定部1724及び2424は、算出部1723及び2423が算出した類似度情報が示す類似度が閾値よりも低い場合は第2Blending方式を決定し、この類似度情報が示す類似度が閾値よりも高い場合は第1Blending方式を決定する。
Under such a premise, the determining
或いは、第1閾値と、この第1閾値よりも大きい第2閾値とを導入してもよい。決定部1724及び2424は、算出部1723及び2423が算出した類似度情報が示す類似度が第2閾値よりも高い場合はNon-blending方式を決定し、この類似度情報が示す類似度が第1閾値よりも低い場合は第2Blending方式を決定し、この類似度情報が示す類似度が第1閾値乃至第2閾値の範囲内にある場合は第1Blending方式を決定する。
Alternatively, a first threshold and a second threshold greater than the first threshold may be introduced. The
上述した実施形態において、予測対象ブロックを対角線により分割して2つの三角形領域を出力する一例について説明したが、直線で分割された分割形状であればよく、分割形状は三角形には限らない。また、予測対象ブロックの分割数を3つ以上とすることもできる。その場合には、3つ以上の予測領域における各領域のペアについての境界付近の類似度をそれぞれ算出し、それらの情報に基づいて当該領域のペアの合成に用いる重み係数を決定することになる。 In the above-described embodiment, an example was described in which the prediction target block is divided along diagonal lines to output two triangular areas, but the divided shape is not limited to triangles, and may be any shape that is divided along straight lines. Further, the number of divisions of the prediction target block can also be three or more. In that case, the degree of similarity near the boundary for each pair of regions in three or more prediction regions is calculated, and the weighting coefficient used for compositing the pair of regions is determined based on that information. .
なお、符号化装置1が行う各処理をコンピュータに実行させるプログラムが提供されてもよい。復号装置2が行う各処理をコンピュータに実行させるプログラムが提供されてもよい。プログラムは、コンピュータ読取り可能媒体に記録されていてもよい。コンピュータ読取り可能媒体を用いれば、コンピュータにプログラムをインストールすることが可能である。ここで、プログラムが記録されたコンピュータ読取り可能媒体は、非一過性の記録媒体であってもよい。非一過性の記録媒体は、特に限定されるものではないが、例えば、CD-ROMやDVD-ROM等の記録媒体であってもよい。
Note that a program that causes a computer to execute each process performed by the
符号化装置1が行う各処理を実行する回路を集積化し、符号化装置1を半導体集積回路(チップセット、SoC)により構成してもよい。復号装置2が行う各処理を実行する回路を集積化し、復号装置2を半導体集積回路(チップセット、SoC)により構成してもよい。
The circuits that execute the processes performed by the
以上、図面を参照して実施形態について詳しく説明したが、具体的な構成は上述のものに限られることはなく、要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。 Although the embodiments have been described above in detail with reference to the drawings, the specific configuration is not limited to that described above, and various design changes can be made without departing from the scope of the invention.
1 :符号化装置
2 :復号装置
100 :ブロック分割部
110 :減算部
120 :変換・量子化部
121 :変換部
122 :量子化部
130 :エントロピー符号化部
140 :逆量子化・逆変換部
141 :逆量子化部
142 :逆変換部
150 :合成部
160 :メモリ
170 :予測部
171 :イントラ予測部
172 :インター予測部
172a :三角形分割予測部
173 :切替部
200 :エントロピー復号部
210 :逆変換部
211 :逆量子化部
212 :逆変換部
220 :合成部
230 :メモリ
240 :予測部
241 :イントラ予測部
242 :インター予測部
242a :三角形分割予測部
243 :切替部
1721 :分割部
1722 :生成部
1723 :算出部
1724 :決定部
1725 :合成部
2421 :分割部
2422 :生成部
2423 :算出部
2424 :決定部
2425 :合成部
1: Encoding device 2: Decoding device 100: Block division unit 110: Subtraction unit 120: Transformation and quantization unit 121: Transformation unit 122: Quantization unit 130: Entropy encoding unit 140: Inverse quantization and inverse transform unit 141: Inverse quantization unit 142: Inverse transform unit 150: Synthesis unit 160: Memory 170: Prediction unit 171: Intra prediction unit 172:
Claims (7)
予測対象ブロックを直線により分割して少なくとも2つの予測領域を出力する分割部と、
前記2つの予測領域のそれぞれについて、動きベクトルを用いて領域予測画像を生成する生成部と、
前記生成部が生成した2つの領域予測画像間の類似度を示す類似度情報を算出する算出部と、
前記算出部が算出した前記類似度情報に基づいて、前記2つの領域予測画像の合成に用いる合成方式を複数の方式の中から決定する決定部と、
前記決定部が決定した前記合成方式を用いて前記2つの領域予測画像を合成し、前記予測対象ブロックに対応する予測ブロックを出力する合成部と、を備えることを特徴とする予測装置。 A prediction device that performs prediction in units of blocks obtained by dividing an image,
a dividing unit that divides the prediction target block along straight lines and outputs at least two prediction regions;
a generation unit that generates a region predicted image using a motion vector for each of the two prediction regions;
a calculation unit that calculates similarity information indicating the similarity between the two region predicted images generated by the generation unit;
a determining unit that determines a combination method to be used for combining the two region predicted images from among a plurality of methods, based on the similarity information calculated by the calculation unit;
A prediction device comprising: a synthesis section that synthesizes the two region predicted images using the synthesis method determined by the determination section and outputs a prediction block corresponding to the prediction target block.
前記決定部は、前記算出部が算出した前記類似度情報に基づいて、前記第1方式を前記合成方式として用いるか否かを決定することを特徴とする請求項1に記載の予測装置。 The plurality of methods include a first method of mixing boundary regions between the two region predicted images by weighted synthesis using weighting coefficients for each pixel position,
The prediction device according to claim 1, wherein the determining unit determines whether to use the first method as the combining method based on the similarity information calculated by the calculating unit.
前記決定部は、前記算出部が算出した前記類似度情報に基づいて、前記第1方式及び前記第2方式のいずれを前記合成方式として用いるかを決定することを特徴とする請求項2に記載の予測装置。 The plurality of methods further includes a second method of not blending the boundary region by the weighted blending,
The prediction device according to claim 2 , wherein the determination unit determines which of the first method and the second method to use as the combining method based on the similarity information calculated by the calculation unit.
前記パラメータは、前記境界領域の範囲及び前記重み係数のセットのうち少なくとも1つであり、
前記決定部は、前記第1方式を用いる場合において、前記算出部が算出した前記類似度情報に基づいて、前記複数の第1方式のうちいずれを前記合成方式として用いるかを決定することを特徴とする請求項2又は3に記載の予測装置。 The first method includes a plurality of first methods having mutually different parameters for mixing the boundary regions,
The parameter is at least one of the range of the boundary region and the set of weighting coefficients,
When the first method is used, the determining section determines which of the plurality of first methods is to be used as the combining method based on the similarity information calculated by the calculating section. The prediction device according to claim 2 or 3.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020020955A JP7460384B2 (en) | 2020-02-10 | 2020-02-10 | Prediction device, encoding device, decoding device, and program |
| JP2024045101A JP7749052B2 (en) | 2020-02-10 | 2024-03-21 | Prediction device, encoding device, decoding device, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020020955A JP7460384B2 (en) | 2020-02-10 | 2020-02-10 | Prediction device, encoding device, decoding device, and program |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2024045101A Division JP7749052B2 (en) | 2020-02-10 | 2024-03-21 | Prediction device, encoding device, decoding device, and program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2021129148A JP2021129148A (en) | 2021-09-02 |
| JP7460384B2 true JP7460384B2 (en) | 2024-04-02 |
Family
ID=77489031
Family Applications (2)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2020020955A Active JP7460384B2 (en) | 2020-02-10 | 2020-02-10 | Prediction device, encoding device, decoding device, and program |
| JP2024045101A Active JP7749052B2 (en) | 2020-02-10 | 2024-03-21 | Prediction device, encoding device, decoding device, and program |
Family Applications After (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2024045101A Active JP7749052B2 (en) | 2020-02-10 | 2024-03-21 | Prediction device, encoding device, decoding device, and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (2) | JP7460384B2 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2024069638A (en) * | 2020-02-10 | 2024-05-21 | 日本放送協会 | Prediction device, encoding device, decoding device, and program |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2024058006A (en) * | 2022-10-13 | 2024-04-25 | Kddi株式会社 | Image decoding device, image decoding method, and program |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011501508A (en) | 2007-10-12 | 2011-01-06 | トムソン ライセンシング | Method and apparatus for video encoding and decoding of geometrically partitioned bi-predictive mode partition |
Family Cites Families (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP6740534B2 (en) * | 2016-07-04 | 2020-08-19 | 日本放送協会 | Encoding device, decoding device and program |
| JP7460384B2 (en) * | 2020-02-10 | 2024-04-02 | 日本放送協会 | Prediction device, encoding device, decoding device, and program |
-
2020
- 2020-02-10 JP JP2020020955A patent/JP7460384B2/en active Active
-
2024
- 2024-03-21 JP JP2024045101A patent/JP7749052B2/en active Active
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011501508A (en) | 2007-10-12 | 2011-01-06 | トムソン ライセンシング | Method and apparatus for video encoding and decoding of geometrically partitioned bi-predictive mode partition |
Non-Patent Citations (3)
| Title |
|---|
| Chun-Chi Chen, et al.,Non-CE4/8: Blending-off Switch for TPM Mode,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-N0645-v2,15th Meeting: Gothenburg, SE,2019年07月,pp.1-5 |
| P.Bordes, T. Poirier, and F. Le Leannec,CE4.4-related: Combination of GEO or TPM and Weighted-Prediction,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-Q0364-v2,17th Meeting: Brussels, BE,2020年01月,pp.1-6 |
| Semih Esenlik, et al.,Non-CE4: Adaptive blending filtering for TPM,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-O0513-v3,15th Meeting: Gothenburg, SE,2019年07月,pp.1-3 |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2024069638A (en) * | 2020-02-10 | 2024-05-21 | 日本放送協会 | Prediction device, encoding device, decoding device, and program |
Also Published As
| Publication number | Publication date |
|---|---|
| JP7749052B2 (en) | 2025-10-03 |
| JP2024069638A (en) | 2024-05-21 |
| JP2021129148A (en) | 2021-09-02 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6335365B2 (en) | Decoding device | |
| US11695955B2 (en) | Image encoding device, image decoding device and program | |
| WO2019148977A1 (en) | Methods and apparatuses of video encoding or decoding with adaptive quantization of video data | |
| JP7749052B2 (en) | Prediction device, encoding device, decoding device, and program | |
| JP7357736B2 (en) | Encoding device, decoding device, and program | |
| US20210014489A1 (en) | Intra prediction device, image encoding device, image decoding device and program | |
| JP7675225B2 (en) | Image encoding device, image encoding method, image decoding device, image decoding method | |
| KR102550503B1 (en) | Encoding device, decoding device, and program | |
| US20250097419A1 (en) | Encoding device, decoding device and program | |
| JP2024133699A (en) | Image decoding device and image decoding method | |
| JP7636493B2 (en) | Encoding device, decoding device, and program | |
| JP7695310B2 (en) | DEBLOCKING FILTER DEVICE, DECODING DEVICE, AND PROGRAM | |
| JP7590510B2 (en) | Intra prediction device, image encoding device, image decoding device, and program | |
| JP7474772B2 (en) | Encoding device, decoding device, and program | |
| JP7228980B2 (en) | Predictive image correction device, image coding device, image decoding device, and program | |
| JP7659103B2 (en) | Inter prediction device, image encoding device, image decoding device, and program | |
| JP7531683B2 (en) | Encoding device, decoding device, and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20200529 |
|
| RD05 | Notification of revocation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7425 Effective date: 20200612 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230111 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240227 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240227 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240321 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7460384 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |