[go: up one dir, main page]

JP7460384B2 - Prediction device, encoding device, decoding device, and program - Google Patents

Prediction device, encoding device, decoding device, and program Download PDF

Info

Publication number
JP7460384B2
JP7460384B2 JP2020020955A JP2020020955A JP7460384B2 JP 7460384 B2 JP7460384 B2 JP 7460384B2 JP 2020020955 A JP2020020955 A JP 2020020955A JP 2020020955 A JP2020020955 A JP 2020020955A JP 7460384 B2 JP7460384 B2 JP 7460384B2
Authority
JP
Japan
Prior art keywords
unit
prediction
block
region
outputs
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020020955A
Other languages
Japanese (ja)
Other versions
JP2021129148A (en
Inventor
俊輔 岩村
敦郎 市ヶ谷
慎平 根本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2020020955A priority Critical patent/JP7460384B2/en
Publication of JP2021129148A publication Critical patent/JP2021129148A/en
Priority to JP2024045101A priority patent/JP7749052B2/en
Application granted granted Critical
Publication of JP7460384B2 publication Critical patent/JP7460384B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、予測装置、符号化装置、復号装置、及びプログラムに関する。 The present invention relates to a prediction device, an encoding device, a decoding device, and a program.

動画像(映像)の符号化方式においては、符号化装置は、原画像をブロックに分割し、フレーム間の時間的相関を利用したインター予測とフレーム内の空間的相関を利用したイントラ予測とを切り替えながら符号化対象ブロックを予測し、予測されたブロックと符号化対象ブロックとの差を表す予測残差に対して変換処理、量子化処理、及びエントロピー符号化処理を施し、ビットストリームである符号化データを出力する。 In a video encoding system, the encoding device divides the original image into blocks and performs inter prediction using temporal correlation between frames and intra prediction using spatial correlation within frames. The block to be encoded is predicted while switching, and the prediction residual representing the difference between the predicted block and the block to be encoded is subjected to transformation processing, quantization processing, and entropy encoding processing, and a code that is a bit stream is generated. Output converted data.

次世代の符号化方式であるVVC(Versatile Video Coding)では、インター予測のモードの1つとして三角形分割予測(TPM:Triangle Partitioning Mode)が採用されている。TPMは、符号化対象ブロックを対角線で分割した領域のそれぞれに動きべクトルを割り当て、動き補償予測を行うものである。 Versatile Video Coding (VVC), a next-generation coding method, employs triangular partitioning prediction (TPM: Triangle Partitioning Mode) as one of the inter-prediction modes. TPM divides the coding target block diagonally, assigning motion vectors to each area, and performs motion compensation prediction.

TPMでは、領域境界付近の予測画像については、領域ごとの予測画像の位置に応じた重み付け合成(加重平均)より混合する混合処理(blendingと呼ばれる)を行うことで、領域ごとの動き予測補償による不連続性を抑制している。スクリーンコンテンツなどのようにフラットな領域及びエッジが多く含まれているシーケンスにおいては、blendingによってエッジのぼやけを引き起こす場合がある。このため、非特許文献1においては、TPMによる予測において、blendingを行わなわずに予測画像を合成するNon-blending モードを導入している。 In TPM, for predicted images near region boundaries, a mixing process (called blending) is performed in which predicted images for each region are mixed using weighted synthesis (weighted average) according to their position, thereby suppressing discontinuity caused by motion prediction compensation for each region. In sequences that contain many flat regions and edges, such as screen content, blending can cause edge blurring. For this reason, Non-Patent Document 1 introduces a non-blending mode in TPM prediction that synthesizes predicted images without blending.

JVET-O1172,“Non-CE4/8: On disabling blending process in TPM”JVET-O1172, “Non-CE4/8: On disabling blending process in TPM”

非特許文献1のようにTPMにおいて複数のblendingモード(複数の合成方式)を導入する場合、どのモードを用いるかを示すフラグを符号化側から復号側にシグナリングする必要がある。このため、シグナリングするフラグ量が増加し、符号化効率の低下を招くという問題がある。 When introducing multiple blending modes (multiple combining methods) in TPM as in Non-Patent Document 1, it is necessary to signal a flag indicating which mode is to be used from the encoding side to the decoding side. Therefore, there is a problem in that the amount of flags to be signaled increases, leading to a decrease in encoding efficiency.

そこで、本発明は、複数の合成方式を分割予測に導入する場合であっても、シグナリングするフラグ量の増加を抑制できる予測装置、符号化装置、復号装置、及びプログラムを提供することを目的とする。 SUMMARY OF THE INVENTION Therefore, an object of the present invention is to provide a prediction device, an encoding device, a decoding device, and a program that can suppress an increase in the amount of flags to be signaled even when a plurality of combining methods are introduced into segmented prediction. do.

第1の態様に係る予測装置は、画像を分割したブロック単位で予測を行う予測装置であって、予測対象ブロックを直線により分割して少なくとも2つの予測領域を出力する分割部と、前記2つの予測領域のそれぞれについて、動きベクトルを用いて領域予測画像を生成する生成部と、前記生成部が生成した2つの領域予測画像間の類似度を示す類似度情報を算出する算出部と、前記算出部が算出した前記類似度情報に基づいて、前記2つの領域予測画像の合成に用いる合成方式を複数の方式の中から決定する決定部と、前記決定部が決定した前記合成方式を用いて前記2つの領域予測画像を合成し、前記予測対象ブロックに対応する予測ブロックを出力する合成部とを備えることを要旨とする。 A prediction device according to a first aspect is a prediction device that performs prediction in units of blocks obtained by dividing an image, and includes a dividing unit that divides a prediction target block along a straight line and outputs at least two prediction regions; For each prediction region, a generation unit that generates a region prediction image using a motion vector, a calculation unit that calculates similarity information indicating a degree of similarity between two region prediction images generated by the generation unit, and the calculation unit. a determining unit that determines a combining method to be used for combining the two region predicted images from among a plurality of methods based on the similarity information calculated by the determining unit; The gist of the present invention is to include a combining unit that combines two region predicted images and outputs a predicted block corresponding to the prediction target block.

第2の態様に係る符号化装置は、第1の態様に係る予測装置を備えることを要旨とする。 The encoding device according to the second aspect is characterized in that it includes the prediction device according to the first aspect.

第3の態様に係る復号装置は、第1の態様に係る予測装置を備えることを要旨とする。 The decoding device according to the third aspect is characterized in that it includes the prediction device according to the first aspect.

第4の態様に係るプログラムは、コンピュータを第1の態様に係る予測装置として機能させることを要旨とする。 The gist of the program according to the fourth aspect is to cause a computer to function as the prediction device according to the first aspect.

本発明によれば、複数の合成方式を分割予測に導入する場合であっても、シグナリングするフラグ量の増加を抑制できる予測装置、符号化装置、復号装置、及びプログラムを提供できる。 According to the present invention, it is possible to provide a prediction device, an encoding device, a decoding device, and a program that can suppress an increase in the amount of flags to be signaled even when a plurality of combining methods are introduced into divided prediction.

実施形態に係る符号化装置の構成を示す図である。FIG. 1 is a diagram illustrating a configuration of an encoding device according to an embodiment. 実施形態に係る符号化装置の三角形分割予測部の構成を示す図である。FIG. 2 is a diagram illustrating a configuration of a triangulation prediction unit of an encoding device according to an embodiment. 実施形態に係る分割部の動作を示す図である。11A and 11B are diagrams illustrating an operation of a division unit according to the embodiment. 実施形態に係る算出部及び決定部の動作を示す図である。6A and 6B are diagrams illustrating operations of a calculation unit and a determination unit according to the embodiment. 実施形態に係る合成部の動作を示す図である。6A and 6B are diagrams illustrating an operation of a synthesis unit according to the embodiment. 実施形態に係る復号装置の構成を示す図である。FIG. 1 is a diagram showing the configuration of a decoding device according to an embodiment. 実施形態に係る復号装置の三角形分割予測部の構成を示す図である。FIG. 2 is a diagram showing a configuration of a triangulation prediction unit of a decoding device according to an embodiment. 実施形態に係る三角形分割予測部の動作フローを示す図である。FIG. 11 is a diagram showing an operation flow of a triangulation prediction unit according to the embodiment.

図面を参照して、実施形態に係る符号化装置及び復号装置について説明する。実施形態に係る符号化装置及び復号装置は、MPEGに代表される動画像の符号化及び復号をそれぞれ行う。以下の図面の記載において、同一又は類似の部分には同一又は類似の符号を付している。 An encoding device and a decoding device according to an embodiment will be described with reference to the drawings. The encoding device and the decoding device according to the embodiment encode and decode moving images represented by MPEG, respectively. In the description of the drawings below, the same or similar parts are designated by the same or similar symbols.

<符号化装置の構成>
まず、本実施形態に係る符号化装置の構成について説明する。図1は、本実施形態に係る符号化装置1の構成を示す図である。符号化装置1は、画像を分割して得たブロック単位で符号化を行う装置である。
<Configuration of encoding device>
First, the configuration of the encoding device according to this embodiment will be explained. FIG. 1 is a diagram showing the configuration of an encoding device 1 according to this embodiment. The encoding device 1 is a device that performs encoding in units of blocks obtained by dividing an image.

図1に示すように、符号化装置1は、ブロック分割部100と、減算部110と、変換・量子化部120と、エントロピー符号化部130と、逆量子化・逆変換部140と、合成部150と、メモリ160と、予測部170とを有する。 As shown in FIG. 1, the encoding device 1 includes a block division unit 100, a subtraction unit 110, a transformation and quantization unit 120, an entropy encoding unit 130, an inverse quantization and inverse transformation unit 140, a synthesis unit 150, a memory 160, and a prediction unit 170.

ブロック分割部100は、動画像を構成するフレーム(或いはピクチャ)単位の入力画像を複数の画像ブロックに分割し、分割により得た画像ブロックを減算部110に出力する。画像ブロックのサイズは、例えば32×32画素、16×16画素、8×8画素、又は4×4画素等である。画像ブロックの形状は正方形に限らず矩形(非正方形)であってもよい。画像ブロックは、符号化装置1が符号化を行う単位(符号化対象ブロック)であり、且つ復号装置が復号を行う単位(復号対象ブロック)である。このような画像ブロックはCU(Coding Unit)と呼ばれることがある。 The block division unit 100 divides an input image of a frame (or picture) constituting a moving image into a plurality of image blocks, and outputs the image blocks obtained by division to the subtraction unit 110. The size of the image block is, for example, 32 x 32 pixels, 16 x 16 pixels, 8 x 8 pixels, or 4 x 4 pixels. The shape of the image block is not limited to a square, but may be a rectangle (non-square). The image block is the unit (block to be coded) for coding by the coding device 1, and is the unit (block to be coded) for decoding by the decoding device. Such an image block is sometimes called a CU (Coding Unit).

ブロック分割部100は、輝度信号と色差信号とに対してブロック分割を行う。以下において、ブロック分割の形状が輝度信号と色差信号とで同じである場合について主として説明するが、輝度信号と色差信号とで分割を独立に制御可能であってもよい。輝度ブロック及び色差ブロックを特に区別しないときは単に符号化対象ブロックと呼ぶ。 The block division unit 100 performs block division on the luminance signal and the color difference signal. In the following, the case where the shape of the block division is the same for the luminance signal and the color difference signal will be mainly described, but it may be possible to control the division independently for the luminance signal and the color difference signal. When there is no particular distinction between the luminance block and the color difference block, they are simply referred to as the block to be coded.

減算部110は、ブロック分割部100が出力する符号化対象ブロックと、符号化対象ブロックを予測部170が予測して得た予測ブロックとの差分(誤差)を表す予測残差を算出する。減算部110は、ブロックの各画素値から予測ブロックの各画素値を減算することにより予測残差を算出し、算出した予測残差を変換・量子化部120に出力する。 The subtraction unit 110 calculates a prediction residual that represents the difference (error) between the block to be coded output by the block division unit 100 and a predicted block obtained by predicting the block to be coded by the prediction unit 170. The subtraction unit 110 calculates the prediction residual by subtracting each pixel value of the predicted block from each pixel value of the block, and outputs the calculated prediction residual to the transformation/quantization unit 120.

変換・量子化部120は、ブロック単位で変換処理及び量子化処理を行う。変換・量子化部120は、変換部121と、量子化部122とを有する。 The conversion/quantization unit 120 performs conversion processing and quantization processing on a block-by-block basis. The conversion/quantization unit 120 includes a conversion unit 121 and a quantization unit 122.

変換部121は、減算部110が出力する予測残差に対して変換処理を行って周波数成分ごとの変換係数を算出し、算出した変換係数を量子化部122に出力する。変換処理(変換)とは、画素領域の信号を周波数領域の信号に変換する処理をいい、例えば、離散コサイン変換(DCT)や離散サイン変換(DST)、カルーネンレーブ変換(KLT)、及びそれらを整数化した変換等をいう。 The transform unit 121 performs a transform process on the prediction residual output by the subtraction unit 110 to calculate a transform coefficient for each frequency component, and outputs the calculated transform coefficient to the quantization unit 122. The transform process (transformation) refers to a process of converting a pixel domain signal into a frequency domain signal, such as discrete cosine transform (DCT), discrete sine transform (DST), Karhunen-Loeb transform (KLT), and transforms that convert these to integers.

量子化部122は、変換部121が出力する変換係数を量子化パラメータ(Qp)及び量子化行列を用いて量子化し、量子化した変換係数をエントロピー符号化部130及び逆量子化・逆変換部140に出力する。なお、量子化パラメータ(Qp)は、ブロック内の各変換係数に対して共通して適用されるパラメータであって、量子化の粗さを定めるパラメータである。量子化行列は、各変換係数を量子化する際の量子化値を要素として有する行列である。 The quantization unit 122 quantizes the transform coefficients output by the transform unit 121 using a quantization parameter (Qp) and a quantization matrix, and outputs the quantized transform coefficients to the entropy coding unit 130 and the inverse quantization and inverse transform unit 140. Note that the quantization parameter (Qp) is a parameter that is commonly applied to each transform coefficient in a block and determines the coarseness of quantization. The quantization matrix is a matrix whose elements are the quantization values used when quantizing each transform coefficient.

エントロピー符号化部130は、量子化部122が出力する変換係数に対してエントロピー符号化を行い、データ圧縮を行って符号化ストリーム(ビットストリーム)を生成し、符号化ストリームを符号化装置1の外部に出力する。エントロピー符号化には、ハフマン符号やCABAC(Context-based Adaptive Binary Arithmetic Coding;コンテキスト適応型2値算術符号)等を用いることができる。なお、エントロピー符号化部130は、ブロック分割部100から各符号化対象ブロックのサイズ・形状等の情報を取得し、予測部170から予測に関する情報(例えば、予測モードや動きベクトルの情報)を取得し、これらの情報の符号化も行う。 The entropy encoding unit 130 performs entropy encoding on the transform coefficients output by the quantization unit 122, performs data compression to generate an encoded stream (bit stream), and transmits the encoded stream to the encoding device 1. Output to outside. For entropy encoding, a Huffman code, CABAC (Context-based Adaptive Binary Arithmetic Coding), or the like can be used. Note that the entropy encoding unit 130 acquires information such as the size and shape of each block to be encoded from the block division unit 100, and acquires information regarding prediction (for example, information on prediction mode and motion vector) from the prediction unit 170. It also encodes this information.

逆量子化・逆変換部140は、ブロック単位で逆量子化処理及び逆変換処理を行う。逆量子化・逆変換部140は、逆量子化部141と、逆変換部142とを有する。 The inverse quantization and inverse transform unit 140 performs inverse quantization and inverse transform processing on a block-by-block basis. The inverse quantization and inverse transform unit 140 includes an inverse quantization unit 141 and an inverse transform unit 142.

逆量子化部141は、量子化部122が行う量子化処理に対応する逆量子化処理を行う。具体的には、逆量子化部141は、量子化部122が出力する変換係数を、量子化パラメータ(Qp)及び量子化行列を用いて逆量子化することにより変換係数を復元し、復元した変換係数を逆変換部142に出力する。 The dequantization unit 141 performs dequantization processing corresponding to the quantization processing performed by the quantization unit 122. Specifically, the dequantization unit 141 restores the transform coefficients by dequantizing the transform coefficients output by the quantization unit 122 using a quantization parameter (Qp) and a quantization matrix. The transform coefficients are output to the inverse transform section 142.

逆変換部142は、変換部121が行う変換処理に対応する逆変換処理を行う。例えば、変換部121がDCTを行った場合には、逆変換部142は逆DCTを行う。逆変換部142は、逆量子化部141が出力する変換係数に対して逆変換処理を行って予測残差を復元し、復元した予測残差である復元予測残差を合成部150に出力する。 The inverse transform unit 142 performs an inverse transform process corresponding to the transform process performed by the transform unit 121. For example, when the transformer 121 performs DCT, the inverse transformer 142 performs inverse DCT. The inverse transform unit 142 performs inverse transform processing on the transform coefficients output by the inverse quantization unit 141 to restore the prediction residual, and outputs the restored prediction residual, which is the restored prediction residual, to the synthesis unit 150. .

合成部150は、逆変換部142が出力する復元予測残差を、予測部170が出力する予測ブロックと画素単位で合成する。合成部150は、復元予測残差の各画素値と予測ブロックの各画素値を加算して符号化対象ブロックを復元(復号)し、復元したブロック単位の復号画像(復元ブロック)をメモリ160に出力する。 The synthesis unit 150 synthesizes the reconstructed prediction residual output by the inverse transform unit 142 with the predicted block output by the prediction unit 170 on a pixel-by-pixel basis. The synthesis unit 150 adds each pixel value of the reconstructed prediction residual to each pixel value of the predicted block to reconstruct (decode) the block to be coded, and outputs the reconstructed decoded image (reconstructed block) on a block-by-block basis to the memory 160.

メモリ160は、合成部150が出力する復元ブロックをフレーム単位で復号画像として蓄積する。メモリ160は、記憶している復号画像を予測部170に出力する。なお、合成部150とメモリ160との間にループフィルタが介在してもよい。 The memory 160 accumulates the reconstructed blocks output by the synthesis unit 150 as decoded images on a frame-by-frame basis. The memory 160 outputs the stored decoded images to the prediction unit 170. Note that a loop filter may be interposed between the synthesis unit 150 and the memory 160.

予測部170は、ブロック単位で予測処理を行うことにより、符号化対象ブロックに対応する予測ブロックを生成し、生成した予測ブロックを減算部110及び合成部150に出力する。予測処理が行われる符号化対象ブロックを予測対象ブロックと呼ぶ。 The prediction unit 170 performs prediction processing on a block-by-block basis to generate a prediction block corresponding to the block to be coded, and outputs the generated prediction block to the subtraction unit 110 and the synthesis unit 150. The block to be coded on which prediction processing is performed is called the block to be predicted.

予測部170は、イントラ予測部171と、インター予測部172と、切替部173とを有する。本実施形態において、インター予測部172は、ブロック単位で予測処理を行う予測装置に相当する。 The prediction unit 170 has an intra prediction unit 171, an inter prediction unit 172, and a switching unit 173. In this embodiment, the inter prediction unit 172 corresponds to a prediction device that performs prediction processing on a block-by-block basis.

イントラ予測部171は、複数のイントラ予測モードの中から、予測対象ブロックに適用する最適なイントラ予測モードを選択し、選択したイントラ予測モードを用いて予測対象ブロックを予測する。イントラ予測部171は、メモリ160に記憶された復号画像のうち、予測対象ブロックに隣接する復号済み画素値を参照してイントラ予測ブロックを生成し、生成したイントラ予測ブロックを切替部173に出力する。また、イントラ予測部171は、選択したイントラ予測モードに関する情報をエントロピー符号化部130に出力する。 The intra prediction unit 171 selects an optimal intra prediction mode to be applied to the prediction target block from among multiple intra prediction modes, and predicts the prediction target block using the selected intra prediction mode. The intra prediction unit 171 generates an intra prediction block by referring to decoded pixel values adjacent to the prediction target block in the decoded image stored in the memory 160, and outputs the generated intra prediction block to the switching unit 173. The intra prediction unit 171 also outputs information related to the selected intra prediction mode to the entropy coding unit 130.

インター予測部172は、メモリ160に記憶された復号画像を参照画像として用いて、ブロックマッチング等の手法により動きベクトルを算出し、予測対象ブロックを予測してインター予測ブロックを生成し、生成したインター予測ブロックを切替部173に出力する。インター予測部172は、複数の参照画像を用いるインター予測(典型的には、双予測)や、1つの参照画像を用いるインター予測(片方向予測)の中から最適なインター予測方法を選択し、選択したインター予測方法を用いてインター予測を行う。インター予測部172は、インター予測に関する情報(動きベクトル情報等)をエントロピー符号化部130に出力する。 The inter prediction unit 172 uses the decoded image stored in the memory 160 as a reference image, calculates a motion vector by a method such as block matching, predicts the prediction target block to generate an inter prediction block, and uses the generated inter prediction block. The predicted block is output to the switching unit 173. The inter prediction unit 172 selects the optimal inter prediction method from among inter prediction using multiple reference images (typically, bi-prediction) and inter prediction using one reference image (unidirectional prediction), Perform inter prediction using the selected inter prediction method. The inter prediction unit 172 outputs information related to inter prediction (motion vector information, etc.) to the entropy encoding unit 130.

本実施形態において、インター予測部172は、三角形分割予測(TPM)を行う三角形分割予測部172aを有する(図2参照)。三角形分割予測部172aは、符号化対象ブロックを対角線で分割した領域のそれぞれに動きべクトルを割り当て、動き補償予測を行うものである。インター予測部172は、予測対象ブロックに三角形分割予測を適用する場合、この予測対象ブロックに三角形分割予測を適用することを示す三角形分割予測適用フラグをエントロピー符号化部130に出力し、エントロピー符号化部130から復号側に三角形分割予測適用フラグを伝送する。三角形分割予測部172aの詳細については後述する。 In this embodiment, the inter prediction unit 172 includes a triangulation prediction unit 172a that performs triangulation prediction (TPM) (see FIG. 2). The triangulation prediction unit 172a assigns a motion vector to each region obtained by dividing the current block to be encoded diagonally, and performs motion compensation prediction. When applying triangulation prediction to the prediction target block, the inter prediction unit 172 outputs a triangulation prediction application flag indicating that triangulation prediction is applied to the prediction target block to the entropy encoding unit 130, and performs entropy encoding. The triangulation prediction application flag is transmitted from the unit 130 to the decoding side. Details of the triangulation prediction unit 172a will be described later.

切替部173は、インター予測部172が出力するインター予測ブロックとイントラ予測部171が出力するイントラ予測ブロックとを切り替えて、いずれかの予測ブロックを減算部110及び合成部150に出力する。 The switching unit 173 switches between the inter prediction block output by the inter prediction unit 172 and the intra prediction block output by the intra prediction unit 171, and outputs one of the prediction blocks to the subtraction unit 110 and the synthesis unit 150.

次に、本実施形態に係る三角形分割予測部172aについて説明する。図2は、本実施形態に係る三角形分割予測部172aの構成を示す図である。 Next, the triangulation prediction unit 172a according to this embodiment will be explained. FIG. 2 is a diagram showing the configuration of the triangulation prediction unit 172a according to this embodiment.

図2に示すように、三角形分割予測部172aは、分割部1721と、生成部1722と、算出部1723と、決定部1724と、合成部1725とを有する。 As shown in FIG. 2, the triangulation prediction unit 172a includes a division unit 1721, a generation unit 1722, a calculation unit 1723, a determination unit 1724, and a synthesis unit 1725.

分割部1721は、予測対象ブロックを対角線で分割し、2つの三角形領域を生成部1722に出力する。三角形領域は、予測対象ブロックを直線により分割した予測領域の一例である。分割方法には、図3(a)に示す方法と図3(b)に示す方法との2種類がある。図3(a)に示す方法では、分割部1721は、符号化対象ブロックの左上の頂天位置及び右下の頂天位置を通る分割線で分割する。図3(b)に示す方法では、分割部1721は、符号化対象ブロックの右上の頂天位置及び左下の頂天位置を通る分割線で分割する。分割部1721は、分割の方向が図3(a)に示す対角線方向及び図3(b)に示す対角線方向のいずれであるかを示す分割方向フラグをエントロピー符号化部130に出力し、エントロピー符号化部130から復号側に分割方向フラグを伝送する。 The dividing unit 1721 divides the prediction target block diagonally, and outputs two triangular areas to the generating unit 1722. The triangular region is an example of a prediction region obtained by dividing the prediction target block by straight lines. There are two division methods: the method shown in FIG. 3(a) and the method shown in FIG. 3(b). In the method shown in FIG. 3A, the dividing unit 1721 divides the block to be encoded along a dividing line passing through the upper left apex position and the lower right apex position. In the method shown in FIG. 3B, the dividing unit 1721 divides the block to be encoded along a dividing line passing through the upper right zenith position and the lower left zenith position. The dividing unit 1721 outputs a dividing direction flag indicating whether the direction of division is the diagonal direction shown in FIG. 3(a) or the diagonal direction shown in FIG. 3(b) to the entropy encoding unit 130, and generates an entropy code. The division direction flag is transmitted from the encoding unit 130 to the decoding side.

生成部1722は、2つの三角形領域のそれぞれについて動きベクトルを用いて領域予測画像を生成し、2つの領域予測画像を算出部1723及び合成部1725に出力する。具体的には、生成部1722は、予測対象ブロックを分割した各領域に動きべクトルを割り当て、割り当てた動きべクトルを用いて各領域の予測画像を生成する。ここで、生成部1722は、動きベクトルの参照元とする複数の候補を優先度順に並べて、上位一定数の動きベクトルの中から三角形領域ごとに1つの動きベクトルを選択する。生成部1722は、選択した動きベクトルを示す動きベクトル情報をエントロピー符号化部130に出力し、エントロピー符号化部130から復号側に動きベクトル情報を伝送する。 The generation unit 1722 generates a region predicted image using the motion vector for each of the two triangular regions, and outputs the two region prediction images to the calculation unit 1723 and the synthesis unit 1725. Specifically, the generation unit 1722 assigns a motion vector to each region into which the prediction target block is divided, and generates a predicted image for each region using the assigned motion vector. Here, the generation unit 1722 arranges a plurality of motion vector reference sources in order of priority, and selects one motion vector for each triangular region from among the fixed number of high-ranking motion vectors. The generation unit 1722 outputs motion vector information indicating the selected motion vector to the entropy encoding unit 130, and transmits the motion vector information from the entropy encoding unit 130 to the decoding side.

算出部1723は、生成部1722が生成した2つの領域予測画像間の類似度を示す類似度情報を算出し、算出した類似度情報を決定部1724に出力する。例えば、算出部1723は、図4(a)に示すように、領域予測画像1における領域予測画像2との境界領域R1と、領域予測画像2における領域予測画像1との境界領域R2との類似度を示す類似度情報を算出する。類似度情報は、類似度を示す情報であればどのような情報であってもよいが、例えば、差の絶対値の総和(SAD:Sum of Abusolute Difference)を類似度情報として用いることができる。 The calculation unit 1723 calculates similarity information indicating the similarity between the two region predicted images generated by the generation unit 1722, and outputs the calculated similarity information to the determination unit 1724. For example, as shown in FIG. 4A, the calculation unit 1723 calculates the similarity between the boundary region R1 between the region predicted image 1 and the region predicted image 2 and the boundary region R2 between the region predicted image 1 and the region predicted image 2. Similarity information indicating the degree of similarity is calculated. The similarity information may be any information as long as it indicates the degree of similarity; for example, the sum of absolute values of differences (SAD) can be used as the similarity information.

算出部1723は、境界領域R1内の画素値(複数)と、対応する境界領域R2内の画素値(複数)との間のSADを類似度情報として算出してもよい。SADが小さいほど類似度が高いことを示し、SADが大きいほど類似度が低いことを示す。 The calculation unit 1723 may calculate the SAD between the pixel values (plurality) in the boundary region R1 and the pixel values (plurality) in the corresponding boundary region R2 as similarity information. A smaller SAD indicates a higher degree of similarity, and a larger SAD indicates a lower degree of similarity.

類似度情報を算出することは、2つの領域予測画像に対応する2つの参照画像間の類似度を算出することであってもよい。参照画像間の類似度は、一方の参照画像内の画素値(複数)と、対応する他方の参照画像内の画素値(複数)との間のSADとして算出されてもよい。 Calculating the similarity information may be calculating the similarity between two reference images corresponding to the two region predicted images. The degree of similarity between reference images may be calculated as the SAD between pixel values in one reference image and corresponding pixel values in the other reference image.

決定部1724は、算出部1723が算出した類似度情報に基づいて、2つの領域予測画像の合成に用いる合成方式を複数の方式の中から決定し、決定した合成方式を示す情報を合成部1725に出力する。例えば、複数の方式は、2つの領域予測画像間の境界領域を、画素位置ごとの重み係数を用いた重み付け合成により混合する第1方式(以下、「Blending方式」と呼ぶ)を含む。決定部1724は、算出部1723が算出した類似度情報に基づいて、2つの領域予測画像の合成に用いる合成方式としてBlending方式を用いるか否かを決定する。Blending方式によれば、領域ごとの動き予測補償による不連続性を抑制できる。 Based on the similarity information calculated by the calculation unit 1723, the determination unit 1724 determines a combination method to be used for combining the two region predicted images from among a plurality of methods, and sends information indicating the determined combination method to the combination unit 1725. Output to. For example, the plurality of methods includes a first method (hereinafter referred to as a "Blending method") that blends a boundary region between two regionally predicted images by weighted synthesis using a weighting coefficient for each pixel position. The determining unit 1724 determines, based on the similarity information calculated by the calculating unit 1723, whether to use the blending method as the combining method used to combine the two region predicted images. According to the blending method, discontinuity caused by motion prediction compensation for each region can be suppressed.

本実施形態において、複数の方式は、境界領域を重み付け合成により混合しない第2方式(以下、「Non-blending方式」と呼ぶ)をさらに含む。決定部1724は、算出部1723が算出した類似度情報に基づいて、2つの領域予測画像の合成に用いる合成方式としてBlending方式及びNon-blending方式のいずれを用いるかを決定する。Non-blending方式によれば、フラットな領域及びエッジが多く含まれているシーケンスについて、Blending方式によるエッジのぼやけを回避できる。 In this embodiment, the plurality of methods further includes a second method (hereinafter referred to as a "Non-blending method") in which boundary regions are not mixed by weighted synthesis. Based on the similarity information calculated by the calculating unit 1723, the determining unit 1724 determines which of the blending method and the non-blending method to use as the combining method for combining the two region predicted images. According to the non-blending method, blurring of edges caused by the blending method can be avoided for sequences that include many flat areas and edges.

このようなBlending方式及びNon-blending方式の切り替えを可能とする場合、Blending方式及びNon-blending方式のいずれを適用するかを示すフラグを復号側に伝送する必要があり得る。しかしながら、画像における背景領域(例えば、空などの滑らかな領域)では、Blending方式であってもNon-blending方式であっても生成される予測画像の特徴は変わることはなく、どちらの方式を選択しても符号化効率に影響は生じない。 When switching between the blending method and the non-blending method is enabled, it may be necessary to transmit a flag indicating which of the blending method and the non-blending method is applied to the decoding side. However, in the background area of an image (for example, a smooth area such as the sky), the characteristics of the predicted image generated will not change whether the blending method or the non-blending method is used, and it is difficult to select which method. However, the encoding efficiency is not affected.

本実施形態では、決定部1724は、算出部1723が算出した類似度情報に基づいてBlending方式及びNon-blending方式のいずれかを決定する。このような類似度情報は復号側でも算出可能な情報であるため、Blending方式及びNon-blending方式のいずれを適用するかを示すフラグを復号側に伝送しなくても、符号化側及び復号側で共通の方式を暗黙的に決定できる。これにより、このようなフラグの復号側への伝送(シグナリング)を不要とし、シグナリングするフラグ量の増加を抑制できる。 In this embodiment, the determining unit 1724 determines either the blending method or the non-blending method based on the similarity information calculated by the calculating unit 1723. Such similarity information can be calculated on the decoding side as well, so it can be calculated on both the encoding and decoding sides without transmitting a flag indicating whether to apply the blending method or the non-blending method to the decoding side. The common method can be determined implicitly. This eliminates the need for such flag transmission (signaling) to the decoding side, and can suppress an increase in the amount of flags to be signaled.

例えば、決定部1724は、図4(b)及び(c)に示すように、算出部1723が算出した類似度情報に基づいて、類似度情報が示す類似度が閾値よりも低い場合はBlending方式を決定し、類似度情報が示す類似度が閾値よりも高い場合はNon-blending方式を決定する。この閾値は、予め定められた固定値であってもよいし、符号化側から復号側に伝送する可変値であってもよい。 For example, as shown in Figures 4(b) and (c), based on the similarity information calculated by the calculation unit 1723, the determination unit 1724 determines the blending method when the similarity indicated by the similarity information is lower than a threshold, and determines the non-blending method when the similarity indicated by the similarity information is higher than the threshold. This threshold may be a predetermined fixed value, or may be a variable value transmitted from the encoding side to the decoding side.

合成部1725は、決定部1724が決定した合成方式を用いて、生成部1722が出力する2つの領域予測画像を合成し、予測対象ブロックに対応する予測ブロックを出力する。本実施形態では、合成部1725は、決定部1724がBlending方式を決定した場合は2つの領域予測画像をBlending方式で合成し、決定部1724がNon-blending方式を決定した場合は2つの領域予測画像をNon-blending方式で合成する。 The combining unit 1725 combines the two region predicted images output by the generating unit 1722 using the combining method determined by the determining unit 1724, and outputs a predicted block corresponding to the prediction target block. In the present embodiment, the combining unit 1725 combines the two area predicted images using the blending method when the determining unit 1724 determines the blending method, and combines the two area predicted images using the blending method when the determining unit 1724 determines the non-blending method. Images are combined using a non-blending method.

図5は、2つの領域予測画像P及びPを合成する動作を示す図である。図5(a)に示すように、合成部1725は、2つの領域予測画像P及びPをBlending方式で合成する場合、予測対象ブロックのブロックサイズ及びブロック形状に応じた重み係数マップ(Weight map)を用いて2つの領域予測画像P及びPを加重平均により合成する。これにより、図4(a)に示す境界領域R1及びR2が連続的になるよう調整される。一方、図5(b)に示すように、合成部1725は、2つの領域予測画像P及びPをNon-blending方式で合成する場合、2つの領域予測画像P及びPを加重平均せずに合成する。 FIG. 5 is a diagram showing the operation of combining two region predicted images P 1 and P 2 . As shown in FIG. 5A, when combining two region predicted images P 1 and P 2 using the blending method, the combining unit 1725 creates a weight coefficient map (Weight) according to the block size and block shape of the prediction target block. map), the two region predicted images P 1 and P 2 are combined by weighted averaging. Thereby, the boundary regions R1 and R2 shown in FIG. 4(a) are adjusted to be continuous. On the other hand, as shown in FIG. 5B, when combining the two region predicted images P 1 and P 2 using the Non-blending method, the composition unit 1725 performs a weighted average of the two region prediction images P 1 and P 2 . Synthesize without

<復号装置の構成>
次に、本実施形態に係る復号装置の構成について、上述した符号化装置の構成との相違点を主として説明する。図6は、本実施形態に係る復号装置2の構成を示す図である。復号装置2は、符号化ストリームから復号対象ブロックを復号する装置である。
<Configuration of Decoding Device>
Next, the configuration of a decoding device according to this embodiment will be described, focusing mainly on the differences from the configuration of the encoding device described above. Fig. 6 is a diagram showing the configuration of a decoding device 2 according to this embodiment. The decoding device 2 is a device that decodes a current block from an encoded stream.

図6に示すように、復号装置2は、エントロピー復号部200と、逆量子化・逆変換部210と、合成部220と、メモリ230と、予測部240とを有する。 As shown in FIG. 6, the decoding device 2 has an entropy decoding unit 200, an inverse quantization/inverse transform unit 210, a synthesis unit 220, a memory 230, and a prediction unit 240.

エントロピー復号部200は、符号化装置1により生成された符号化ストリームを復号し、量子化された変換係数を取得し、取得した変換係数を逆量子化・逆変換部210(逆量子化部211)に出力する。また、エントロピー復号部200は、各種のシグナリング情報を取得する。例えば、エントロピー復号部200は、復号対象ブロックに適用する予測処理に関する情報を取得し、取得した情報を予測部240に出力する。 The entropy decoding unit 200 decodes the coding stream generated by the coding device 1, obtains quantized transform coefficients, and outputs the obtained transform coefficients to the inverse quantization/inverse transform unit 210 (inverse quantization unit 211). The entropy decoding unit 200 also obtains various types of signaling information. For example, the entropy decoding unit 200 obtains information related to the prediction process to be applied to the block to be decoded, and outputs the obtained information to the prediction unit 240.

逆量子化・逆変換部210は、ブロック単位で逆量子化処理及び逆変換処理を行う。逆量子化・逆変換部210は、逆量子化部211と、逆変換部212とを有する。 The inverse quantization and inverse transform unit 210 performs inverse quantization processing and inverse transform processing on a block-by-block basis. The inverse quantization and inverse transform unit 210 has an inverse quantization unit 211 and an inverse transform unit 212.

逆量子化部211は、符号化装置1の量子化部122が行う量子化処理に対応する逆量子化処理を行う。逆量子化部211は、エントロピー復号部200が出力する量子化変換係数を、量子化パラメータ(Qp)及び量子化行列を用いて逆量子化することにより、復号対象ブロックの変換係数を復元し、復元した変換係数を逆変換部212に出力する。 The inverse quantization unit 211 performs an inverse quantization process corresponding to the quantization process performed by the quantization unit 122 of the encoding device 1. The inverse quantization unit 211 restores the transform coefficients of the block to be decoded by inverse quantizing the quantized transform coefficients output by the entropy decoding unit 200 using a quantization parameter (Qp) and a quantization matrix, and outputs the restored transform coefficients to the inverse transform unit 212.

逆変換部212は、符号化装置1の変換部121が行う変換処理に対応する逆変換処理を行う。逆変換部212は、逆量子化部211が出力する変換係数に対して逆変換処理を行って予測残差を復元し、復元した予測残差(復元予測残差)を合成部220に出力する。 The inverse transform unit 212 performs inverse transform processing corresponding to the transform processing performed by the transform unit 121 of the encoding device 1. The inverse transform unit 212 performs inverse transform processing on the transform coefficients output by the inverse quantization unit 211 to restore the prediction residual, and outputs the restored prediction residual (restored prediction residual) to the synthesis unit 220.

合成部220は、逆変換部212が出力する予測残差と、予測部240が出力する予測ブロックとを画素単位で合成することにより、復号対象ブロックを復元(復号)し、復元ブロックをメモリ230に出力する。 The synthesis unit 220 reconstructs (decodes) the block to be decoded by synthesizing the prediction residual output by the inverse transform unit 212 and the prediction block output by the prediction unit 240 on a pixel-by-pixel basis, and outputs the reconstructed block to the memory 230.

メモリ230は、合成部220が出力する復元ブロックをフレーム単位で復号画像として記憶する。メモリ230は、フレーム単位の復号画像を復号装置2の外部に出力する。なお、合成部220とメモリ230との間にループフィルタが介在してもよい。 The memory 230 stores the restored blocks output by the combining unit 220 in units of frames as decoded images. The memory 230 outputs the decoded image in units of frames to the outside of the decoding device 2 . Note that a loop filter may be interposed between the synthesis section 220 and the memory 230.

予測部240は、ブロック単位で予測を行う。予測部240は、イントラ予測部241と、インター予測部242と、切替部243とを有する。 The prediction unit 240 performs prediction on a block-by-block basis. The prediction unit 240 has an intra prediction unit 241, an inter prediction unit 242, and a switching unit 243.

イントラ予測部241は、メモリ230に記憶された復号画像のうち復号対象ブロックに隣接する参照画素を参照し、エントロピー復号部200が出力する情報に基づいて、復号対象ブロックをイントラ予測により予測する。そして、イントラ予測部241は、イントラ予測ブロックを生成し、生成したイントラ予測ブロックを切替部243に出力する。 The intra prediction unit 241 refers to reference pixels adjacent to the decoding target block in the decoded image stored in the memory 230, and predicts the decoding target block by intra prediction based on the information output from the entropy decoding unit 200. Then, the intra prediction unit 241 generates an intra prediction block and outputs the generated intra prediction block to the switching unit 243.

インター予測部242は、メモリ230に記憶された復号画像を参照画像として用いて、復号対象ブロックをインター予測により予測する。インター予測部242は、エントロピー復号部200が出力する動きベクトル情報を用いてインター予測を行うことによりインター予測ブロックを生成し、生成したインター予測ブロックを切替部243に出力する。 The inter prediction unit 242 predicts the block to be decoded by inter prediction using the decoded image stored in the memory 230 as a reference image. The inter prediction unit 242 generates an inter prediction block by performing inter prediction using the motion vector information output by the entropy decoding unit 200, and outputs the generated inter prediction block to the switching unit 243.

本実施形態において、インター予測部242は、三角形分割予測(TPM)を行う三角形分割予測部242aを有する(図7参照)。インター予測部242は、予測対象ブロックに三角形分割予測を適用することを示す三角形分割予測適用フラグをエントロピー復号部200が取得した場合、予測対象ブロックに三角形分割予測を適用する。三角形分割予測部242aの詳細については後述する。 In this embodiment, the inter prediction unit 242 includes a triangulation prediction unit 242a that performs triangulation prediction (TPM) (see FIG. 7). If the entropy decoding unit 200 acquires a triangulation prediction application flag indicating that triangulation prediction is to be applied to the prediction target block, the inter prediction unit 242 applies triangulation prediction to the prediction target block. Details of the triangulation prediction unit 242a will be described later.

切替部243は、イントラ予測部241が出力するイントラ予測ブロックとインター予測部242が出力するインター予測ブロックとを切り替えて、いずれかの予測ブロックを合成部220に出力する。 The switching unit 243 switches between the intra prediction block output by the intra prediction unit 241 and the inter prediction block output by the inter prediction unit 242, and outputs one of the prediction blocks to the combining unit 220.

次に、本実施形態に係る三角形分割予測部242aについて説明する。図7は、本実施形態に係る三角形分割予測部242aの構成を示す図である。 Next, the triangular decomposition prediction unit 242a according to this embodiment will be described. FIG. 7 is a diagram showing the configuration of the triangular decomposition prediction unit 242a according to this embodiment.

図7に示すように、三角形分割予測部242aは、分割部2421と、生成部2422と、算出部2423と、決定部2424と、合成部2425とを有する。 As shown in FIG. 7, the triangulation prediction unit 242a includes a division unit 2421, a generation unit 2422, a calculation unit 2423, a determination unit 2424, and a synthesis unit 2425.

分割部2421は、エントロピー復号部200が取得した分割方向フラグに基づいて予測対象ブロックを対角線で分割し、2つの三角形領域を生成部2422に出力する。 The dividing unit 2421 divides the prediction target block diagonally based on the dividing direction flag acquired by the entropy decoding unit 200, and outputs two triangular areas to the generating unit 2422.

生成部2422は、エントロピー復号部200が取得した動きベクトル情報に基づいて2つの三角形領域のそれぞれについて領域予測画像を生成し、2つの領域予測画像を算出部2423及び合成部2425に出力する。 The generation unit 2422 generates a region predicted image for each of the two triangular regions based on the motion vector information acquired by the entropy decoding unit 200, and outputs the two region prediction images to the calculation unit 2423 and the composition unit 2425.

算出部2423は、生成部2422が生成した2つの領域予測画像間の類似度を示す類似度情報を算出し、算出した類似度情報を決定部2424に出力する。類似度情報の算出方法は符号化側と同じ方法であり、符号化側及び復号側で共通の規則(アルゴリズム)を用いて類似度情報を算出する。 The calculation unit 2423 calculates similarity information indicating the similarity between the two region predicted images generated by the generation unit 2422, and outputs the calculated similarity information to the determination unit 2424. The method of calculating the similarity information is the same as that on the encoding side, and the similarity information is calculated using a common rule (algorithm) on the encoding side and the decoding side.

決定部2424は、算出部2423が算出した類似度情報に基づいて、2つの領域予測画像の合成に用いる合成方式を複数の方式の中から決定し、決定した合成方式を示す情報を合成部2425に出力する。本実施形態において、決定部2424は、算出部2423が算出した類似度情報に基づいて、2つの領域予測画像の合成に用いる合成方式としてBlending方式及びNon-blending方式のいずれを用いるかを決定する。合成方式の決定方法は符号化側と同じ方法であり、符号化側及び復号側で共通の規則を用いて合成方式を決定する。すなわち、決定部2424は、Blending方式及びNon-blending方式のいずれを適用するかを示すフラグを基づくことなく、類似度情報に基づいて合成方式を決定する。 The determination unit 2424 determines the synthesis method to be used for synthesizing the two area prediction images from among a plurality of methods based on the similarity information calculated by the calculation unit 2423, and outputs information indicating the determined synthesis method to the synthesis unit 2425. In this embodiment, the determination unit 2424 determines whether to use the blending method or the non-blending method as the synthesis method to be used for synthesizing the two area prediction images based on the similarity information calculated by the calculation unit 2423. The method of determining the synthesis method is the same as that on the encoding side, and the synthesis method is determined using a rule common to the encoding side and the decoding side. In other words, the determination unit 2424 determines the synthesis method based on the similarity information, without being based on a flag indicating whether the blending method or the non-blending method is to be applied.

合成部2425は、決定部2424が決定した合成方式を用いて、生成部2422が出力する2つの領域予測画像を合成し、予測対象ブロックに対応する予測ブロックを出力する。本実施形態では、合成部2425は、決定部2424がBlending方式を決定した場合は2つの領域予測画像をBlending方式で合成し、決定部2424がNon-blending方式を決定した場合は2つの領域予測画像をNon-blending方式で合成する。 The combining unit 2425 combines the two region predicted images output by the generating unit 2422 using the combining method determined by the determining unit 2424, and outputs a predicted block corresponding to the prediction target block. In this embodiment, the combining unit 2425 combines two area predicted images using a blending method when the determining unit 2424 determines a blending method, and combines two area predicted images using a blending method when the determining unit 2424 determines a non-blending method. Images are combined using a non-blending method.

<三角形分割予測部の動作>
次に、本実施形態に係る三角形分割予測部172a及び242aの動作について説明する。三角形分割予測部172a及び242aは同様な動作を行うため、ここでは三角形分割予測部242aを例に挙げて説明する。図8は、本実施形態に係る三角形分割予測部242aの動作フローを示す図である。
<Operation of Triangulation Prediction Unit>
Next, the operation of the triangular decomposition prediction units 172a and 242a according to this embodiment will be described. Since the triangular decomposition prediction units 172a and 242a perform similar operations, the triangular decomposition prediction unit 242a will be taken as an example for description here. Fig. 8 is a diagram showing the operation flow of the triangular decomposition prediction unit 242a according to this embodiment.

図8に示すように、ステップS1において、分割部2421は、エントロピー復号部200が取得した分割方向フラグに基づいて予測対象ブロックを対角線で分割し、2つの三角形領域を生成部2422に出力する。 As shown in FIG. 8, in step S1, the division unit 2421 divides the prediction target block diagonally based on the division direction flag acquired by the entropy decoding unit 200, and outputs two triangular regions to the generation unit 2422.

ステップS2において、生成部2422は、エントロピー復号部200が取得した動きベクトル情報に基づいて2つの三角形領域のそれぞれについて領域予測画像を生成し、2つの領域予測画像を算出部2423及び合成部2425に出力する。 In step S2, the generation unit 2422 generates a region prediction image for each of the two triangular regions based on the motion vector information acquired by the entropy decoding unit 200, and outputs the two region prediction images to the calculation unit 2423 and the synthesis unit 2425.

ステップS3において、算出部2423は、生成部2422が生成した2つの領域予測画像間の類似度を示す類似度情報を算出し、算出した類似度情報を決定部2424に出力する。 In step S3, the calculation unit 2423 calculates similarity information indicating the similarity between the two region predicted images generated by the generation unit 2422, and outputs the calculated similarity information to the determination unit 2424.

ステップS4において、決定部2424は、算出部2423が算出した類似度情報に基づいて、2つの領域予測画像の合成に用いる合成方式としてBlending方式及びNon-blending方式のいずれを用いるかを決定する。 In step S4, the determination unit 2424 determines whether the blending method or the non-blending method is to be used as the synthesis method for synthesizing the two area prediction images based on the similarity information calculated by the calculation unit 2423.

ステップS5において、合成部2425は、決定部2424が決定した合成方式を用いて、生成部2422が出力する2つの領域予測画像を合成し、予測対象ブロックに対応する予測ブロックを出力する。 In step S5, the synthesis unit 2425 synthesizes the two area prediction images output by the generation unit 2422 using the synthesis method determined by the determination unit 2424, and outputs a prediction block corresponding to the block to be predicted.

このように、本実施形態によれば、Blending方式及びNon-blending方式のいずれを適用するかを示すフラグを復号側に伝送しなくても、符号化側及び復号側で共通の方式を暗黙的に決定できる。これにより、複数の合成方式を三角形分割予測に導入する場合であっても、合成方式を示すフラグの復号側への伝送(シグナリング)を不要とし、シグナリングするフラグ量の増加を抑制できる。 In this way, according to this embodiment, a common method can be implicitly determined on the encoding side and the decoding side without transmitting a flag indicating whether the blending method or the non-blending method is to be applied to the decoding side. This makes it unnecessary to transmit (signal) a flag indicating the blending method to the decoding side even when multiple blending methods are introduced into the triangulation prediction, and can suppress an increase in the amount of flags to be signaled.

<その他の実施形態>
上述した実施形態において、類似度情報に基づいて、2つの領域予測画像の合成に用いる合成方式としてBlending方式及びNon-blending方式のいずれを用いるかを決定する一例について説明した。しかしながら、複数のBlending方式を導入する場合、類似度情報に基づいて複数のBlending方式のいずれを用いるかを決定してもよい。
<Other embodiments>
In the above-mentioned embodiment, an example is described in which the blending method or the non-blending method is determined as the synthesis method used for synthesizing two area prediction images based on similarity information. However, when introducing a plurality of blending methods, it is also possible to determine which of the plurality of blending methods is used based on similarity information.

複数のBlending方式は、境界領域を混合するパラメータが互いに異なっていてもよい。ここで、パラメータは、境界領域の範囲及び重み係数のセットのうち少なくとも1つであってもよい。例えば、Blending処理を適用する境界領域の範囲が第1範囲(狭範囲)であり、重み係数の第1セットを用いる第1Blending方式と、Blending処理を適用する境界領域の範囲が第2範囲(広範囲)であり、重み係数の第2セットを用いる第2Blending方式とを導入する。ここで、第2セットを構成する重み係数は、第1セットに比べて多い。 The plurality of blending methods may have different parameters for blending the boundary areas. Here, the parameter may be at least one of a boundary region range and a set of weighting factors. For example, the range of the boundary area to which the blending process is applied is the first range (narrow range), the first blending method uses the first set of weighting coefficients, and the range of the boundary area to which the blending process is applied is the second range (wide range). ) and a second blending scheme using a second set of weighting coefficients. Here, the number of weighting coefficients forming the second set is larger than that of the first set.

このような前提下において、決定部1724及び2424は、算出部1723及び2423が算出した類似度情報が示す類似度が閾値よりも低い場合は第2Blending方式を決定し、この類似度情報が示す類似度が閾値よりも高い場合は第1Blending方式を決定する。 Under such a premise, the determining units 1724 and 2424 determine the second blending method when the similarity indicated by the similarity information calculated by the calculating units 1723 and 2423 is lower than the threshold, and If the degree is higher than the threshold, the first blending method is determined.

或いは、第1閾値と、この第1閾値よりも大きい第2閾値とを導入してもよい。決定部1724及び2424は、算出部1723及び2423が算出した類似度情報が示す類似度が第2閾値よりも高い場合はNon-blending方式を決定し、この類似度情報が示す類似度が第1閾値よりも低い場合は第2Blending方式を決定し、この類似度情報が示す類似度が第1閾値乃至第2閾値の範囲内にある場合は第1Blending方式を決定する。 Alternatively, a first threshold and a second threshold greater than the first threshold may be introduced. The decision units 1724 and 2424 decide on the non-blending method if the similarity indicated by the similarity information calculated by the calculation units 1723 and 2423 is higher than the second threshold, decide on the second blending method if the similarity indicated by this similarity information is lower than the first threshold, and decide on the first blending method if the similarity indicated by this similarity information is within the range from the first threshold to the second threshold.

上述した実施形態において、予測対象ブロックを対角線により分割して2つの三角形領域を出力する一例について説明したが、直線で分割された分割形状であればよく、分割形状は三角形には限らない。また、予測対象ブロックの分割数を3つ以上とすることもできる。その場合には、3つ以上の予測領域における各領域のペアについての境界付近の類似度をそれぞれ算出し、それらの情報に基づいて当該領域のペアの合成に用いる重み係数を決定することになる。 In the above-described embodiment, an example was described in which the prediction target block is divided along diagonal lines to output two triangular areas, but the divided shape is not limited to triangles, and may be any shape that is divided along straight lines. Further, the number of divisions of the prediction target block can also be three or more. In that case, the degree of similarity near the boundary for each pair of regions in three or more prediction regions is calculated, and the weighting coefficient used for compositing the pair of regions is determined based on that information. .

なお、符号化装置1が行う各処理をコンピュータに実行させるプログラムが提供されてもよい。復号装置2が行う各処理をコンピュータに実行させるプログラムが提供されてもよい。プログラムは、コンピュータ読取り可能媒体に記録されていてもよい。コンピュータ読取り可能媒体を用いれば、コンピュータにプログラムをインストールすることが可能である。ここで、プログラムが記録されたコンピュータ読取り可能媒体は、非一過性の記録媒体であってもよい。非一過性の記録媒体は、特に限定されるものではないが、例えば、CD-ROMやDVD-ROM等の記録媒体であってもよい。 Note that a program that causes a computer to execute each process performed by the encoding device 1 may be provided. A program that causes a computer to execute each process performed by the decoding device 2 may be provided. The program may be recorded on a computer readable medium. Computer-readable media allow programs to be installed on a computer. Here, the computer-readable medium on which the program is recorded may be a non-transitory recording medium. The non-transitory recording medium is not particularly limited, and may be, for example, a recording medium such as a CD-ROM or a DVD-ROM.

符号化装置1が行う各処理を実行する回路を集積化し、符号化装置1を半導体集積回路(チップセット、SoC)により構成してもよい。復号装置2が行う各処理を実行する回路を集積化し、復号装置2を半導体集積回路(チップセット、SoC)により構成してもよい。 The circuits that execute the processes performed by the encoding device 1 may be integrated, and the encoding device 1 may be configured as a semiconductor integrated circuit (chip set, SoC). The circuits that execute the processes performed by the decoding device 2 may be integrated, and the decoding device 2 may be configured as a semiconductor integrated circuit (chip set, SoC).

以上、図面を参照して実施形態について詳しく説明したが、具体的な構成は上述のものに限られることはなく、要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。 Although the embodiments have been described above in detail with reference to the drawings, the specific configuration is not limited to that described above, and various design changes can be made without departing from the scope of the invention.

1 :符号化装置
2 :復号装置
100 :ブロック分割部
110 :減算部
120 :変換・量子化部
121 :変換部
122 :量子化部
130 :エントロピー符号化部
140 :逆量子化・逆変換部
141 :逆量子化部
142 :逆変換部
150 :合成部
160 :メモリ
170 :予測部
171 :イントラ予測部
172 :インター予測部
172a :三角形分割予測部
173 :切替部
200 :エントロピー復号部
210 :逆変換部
211 :逆量子化部
212 :逆変換部
220 :合成部
230 :メモリ
240 :予測部
241 :イントラ予測部
242 :インター予測部
242a :三角形分割予測部
243 :切替部
1721 :分割部
1722 :生成部
1723 :算出部
1724 :決定部
1725 :合成部
2421 :分割部
2422 :生成部
2423 :算出部
2424 :決定部
2425 :合成部
1: Encoding device 2: Decoding device 100: Block division unit 110: Subtraction unit 120: Transformation and quantization unit 121: Transformation unit 122: Quantization unit 130: Entropy encoding unit 140: Inverse quantization and inverse transform unit 141: Inverse quantization unit 142: Inverse transform unit 150: Synthesis unit 160: Memory 170: Prediction unit 171: Intra prediction unit 172: Inter prediction unit 172a: Triangular partition prediction unit 173: Switching unit 200: Entropy decoding unit 210: Inverse transformation unit 211: Inverse quantization unit 212: Inverse transformation unit 220: Synthesis unit 230: Memory 240: Prediction unit 241: Intra prediction unit 242: Inter prediction unit 242a: Triangular partition prediction unit 243: Switching unit 1721: Division unit 1722 : Generation unit 1723 : Calculation unit 1724 : Determination unit 1725 : Combination unit 2421 : Division unit 2422 : Generation unit 2423 : Calculation unit 2424 : Determination unit 2425 : Combination unit

Claims (7)

画像を分割したブロック単位で予測を行う予測装置であって、
予測対象ブロックを直線により分割して少なくとも2つの予測領域を出力する分割部と、
前記2つの予測領域のそれぞれについて、動きベクトルを用いて領域予測画像を生成する生成部と、
前記生成部が生成した2つの領域予測画像間の類似度を示す類似度情報を算出する算出部と、
前記算出部が算出した前記類似度情報に基づいて、前記2つの領域予測画像の合成に用いる合成方式を複数の方式の中から決定する決定部と、
前記決定部が決定した前記合成方式を用いて前記2つの領域予測画像を合成し、前記予測対象ブロックに対応する予測ブロックを出力する合成部と、を備えることを特徴とする予測装置。
A prediction device that performs prediction in units of blocks obtained by dividing an image,
a dividing unit that divides the prediction target block along straight lines and outputs at least two prediction regions;
a generation unit that generates a region predicted image using a motion vector for each of the two prediction regions;
a calculation unit that calculates similarity information indicating the similarity between the two region predicted images generated by the generation unit;
a determining unit that determines a combination method to be used for combining the two region predicted images from among a plurality of methods, based on the similarity information calculated by the calculation unit;
A prediction device comprising: a synthesis section that synthesizes the two region predicted images using the synthesis method determined by the determination section and outputs a prediction block corresponding to the prediction target block.
前記複数の方式は、前記2つの領域予測画像間の境界領域を、画素位置ごとの重み係数を用いた重み付け合成により混合する第1方式を含み、
前記決定部は、前記算出部が算出した前記類似度情報に基づいて、前記第1方式を前記合成方式として用いるか否かを決定することを特徴とする請求項1に記載の予測装置。
The plurality of methods include a first method of mixing boundary regions between the two region predicted images by weighted synthesis using weighting coefficients for each pixel position,
The prediction device according to claim 1, wherein the determining unit determines whether to use the first method as the combining method based on the similarity information calculated by the calculating unit.
前記複数の方式は、前記境界領域を前記重み付け合成により混合しない第2方式をさらに含み、
前記決定部は、前記算出部が算出した前記類似度情報に基づいて、前記第1方式及び前記第2方式のいずれを前記合成方式として用いるかを決定することを特徴とする請求項2に記載の予測装置。
The plurality of methods further includes a second method of not blending the boundary region by the weighted blending,
The prediction device according to claim 2 , wherein the determination unit determines which of the first method and the second method to use as the combining method based on the similarity information calculated by the calculation unit.
前記第1方式は、前記境界領域を混合するパラメータが互いに異なる複数の第1方式を含み、
前記パラメータは、前記境界領域の範囲及び前記重み係数のセットのうち少なくとも1つであり、
前記決定部は、前記第1方式を用いる場合において、前記算出部が算出した前記類似度情報に基づいて、前記複数の第1方式のうちいずれを前記合成方式として用いるかを決定することを特徴とする請求項2又は3に記載の予測装置。
The first method includes a plurality of first methods having mutually different parameters for mixing the boundary regions,
The parameter is at least one of the range of the boundary region and the set of weighting coefficients,
When the first method is used, the determining section determines which of the plurality of first methods is to be used as the combining method based on the similarity information calculated by the calculating section. The prediction device according to claim 2 or 3.
請求項1乃至4のいずれか1項に記載の予測装置を備えることを特徴とする符号化装置。 An encoding device comprising the prediction device according to any one of claims 1 to 4. 請求項1乃至4のいずれか1項に記載の予測装置を備えることを特徴とする復号装置。 A decoding device comprising the prediction device according to any one of claims 1 to 4. コンピュータを請求項1乃至4のいずれか1項に記載の予測装置として機能させることを特徴とするプログラム。 A program that causes a computer to function as a prediction device according to any one of claims 1 to 4.
JP2020020955A 2020-02-10 2020-02-10 Prediction device, encoding device, decoding device, and program Active JP7460384B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020020955A JP7460384B2 (en) 2020-02-10 2020-02-10 Prediction device, encoding device, decoding device, and program
JP2024045101A JP7749052B2 (en) 2020-02-10 2024-03-21 Prediction device, encoding device, decoding device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020020955A JP7460384B2 (en) 2020-02-10 2020-02-10 Prediction device, encoding device, decoding device, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024045101A Division JP7749052B2 (en) 2020-02-10 2024-03-21 Prediction device, encoding device, decoding device, and program

Publications (2)

Publication Number Publication Date
JP2021129148A JP2021129148A (en) 2021-09-02
JP7460384B2 true JP7460384B2 (en) 2024-04-02

Family

ID=77489031

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020020955A Active JP7460384B2 (en) 2020-02-10 2020-02-10 Prediction device, encoding device, decoding device, and program
JP2024045101A Active JP7749052B2 (en) 2020-02-10 2024-03-21 Prediction device, encoding device, decoding device, and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024045101A Active JP7749052B2 (en) 2020-02-10 2024-03-21 Prediction device, encoding device, decoding device, and program

Country Status (1)

Country Link
JP (2) JP7460384B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2024069638A (en) * 2020-02-10 2024-05-21 日本放送協会 Prediction device, encoding device, decoding device, and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2024058006A (en) * 2022-10-13 2024-04-25 Kddi株式会社 Image decoding device, image decoding method, and program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011501508A (en) 2007-10-12 2011-01-06 トムソン ライセンシング Method and apparatus for video encoding and decoding of geometrically partitioned bi-predictive mode partition

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6740534B2 (en) * 2016-07-04 2020-08-19 日本放送協会 Encoding device, decoding device and program
JP7460384B2 (en) * 2020-02-10 2024-04-02 日本放送協会 Prediction device, encoding device, decoding device, and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011501508A (en) 2007-10-12 2011-01-06 トムソン ライセンシング Method and apparatus for video encoding and decoding of geometrically partitioned bi-predictive mode partition

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Chun-Chi Chen, et al.,Non-CE4/8: Blending-off Switch for TPM Mode,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-N0645-v2,15th Meeting: Gothenburg, SE,2019年07月,pp.1-5
P.Bordes, T. Poirier, and F. Le Leannec,CE4.4-related: Combination of GEO or TPM and Weighted-Prediction,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-Q0364-v2,17th Meeting: Brussels, BE,2020年01月,pp.1-6
Semih Esenlik, et al.,Non-CE4: Adaptive blending filtering for TPM,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-O0513-v3,15th Meeting: Gothenburg, SE,2019年07月,pp.1-3

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2024069638A (en) * 2020-02-10 2024-05-21 日本放送協会 Prediction device, encoding device, decoding device, and program

Also Published As

Publication number Publication date
JP7749052B2 (en) 2025-10-03
JP2024069638A (en) 2024-05-21
JP2021129148A (en) 2021-09-02

Similar Documents

Publication Publication Date Title
JP6335365B2 (en) Decoding device
US11695955B2 (en) Image encoding device, image decoding device and program
WO2019148977A1 (en) Methods and apparatuses of video encoding or decoding with adaptive quantization of video data
JP7749052B2 (en) Prediction device, encoding device, decoding device, and program
JP7357736B2 (en) Encoding device, decoding device, and program
US20210014489A1 (en) Intra prediction device, image encoding device, image decoding device and program
JP7675225B2 (en) Image encoding device, image encoding method, image decoding device, image decoding method
KR102550503B1 (en) Encoding device, decoding device, and program
US20250097419A1 (en) Encoding device, decoding device and program
JP2024133699A (en) Image decoding device and image decoding method
JP7636493B2 (en) Encoding device, decoding device, and program
JP7695310B2 (en) DEBLOCKING FILTER DEVICE, DECODING DEVICE, AND PROGRAM
JP7590510B2 (en) Intra prediction device, image encoding device, image decoding device, and program
JP7474772B2 (en) Encoding device, decoding device, and program
JP7228980B2 (en) Predictive image correction device, image coding device, image decoding device, and program
JP7659103B2 (en) Inter prediction device, image encoding device, image decoding device, and program
JP7531683B2 (en) Encoding device, decoding device, and program

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200529

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20200612

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240321

R150 Certificate of patent or registration of utility model

Ref document number: 7460384

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150