JP2013223049A - Image decoding apparatus and image encoding apparatus - Google Patents
Image decoding apparatus and image encoding apparatus Download PDFInfo
- Publication number
- JP2013223049A JP2013223049A JP2012092481A JP2012092481A JP2013223049A JP 2013223049 A JP2013223049 A JP 2013223049A JP 2012092481 A JP2012092481 A JP 2012092481A JP 2012092481 A JP2012092481 A JP 2012092481A JP 2013223049 A JP2013223049 A JP 2013223049A
- Authority
- JP
- Japan
- Prior art keywords
- prediction
- merge candidate
- unit
- merge
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
【課題】双予測が適用不可能である場合でも、多様な、あるいは、より好ましいマージ候補を作成することで、高い符号化効率を達成する。
【解決手段】双予測が適用可能である場合に、結合マージ候補導出部1212D3を用いてマージ候補リストを導出する一方で、双予測が適用不可能である場合に、補正マージ候補導出部1212D5を用いて、1以上のマージ候補を含むマージ候補リストを導出するマージ候補導出制御部1212Aを備える。
【選択図】図1Even when bi-prediction is not applicable, high encoding efficiency is achieved by creating various or more preferable merge candidates.
When bi-prediction is applicable, a merge candidate list is derived using a combined merge candidate derivation unit 1212D3, and when bi-prediction is not applicable, a corrected merge candidate derivation unit 1212D5 is provided. And a merge candidate derivation control unit 1212A for deriving a merge candidate list including one or more merge candidates.
[Selection] Figure 1
Description
本発明は、画像を表す符号化データを復号する画像復号装置、および画像を符号化することによって符号化データを生成する画像符号化装置に関する。 The present invention relates to an image decoding apparatus that decodes encoded data representing an image, and an image encoding apparatus that generates encoded data by encoding an image.
動画像を効率的に伝送または記録するために、動画像を符号化することによって符号化データを生成する動画像符号化装置、および、当該符号化データを復号することによって復号画像を生成する動画像復号装置が用いられている。 In order to efficiently transmit or record a moving image, a moving image encoding device that generates encoded data by encoding the moving image, and a moving image that generates a decoded image by decoding the encoded data An image decoding device is used.
具体的な動画像符号化方式としては、例えば、H.264/MPEG−4.AVC、および、その後継コーデックであるHEVC(High-Efficiency Video Coding)にて提案されている方式(非特許文献1)などが挙げられる。 As a specific moving picture encoding method, for example, H.264 is used. H.264 / MPEG-4. A method proposed by AVC and HEVC (High-Efficiency Video Coding) as a successor codec (Non-Patent Document 1) and the like can be mentioned.
このような動画像符号化方式においては、動画像を構成する画像(ピクチャ)は、画像を分割することにより得られるスライス、スライスを分割することにより得られる符号化単位(コーディングユニット(Coding Unit)と呼ばれることもある)、及び、符号化単位を分割することより得られるブロックおよびパーティションからなる階層構造により管理され、普通、ブロックごとに符号化/復号される。 In such a moving image coding system, an image (picture) constituting a moving image is a slice obtained by dividing the image, a coding unit (Coding Unit) obtained by dividing the slice. And is managed by a hierarchical structure composed of blocks and partitions obtained by dividing an encoding unit, and is normally encoded / decoded block by block.
また、このような動画像符号化方式においては、通常、入力画像を符号化/復号することによって得られる局所復号画像に基づいて予測画像が生成され、当該予測画像を入力画像(原画像)から減算して得られる予測残差(「差分画像」または「残差画像」と呼ぶこともある)が符号化される。また、予測画像の生成方法としては、画面間予測(インター予測)、および、画面内予測(イントラ予測)が挙げられる。 In such a moving image coding method, a predicted image is usually generated based on a local decoded image obtained by encoding / decoding an input image, and the predicted image is generated from the input image (original image). A prediction residual obtained by subtraction (sometimes referred to as “difference image” or “residual image”) is encoded. In addition, examples of the method for generating a predicted image include inter-screen prediction (inter prediction) and intra-screen prediction (intra prediction).
イントラ予測においては、同一フレーム内の局所復号画像に基づいて、当該フレームにおける予測画像が順次生成される。 In intra prediction, based on a locally decoded image in the same frame, predicted images in the frame are sequentially generated.
インター予測については、マージモードの予測単位においては、動き補償パラメータ候補(マージ候補)のリストを生成し、リストからインデックスで選択される動き補償候補を用いて、予測画像の動き補償を行う。マージモード以外の予測単位においては、動き補償パラメータ候補(予測動きベクトル候補)のリストを生成し、リストからインデックスで選択される動き補償候補と、差分動きベクトルから、動き補償パラメータを導出し動き補償を行う。 For inter prediction, in a prediction unit in merge mode, a list of motion compensation parameter candidates (merge candidates) is generated, and motion compensation of a predicted image is performed using a motion compensation candidate selected by an index from the list. In prediction units other than the merge mode, a list of motion compensation parameter candidates (predicted motion vector candidates) is generated, and motion compensation parameters are derived from the motion compensation candidates selected by index from the list and the difference motion vector, and motion compensation is performed. I do.
しかしながら、従来技術によるマージ候補リスト生成処理によると、双予測が適用可能である場合には多様なマージ候補を作成できるが、双予測が適用不可能である場合には、双予測が適用可能である場合に較べて生成されるマージ候補の種類が少ないという課題がある。すなわち、双予測が適用不可能である場合に適切なマージ候補が選択できず、マージ候補選択による符号化効率の向上幅が、双予測が適用可能である場合に較べて小さいという課題がある。 However, according to the merge candidate list generation process according to the prior art, various merge candidates can be created when bi-prediction is applicable, but bi-prediction is applicable when bi-prediction is not applicable. There is a problem that fewer types of merge candidates are generated than in some cases. That is, there is a problem that an appropriate merge candidate cannot be selected when bi-prediction is not applicable, and the improvement in coding efficiency due to merge candidate selection is smaller than when bi-prediction is applicable.
本発明は、上記問題を鑑みてなされたものであり、その目的は、双予測が適用不可能である場合でも、多様な、あるいは、より好ましいマージ候補を作成することで、高い符号化効率を達成できる画像復号装置および画像符号化装置を提供することにある。 The present invention has been made in view of the above problems, and its purpose is to achieve high coding efficiency by creating various or more preferable merge candidates even when bi-prediction is not applicable. An object of the present invention is to provide an image decoding apparatus and an image encoding apparatus that can be achieved.
上記の課題を解決するために、本発明に係る画像復号装置は、予測単位内の画像を、1枚の参照画像を参照する単予測、または、2枚の参照画像を参照する双予測の何れかの画面間予測の予測方式によって復元する画像復号装置において、双予測マージ候補を導出する双予測マージ候補導出手段と、1以上の単予測マージ候補を導出する単予測マージ候補導出手段と、双予測の適用可否を判定する双予測適用判定手段と、双予測が適用可能である場合に、上記双予測マージ候補導出手段を用いてマージ候補リストを導出する一方で、双予測が適用不可能である場合に、上記単予測マージ候補導出手段を用いて、1以上のマージ候補を含むマージ候補リストを導出するマージ候補リスト導出手段と、を備えることを特徴とする。 In order to solve the above-described problem, the image decoding apparatus according to the present invention uses either a single prediction that refers to one reference image or a bi-prediction that refers to two reference images. In an image decoding apparatus that restores using the inter-screen prediction prediction method, a bi-predictive merge candidate derivation unit that derives a bi-predictive merge candidate, a single-predictive merge candidate derivation unit that derives one or more uni-predictive merge candidates, A bi-prediction application determination unit that determines whether or not prediction is applicable, and a bi-prediction merge candidate derivation unit that derives a merge candidate list when bi-prediction is applicable. In some cases, the apparatus further comprises merge candidate list deriving means for deriving a merge candidate list including one or more merge candidates using the single prediction merge candidate deriving means.
上記構成によれば、双予測マージ候補導出手段および単予測マージ候補導出手段を含む。また、双予測が適用可能である場合に、上記双予測マージ候補導出手段を用いてマージ候補リストを導出する一方で、双予測が適用不可能である場合に、上記単予測マージ候補導出手段を用いて、1以上のマージ候補を含むマージ候補リストを導出する。 According to the above configuration, the bi-predictive merge candidate derivation means and the uni-predictive merge candidate derivation means are included. In addition, when bi-prediction is applicable, a merge candidate list is derived using the bi-prediction merge candidate derivation unit. On the other hand, when bi-prediction is not applicable, the single prediction merge candidate derivation unit is To derive a merge candidate list including one or more merge candidates.
これにより、双予測が適用できない場合でも、多様な、あるいは、より好ましいマージ候補を作成することができる。このため、マージ候補数の減少を抑制しスキップCUまたはマージPUの選択率を向上させることができる。その結果、符号化効率の向上を図ることができるという効果を奏する。 Thereby, even when bi-prediction is not applicable, various or more preferable merge candidates can be created. For this reason, it is possible to suppress the decrease in the number of merge candidates and improve the selection rate of skip CUs or merge PUs. As a result, the encoding efficiency can be improved.
また、本発明に係る画像復号装置では、上記双予測マージ候補導出手段は、2つの異なるマージ候補の動きベクトルに基づいてマージ候補を導出し、上記単予測マージ候補導出手段は、単一のマージ候補に基づいてマージ候補を導出することが好ましい。 In the image decoding apparatus according to the present invention, the bi-predictive merge candidate derivation unit derives merge candidates based on motion vectors of two different merge candidates, and the uni-predictive merge candidate derivation unit includes a single merge It is preferable to derive merge candidates based on the candidates.
上記構成によれば、2つの異なるマージ候補の動きベクトルを結合したり、単一のマージ候補を補正したりすることで、双予測が適用できない場合でも、多様な、あるいは、より好ましいマージ候補を作成することができる。 According to the above configuration, by combining motion vectors of two different merge candidates or correcting a single merge candidate, various or more preferable merge candidates can be obtained even when bi-prediction is not applicable. Can be created.
また、本発明に係る画像復号装置では、上記マージ候補リスト導出手段は、双予測が適用可能である場合に、上記双予測マージ候補導出手段を用い、かつ、上記単予測マージ候補導出手段を用いずにマージ候補リストを導出する一方で、双予測が適用不可能である場合に、上記単予測マージ候補導出手段を用い、かつ、上記双予測マージ候補導出手段を用いずにマージ候補リストを導出することが好ましい。 In the image decoding apparatus according to the present invention, the merge candidate list derivation unit uses the bi-prediction merge candidate derivation unit and bi-prediction merge candidate derivation unit when bi-prediction is applicable. If the bi-prediction is not applicable, the merge candidate list is derived without using the bi-predictive merge candidate deriving unit and without using the bi-predictive merge candidate deriving unit. It is preferable to do.
上記構成によれば、双予測が適用可能である場合であって、マージ候補が十分である可能性が高い場合に、単予測マージ候補導出手段を用いないので、処理量を低減することができる。 According to the above configuration, when bi-prediction is applicable and there is a high possibility that the merge candidates are sufficient, the single prediction merge candidate derivation means is not used, so that the processing amount can be reduced. .
また、本発明に係る画像復号装置では、上記双予測適用判定手段は、対象予測単位を含むスライスタイプを判定するスライスタイプ判定手段であり、
上記スライスタイプ判定手段は、スライスタイプがBスライスである場合に双予測が適用可能と判定し、スライスタイプがPスライスである場合に双予測が適用不可能と判定することが好ましい。
In the image decoding apparatus according to the present invention, the bi-prediction application determination unit is a slice type determination unit that determines a slice type including a target prediction unit,
Preferably, the slice type determination means determines that bi-prediction is applicable when the slice type is B slice, and determines that bi-prediction is not applicable when the slice type is P slice.
上記構成によれば、スライスタイプが、双予測が適用可能なBスライスに較べてマージ候補数が少ないPスライスである場合において、マージ候補数の減少を抑制しスキップCUまたはマージPUの選択率を向上させることができる。 According to the above configuration, when the slice type is a P slice having a smaller number of merge candidates compared to a B slice to which bi-prediction can be applied, the decrease in the number of merge candidates is suppressed, and the skip CU or merge PU selection rate is increased. Can be improved.
また、本発明に係る画像復号装置では、上記双予測適用判定手段は、対象予測単位に対して双予測制限が適用されるか否かを判定する双予測制限判定手段であり、
上記双予測制限判定手段は、対象予測単位の大きさが所定の大きさ以上の場合に双予測が適用可能と判定し、対象予測単位の大きさが所定の大きさより小さい場合に双予測が適用不可能と判定することが好ましい。
Moreover, in the image decoding apparatus according to the present invention, the bi-prediction application determination unit is a bi-prediction restriction determination unit that determines whether bi-prediction restriction is applied to the target prediction unit,
The bi-prediction restriction determination means determines that bi-prediction is applicable when the size of the target prediction unit is greater than or equal to a predetermined size, and applies bi-prediction when the size of the target prediction unit is smaller than the predetermined size. It is preferable to determine that it is impossible.
上記構成によれば、2枚の参照画像を参照することができるBスライスであったとしても、双予測が制限されているような場合において、マージ候補数の減少を抑制しスキップCUまたはマージPUの選択率を向上させることができる。 According to the above configuration, even when the B slice can refer to two reference images, in the case where bi-prediction is limited, the decrease in the number of merge candidates is suppressed, and the skip CU or merge PU The selectivity can be improved.
また、本発明に係る画像復号装置では、上記単予測マージ候補導出手段は、基準動き補償パラメータを決定するとともに、当該基準動き補償パラメータを調整することで上記単予測マージ候補を導出することが好ましい。 In the image decoding apparatus according to the present invention, it is preferable that the single prediction merge candidate derivation unit derives the single prediction merge candidate by determining a reference motion compensation parameter and adjusting the reference motion compensation parameter. .
上記構成によれば、基準動き補償パラメータとして、発生する可能性の高い動き補償パラメータを用いれば、当該基準動き補償パラメータを基準として調整を行うことで発生確率の高いマージ候補を生成することができる。 According to the above configuration, if a motion compensation parameter that is highly likely to be generated is used as the reference motion compensation parameter, a merge candidate with a high occurrence probability can be generated by performing adjustment with the reference motion compensation parameter as a reference. .
また、本発明に係る画像復号装置では、上記基準動き補償パラメータは、マージ候補リストに含まれるマージ候補の中で、最小のインデックスが割り当てられているマージ候補に対応する動き補償パラメータであることが好ましい。 In the image decoding device according to the present invention, the reference motion compensation parameter is a motion compensation parameter corresponding to a merge candidate to which a minimum index is assigned among merge candidates included in a merge candidate list. preferable.
上記構成によれば、導出済のマージ候補があれば、最も優先度の高いマージ候補を示すインデックスに対応付けられているマージ候補を基準動き補償パラメータとすることができる。また、導出済みのマージ候補を基準動き補償パラメータとして再利用すれば、処理量を削減することも可能である。 According to the above configuration, if there is a derived merge candidate, the merge candidate associated with the index indicating the merge candidate with the highest priority can be used as the reference motion compensation parameter. Further, if the derived merge candidate is reused as the reference motion compensation parameter, the processing amount can be reduced.
また、本発明に係る画像復号装置では、上記基準動き補償パラメータの調整は、上記基準動き補償パラメータにおける参照画像リストL0または参照画像リストL1に対応付けられた動きベクトルに対するオフセットの加算による調整であることが好ましい。 In the image decoding apparatus according to the present invention, the adjustment of the reference motion compensation parameter is an adjustment by adding an offset to a motion vector associated with the reference image list L0 or the reference image list L1 in the reference motion compensation parameter. It is preferable.
基準動き補償パラメータの動きベクトルに対してオフセットを適宜加えることで、多様なマージ候補を比較的簡易な処理により生成できる。 By appropriately adding an offset to the motion vector of the reference motion compensation parameter, various merge candidates can be generated by a relatively simple process.
また、本発明に係る画像復号装置では、上記基準動き補償パラメータの調整は、上記基準動き補償パラメータにおける参照画像リストL0または参照画像リストL1に対応付けられた参照画像インデックスを、当該参照画像インデックスと異なる値の中で最小の値とする調整であることが好ましい。 In the image decoding device according to the present invention, the adjustment of the reference motion compensation parameter is performed by using a reference image index associated with the reference image list L0 or the reference image list L1 in the reference motion compensation parameter as the reference image index. It is preferable that the adjustment be made to the minimum value among the different values.
上記構成によれば、参照画像として利用される可能性の高い参照画像ほど、参照画像リスト内の小さい値のインデックスが割り当てられている場合において、符号化効率を向上させることができる。 According to the above configuration, the coding efficiency can be improved when a reference image that is more likely to be used as a reference image is assigned a smaller index in the reference image list.
また、本発明に係る画像復号装置では、上記オフセットの加算による調整において、上記オフセットは、オフセットリストから選択され、
上記オフセットリストは、既定の複数のオフセットリストの中から、上記基準動き補償パラメータにおける動きベクトルの方向、または、大きさに基づいて選択されることが好ましい。
In the image decoding device according to the present invention, in the adjustment by adding the offset, the offset is selected from an offset list,
The offset list is preferably selected from a plurality of predetermined offset lists based on the direction or magnitude of the motion vector in the reference motion compensation parameter.
一般に、動きベクトルが大きいほど、オフセットの調整により対象PUに適した動きベクトルを導出される可能性が低下する。これは、動きベクトルが大きい場合、適切な調整を行うためにはより多数のオフセット候補が必要であり、逆に、限定されたオフセット候補では適切な調整が行えない可能性が高いという事実に基づく。 In general, the larger the motion vector, the lower the possibility that a motion vector suitable for the target PU will be derived by adjusting the offset. This is based on the fact that when the motion vector is large, a larger number of offset candidates are required to make an appropriate adjustment, and conversely, a limited offset candidate is likely not to make an appropriate adjustment. .
したがって、オフセット候補数が限定されている場合であって、基準動きベクトルの一方の成分の絶対値が他方の成分よりも大きい場合、絶対値が小さい方の成分の方向に調整するオフセット候補を多数オフセットリストに含める方が好ましい。 Therefore, when the number of offset candidates is limited and the absolute value of one component of the reference motion vector is larger than the other component, a large number of offset candidates to be adjusted in the direction of the component having the smaller absolute value It is preferable to include it in the offset list.
上記の課題を解決するために、本発明に係る画像符号化装置は、予測単位内の画像を、1枚の参照画像を参照する単予測、または、2枚の参照画像を参照する双予測の何れの画面間予測の予測方式によって復元すべきかを示す情報を符号化する画像符号化装置において、双予測マージ候補を導出する双予測マージ候補導出手段と、1以上の単予測マージ候補を導出する単予測マージ候補導出手段と、双予測の適用可否を判定する双予測適用判定手段と、双予測が適用可能である場合に、上記双予測マージ候補導出手段を用いてマージ候補リストを導出する一方で、双予測が適用不可能である場合に、上記単予測マージ候補導出手段を用いて、1以上のマージ候補を含むマージ候補リストを導出するマージ候補リスト導出手段と、を備えることを特徴とする。 In order to solve the above problems, an image encoding apparatus according to the present invention performs uni-prediction with reference to one reference image or bi-prediction with reference to two reference images for an image in a prediction unit. Bi-predictive merge candidate derivation means for deriving bi-predictive merge candidates and one or more uni-predictive merge candidates are derived in an image encoding apparatus that encodes information indicating which inter-frame prediction prediction method should be restored. A single prediction merge candidate derivation unit; a bi-prediction application determination unit that determines whether bi-prediction is applicable; and a bi-prediction merge candidate derivation unit that derives a merge candidate list when bi-prediction is applicable. Then, when bi-prediction is not applicable, a merge candidate list deriving unit for deriving a merge candidate list including one or more merge candidates using the single prediction merge candidate deriving unit is provided. And features.
このように、上記画像復号装置に対応する構成を備える画像符号化装置も本発明の範疇に入る。また、当該画像符号化装置によって生成される画像符号化データのデータ構造も本発明の範疇に入る。上記のように構成された画像符号化装置および画像符号化データのデータ構造によれば、本発明に係る画像復号装置と同様の効果を奏することができる。 Thus, an image encoding device having a configuration corresponding to the image decoding device also falls within the scope of the present invention. In addition, the data structure of the encoded image data generated by the image encoding apparatus also falls within the scope of the present invention. According to the image encoding device and the data structure of the image encoded data configured as described above, it is possible to achieve the same effect as the image decoding device according to the present invention.
本発明に係る画像復号装置は、予測単位内の画像を、1枚の参照画像を参照する単予測、または、2枚の参照画像を参照する双予測の何れかの画面間予測の予測方式によって復元する画像復号装置において、双予測マージ候補を導出する双予測マージ候補導出手段と、1以上の単予測マージ候補を導出する単予測マージ候補導出手段と、双予測の適用可否を判定する双予測適用判定手段と、双予測が適用可能である場合に、上記双予測マージ候補導出手段を用いてマージ候補リストを導出する一方で、双予測が適用不可能である場合に、上記単予測マージ候補導出手段を用いて、1以上のマージ候補を含むマージ候補リストを導出するマージ候補リスト導出手段と、を備える構成である。 The image decoding apparatus according to the present invention uses an inter-screen prediction prediction method for uni-prediction with reference to one reference image or bi-prediction with reference to two reference images. In the image decoding apparatus to be restored, bi-predictive merge candidate derivation means for deriving bi-predictive merge candidates, uni-predictive merge candidate derivation means for deriving one or more uni-predictive merge candidates, and bi-prediction for determining whether bi-prediction is applicable When the bi-prediction is applicable, the merge prediction list is derived using the bi-predictive merge candidate derivation unit when the bi-prediction is applicable, and when the bi-prediction is not applicable, the single-predictive merge candidate And a merge candidate list derivation unit that derives a merge candidate list including one or more merge candidates using the derivation unit.
本発明に係る画像符号化装置は、予測単位内の画像を、1枚の参照画像を参照する単予測、または、2枚の参照画像を参照する双予測の何れの画面間予測の予測方式によって復元すべきかを示す情報を符号化する画像符号化装置において、双予測マージ候補を導出する双予測マージ候補導出手段と、1以上の単予測マージ候補を導出する単予測マージ候補導出手段と、双予測の適用可否を判定する双予測適用判定手段と、双予測が適用可能である場合に、上記双予測マージ候補導出手段を用いてマージ候補リストを導出する一方で、双予測が適用不可能である場合に、上記単予測マージ候補導出手段を用いて、1以上のマージ候補を含むマージ候補リストを導出するマージ候補リスト導出手段と、を備える構成である。 The image encoding apparatus according to the present invention uses any prediction method for inter-screen prediction, ie, uni-prediction with reference to one reference image or bi-prediction with reference to two reference images. In an image encoding apparatus that encodes information indicating whether to restore, a bi-predictive merge candidate derivation unit that derives a bi-predictive merge candidate, a single-predictive merge candidate derivation unit that derives one or more uni-predictive merge candidates, A bi-prediction application determination unit that determines whether or not prediction is applicable, and a bi-prediction merge candidate derivation unit that derives a merge candidate list when bi-prediction is applicable. In some cases, there is provided a merge candidate list deriving unit that derives a merge candidate list including one or more merge candidates using the single prediction merge candidate deriving unit.
よって、双予測が適用できない場合でも、多様な、あるいは、より好ましいマージ候補を作成することができ、符号化効率の向上を図ることができる。 Therefore, even when bi-prediction cannot be applied, various or more preferable merge candidates can be created, and the encoding efficiency can be improved.
本発明の一実施形態について図1〜図20を参照して説明する。まず、図2を参照しながら、動画像復号装置(画像復号装置)1および動画像符号化装置(画像符号化装置)2の概要について説明する。図2は、動画像復号装置1の概略的構成を示す機能ブロック図である。
An embodiment of the present invention will be described with reference to FIGS. First, an overview of the moving picture decoding apparatus (image decoding apparatus) 1 and the moving picture encoding apparatus (image encoding apparatus) 2 will be described with reference to FIG. FIG. 2 is a functional block diagram showing a schematic configuration of the moving
図2に示す動画像復号装置1および動画像符号化装置2は、H.264/MPEG−4 AVC規格に採用されている技術、および、その後継コーデックであるHEVC(High-Efficiency Video Coding)にて提案されている技術を実装している。
The moving
動画像符号化装置2は、これらの動画像符号化方式において、エンコーダからデコーダに伝送されることが規定されているシンタックス(syntax)の値をエントロピー符号化して符号化データ#1を生成する。
The
エントロピー符号化方式としては、コンテキスト適応型可変長符号化(CAVLC:Context-based Adaptive Variable Length Coding)、および、コンテキスト適応型2値算術符号化(CABAC:Context-based Adaptive Binary Arithmetic Coding)が知られている。 As entropy coding methods, context adaptive variable length coding (CAVLC) and context adaptive binary arithmetic coding (CABAC) are known. ing.
CAVLCおよびCABACによる符号化/復号においては、コンテキストに適応した処理が行われる。コンテキストとは、符号化/復号の状況(文脈)のことであり、関連シンタックスの過去の符号化/復号結果により定まるものである。関連シンタックスとしては、例えば、イントラ予測、インター予測に関する各種シンタックス、輝度(Luma)、色差(Chroma)に関する各種シンタックス、およびCU(Coding Unit 符号化単位)サイズに関する各種シンタックスなどがある。また、CABACでは、シンタックスに対応する2値データ(バイナリ列)における、符号化/復号対象となるバイナリの位置をコンテキストとして用いる場合もある。 In encoding / decoding by CAVLC and CABAC, processing adapted to the context is performed. The context is an encoding / decoding situation (context), and is determined by past encoding / decoding results of related syntax. Examples of the related syntax include various syntaxes related to intra prediction and inter prediction, various syntaxes related to luminance (Luma) and chrominance (Chroma), and various syntaxes related to CU (Coding Unit coding unit) size. In CABAC, the binary position to be encoded / decoded in binary data (binary string) corresponding to the syntax may be used as the context.
CAVLCでは、符号化に用いるVLCテーブルを適応的に変更して、各種シンタックスが符号化される。一方、CABACでは、予測モードおよび変換係数等の多値を取り得るシンタックスに対して2値化処理が施され、この2値化処理によって得られた2値データが発生確率に応じて適応的に算術符号化される。具体的には、バイナリ値(0または1)の発生確率を保持するバッファを複数用意し、コンテキストに応じて一つのバッファを選択し、当該バッファに記録されている発生確率に基づいて算術符号化を行う。また、復号/符号化するバイナリ値に基づいて、当該バッファの発生確率を更新することで、コンテキストに応じて適切な発生確率を維持できる。 In CAVLC, various syntaxes are encoded by adaptively changing the VLC table used for encoding. On the other hand, in CABAC, binarization processing is performed on syntax that can take multiple values such as a prediction mode and a conversion coefficient, and binary data obtained by this binarization processing is adaptive according to the occurrence probability. Are arithmetically encoded. Specifically, multiple buffers that hold the occurrence probability of binary values (0 or 1) are prepared, one buffer is selected according to the context, and arithmetic coding is performed based on the occurrence probability recorded in the buffer I do. Further, by updating the occurrence probability of the buffer based on the binary value to be decoded / encoded, an appropriate occurrence probability can be maintained according to the context.
動画像復号装置1には、動画像符号化装置2が動画像を符号化した符号化データ#1が入力される。動画像復号装置1は、入力された符号化データ#1を復号して動画像#2を外部に出力する。動画像復号装置1の詳細な説明に先立ち、符号化データ#1の構成を以下に説明する。
The moving
〔符号化データの構成〕
図3を用いて、動画像符号化装置2によって生成され、動画像復号装置1によって復号される符号化データ#1の構成例について説明する。符号化データ#1は、例示的に、シーケンス、およびシーケンスを構成する複数のピクチャを含む。
[Configuration of encoded data]
A configuration example of encoded
符号化データ#1におけるデータの階層構造を図3に示す。図3の(a)〜(e)は、それぞれ、シーケンスSEQを規定するシーケンスレイヤ、ピクチャPICTを規定するピクチャレイヤ、スライスSを規定するスライスレイヤ、ツリーブロック(Tree block)TBLKを規定するツリーブロックレイヤ、ツリーブロックTBLKに含まれる符号化単位(Coding Unit;CU)を規定するCUレイヤを示す図である。
A hierarchical structure of data in the encoded
(シーケンスレイヤ)
シーケンスレイヤでは、処理対象のシーケンスSEQ(以下、対象シーケンスとも称する)を復号するために動画像復号装置1が参照するデータの集合が規定されている。シーケンスSEQは、図3の(a)に示すように、シーケンスパラメータセットSPS(Sequence Parameter Set)、ピクチャパラメータセットPPS(Picture Parameter Set)、適応パラメータセットAPS(Adaptation Parameter Set)、ピクチャPICT1〜PICTNP(NPはシーケンスSEQに含まれるピクチャの総数)、及び、付加拡張情報SEI(Supplemental Enhancement Information)を含んでいる。
(Sequence layer)
In the sequence layer, a set of data referred to by the
シーケンスパラメータセットSPSでは、対象シーケンスを復号するために動画像復号装置1が参照する符号化パラメータの集合が規定されている。SPSの詳細については後述する。
In the sequence parameter set SPS, a set of encoding parameters referred to by the
ピクチャパラメータセットPPSでは、対象シーケンス内の各ピクチャを復号するために動画像復号装置1が参照する符号化パラメータの集合が規定されている。例えば、ピクチャの復号に用いられる量子化幅の基準値(pic_init_qp_minus26)や重み付き予測の適用を示すフラグ(weighted_pred_flag)が含まれる。なお、PPSは複数存在してもよい。その場合、対象シーケンス内の各ピクチャから複数のPPSの何れかを選択する。
In the picture parameter set PPS, a set of encoding parameters referred to by the
適応パラメータセットAPSは、対象シーケンス内の各スライスを復号するために動画像復号装置1が参照する符号化パラメータの集合が規定されている。APSの詳細については後述する。なお、APSは複数存在してもよい。その場合、対象シーケンス内の各スライスから複数のAPSの何れかを選択する。
The adaptive parameter set APS defines a set of coding parameters that the
(ピクチャレイヤ)
ピクチャレイヤでは、処理対象のピクチャPICT(以下、対象ピクチャとも称する)を復号するために動画像復号装置1が参照するデータの集合が規定されている。ピクチャPICTは、図3の(b)に示すように、ピクチャヘッダPH、及び、スライスS1〜SNSを含んでいる(NSはピクチャPICTに含まれるスライスの総数)。
(Picture layer)
In the picture layer, a set of data referred to by the
なお、以下、スライスS1〜SNSのそれぞれを区別する必要が無い場合、符号の添え字を省略して記述することがある。また、以下に説明する符号化データ#1に含まれるデータであって、添え字を付している他のデータについても同様である。
Hereinafter, when it is not necessary to distinguish each of the slices S1 to SNS, the subscripts may be omitted. The same applies to other data with subscripts included in encoded
ピクチャヘッダPHには、対象ピクチャの復号方法を決定するために動画像復号装置1が参照する符号化パラメータ群が含まれている。なお、符号化パラメータ群は、必ずしもピクチャヘッダPH内に直接含んでいる必要はなく、例えばピクチャパラメータセットPPSへの参照(pic_parameter_set_id)を含むことで、間接的に含めても良い。
The picture header PH includes a coding parameter group that is referred to by the
(スライスレイヤ)
スライスレイヤでは、処理対象のスライスS(対象スライスとも称する)を復号するために動画像復号装置1が参照するデータの集合が規定されている。スライスSは、図3の(c)に示すように、スライスヘッダSH、及び、ツリーブロックTBLK1〜TBLKNC(NCはスライスSに含まれるツリーブロックの総数)のシーケンスを含んでいる。
(Slice layer)
In the slice layer, a set of data referred to by the
スライスヘッダSHには、対象スライスの復号方法を決定するために動画像復号装置1が参照する符号化パラメータ群が含まれる。スライスタイプを指定するスライスタイプ指定情報(slice_type)は、スライスヘッダSHに含まれる符号化パラメータの一例である。
The slice header SH includes an encoding parameter group that is referred to by the
スライスタイプ指定情報により指定可能なスライスタイプとしては、(1)符号化の際にイントラ予測のみを用いるIスライス、(2)符号化の際に単方向予測、又は、イントラ予測を用いるPスライス、(3)符号化の際に単方向予測、双方向予測、又は、イントラ予測を用いるBスライスなどが挙げられる。 As slice types that can be specified by the slice type specification information, (1) I slice that uses only intra prediction at the time of encoding, (2) P slice that uses unidirectional prediction or intra prediction at the time of encoding, (3) B-slice using unidirectional prediction, bidirectional prediction, or intra prediction at the time of encoding may be used.
なお、スライスヘッダSHには、上記シーケンスレイヤに含まれる、ピクチャパラメータセットPPSへの参照(pic_parameter_set_id)、適応パラメータセットAPSへの参照(aps_id)を含んでいても良い。 Note that the slice header SH may include a reference to the picture parameter set PPS (pic_parameter_set_id) and a reference to the adaptive parameter set APS (aps_id) included in the sequence layer.
(ツリーブロックレイヤ)
ツリーブロックレイヤでは、処理対象のツリーブロックTBLK(以下、対象ツリーブロックとも称する)を復号するために動画像復号装置1が参照するデータの集合が規定されている。なお、ツリーブロックのことを符号化ツリーブロック(CTB:Coding Tree Block)、または、最大符号化単位(LCU:Largest Cording Unit)と呼ぶこともある。
(Tree block layer)
In the tree block layer, a set of data referred to by the
ツリーブロックTBLKは、ツリーブロックヘッダTBLKHと、符号化単位情報CU1〜CUNL(NLはツリーブロックTBLKに含まれる符号化単位情報の総数)とを含む。ここで、まず、ツリーブロックTBLKと、符号化単位情報CUとの関係について説明すると次のとおりである。 The tree block TBLK includes a tree block header TBLKH and coding unit information CU1 to CUNL (NL is the total number of coding unit information included in the tree block TBLK). Here, first, a relationship between the tree block TBLK and the coding unit information CU will be described as follows.
ツリーブロックTBLKは、イントラ予測またはインター予測、および、変換の各処理ためのブロックサイズを特定するためのユニットに分割される。 Tree block TBLK is divided into units for specifying a block size for each process of intra prediction or inter prediction and transformation.
ツリーブロックTBLKの上記ユニットは、再帰的な4分木分割により分割されている。この再帰的な4分木分割により得られる木構造のことを以下、符号化ツリー(coding tree)と称する。 The unit of the tree block TBLK is divided by recursive quadtree division. The tree structure obtained by this recursive quadtree partitioning is hereinafter referred to as a coding tree.
以下、符号化ツリーの末端のノードであるリーフ(leaf)に対応するユニットを、符号化ノード(coding node)として参照する。また、符号化ノードは、符号化処理の基本的な単位となるため、以下、符号化ノードのことを、符号化単位(CU)とも称する。 Hereinafter, a unit corresponding to a leaf which is a node at the end of the coding tree is referred to as a coding node. In addition, since the encoding node is a basic unit of the encoding process, hereinafter, the encoding node is also referred to as an encoding unit (CU).
つまり、符号化単位情報CU1〜CUNLは、ツリーブロックTBLKを再帰的に4分木分割して得られる各符号化ノード(符号化単位)に対応する情報である。 That is, the coding unit information CU1 to CUNL is information corresponding to each coding node (coding unit) obtained by recursively dividing the tree block TBLK into quadtrees.
また、符号化ツリーのルート(root)は、ツリーブロックTBLKに対応付けられる。換言すれば、ツリーブロックTBLKは、複数の符号化ノードを再帰的に含む4分木分割の木構造の最上位ノードに対応付けられる。 Also, the root of the coding tree is associated with the tree block TBLK. In other words, the tree block TBLK is associated with the highest node of the tree structure of the quadtree partition that recursively includes a plurality of encoding nodes.
なお、各符号化ノードのサイズは、当該符号化ノードが直接に属する符号化ノード(すなわち、当該符号化ノードの1階層上位のノードのユニット)のサイズの縦横とも半分である。 Note that the size of each coding node is half of the size of the coding node to which the coding node directly belongs (that is, the unit of the node one level higher than the coding node).
また、ツリーブロックTBLKのサイズ、および、各符号化ノードのとり得るサイズは、符号化データ#1のシーケンスパラメータセットSPSに含まれる、最小符号化ノードのサイズ指定情報(log2_min_coding_block_size_minus3)および最大符号化ノードと最小符号化ノードの階層深度の差分(log2_diff_max_min_coding_block_size)に依存する。例えば、最小符号化ノードのサイズが8×8画素であって、最大符号化ノードと最小符号化ノードの階層深度の差分が3である場合、ツリーブロックTBLKのサイズが64×64画素であって、符号化ノードのサイズは、4種類のサイズ、すなわち、64×64画素、32×32画素、16×16画素、および、8×8画素の何れかをとり得る。
The size of the tree block TBLK and the size that each coding node can take are the minimum coding node size designation information (log2_min_coding_block_size_minus3) and the maximum coding node included in the sequence parameter set SPS of the coded
(ツリーブロックヘッダ)
ツリーブロックヘッダTBLKHには、対象ツリーブロックの復号方法を決定するために動画像復号装置1が参照する符号化パラメータが含まれる。具体的には、図3の(d)に示すように、対象ツリーブロックの各CUへの分割パターンを指定するツリーブロック分割情報SP_TBLK、および、量子化ステップの大きさを指定する量子化パラメータ差分Δqp(qp_delta)が含まれる。
(Tree block header)
The tree block header TBLKH includes an encoding parameter referred to by the
ツリーブロック分割情報SP_TBLKは、ツリーブロックを分割するための符号化ツリーを表す情報であり、具体的には、対象ツリーブロックに含まれる各CUの形状、サイズ、および、対象ツリーブロック内での位置を指定する情報である。 The tree block division information SP_TBLK is information representing a coding tree for dividing the tree block. Specifically, the shape and size of each CU included in the target tree block, and the position in the target tree block Is information to specify.
なお、ツリーブロック分割情報SP_TBLKは、CUの形状やサイズを明示的に含んでいなくてもよい。例えばツリーブロック分割情報SP_TBLKは、対象ツリーブロック全体またはツリーブロックの部分領域を四分割するか否かを示すフラグ(split_coding_unit_flag)の集合であってもよい。その場合、ツリーブロックの形状やサイズを併用することで各CUの形状やサイズを特定できる。 Note that the tree block division information SP_TBLK may not explicitly include the shape or size of the CU. For example, the tree block division information SP_TBLK may be a set of flags (split_coding_unit_flag) indicating whether or not the entire target tree block or a partial area of the tree block is divided into four. In that case, the shape and size of each CU can be specified by using the shape and size of the tree block together.
また、量子化パラメータ差分Δqpは、対象ツリーブロックにおける量子化パラメータqpと、当該対象ツリーブロックの直前に符号化されたツリーブロックにおける量子化パラメータqp’との差分qp−qp’である。 The quantization parameter difference Δqp is a difference qp−qp ′ between the quantization parameter qp in the target tree block and the quantization parameter qp ′ in the tree block encoded immediately before the target tree block.
(CUレイヤ)
CUレイヤでは、処理対象のCU(以下、対象CUとも称する)を復号するために動画像復号装置1が参照するデータの集合が規定されている。
(CU layer)
In the CU layer, a set of data referred to by the
ここで、符号化単位情報CUに含まれるデータの具体的な内容の説明をする前に、CUに含まれるデータの木構造について説明する。符号化ノードは、予測ツリー(prediction tree;PT)および変換ツリー(transform tree;TT)のルートのノードとなる。予測ツリーおよび変換ツリーについて説明すると次のとおりである。 Here, before describing specific contents of data included in the coding unit information CU, a tree structure of data included in the CU will be described. The encoding node is a node at the root of a prediction tree (PT) and a transform tree (TT). The prediction tree and the conversion tree are described as follows.
予測ツリーにおいては、符号化ノードが1または複数の予測ブロックに分割され、各予測ブロックの位置とサイズとが規定される。別の表現でいえば、予測ブロックは、符号化ノードを構成する1または複数の重複しない領域である。また、予測ツリーは、上述の分割により得られた1または複数の予測ブロックを含む。 In the prediction tree, the encoding node is divided into one or a plurality of prediction blocks, and the position and size of each prediction block are defined. In other words, the prediction block is one or a plurality of non-overlapping areas constituting the encoding node. The prediction tree includes one or a plurality of prediction blocks obtained by the above division.
予測処理は、この予測ブロックごとに行われる。以下、予測の単位である予測ブロックのことを、予測単位(prediction unit;PU)とも称する。 Prediction processing is performed for each prediction block. Hereinafter, a prediction block that is a unit of prediction is also referred to as a prediction unit (PU).
予測ツリーにおける分割の種類は、大まかにいえば、イントラ予測の場合と、インター予測の場合との2つがある。 Broadly speaking, there are two types of division in the prediction tree: intra prediction and inter prediction.
イントラ予測の場合、分割方法は、2N×2N(符号化ノードと同一サイズ)と、N×Nとがある。 In the case of intra prediction, there are 2N × 2N (the same size as the encoding node) and N × N division methods.
また、インター予測の場合、分割方法は、2N×2N(符号化ノードと同一サイズ)、2N×N、N×2N、および、N×Nなどがある。 In the case of inter prediction, there are 2N × 2N (the same size as the encoding node), 2N × N, N × 2N, N × N, and the like.
また、変換ツリーにおいては、符号化ノードが1または複数の変換ブロックに分割され、各変換ブロックの位置とサイズとが規定される。別の表現でいえば、変換ブロックは、符号化ノードを構成する1または複数の重複しない領域のことである。また、変換ツリーは、上述の分割より得られた1または複数の変換ブロックを含む。 In the transform tree, the encoding node is divided into one or a plurality of transform blocks, and the position and size of each transform block are defined. In other words, the transform block is one or a plurality of non-overlapping areas constituting the encoding node. The conversion tree includes one or a plurality of conversion blocks obtained by the above division.
変換処理は、この変換ブロックごとに行われる。以下、変換の単位である変換ブロックのことを、変換単位(transform unit;TU)とも称する。 The conversion process is performed for each conversion block. Hereinafter, a transform block that is a unit of transform is also referred to as a transform unit (TU).
(符号化単位情報のデータ構造)
続いて、図3の(e)を参照しながら符号化単位情報CUに含まれるデータの具体的な内容について説明する。図3の(e)に示すように、符号化単位情報CUは、具体的には、スキップモードフラグSKIP、CU予測タイプ情報Pred_type、PT情報PTI、および、TT情報TTIを含む。
(Data structure of encoding unit information)
Next, specific contents of data included in the coding unit information CU will be described with reference to FIG. As shown in FIG. 3E, the coding unit information CU specifically includes a skip mode flag SKIP, CU prediction type information Pred_type, PT information PTI, and TT information TTI.
[スキップフラグ]
スキップフラグSKIPは、対象CUについて、スキップモードが適用されているか否かを示すフラグであり、スキップフラグSKIPの値が1の場合、すなわち、対象CUにスキップモードが適用されている場合、その符号化単位情報CUにおけるPT情報PTIは省略される。なお、スキップフラグSKIPは、Iスライスでは省略される。
[Skip flag]
The skip flag SKIP is a flag indicating whether or not the skip mode is applied to the target CU. When the value of the skip flag SKIP is 1, that is, when the skip mode is applied to the target CU, the code The PT information PTI in the unit information CU is omitted. Note that the skip flag SKIP is omitted for the I slice.
[CU予測タイプ情報]
CU予測タイプ情報Pred_typeは、CU予測方式情報PredModeおよびPU分割タイプ情報PartModeを含む。
[CU prediction type information]
The CU prediction type information Pred_type includes CU prediction method information PredMode and PU partition type information PartMode.
CU予測方式情報PredModeは、対象CUに含まれる各PUについての予測画像生成方法として、イントラ予測(イントラCU)、および、インター予測(インターCU)のいずれを用いるのかを指定するものである。なお、以下では、対象CUにおける、スキップ、イントラ予測、および、インター予測の種別を、CU予測モードと称する。 The CU prediction method information PredMode specifies whether intra prediction (intra CU) or inter prediction (inter CU) is used as a predicted image generation method for each PU included in the target CU. Hereinafter, the types of skip, intra prediction, and inter prediction in the target CU are referred to as a CU prediction mode.
PU分割タイプ情報PartModeは、対象符号化単位(CU)の各PUへの分割のパターンであるPU分割タイプを指定するものである。以下、このように、PU分割タイプに従って、対象符号化単位(CU)を各PUへ分割することをPU分割と称する。 The PU partition type information PartMode designates a PU partition type that is a pattern of partitioning the target coding unit (CU) into each PU. Hereinafter, dividing the target coding unit (CU) into each PU according to the PU division type in this way is referred to as PU division.
PU分割タイプ情報PartModeは、例示的には、PU分割パターンの種類を示すインデックスであってもよいし、対象予測ツリーに含まれる各PUの形状、サイズ、および、対象予測ツリー内での位置が指定されていてもよい。 For example, the PU partition type information PartMode may be an index indicating the type of PU partition pattern, and the shape, size, and position of each PU included in the target prediction tree may be It may be specified.
なお、選択可能なPU分割タイプは、CU予測方式とCUサイズに応じて異なる。また、さらにいえば、選択可能できるPU分割タイプは、インター予測およびイントラ予測それぞれの場合において異なる。また、PU分割タイプの詳細については後述する。 The selectable PU partition types differ depending on the CU prediction method and the CU size. Furthermore, the PU partition types that can be selected are different in each case of inter prediction and intra prediction. Details of the PU partition type will be described later.
また、Iスライスでない場合、PU分割タイプ情報PartModeの値およびPU分割タイプ情報PartModeの値は、ツリーブロックの分割(partition)、予測方式、およびCUの分割(split)の方法の組み合わせを指定するインデックス(cu_split_pred_part_mode)によって特定されるようになっていてもよい。 If the slice is not an I slice, the value of the PU partition type information PartMode and the value of the PU partition type information PartMode are indices that specify combinations of tree block partition (partition), prediction method, and CU split (split) methods. It may be specified by (cu_split_pred_part_mode).
[PT情報]
PT情報PTIは、対象CUに含まれるPTに関する情報である。言い換えれば、PT情報PTIは、PTに含まれる1または複数のPUそれぞれに関する情報の集合である。上述のとおり予測画像の生成は、PUを単位として行われるので、PT情報PTIは、動画像復号装置1によって予測画像が生成される際に参照される。PT情報PTIは、図3の(e)に示すように、各PUにおける予測情報等を含むPU情報PUI1〜PUINP(NPは、対象PTに含まれるPUの総数)を含む。
[PT information]
The PT information PTI is information related to the PT included in the target CU. In other words, the PT information PTI is a set of information on each of one or more PUs included in the PT. As described above, since the generation of the predicted image is performed in units of PUs, the PT information PTI is referred to when the moving
予測情報PUIは、予測タイプ情報Pred_modeが何れの予測方法を指定するのかに応じて、イントラ予測情報、または、インター予測情報を含む。以下では、イントラ予測が適用されるPUをイントラPUとも呼称し、インター予測が適用されるPUをインターPUとも呼称する。 The prediction information PUI includes intra prediction information or inter prediction information depending on which prediction method is specified by the prediction type information Pred_mode. Hereinafter, a PU to which intra prediction is applied is also referred to as an intra PU, and a PU to which inter prediction is applied is also referred to as an inter PU.
インター予測情報は、動画像復号装置1が、インター予測によってインター予測画像を生成する際に参照される動き補償パラメータを含む。
The inter prediction information includes a motion compensation parameter that is referred to when the moving
動き補償パラメータとしては、例えば、マージフラグ(merge_flag)、マージインデックス(merge_idx)、推定動きベクトルインデックス(mvp_idx)、参照画像インデックス(ref_idx)、インター予測フラグ(inter_pred_flag)、および動きベクトル残差(mvd)が挙げられる。 As motion compensation parameters, for example, a merge flag (merge_flag), a merge index (merge_idx), an estimated motion vector index (mvp_idx), a reference image index (ref_idx), an inter prediction flag (inter_pred_flag), and a motion vector residual (mvd) Is mentioned.
イントラ予測情報は、動画像復号装置1が、イントラ予測によってイントラ予測画像を生成する際に参照される符号化パラメータを含む。
The intra prediction information includes an encoding parameter that is referred to when the
イントラ予測パラメータとしては、例えば、推定予測モードフラグ、推定予測モードインデックス、および、残余予測モードインデックスが挙げられる。 Examples of intra prediction parameters include an estimated prediction mode flag, an estimated prediction mode index, and a residual prediction mode index.
なお、イントラ予測情報では、PCMモードを用いるか否かを示すPCMモードフラグが符号化されていてもよい。PCMモードフラグが符号化されている場合であって、PCMモードフラグがPCMモードを用いることを示しているときには、予測処理(イントラ)、変換処理、および、エントロピー符号化の各処理が省略される。 In the intra prediction information, a PCM mode flag indicating whether to use the PCM mode may be encoded. When the PCM mode flag is encoded and the PCM mode flag indicates that the PCM mode is used, the prediction process (intra), the conversion process, and the entropy encoding process are omitted. .
[TT情報]
TT情報TTIは、CUに含まれるTTに関する情報である。言い換えれば、TT情報TTIは、TTに含まれる1または複数のTUそれぞれに関する情報の集合であり、動画像復号装置1により残差データを復号する際に参照される。なお、以下、TUのことをブロックと称することもある。
[TT information]
The TT information TTI is information regarding the TT included in the CU. In other words, the TT information TTI is a set of information regarding each of one or a plurality of TUs included in the TT, and is referred to when the moving
TT情報TTIは、図3の(e)に示すように、対象CUの各変換ブロックへの分割パターンを指定するTT分割情報SP_TU、および、TU情報TUI1〜TUINT(NTは、対象CUに含まれるブロックの総数)を含んでいる。 As shown in (e) of FIG. 3, the TT information TTI includes TT division information SP_TU that designates a division pattern for each transform block of the target CU, and TU information TUI1 to TUINT (NT is included in the target CU). The total number of blocks).
TT分割情報SP_TUは、具体的には、対象CUに含まれる各TUの形状、サイズ、および、対象CU内での位置を決定するための情報である。例えば、TT分割情報SP_TUは、対象となるノードの分割を行うのか否かを示す情報(split_transform_flag)と、その分割の深度を示す情報(trafoDepth)とから実現することができる。 Specifically, the TT division information SP_TU is information for determining the shape and size of each TU included in the target CU and the position within the target CU. For example, the TT division information SP_TU can be realized from information (split_transform_flag) indicating whether or not the target node is to be divided and information (trafoDepth) indicating the depth of the division.
また、例えば、CUのサイズが、64×64の場合、分割により得られる各TUは、32×32画素から4×4画素までのサイズを取り得る。 For example, when the size of the CU is 64 × 64, each TU obtained by the division can take a size from 32 × 32 pixels to 4 × 4 pixels.
TU情報TUI1〜TUINTは、TTに含まれる1または複数のTUそれぞれに関する個別の情報である。例えば、TU情報TUIは、量子化予測残差を含んでいる。 The TU information TUI1 to TUINT is individual information regarding each of one or more TUs included in the TT. For example, the TU information TUI includes a quantized prediction residual.
各量子化予測残差は、動画像符号化装置2が以下の処理1〜3を、処理対象のブロックである対象ブロックに施すことによって生成した符号化データである。
Each quantization prediction residual is encoded data generated by the moving
処理1:符号化対象画像から予測画像を減算した予測残差をDCT変換(Discrete Cosine Transform)する;
処理2:処理1にて得られた変換係数を量子化する;
処理3:処理2にて量子化された変換係数を可変長符号化する;
なお、上述した量子化パラメータqpは、動画像符号化装置2が変換係数を量子化する際に用いた量子化ステップQPの大きさを表す(QP=2qp/6)。
Process 1: DCT transform (Discrete Cosine Transform) of the prediction residual obtained by subtracting the prediction image from the encoding target image;
Process 2: Quantize the transform coefficient obtained in
Process 3: Variable length coding is performed on the transform coefficient quantized in
The quantization parameter qp described above represents the magnitude of the quantization step QP used when the moving
〔動画像復号装置〕
以下では、本実施形態に係る動画像復号装置1の構成について、図1〜図15を参照して説明する。
[Video decoding device]
Below, the structure of the moving
(動画像復号装置の概要)
動画像復号装置1は、PU毎に予測画像を生成し、生成された予測画像と、符号化データ#1から復号された予測残差とを加算することによって復号画像#2を生成し、生成された復号画像#2を外部に出力する。
(Outline of video decoding device)
The
ここで、予測画像の生成は、符号化データ#1を復号することによって得られる符号化パラメータを参照して行われる。符号化パラメータとは、予測画像を生成するために参照されるパラメータのことである。符号化パラメータには、画面間予測において参照される動きベクトルや画面内予測において参照される予測モードなどの予測パラメータに加えて、PUのサイズや形状、ブロックのサイズや形状、および、原画像と予測画像との残差データなどが含まれる。以下では、符号化パラメータに含まれる情報のうち、上記残差データを除く全ての情報の集合を、サイド情報と呼ぶ。
Here, the generation of the predicted image is performed with reference to an encoding parameter obtained by decoding the encoded
また、以下では、復号の対象となるピクチャ(フレーム)、スライス、ツリーブロック、ブロック、および、PUをそれぞれ、対象ピクチャ、対象スライス、対象ツリーブロック、対象ブロック、および、対象PUと呼ぶことにする。 In the following, a picture (frame), a slice, a tree block, a block, and a PU to be decoded are referred to as a target picture, a target slice, a target tree block, a target block, and a target PU, respectively. .
なお、ツリーブロックのサイズは、例えば64×64画素であり、PUのサイズは、例えば、64×64画素、32×32画素、16×16画素、8×8画素や4×4画素などである。しかしながら、これらのサイズは、単なる例示であり、ツリーブロックおよびPUのサイズは以上に示したサイズ以外のサイズであってもよい。 Note that the size of the tree block is, for example, 64 × 64 pixels, and the size of the PU is, for example, 64 × 64 pixels, 32 × 32 pixels, 16 × 16 pixels, 8 × 8 pixels, 4 × 4 pixels, or the like. . However, these sizes are merely examples, and the sizes of the tree block and PU may be other than the sizes shown above.
(動画像復号装置の構成)
再び、図2を参照して、動画像復号装置1の概略的構成について説明すると次のとおりである。図2は、動画像復号装置1の概略的構成について示した機能ブロック図である。
(Configuration of video decoding device)
Referring to FIG. 2 again, the schematic configuration of the moving
図2に示すように動画像復号装置1は、復号モジュール10、CU情報復号部11、PU情報復号部12、TU情報復号部13、予測画像生成部14、逆量子化・逆変換部15、フレームメモリ16および加算器17を備えている。
As shown in FIG. 2, the moving
[復号モジュール]
復号モジュール10は、バイナリからシンタックス値を復号する復号処理を行う。復号モジュール10は、より具体的には、供給元から供給される符号化データおよびシンタックス種別に基づいて、CABACおよびCAVLC等のエントロピー符号化方式により符号化されているシンタックス値を復号し、復号したシンタックス値を供給元に返す。
[Decryption module]
The
以下に示す例では、符号化データおよびシンタックス種別の供給元は、CU情報復号部11、PU情報復号部12、およびTU情報復号部13である。
In the example shown below, the sources of encoded data and syntax type are the CU
復号モジュール10における復号処理の例として、CU情報復号部11から、復号モジュール10に対して、符号化データのバイナリ(ビット列)と、シンタックス種別“split_coding_unit_flag”とが供給された場合について説明すると次のとおりである。すなわち、この場合、復号モジュール10は、“split_coding_unit_flag”に関する、ビット列と、シンタックス値との対応付けを参照して、バイナリからシンタックス値を導出して、導出したシンタックス値をCU情報復号部11に返す。
As an example of the decoding process in the
[CU情報復号部]
CU情報復号部11は、復号モジュール10を用いて、動画像符号化装置2から入力された1フレーム分の符号化データ#1について、ツリーブロックおよびCUレベルでの復号処理を行う。CU情報復号部11は、具体的には、以下の手順により符号化データ#1を復号する。
[CU information decoding unit]
The CU
まず、CU情報復号部11は、符号化データ#1に含まれる各種ヘッダを参照して、符号化データ#1を、スライス、ツリーブロックに順次分離する。
First, the CU
ここで、各種ヘッダには、(1)対象ピクチャのスライスへの分割方法についての情報、および(2)対象スライスに属するツリーブロックのサイズ、形状および対象スライス内での位置についての情報が含まれる。 Here, the various headers include (1) information about the method of dividing the target picture into slices, and (2) information about the size, shape, and position of the tree block belonging to the target slice. .
そして、CU情報復号部11は、ツリーブロックヘッダTBLKHに含まれるツリーブロック分割情報SP_TBLKを参照して、対象ツリーブロックを、CUに分割する。
Then, the CU
次に、CU情報復号部11は、分割により得られたCUに対応する符号化単位情報(以下、CU情報と称する)を取得する。CU情報復号部11は、ツリーブロックに含まれる各CUを順に対象CUとして、対象CUに対応するCU情報の復号処理を実行する。
Next, the CU
すなわち、CU情報復号部11は、対象CUについて得られる変換ツリーに関するTT情報TTI、および、対象CUについて得られる予測ツリーに関するPT情報PTIを逆多重化する。
That is, the CU
なお、TT情報TTIには、上述のとおり、変換ツリーに含まれるTUに対応するTU情報TUIが含まれる。また、PT情報PTIには、上述のとおり、対象予測ツリーに含まれるPUに対応するPU情報PUIが含まれる。 The TT information TTI includes the TU information TUI corresponding to the TU included in the conversion tree as described above. Further, as described above, the PT information PTI includes the PU information PUI corresponding to the PU included in the target prediction tree.
CU情報復号部11は、対象CUについて得られたPT情報PTIをPU情報復号部12に供給する。また、CU情報復号部11は、対象CUについて得られたTT情報TTIをTU情報復号部13に供給する。
The CU
[PU情報復号部]
PU情報復号部12は、復号モジュール10を用いて、CU情報復号部11から供給されるPT情報PTIについて、PUレベルでの復号処理を行う。PU情報復号部12は、具体的には、以下の手順によりPT情報PTIを復号する。
[PU information decoding unit]
The PU
PU情報復号部12は、PU分割タイプ情報Part_typeを参照して、対象予測ツリーにおけるPU分割タイプを決定する。続いて、PU情報復号部12は、対象予測ツリーに含まれる各PUを順に対象PUとして、対象PUに対応するPU情報の復号処理を実行する。
The PU
すなわち、PU情報復号部12は、対象PUに対応するPU情報から、予測画像の生成に用いられる各パラメータの復号処理を行う。
That is, the PU
PU情報復号部12は、対象PUについて復号したPU情報を、予測画像生成部14に供給する。
The PU
[TU情報復号部]
TU情報復号部13は、復号モジュール10を用いて、CU情報復号部11から供給されるTT情報TTIについて、TUレベルでの復号処理を行う。TU情報復号部13は、具体的には、以下の手順によりTT情報TTIを復号する。
[TU information decoding unit]
The TU
TU情報復号部13は、TT分割情報SP_TUを参照して、対象変換ツリーをノードまたはTUに分割する。なお、TU情報復号部13は、対象ノードについて、さらに分割を行うことが指定されていれば、再帰的にTUの分割処理を行う。
The TU
分割処理が終了すると、TU情報復号部13は、対象予測ツリーに含まれる各TUを順に対象TUとして、対象TUに対応するTU情報の復号処理を実行する。
When the division process ends, the TU
すなわち、TU情報復号部13は、対象TUに対応するTU情報から、変換係数の復元に用いられる各パラメータの復号処理を行う。
That is, the TU
TU情報復号部13は、対象TUについて復号したTU情報を、逆量子化・逆変換部15に供給する。
The TU
[予測画像生成部]
予測画像生成部14は、対象CUに含まれる各PUについて、PT情報PTIに基づいて予測画像を生成する。具体的には、予測画像生成部14は、対象予測ツリーに含まれる各対象PUについて、対象PUに対応するPU情報PUIに含まれるパラメータに従ってイントラ予測またはインター予測を行うことにより、復号済み画像である局所復号画像P’から予測画像Predを生成する。予測画像生成部14は、生成した予測画像Predを加算器17に供給する。
[Predicted image generator]
The predicted
なお、予測画像生成部14が、動き補償予測パラメータ(動きベクトル、参照画像インデックス、インター予測フラグ)に基づいて対象CUに含まれるPUの予測画像を生成する手法について説明すると以下のとおりである。
A method in which the predicted
インター予測フラグが単予測を示す場合、予測画像生成部14は、参照画像インデックスの示す参照画像の動きベクトルが示す場所に位置する復号画像に相当する予測画像を生成する。
When the inter prediction flag indicates single prediction, the predicted
一方、インター予測フラグが双予測を示す場合には、予測画像生成部14は、2組の参照画像インデックスと動きベクトルとの組み合わせのそれぞれについて動き補償により予測画像を生成し、平均を算出することで、もしくは、各予測画像を対象ピクチャと各参照画像との表示時間間隔に基づいて重み付け加算することで、最終的な予測画像を生成する。
On the other hand, when the inter prediction flag indicates bi-prediction, the predicted
[逆量子化・逆変換部]
逆量子化・逆変換部15は、対象CUに含まれる各TUについて、TT情報TTIに基づいて逆量子化・逆変換処理を実行する。具体的には、逆量子化・逆変換部15は、対象変換ツリーに含まれる各対象TUについて、対象TUに対応するTU情報TUIに含まれる量子化予測残差を逆量子化および逆直交変換することによって、画素毎の予測残差Dを復元する。なお、ここで直交変換とは、画素領域から周波数領域への直交変換のことを指す。したがって、逆直交変換は、周波数領域から画素領域への変換である。また、逆直交変換の例としては、逆DCT変換(Inverse Discrete Cosine Transform)、および逆DST変換(Inverse Discrete Sine Transform)等が挙げられる。逆量子化・逆変換部15は、復元した予測残差Dを加算器17に供給する。
[Inverse quantization / inverse transform unit]
The inverse quantization /
[フレームメモリ]
フレームメモリ16には、復号された復号画像Pが、当該復号画像Pの復号に用いられたパラメータと共に、順次記録される。フレームメモリ16には、対象ツリーブロックを復号する時点において、当該対象ツリーブロックよりも先に復号された全てのツリーブロック(例えば、ラスタスキャン順で先行する全てのツリーブロック)に対応する復号画像が記録されている。フレームメモリ16に記録される復号パラメータの例としては、CU予測方式情報PredModeなどが挙げられる。
[Frame memory]
Decoded decoded images P are sequentially recorded in the
[加算器]
加算器17は、予測画像生成部14より供給される予測画像Predと、逆量子化・逆変換部15より供給される予測残差Dとを加算することによって、対象CUについての復号画像Pを生成する。
[Adder]
The
なお、動画像復号装置1において、画像内の全てのツリーブロックに対して、ツリーブロック単位の復号画像生成処理が終わった時点で、動画像復号装置1に入力された1フレーム分の符号化データ#1に対応する復号画像#2が外部に出力される。
In the
以下では、PU情報復号部12の構成について、それぞれの構成に対応する復号モジュール10の構成と共に詳細に説明する。
Below, the structure of PU
(1)PU情報復号部の詳細
次に、図4を用いて、PU情報復号部12および復号モジュール10の構成例について説明する。図4は、動画像復号装置1において、動き補償パラメータを復号するための構成、すなわちPU情報復号部12および復号モジュール10の構成について例示する機能ブロック図である。
(1) Details of PU Information Decoding Unit Next, configuration examples of the PU
以下、PU情報復号部12および復号モジュール10の順で、各部の構成について説明する。
Hereinafter, the configuration of each unit will be described in the order of the PU
(PU情報復号部)
図4に示すように、PU情報復号部12は、動き補償パラメータ導出部121を備える。動き補償パラメータ導出部121は、内部に、基本動き補償パラメータ導出部1211、マージ動き補償パラメータ導出部(マージ動き補償パラメータ導出手段)1212、動き補償方法選択部1213、および、スイッチ1214を備える。
(PU information decoding unit)
As illustrated in FIG. 4, the PU
動き補償パラメータ導出部121は、入力されるPT設定情報PTI、復号モジュールより供給される各種シンタックス値に基づいて動き補償パラメータを導出し、予測情報PUIとして出力する。 The motion compensation parameter deriving unit 121 derives a motion compensation parameter based on the input PT setting information PTI and various syntax values supplied from the decoding module, and outputs the motion compensation parameter as prediction information PUI.
動き補償予測では2つの参照画像リスト、すなわち、参照画像リストL0、および、参照画像リストL1が用いられる。動き補償パラメータには、各参照画像リストに対応する参照画像リスト利用フラグ(predFlag)、参照画像インデックス(refIdx)、動きベクトル(mv)が含まれる。以下、参照画像リストLX(LXはL0またはL1)に対応する参照画像リスト利用フラグをpredFlagLX、参照画像インデックスをrefIdxLX、動きベクトルをmvLXと呼称する。 In the motion compensation prediction, two reference image lists, that is, a reference image list L0 and a reference image list L1 are used. The motion compensation parameter includes a reference image list use flag (predFlag), a reference image index (refIdx), and a motion vector (mv) corresponding to each reference image list. Hereinafter, the reference image list use flag corresponding to the reference image list LX (LX is L0 or L1) is referred to as predFlagLX, the reference image index is referred to as refIdxLX, and the motion vector is referred to as mvLX.
動き補償パラメータ導出部121におけるCU内の一つのPU(対象PU)に対応する動き補償パラメータの導出手順は次の通りである。 The procedure for deriving the motion compensation parameter corresponding to one PU (target PU) in the CU in the motion compensation parameter deriving unit 121 is as follows.
まず、動き補償方法選択部1213は、復号モジュールより対象CUのスキップフラグ(skip_flag)を取得し、対象CUがスキップCUか否かを判定する。対象CUがスキップCUであれば、動き補償方法がマージ動き補償であることを選択してスイッチ1214に出力する。対象CUが非スキップCUである場合、動き補償方法選択部1213は、復号モジュールより対象PUのマージフラグ(merge_flag)を取得し、対象PUがマージPUであれば、動き補償方法がマージ動き補償であることを選択してスイッチ1214に出力し、それ以外(対象PUが非マージPU)であれば、動き補償方法が基本動き補償であることを選択してスイッチ1214に出力する。
First, the motion compensation
スイッチ1214に、動き補償方法選択部1213から、動き補償方法がマージ動き補償であることが指定された場合、マージ動き補償パラメータ導出部1212が選択される。マージ動き補償パラメータ導出部1212は、復号モジュールより対象PUのマージインデックス(merge_idx)を取得し、当該マージインデックスに対応する動き補償パラメータを導出して予測情報PUIとして出力する。なお、マージ動き補償パラメータ導出部1212の構成および動作の詳細については後述する。
When the
スイッチ1214に、動き補償方法選択部1213から、動き補償方法が基本動き補償であることが指定された場合、基本動き補償パラメータ導出部1211が選択される。基本動き補償パラメータ導出部1211は、復号モジュールより対象PUの動きベクトル残差(mvd)、推定動きベクトルインデックス(mvp_idx)、インター予測フラグ(inter_pred_flag)および、参照画像インデックス(refIdx)を取得する。基本動き補償パラメータ導出部1211は、インター予測フラグの値に基づいて、参照画像リストL0と参照画像リストL1各々について参照画像リスト利用フラグを決定する。続いて、対応する参照画像リスト利用フラグが、当該参照画像を利用することを示している場合、推定動きベクトルインデックスの値に基づいて、推定動きベクトルを導出するとともに、動きベクトル残差と推定動きベクトルとに基づいて動きベクトルを導出する。導出された動きベクトルは、参照画像リスト利用フラグ、および、参照画像インデックスと合わせて予測情報PUIとして出力される。
When the
(復号モジュール)
図4に示すように、復号モジュール10は、スキップ情報復号部1021と動き情報復号部1022を備える。
スキップ情報復号部1021は、動き補償パラメータ導出部121から供給される符号化データおよびシンタックス種別に応じて、符号化データに含まれるバイナリからスキップ情報に係るシンタックス要素のシンタックス値を復号する。スキップ情報復号部1021が復号するシンタックス要素は、スキップフラグ(skip_flag)である。
動き情報復号部1022は、動き補償パラメータ導出部121から供給される符号化データおよびシンタックス種別に応じて、符号化データに含まれるバイナリから動き情報に係るシンタックス要素のシンタックス値を復号する。動き情報復号部1022が復号するシンタックス要素は、マージフラグ(merge_flag)、マージインデックス(merge_idx)、推定動きベクトルインデックス(mvp_idx)、参照画像インデックス(ref_idx)、インター予測フラグ(inter_pred_flag)、動きベクトル残差(mvd)である。
(Decryption module)
As shown in FIG. 4, the
The skip
The motion
(マージ動き補償パラメータ導出部)
次に、図1を参照して、マージ動き補償パラメータ導出部1212の構成および動作の詳細について説明する。図1は、マージ動き補償パラメータ導出部1212の構成について例示する機能ブロック図である。
(Merge motion compensation parameter derivation unit)
Next, the configuration and operation of the merge motion compensation
図1に示すように、マージ動き補償パラメータ導出部1212は、マージ候補導出制御部1212A、マージ候補格納部1212B、マージ候補選択部1212C、マージ候補導出部(マージ候補導出手段)1212D、および、スライスタイプ判定部1212Eを備える構成である。マージ候補導出部1212Dは、空間マージ候補導出部1212D1、時間マージ候補導出部1212D2、結合マージ候補導出部1212D3、ゼロマージ候補導出部1212D4、および、補正マージ候補導出部1212D5を内部に含む。なお、図1では図示しないが、隣接マージ候補導出部1212Aおよび時間マージ候補導出部1212D2には、フレームメモリ16に格納されている復号済のCU及びPUの符号化パラメータ、特に、PU単位の動き補償パラメータが供給される。
As shown in FIG. 1, the merge motion compensation
また、以下では、空間マージ候補導出部1212D1、時間マージ候補導出部1212D2、結合マージ候補導出部1212D3、ゼロマージ候補導出部1212D4、および、補正マージ候補導出部1212D5をまとめて参照する場合、“各マージ候補導出部”と総称する。 In the following, when referring to the spatial merge candidate derivation unit 1212D1, the temporal merge candidate derivation unit 1212D2, the combined merge candidate derivation unit 1212D3, the zero merge candidate derivation unit 1212D4, and the correction merge candidate derivation unit 1212D5, Collectively referred to as “candidate deriving unit”.
(マージ候補導出制御部)
マージ候補導出制御部1212Aは、各マージ候補導出部を制御し、所定数(マージ候補導出数)のマージ候補を導出しマージ候補格納部1212Bに格納する。上記マージ候補導出数として、例えば、merge_idx+1の値が通常用いられる。なお、上記マージ候補導出数として、merge_idx+1の値以上の任意の整数を用いてもよい。例えば、merge_idxの最大値に1を加えた値をMRG_MAX_NUM_CANDSとして、上記マージ候補導出数として用いてもよい。
(Merge candidate derivation control unit)
The merge candidate
(マージ候補導出部)
マージ候補導出部1212Dは、指定された導出方法によりマージ候補を導出して出力する。指定された導出方法に基づき選択される各マージ候補導出部の詳細動作については後述する。なお、導出されるマージ候補は、例示的には、参照画像リストLXに対する参照画像リスト利用フラグ(predFlagLX)、参照画像インデックス(refIdxLX)、動きベクトル(mvLX)から構成される。ここで、LXはL0またはL1である。
(Merge candidate derivation unit)
The merge
(マージ候補格納部)
マージ候補格納部1212Bには、複数のマージ候補が格納される。マージ候補は順序づけられたリスト(マージ候補リスト)として記録される。
(Merge candidate storage)
The merge
(マージ候補選択部)
マージ候補選択部1212Cは、マージインデックスで指定されるマージ候補を選択し、マージ候補格納部1212Bから選択されたマージ候補を読み出して、予測情報PUIとして出力する。
(Merge candidate selection part)
The merge
(スライスタイプ判定部)
スライスタイプ判定部1212Eは、要求に応じて対象PUを含むスライスのスライスタイプを判定し、結果を出力する。
(Slice type determination unit)
The slice
(マージ動き補償パラメータ導出部1212の詳細)
(フロー図)
図5は、マージ動き補償パラメータ導出部1212の動作を示すフロー図である。始めに、空間マージ候補導出部1212D1において、マージ候補S0〜マージ候補S2が導出される(S101)。続いて、時間マージ候補導出部1212D2において、マージ候補Tが導出される(S102)。スライスタイプ判定部1212Eは、対象PUを含むスライスのスライスタイプを判定する(S103)。スライスタイプがBスライスである場合(S103でYES)、結合マージ候補導出部1212D3において、マージ候補Cが導出され(S104)、その後ステップS106に遷移する。一方、スライスタイプがBスライスではない場合(S103でNO)、補正マージ候補導出部1215D5において、マージ候補Rが導出され(S105)、その後ステップS106に遷移する。最後にゼロマージ候補導出部1215D4において、マージ候補Zが導出される(S106)。
(Details of merge motion compensation parameter deriving unit 1212)
(Flow diagram)
FIG. 5 is a flowchart showing the operation of the merge motion compensation
(空間マージ候補導出部)
図6は、空間マージ候補導出部1212D1の動作を説明するための図である。図6は、対象PUと、隣接ブロックA0、A1、B0、B1、B2の位置関係を示している。空間マージ候補導出部1212D1では、概略的には、上記各隣接ブロックにおける動き補償パラメータが、マージ候補として出力される。導出する順序は、例示的に、A1、B1、B0、A0、B2であるとする。導出されたマージ候補は、マージ候補格納部1212Bに格納される。より厳密には、導出された順番で、マージ候補格納部1212Bに格納されているマージ候補リストの末尾に追加される。各隣接ブロックの位置は、PUの左上座標を(xP,yP)、PUのサイズnPSW、nPSHとして、以下のように表現できる。
A0:(xP - 1,yP + nPSH)
A1:(xP - 1,yP + nPSH - 1)
B0:(xP + nPSW,yP - 1)
B1:(xP + nPSW - 1,yP - 1)
B2:(xP - 1,yP - 1)
なお、以下の条件のいずれかを満たす場合は、位置N(NはA0、A1、B0、B1、または、B2のいずれか)に対応するマージ候補は導出されない。
・位置Nのブロックが利用可能ではない(availableではない)場合。
・位置Nのブロックがイントラ符号化されている場合。
・NがB2であって、A0、A1、B0、B1の位置に対応するマージ候補が全て導出された場合。
・PUの分割タイプが、2N×NもしくはN×2N、かつ、PUのインデックスが1であって、ブロックNとインデックス0のPUが同一の動き補償パラメータを有する場合。
・NがB0であって、ブロックNとブロックB1が同一の動き補償パラメータを有する場合。
・NがA0であって、ブロックNとブロックA1が同一の動き補償パラメータを有する場合。
・NがB2であって、ブロックNが、ブロックA1またはブロックB1のいずれかと同一の動き補償パラメータを有する場合。
(Spatial merge candidate derivation unit)
FIG. 6 is a diagram for explaining the operation of the spatial merge candidate derivation unit 1212D1. FIG. 6 shows the positional relationship between the target PU and adjacent blocks A0, A1, B0, B1, and B2. In general, the spatial merge candidate derivation unit 1212D1 outputs the motion compensation parameters in the adjacent blocks as merge candidates. Assume that the derivation order is A1, B1, B0, A0, and B2, for example. The derived merge candidates are stored in the merge
A0: (xP-1, yP + nPSH)
A1: (xP-1, yP + nPSH-1)
B0: (xP + nPSW, yP-1)
B1: (xP + nPSW-1, yP-1)
B2: (xP-1, yP-1)
Note that when any of the following conditions is satisfied, a merge candidate corresponding to the position N (N is any one of A0, A1, B0, B1, or B2) is not derived.
The block at position N is not available (not available).
-The block at position N is intra-coded.
When N is B2 and all merge candidates corresponding to positions A0, A1, B0, and B1 are derived.
When the PU partition type is 2N × N or N × 2N, and the PU index is 1, and the PU of block N and
When N is B0 and block N and block B1 have the same motion compensation parameter.
When N is A0 and block N and block A1 have the same motion compensation parameter.
If N is B2 and block N has the same motion compensation parameters as either block A1 or block B1.
ここで、あるブロックがavailableではない場合とは、当該ブロックが画面外にある場合、スライス外にある場合、または、未復号である場合である。また、2つのブロックが同一の動き補償パラメータを有するとは、両ブロックにおいて、参照画像リストL0とL1の双方について、参照画像リスト利用フラグ、参照画像インデックス、動きベクトルが全て等しいことを表す。 Here, a case where a certain block is not available is a case where the block is outside the screen, outside the slice, or undecoded. In addition, two blocks having the same motion compensation parameter means that the reference image list use flag, the reference image index, and the motion vector are all equal for both the reference image lists L0 and L1.
(時間マージ候補導出部)
図7は、時間マージ候補導出部1212D2の動作を説明する図である。図7の(a)を参照すると、時間マージ候補は、概略的には、現ピクチャがcurrPicである場合、現ピクチャ内における対象PUの空間的位置とほぼ同じ空間的位置を占める、参照画像インデックスrefIdxL0で指定される参照画像上のPU、もしくは、参照画像インデックスrefIdxL1で指定される参照画像上のPUの動き補償パラメータをコピーすることにより、導出される。図7の(b)を参照して、参照インデックス番号refIdxL0、参照インデックス番号refIdxL1の導出方法を説明する。参照インデックス番号refIdxLX(ここでXは0もしくは1もしくはC)は、対象PUの隣接PU、A、B、Cのブロックの参照ピクチャrefIdxLXA、refIdxLXB、refIdxLXCを用いて以下のように求められる。
(1)refIdxLXA = refIdxLXB = refIdxLXCの場合、
refIdxLXA = -1のとき、refIdxLX = 0
それ以外のとき、refIdxLX = refIdxLXA
(2)refIdxLXA = refIdxLXBの場合、
refIdxLXA = -1のとき、refIdxLX = refIdxLXC それ以外のとき、refIdxLX = refIdxLXA
(3)refIdxLXB = refIdxLXCの場合、
refIdxLXB = -1のとき、refIdxLX = refIdxLXA
それ以外のとき、refIdxLX = refIdxLXB
(4)refIdxLXA = refIdxLXCの場合、
refIdxLXA = -1のとき、refIdxLX = refIdxLXB
それ以外のとき、refIdxLX = refIdxLXA
(5)refIdxLXA = -1の場合、
refIdxLX = min( refIdxLXB, refIdxLXC)
(6)refIdxLXB = -1の場合、
refIdxLX = min( refIdxLXA, refIdxLXC)
(7)refIdxLXC = -1の場合、
refIdxLX = min( refIdxLXA, refIdxLXB)
(8)その他の場合、
refIdxLX = min( refIdxLXA, refIdxLXB, refIdxLXC)
ここで、minは最小値をとる関数である。
なお、ブロックA、Bの座標は、以下の通りである。
A:(xP - 1,yP + nPSH - 1)
B:(xP + nPSW - 1,yP - 1)
ブロックCの座標は、下記C0、C1、C2の何れかである。C0からC2の順に走査し、各位置に対応するPUが、availableであり、イントラ以外である場合に、その位置のPUのrefIdxLXを、refIdxLXCとする。
C0:(xP + nPSW - 1,yP - 1)
C1:(xP - 1,yP + nPSH)
C2:(xP - 1,yP - 1)
上記のようにrefIdxL0、refIdxL1が導出されると、refIdxL0で示される参照ピクチャの位置(xP +nPSW、yP +nPSH)の動き補償パラメータを用いて、L0の動きベクトルを定め、refIdxL1で示される参照ピクチャの位置(xP +nPSW、yP +nPSH)の動き補償パラメータを用いて、L1の動きベクトルを定めることにより、時間的マージ候補を導出する。すなわち、各参照ピクチャリストLX(X=0、X=1もしくはX=C)に対する動きベクトルmvLXCol[0]、mvLXCol[0]を、LXリスト及びrefIdxLXで示される参照ピクチャから算出する。具体的には、refIdxLXで示される参照ピクチャの位置(xP +nPSW、yP +nPSH)のPUがunavailableである、もしくは、イントラ予測モードである場合には、時間的マージ候補のLXの動きベクトルmvLXCol[0]、mvLXCol[1]を0に定める。それ以外、すなわち、該PUのPredFlagL0が0である場合には、該PUのL1の動きベクトルMvL1を、時間的マージ候補のLXの動きベクトルmvLXCol[0]、mvLXCol[1]として用いる。それ以外の場合には、該PUのL0の動きベクトルMvL0を、時間マージ候補のLXの動きベクトルmvLXCol[0]、mvLXCol[1]として用いる。
(Time merge candidate derivation unit)
FIG. 7 is a diagram for explaining the operation of the time merge candidate derivation unit 1212D2. Referring to (a) of FIG. 7, the temporal merging candidate is roughly a reference image index that occupies the same spatial position as the target PU in the current picture when the current picture is currPic. It is derived by copying the motion compensation parameter of the PU on the reference image specified by refIdxL0 or the PU on the reference image specified by the reference image index refIdxL1. A method for deriving the reference index number refIdxL0 and the reference index number refIdxL1 will be described with reference to FIG. The reference index number refIdxLX (where X is 0, 1 or C) is obtained as follows using the reference pictures refIdxLXA, refIdxLXB, and refIdxLXC of the adjacent PU, A, B, and C blocks of the target PU.
(1) If refIdxLXA = refIdxLXB = refIdxLXC,
When refIdxLXA = -1, refIdxLX = 0
Otherwise, refIdxLX = refIdxLXA
(2) When refIdxLXA = refIdxLXB
When refIdxLXA = -1, refIdxLX = refIdxLXC Otherwise, refIdxLX = refIdxLXA
(3) If refIdxLXB = refIdxLXC,
When refIdxLXB = -1, refIdxLX = refIdxLXA
Otherwise, refIdxLX = refIdxLXB
(4) When refIdxLXA = refIdxLXC
When refIdxLXA = -1, refIdxLX = refIdxLXB
Otherwise, refIdxLX = refIdxLXA
(5) When refIdxLXA = -1,
refIdxLX = min (refIdxLXB, refIdxLXC)
(6) When refIdxLXB = -1,
refIdxLX = min (refIdxLXA, refIdxLXC)
(7) When refIdxLXC = -1,
refIdxLX = min (refIdxLXA, refIdxLXB)
(8) In other cases,
refIdxLX = min (refIdxLXA, refIdxLXB, refIdxLXC)
Here, min is a function that takes a minimum value.
The coordinates of the blocks A and B are as follows.
A: (xP-1, yP + nPSH-1)
B: (xP + nPSW-1, yP-1)
The coordinates of the block C are any of the following C0, C1, and C2. If the PU corresponding to each position is available and other than intra, the refIdxLX of the PU at that position is set as refIdxLXC.
C0: (xP + nPSW-1, yP-1)
C1: (xP-1, yP + nPSH)
C2: (xP-1, yP-1)
When refIdxL0 and refIdxL1 are derived as described above, the motion compensation parameter of the position of the reference picture (xP + nPSW, yP + nPSH) indicated by refIdxL0 is used to determine the L0 motion vector, and the reference indicated by refIdxL1 A temporal merge candidate is derived by determining the L1 motion vector using the motion compensation parameter of the picture position (xP + nPSW, yP + nPSH). That is, the motion vectors mvLXCol [0] and mvLXCol [0] for each reference picture list LX (X = 0, X = 1 or X = C) are calculated from the reference picture indicated by the LX list and refIdxLX. Specifically, if the PU at the position of the reference picture (xP + nPSW, yP + nPSH) indicated by refIdxLX is unavailable or in the intra prediction mode, the motion vector mvLXCol of the temporal merge candidate LX [0], mvLXCol [1] is set to 0. Otherwise, that is, when PredFlagL0 of the PU is 0, the L1 motion vector MvL1 of the PU is used as the temporal merge candidate LX motion vectors mvLXCol [0] and mvLXCol [1]. In other cases, the L0 motion vector MvL0 of the PU is used as the temporal merge candidate LX motion vectors mvLXCol [0] and mvLXCol [1].
続いて、動きベクトルmvLXColを、現フレームのPOC(Picture Order Count)と参照ピクチャのPOCを用いてスケーリングして最終的な時間マージ候補を得る。導出された時間マージ候補は、マージ候補格納部1212Bに格納される。
Subsequently, the motion vector mvLXCol is scaled using the POC (Picture Order Count) of the current frame and the POC of the reference picture to obtain a final temporal merge candidate. The derived time merge candidates are stored in the merge
(結合マージ候補導出部)
結合マージ候補導出部1212D4は、概略的には、既に導出されマージ候補格納部1212Bに格納された、2つの異なる導出済マージ候補の動きベクトルを組み合わせることで結合マージ候補を導出する。
(Join merge candidate derivation unit)
In general, the merge merge candidate derivation unit 1212D4 derives merge merge candidates by combining motion vectors of two different derived merge candidates already derived and stored in the merge
結合マージ候補導出部1212D4では、結合マージ候補カウントcombCntを0から増加させ、マージ候補リストの要素数がマージ候補導出数と一致するか、または、combCntが最大値(5)を超えるまで、結合マージ候補を導出して、マージ候補リストの末尾に追加する。 The merge merge candidate derivation unit 1212D4 increases the merge merge candidate count combCnt from 0, and merge merges until the number of elements in the merge candidate list matches the merge candidate derivation number, or until combCnt exceeds the maximum value (5). Candidates are derived and added to the end of the merge candidate list.
特定の結合マージ候補カウントcombCntに対応する結合マージ候補の導出手順は次の通りである。 The procedure for deriving the merge merge candidate corresponding to the specific merge merge candidate count combCnt is as follows.
まず、マージ候補組み合わせリストをcombCntをインデックス(combIdx)として参照して、結合に用いる2つのマージ候補、すなわち、L0マージ候補とL1マージ候補のマージ候補リスト上の位置を示すインデックスl0CandIdx、L1CandIdxをそれぞれ導出する。マージ候補組み合わせリストの例を図8に示す。結合マージ候補は、参照画像リストL0に対してL0マージ候補、参照画像リストL1に対してL1マージ候補の動き補償パラメータをそれぞれコピーすることで生成される。なお、以下の何れかの条件が満たされる場合には、combCntに対応する結合マージ候補は導出されない。
・L0マージ候補のL0参照画像リスト利用フラグが0
・L1マージ候補のL1参照画像リスト利用フラグが0
・L0マージ候補とL1マージ候補の動きベクトルまたは参照画像が一致
上記の手順で結合マージ候補が導出される。なお、結合マージ候補に対応する動き補償パラメータでは、L0とL1の参照画像リスト利用フラグが共に1となっている。すなわち、結合マージ候補は双予測を行うマージ候補である。したがって、双予測が適用不可能である状況(例えば、Pスライス内のPU)では、結合マージ候補はマージ候補リストに含まれない。
First, the merge candidate combination list is referred to with combCnt as an index (combIdx), and two merge candidates used for the combination, that is, indexes l0CandIdx and L1CandIdx indicating the positions of the L0 merge candidate and the L1 merge candidate on the merge candidate list, respectively To derive. An example of the merge candidate combination list is shown in FIG. The merge merge candidate is generated by copying the motion compensation parameters of the L0 merge candidate to the reference image list L0 and the L1 merge candidate to the reference image list L1. Note that when any of the following conditions is satisfied, a merge merge candidate corresponding to combCnt is not derived.
-L0 reference image list use flag of L0 merge candidate is 0
-L1 reference image list use flag of L1 merge candidate is 0
The motion vectors or reference images of the L0 merge candidate and the L1 merge candidate match. The combined merge candidate is derived by the above procedure. In the motion compensation parameter corresponding to the merge merge candidate, both the L0 and L1 reference image list use flags are 1. That is, the merge merge candidate is a merge candidate that performs bi-prediction. Thus, in situations where bi-prediction is not applicable (eg, PUs in P slices), merge merge candidates are not included in the merge candidate list.
(ゼロマージ候補導出部)
図9は、ゼロマージ候補導出部1212D4の動作を示す図である。マージ候補格納部1212Bのマージ候補数がマージ候補導出数に到達していれば、ゼロマージ候補導出部1212D4は、処理を行わない(ゼロマージ候補は導出されない)。一方、マージ候補数がマージ候補導出数個に到達していなければ、ゼロマージ候補導出部1212D4は、マージ候補数がマージ候補導出数に到達するまでゼロベクトルを有するマージ候補を生成してマージ候補リストに追加する。すなわち、参照するマージ候補のインデックスをmvL0zeroCandmとして、L0の動きベクトル(mvL0zeroCandm[0]、mvL0zeroCandm[1])、L1の動きベクトル(mvL1zeroCandm[0]、mvL1zeroCandm[1])が共に0となるような候補を導出する。ここで、インデックスzeroCandmは、既に導出されたマージ候補リストの最後のインデックスの値に1を加えた値を用いる。mは、0から開始するインデックスであり、ゼロマージ候補をマージ候補リストに追加する際に1ずつインクリメントする。
(Zero merge candidate derivation unit)
FIG. 9 is a diagram illustrating the operation of the zero merge candidate derivation unit 1212D4. If the number of merge candidates in the merge
(補正マージ候補導出部)
補正マージ候補導出部1212D5は、所定の動き補償パラメータ(基準動き補償パラメータ)を調整することで得られる動きパラメータに基づいて、マージ候補を生成する。本実施形態においては、上記基準動き補償パラメータとして、マージ候補格納部1212Bに記録されているマージ候補の動き補償パラメータを用いる。より具体的には、マージ候補格納部1212Bに記録されているマージ候補リストにおいて、最小のインデックスに割り当てられているマージ候補を基準動き補償パラメータとする。言い換えると、マージ候補リストにおいて、最も優先度の高いマージ候補を示すインデックスに対応付けられているマージ候補を基準動き補償パラメータとする。
(Correction merge candidate derivation unit)
The correction merge candidate derivation unit 1212D5 generates a merge candidate based on a motion parameter obtained by adjusting a predetermined motion compensation parameter (reference motion compensation parameter). In the present embodiment, the motion compensation parameter of the merge candidate recorded in the merge
マージ候補のインデックスはシンタックス要素merge_idxの形で符号化データ内に含まれる。一般に、merge_idxは、小さい値がより短い符号列に対応付けられるようバイナリ化される。例えば、merge_idxの値は、最大値をマージ候補の最大数とするtruncated unary符号によりバイナリ化される。そのため、最小のmerge_idx、すなわち、値が0のmerge_idxに対して、比較的選択確率の高いマージ候補が対応付けられる。したがって、基準動き補償パラメータとして、最小のインデックスに割り当てられているマージ候補を用いることで、他のインデックスに割り当てられているマージ候補を用いる場合に較べて、より選択確率の高い補正マージ候補を導出できるため、符号化効率が向上する。 The index of the merge candidate is included in the encoded data in the form of a syntax element merge_idx. In general, merge_idx is binarized so that a small value is associated with a shorter code string. For example, the value of merge_idx is binarized by a truncated unary code whose maximum value is the maximum number of merge candidates. Therefore, a merge candidate having a relatively high selection probability is associated with the minimum merge_idx, that is, merge_idx having a value of 0. Therefore, by using the merge candidate assigned to the smallest index as the reference motion compensation parameter, a corrected merge candidate having a higher selection probability is derived compared to the case where the merge candidate assigned to another index is used. Therefore, encoding efficiency is improved.
マージ候補リストに含まれる導出済のマージ候補を基準動き補償パラメータとして利用することで、新たに基準動き補償パラメータを生成する場合に較べて処理量を削減できる。特に、マージ候補リスト先頭のマージ候補は、他のマージ候補よりも前に導出される。従って、マージ候補リスト先頭のマージ候補を基準動き補償パラメータとして利用する場合、他のマージ候補を基準動き補償パラメータとして利用する場合に較べて、より少ない遅延で補正マージ候補導出処理を開始できる。 By using the derived merge candidate included in the merge candidate list as the reference motion compensation parameter, the processing amount can be reduced as compared with the case of newly generating the reference motion compensation parameter. In particular, the merge candidate at the top of the merge candidate list is derived before other merge candidates. Therefore, when the merge candidate at the head of the merge candidate list is used as the reference motion compensation parameter, the correction merge candidate derivation process can be started with less delay than when other merge candidates are used as the reference motion compensation parameter.
基準動き補償パラメータの調整は、基準動き補償パラメータに含まれる動きベクトル(基準動きベクトル)に対して所定のオフセットを加算することで実行される。オフセットは必ずしも1種類である必要はなく、オフセットリストを定め、当該リストに含まれるオフセットを動きベクトルに加算することで、動き補償パラメータの調整を行ってもよい。基準動き補償パラメータにおける参照画像リストL0に対応する動きベクトルの水平、垂直成分をそれぞれmvBL0X、mvBL0Y、オフセットの水平、垂直成分をそれぞれmvOffX、mvOffYとすると、マージ候補の動きベクトルの水平、垂直成分、mvMrgX、mvMrgYはそれぞれ以下の式により導出される。 The adjustment of the reference motion compensation parameter is executed by adding a predetermined offset to the motion vector (reference motion vector) included in the reference motion compensation parameter. The offset does not necessarily need to be one type, and the motion compensation parameter may be adjusted by defining an offset list and adding the offset included in the list to the motion vector. If the horizontal and vertical components of the motion vector corresponding to the reference image list L0 in the standard motion compensation parameter are mvBL0X and mvBL0Y, the horizontal and vertical components of the offset are mvOffX and mvOffY, respectively, the horizontal and vertical components of the motion vector of the merge candidate are mvMrgX and mvMrgY are derived from the following equations, respectively.
mvMrgX = mvBL0X + mvOffX
mvMrgY = mvBL0Y + mvOffY
なお、動きベクトルの範囲が所定の範囲に制限される場合には、上記mvMrgX、および、mvMrgYが当該所定の範囲に収まるようクリップしてもよい。
mvMrgX = mvBL0X + mvOffX
mvMrgY = mvBL0Y + mvOffY
When the range of the motion vector is limited to a predetermined range, clipping may be performed so that the mvMrgX and mvMrgY are within the predetermined range.
次に、図10を参照して、オフセットリストを例示する。図10は、オフセットリストに含まれるオフセットの位置を説明するための図である。図10において、“C”と記載された位置が、オフセット(0,0)に相当する位置、すなわち、基準動きパラメータにおける動きベクトルの位置となる。また、図10の各数字は、数字が示されている位置がオフセットリストに含まれ、オフセットリスト中で当該数字の値が示すインデックスに対応することを表す。図10の(a)から(f)には、それぞれ、下記のオフセットリスト(a)から(f)に含まれる各オフセットの位置が示されている。
(a){ (1,0), (-1,0) }
(b){ (0,1), (0,-1) }
(c){ (1,0), (-1,0), (0,1), (0,-1) }
(d){ (1,1), (-1,-1), (1,-1), (-1,1) }
(e){ (4,0), (-4,0) }
(f){ (1,0), (-1,0), (2,0), (-2,0) }
なお、上記の例において、例えば(1,0)は、mvOffXが1であり、mvOffYが0であることを示す。なお、上記の例におけるmvOffXおよびmvOffYの精度は四分の一画素精度である。また、mvOffXおよびmvOffYの精度は、基準動き補償パラメータにおける動きベクトルの精度と同じあることが好ましい。
Next, an offset list is illustrated with reference to FIG. FIG. 10 is a diagram for explaining the positions of offsets included in the offset list. In FIG. 10, the position described as “C” is a position corresponding to the offset (0, 0), that is, the position of the motion vector in the reference motion parameter. Each number in FIG. 10 represents that the position where the number is shown is included in the offset list and corresponds to the index indicated by the value of the number in the offset list. 10A to 10F show the positions of the offsets included in the following offset lists (a) to (f), respectively.
(A) {(1,0), (-1,0)}
(B) {(0,1), (0, -1)}
(C) {(1,0), (-1,0), (0,1), (0, -1)}
(D) {(1,1), (-1, -1), (1, -1), (-1,1)}
(E) {(4,0), (-4,0)}
(F) {(1,0), (-1,0), (2,0), (-2,0)}
In the above example, for example, (1,0) indicates that mvOffX is 1 and mvOffY is 0. The accuracy of mvOffX and mvOffY in the above example is a quarter pixel accuracy. Further, the accuracy of mvOffX and mvOffY is preferably the same as the accuracy of the motion vector in the reference motion compensation parameter.
以下、図10では、例示的に、オフセットmvOffXおよびmvOffYの精度は、動きベクトルの精度と同じであるとする。すなわち、動きベクトルの最小単位が図10に示すマス目に対応する。 Hereinafter, in FIG. 10, for example, it is assumed that the accuracy of the offsets mvOffX and mvOffY is the same as the accuracy of the motion vector. That is, the minimum unit of the motion vector corresponds to the grid shown in FIG.
上記オフセットリストの(a)から(d)によると、動きベクトルは、水平、垂直、または、45度の対角方向のいずれかの方向に、動きベクトルの最小単位で調整される。このような調整は、特に基準動きベクトルに丸め誤差が発生して、対象PUに適した動き補償パラメータとなっていないような状況で有効である。 According to (a) to (d) of the offset list, the motion vector is adjusted by the minimum unit of the motion vector in either the horizontal, vertical, or diagonal direction of 45 degrees. Such adjustment is particularly effective in a situation where a rounding error occurs in the reference motion vector and the motion compensation parameter is not suitable for the target PU.
上記オフセットリストの(e)によると、動きベクトルは、水平方向に動きベクトルの最小単位よりも大きい精度で調整される。このような調整は、空間、または、時間的な動きベクトルの変化が大きい状況で有効である。 According to (e) of the offset list, the motion vector is adjusted in the horizontal direction with an accuracy larger than the minimum unit of the motion vector. Such adjustment is effective in a situation where there is a large change in spatial or temporal motion vector.
なお、オフセットリストの(e)には、水平方向の調整のみ例示しているが、オフセットリスト(b)から(d)のような方向と、オフセットリスト(e)に示した最小単位よりも大きい精度での調整の組み合わせを用いてもよい。 Although only the adjustment in the horizontal direction is illustrated in (e) of the offset list, the direction as shown in the offset list (b) to (d) is larger than the minimum unit shown in the offset list (e). A combination of adjustments with accuracy may be used.
例えば、オフセットリスト(b)の方向にオフセットリスト(e)に示した最小単位よりも大きい精度での調整を組み合わせる場合は、次のとおりに組み合わせることができる。すなわち、図10の(b)に示すインデックス“1”を3つ上のマス目に配置し、インデックス“0”を3つ下のマス目に配置してもよい。なお、このような配置は、単なる例示であって、これに限られない。適宜変更した配置も採用可能である。 For example, in the case of combining adjustments with an accuracy larger than the minimum unit shown in the offset list (e) in the direction of the offset list (b), they can be combined as follows. That is, the index “1” shown in FIG. 10B may be arranged in the third upper cell, and the index “0” may be arranged in the third lower cell. Note that such an arrangement is merely an example, and is not limited thereto. Arrangements appropriately changed can also be adopted.
上記オフセットリストの(f)によると、動きベクトルは、水平方向に、2種類の異なる大きさで調整される。このような調整は、空間、または、時間的な動きベクトルの変化の程度が領域により変化する場合に有効である。なお、水平方向の調整のみ例示しているが、オフセットリスト(b)から(d)のような方向と、オフセットリスト(f)に示した2種類以上の精度での調整の組み合わせを用いてもよい。 According to (f) of the offset list, the motion vector is adjusted in two different sizes in the horizontal direction. Such adjustment is effective when the degree of change of the spatial or temporal motion vector changes depending on the region. Although only the adjustment in the horizontal direction is illustrated, it is possible to use a combination of a direction as shown in the offset list (b) to (d) and an adjustment with two or more types of accuracy shown in the offset list (f). Good.
例えば、オフセットリスト(b)の方向にオフセットリスト(e)に示した2種類以上の精度での調整の組み合わせる場合は、次のとおりに組み合わせることができる。すなわち、図10の(b)に示すインデックス“1”の1つ上のマス目にさらに“3”を配置し、インデックス“0”の1つ下のマス目にさらに“2”を配置してもよい。なお、このような配置は、単なる例示であって、これに限られない。適宜変更した配置も採用可能である。 For example, in the case of combining the adjustments with two or more kinds of accuracy shown in the offset list (e) in the direction of the offset list (b), they can be combined as follows. That is, “3” is further arranged in the cell immediately above the index “1” shown in FIG. 10B, and “2” is further arranged in the cell immediately below the index “0”. Also good. Note that such an arrangement is merely an example, and is not limited thereto. Arrangements appropriately changed can also be adopted.
補正マージ候補導出部1212D5は、基準動き補償パラメータの動きベクトルに対してオフセットリストに含まれるオフセットを加えることで複数のマージ候補を生成できる。実際には、マージ候補リスト格納部1212Bに記録されるマージ候補数がマージ候補導出数を超えない範囲でマージ候補を導出してマージ候補リスト格納部1212Bに記録される。
The correction merge candidate derivation unit 1212D5 can generate a plurality of merge candidates by adding the offset included in the offset list to the motion vector of the reference motion compensation parameter. Actually, merge candidates are derived and recorded in the merge candidate
ここで、補正マージ候補導出部1212D5におけるマージ候補の導出処理の動作について、図11を参照しながら説明する。図11は、補正マージ候補導出部1212D5の動作を例示する図である。始めに、基準動き補償パラメータが決定される(S121)。続いて、オフセットリスト中のオフセットの位置を特定するオフセットインデックスが設定される(S122)。オフセットインデックスは始めに0に設定され、2回目以降は既に設定されているオフセットインデックスに1を加算した値が設定される。次に、基準動き補償パラメータ、および、オフセットインデックスの指定するオフセットに基づいて補正マージ候補が導出される(S123)。導出された補正マージ候補は、マージ候補リストに追加される(S124)。この際、マージリストに含まれるマージ候補の数(マージ候補数)が1加算される。続いて、マージ候補数が、既定のマージ候補導出数以上か否かが判定される(S125)。マージ候補数がマージ候補導出数以上である場合(S125でYES)、必要数のマージ候補が導出済であるため補正マージ候補導出処理を終了する。マージ候補数が、既定のマージ候補導出数未満である場合(S125でNO)、続いて、オフセットインデックスが最大値か否かを判定する(S126)。ここで、オフセットインデックスの最大値は、オフセットリストに含まれるオフセットの個数に一致する。オフセットインデックスが最大値ではない場合(S126でNO)、S122に遷移して、次の補正マージ候補導出処理を継続する。オフセットインデックスが最大値である場合(S126でYES)、補正マージ候補の導出処理を終了する。 Here, the operation of the merge candidate derivation process in the correction merge candidate derivation unit 1212D5 will be described with reference to FIG. FIG. 11 is a diagram illustrating an operation of the correction merge candidate derivation unit 1212D5. First, a reference motion compensation parameter is determined (S121). Subsequently, an offset index for specifying the position of the offset in the offset list is set (S122). The offset index is initially set to 0, and after the second time, a value obtained by adding 1 to the already set offset index is set. Next, a correction merge candidate is derived based on the reference motion compensation parameter and the offset specified by the offset index (S123). The derived correction merge candidate is added to the merge candidate list (S124). At this time, 1 is added to the number of merge candidates (number of merge candidates) included in the merge list. Subsequently, it is determined whether or not the number of merge candidates is equal to or greater than a predetermined number of merge candidate derivations (S125). If the number of merge candidates is equal to or greater than the number of merge candidate derivations (YES in S125), the correction merge candidate derivation process ends because the required number of merge candidates has been derived. When the number of merge candidates is less than the predetermined number of merge candidate derivations (NO in S125), it is subsequently determined whether or not the offset index is the maximum value (S126). Here, the maximum value of the offset index matches the number of offsets included in the offset list. If the offset index is not the maximum value (NO in S126), the process proceeds to S122, and the next correction merge candidate derivation process is continued. If the offset index is the maximum value (YES in S126), the correction merge candidate derivation process is terminated.
(補正マージ候補の効果)
以上示した構成と動作により補正マージ候補を導出して、マージ候補リストに追加できる。補正マージ候補は、発生する可能性の高い動き補償パラメータを基準として調整を行うことでマージ候補を生成する。一般に、発生する可能性の高い動きパラメータ、具体的には、空間マージ候補や時間マージ候補として導出されるパラメータは、対象PUに対して最適な動き補償パラメータに対して誤差を含みうる。例えば、オブジェクトの移動や変形、空間領域における連続的な動きの変化、および、動きベクトルの丸め処理などがそのような誤差の原因となり得る。補正マージ候補を利用することで、そのような誤差が発生した場合でも、マージ候補リストに当該PUに適した動き補償パラメータを有するマージ候補リストが含まれている可能性を高めることができる。したがって、スキップCUまたはマージPUの選択率を高めることができるため、符号量を削減できる。
(Effect of correction merge candidate)
A correction merge candidate can be derived by the configuration and operation described above and added to the merge candidate list. The correction merge candidate is generated by adjusting with reference to a motion compensation parameter that is highly likely to occur. In general, a motion parameter that is highly likely to occur, specifically, a parameter derived as a spatial merge candidate or a temporal merge candidate may include an error with respect to a motion compensation parameter optimal for the target PU. For example, such an error may be caused by movement or deformation of an object, a continuous change in motion in a spatial domain, and a rounding process of a motion vector. By using the corrected merge candidate, even when such an error occurs, it is possible to increase the possibility that the merge candidate list includes a merge candidate list having a motion compensation parameter suitable for the PU. Therefore, the selection rate of skip CUs or merge PUs can be increased, and the amount of codes can be reduced.
(結合マージ候補と補正マージ候補の併用効果)
以上示したように、マージ動き補償パラメータ導出部1212は、複数のマージ候補導出部を備え、多様なマージ候補を生成してマージ候補リストに追加することで、対象PUに適した動き補償パラメータがマージ候補としてマージ候補リストに含まれている可能性を高める。それにより、スキップCUまたはマージPUの選択率を高めることができるため、符号量を削減できる。なお、一般に、マージ候補リストに含まれるマージ候補数が多ければ、マージ候補リストの選択率を高めることができるが、一方で、マージ候補リストの導出に必要な処理量が増加する。
(Combination effect of merge merge candidate and correction merge candidate)
As described above, the merge motion compensation
本実施形態における、マージ動き補償パラメータ導出部1212は、マージ候補導出部に、少なくとも、補正マージ候補導出部、および、結合マージ候補導出部を含んでおり、対象PUを含むスライスのスライスタイプに応じて、マージ候補導出部、または、補正マージ候補導出部のいずれかを選択してマージ候補を導出する。結合マージ候補は、双予測が適用可能な場合のマージ候補として利用できるが、双予測が適用できない場合、すなわち、単予測を適用する場合のマージ候補としては利用できない。そのため、スライスタイプが双予測が適用できないことを既定するPスライスである場合には、双予測が適用可能なBスライスに較べてマージ候補数が減少し、マージの選択率が低下する。本実施形態においては、Pスライスにおいて、結合マージ候補の代わりに補正マージ候補を利用することで、マージ候補数の減少を抑制し、スキップCUまたはマージPUの選択率が高まるため符号化効率が向上する。また、Bスライスにおいては、補正マージ候補を追加しないため、処理量が増加しないという利点がある。
In this embodiment, the merge motion compensation
(CU復号処理の流れ)
図12を用いて、動画像復号装置1におけるCU復号処理について説明すると以下のとおりである。なお、以下では、対象CUは、インターCU、または、スキップCUであるとする。図12は、動画像復号装置1におけるCU復号処理(インター/スキップCU)の流れの一例について示すフローチャートである。
(Flow of CU decoding process)
The CU decoding process in the moving
CU復号処理が開始されると、CU情報復号部11が、復号モジュール10を用いて、対象CUについてCU予測情報を復号する(S11)。この処理は、CU単位で行われる。
When the CU decoding process is started, the CU
具体的には、CU情報復号部11において、CU予測モード決定部111が、復号モジュール10を用いて、スキップフラグSKIPを復号する。また、スキップフラグがスキップCUであることを示していなければ、さらに、CU予測モード決定部111は、復号モジュール10を用いて、CU予測タイプ情報Pred_typeを復号する。
Specifically, in the CU
次に、PU単位の処理が行われる。すなわち、PU情報復号部12が備える動き補償パラメータ導出部121が、動き情報を復号するとともに(S12)、予測画像生成部14が、復号された当該動き情報に基づいてインター予測により予測画像を生成する(S13)。
Next, PU unit processing is performed. That is, the motion compensation parameter deriving unit 121 included in the PU
次に、TU情報復号部13が、TU分割復号処理を行う(S14)。具体的には、TU情報復号部13において、TU分割設定部131が、符号化データから復号したパラメータとCUサイズおよびPU分割タイプとに基づいて、TU分割の方式を設定する。この処理は、CU単位で行われる。
Next, the TU
次に、TU単位の処理が行われる。すなわち、TU情報復号部13が、変換係数を復号し(S15)、逆量子化・逆変換部15が、復号された変換係数から予測残差を導出する(S16)。
Next, TU unit processing is performed. That is, the TU
次に、加算器17において、予測画像と予測残差とが加算されることにより、復号画像が生成される(S17)。この処理は、CU単位で行われる。
Next, the
以上に示したように、画像復号装置1は、予測単位内の画像を、1枚の参照画像を参照する単予測、または、2枚の参照画像を参照する双予測の何れかの画面間予測の予測方式によって復元する画像復号装置1において、2つの異なるマージ候補の動きベクトルを用いてマージ候補を導出する結合マージ候補導出部1212D3と、単一のマージ候補に基づいて、複数のマージ候補を導出する補正マージ候補導出部1212D5と、双予測の適用可否を判定するスライスタイプ判定部1212Eと、双予測が適用可能である場合に、結合マージ候補導出部1212D3を用いてマージ候補リストを導出する一方で、双予測が適用不可能である場合に、補正マージ候補導出部1212D5を用いて、1以上のマージ候補を含むマージ候補リストを導出するマージ候補導出制御部1212Aと、を備える構成である。
As described above, the
(変形例)
以下では、上記で説明した動画像復号装置1の変形例をいくつか示す。
[変形例1:補正マージ候補の追加タイミング]
上記実施形態では、図5を用いたマージ動き補償パラメータ導出部1212におけるマージ候補リストの導出動作の説明において、各マージ候補が導出される順番および条件の例を示したが、異なるマージ候補導出順を用いてもよい。例えば、図13に示した動作によりマージ候補リストを導出してもよい。
(Modification)
Below, some modifications of the moving
[Variation 1: Correction merge candidate addition timing]
In the above embodiment, in the description of the merge candidate list derivation operation in the merge motion compensation
図13は、マージ動き補償パラメータ導出部1212の動作の別の例を示すフロー図である。始めに、空間マージ候補導出部1212D1において、マージ候補が導出される(S201)。続いて、時間マージ候補導出部1212D2において、マージ候補が導出される(S202)。スライスタイプ判定部1212Eは、対象PUを含むスライスのスライスタイプを判定する(S203)。スライスタイプがBスライスである場合(S203でYES)、結合マージ候補導出部1212D3において、マージ候補が導出され(S204)、その後ステップS205に遷移する。一方、スライスタイプがBスライスではない場合(S103でNO)、ステップS205に遷移する。続いて、ゼロマージ候補導出部1215D4において、マージ候補が導出される(S205)。スライスタイプ判定部1212Eは、対象PUを含むスライスのスライスタイプを判定する(S206)。スライスタイプがBスライスである場合(S206でYES)、マージ候補リスト導出処理を終了する。一方、スライスタイプがBスライスではない場合(S206でNO)、補正マージ候補導出部1212D5において、マージ候補が導出され(S207)、マージ候補リスト導出処理を終了する。
FIG. 13 is a flowchart showing another example of the operation of the merge motion compensation
図13におけるマージ候補リスト導出処理では、補正マージ候補導出処理が、ゼロマージ候補導出処理よりも後に実行される。これにより、マージ候補リストにおいて、ゼロマージ候補に対して、補正マージ候補よりも小さいインデックスが割り当てられる。言い換えると、ゼロマージ候補が補正マージ候補より優先される。一般に、ゼロマージ候補は、動き補償パラメータが空間、または、時間的に推定することが困難である場合に有効である。そのような状況において、補正マージ候補よりも、ゼロマージ候補が対象PUに適した動き補償パラメータとなる可能性が高まるため、図13で説明したマージ候補リスト導出処理を適用することで、符号化効率が向上する。なお、図5で説明したマージ候補リスト導出処理は、図13での処理に較べ、スライスタイプの判定回数が少なく、処理量が少ないという利点がある。 In the merge candidate list derivation process in FIG. 13, the corrected merge candidate derivation process is executed after the zero merge candidate derivation process. Thereby, in the merge candidate list, an index smaller than the correction merge candidate is assigned to the zero merge candidate. In other words, the zero merge candidate has priority over the correction merge candidate. In general, the zero merge candidate is effective when the motion compensation parameter is difficult to estimate spatially or temporally. In such a situation, the possibility that the zero merge candidate becomes a motion compensation parameter suitable for the target PU is higher than that of the corrected merge candidate. Therefore, by applying the merge candidate list derivation process described in FIG. Will improve. Note that the merge candidate list derivation process described with reference to FIG. 5 has an advantage that the number of slice type determinations is smaller and the processing amount is smaller than the process in FIG.
なお、補正マージ候補導出とゼロマージ候補導出の何れを先に実行するかを、導出済のマージ候補や、補正マージ候補導出に用いる基準動き補償パラメータに基づいて決定してもよい。例えば、基準動き補償パラメータの動きベクトルがゼロベクトル(両成分の値が0)である場合には、補正マージ候補導出処理を先に実行し、逆に、基準動き補償パラメータの動きベクトルがゼロベクトルではない場合、ゼロマージ候補導出処理を先に実行してもよい。ゼロベクトルを有するマージ候補が既にマージ候補リストに存在する場合には、ゼロマージ候補の有効性が相対的に低下するため、ゼロベクトルを有するマージ候補の有無に基づいてゼロマージ候補と補正マージ候補の導出順、すなわち、優先順を入れ替えることで符号化効率が向上する。
[変形例2:補正マージ候補の調整のバリエーション]
上記実施形態では、補正マージ候補導出部1212D5において、基準動き補償パラメータにおける参照画像リストL0に対応する動きベクトルをオフセットにより調整することで補正マージ候補を導出する例を説明したが、動き補償パラメータに含まれる他のパラメータを調整することで補正マージ候補を導出してもよい。
It should be noted that which one of the correction merge candidate derivation and the zero merge candidate derivation should be performed first may be determined based on the derived merge candidate or the reference motion compensation parameter used for the correction merge candidate derivation. For example, when the motion vector of the reference motion compensation parameter is a zero vector (values of both components are 0), the correction merge candidate derivation process is executed first, and conversely, the motion vector of the reference motion compensation parameter is the zero vector. Otherwise, the zero merge candidate derivation process may be executed first. When merge candidates having a zero vector already exist in the merge candidate list, the effectiveness of the zero merge candidate is relatively lowered, so that the zero merge candidate and the corrected merge candidate are derived based on the presence or absence of the merge candidate having the zero vector. Coding efficiency is improved by changing the order, that is, the priority order.
[Variation 2: Correction variation adjustment candidate correction]
In the above-described embodiment, the correction merge candidate derivation unit 1212D5 has explained the example in which the correction merge candidate is derived by adjusting the motion vector corresponding to the reference image list L0 in the standard motion compensation parameter by the offset. Correction merge candidates may be derived by adjusting other parameters included.
例えば、参照画像リストL1に対応する動きベクトルをオフセットにより調整してもよい。具体的には、基準動き補償パラメータにおいて、参照画像リストL0利用フラグpredFlagL0が1である場合には、参照画像リストL0に対応する動きベクトルを調整の基準として用い、predFlagL0が0である場合には、参照画像リストL1に対応する動きベクトルを調整の基準として用いることができる。基準動き補償パラメータは、必ずしも参照画像リストL0に対応する動きベクトルを含んでいるとは限らない。そのような場合に、参照画像リストL1に対応する動きベクトルを用いてマージ候補を生成することで符号化効率を向上できる。 For example, the motion vector corresponding to the reference image list L1 may be adjusted by offset. Specifically, in the standard motion compensation parameter, when the reference image list L0 use flag predFlagL0 is 1, the motion vector corresponding to the reference image list L0 is used as a reference for adjustment, and when predFlagL0 is 0, The motion vector corresponding to the reference image list L1 can be used as a reference for adjustment. The reference motion compensation parameter does not necessarily include a motion vector corresponding to the reference image list L0. In such a case, encoding efficiency can be improved by generating merge candidates using a motion vector corresponding to the reference image list L1.
なお、基準動き補償パラメータにおいて、L0とL1との両方の参照画像リストが利用可能である場合、各参照画像リストに対応する動きベクトルをそれぞれ調整して補正マージ候補とすることもできる。その場合、マージ候補の数が増加するため、マージ候補導出に必要な処理量は増加するが、対象PUに適したマージ候補が導出される可能性が高まるため符号化効率が向上する。 Note that when both reference image lists of L0 and L1 are available in the standard motion compensation parameter, the motion vector corresponding to each reference image list can be adjusted to be a correction merge candidate. In this case, since the number of merge candidates increases, the amount of processing necessary for derivation of merge candidates increases, but the possibility of merging merge candidates suitable for the target PU increases, so that the coding efficiency is improved.
また、例えば、参照画像インデックスを調整してもよい。すなわち、参照画像リストL0に対応する参照画像インデックスrefIdxL0の値を基準として調整を行い、補正マージ候補における参照画像インデックスrefIdxMrgの値を導出してもよい。refIdxMrgの導出は、例えば下記のように実現できる。 Further, for example, the reference image index may be adjusted. That is, adjustment may be performed based on the value of the reference image index refIdxL0 corresponding to the reference image list L0, and the value of the reference image index refIdxMrg in the correction merge candidate may be derived. Derivation of refIdxMrg can be realized as follows, for example.
refIdxMrg = 0 (refIdxL0≠0の場合)
refIdxMrg = 1 (refIdxL0=0の場合)
通常、参照画像として利用される可能性の高い参照画像ほど、参照画像リスト内の小さい値のインデックスが割り当てられる。そのため、調整を行う場合、可能な限り小さい参照画像インデックスとなるよう調整を行うことが好ましい。
refIdxMrg = 0 (when refIdxL0 ≠ 0)
refIdxMrg = 1 (when refIdxL0 = 0)
Normally, a reference image that is more likely to be used as a reference image is assigned a smaller value index in the reference image list. Therefore, when adjusting, it is preferable to adjust so that the reference image index is as small as possible.
参照画像インデックスを伝送するためのシンタックス要素が、より小さい値がより短い符号列に対応付けられるように符号化またはバイナリ化される場合、例えばtruncated unary符号により符号化またはバイナリ化される場合、参照画像インデックスの符号量を低減するために参照画像として利用される可能性の高い参照画像に対して小さい値の参照画像インデックスが割り当てられる。 When the syntax element for transmitting the reference image index is encoded or binarized so that a smaller value is associated with a shorter code string, for example, by a truncated unary code, A reference image index having a small value is assigned to a reference image that is likely to be used as a reference image in order to reduce the code amount of the reference image index.
なお、参照画像インデックスの調整を行う場合、refIdxL0が示す参照画像と対象フレームとの間隔(例えば当該参照画像のPOCと対象フレームのPOCの差分)、および、refIdxMrgが示す参照画像と対象フレームとの間隔を参照し、両間隔の比率に基づいて基準動き補償パラメータにおける参照画像リストL0に対応する動きベクトルを調整することが好ましい。
[変形例3:補正マージ候補の基準のバリエーション]
上記実施形態では、補正マージ候補導出部1212D5において、基準動き補償パラメータとして、マージ候補リストに記録されている最小のインデックスを有するマージ候補に対応する動き補償パラメータを用いると記載したが、それに限らない。
When adjusting the reference image index, the interval between the reference image indicated by refIdxL0 and the target frame (for example, the difference between the POC of the reference image and the POC of the target frame), and the reference image and the target frame indicated by refIdxMrg. It is preferable to refer to the interval and adjust the motion vector corresponding to the reference image list L0 in the standard motion compensation parameter based on the ratio of both intervals.
[Variation 3: Variation of standard correction merge candidates]
In the above embodiment, the correction merge candidate derivation unit 1212D5 has described that the motion compensation parameter corresponding to the merge candidate having the smallest index recorded in the merge candidate list is used as the reference motion compensation parameter. .
例えば、空間マージ候補導出部1212D1において導出されたマージ候補であって、マージ候補リストに記録されているマージ候補のうち、最小のインデックスを有するマージ候補に対応する動き補償パラメータを基準動き補償パラメータとして用いてもよい。基準動き補償パラメータとして利用され得るマージ候補を、空間マージ候補に限定することで、時間マージ候補が基準動き補償パラメータとして利用される可能性を排除している。一般に時間マージ候補導出は空間マージ候補導出に較べて処理量が大きい。したがって、基準動き補償パラメータの候補を空間マージ候補に限定することで、時間マージ候補の導出を待たず基準動き補償パラメータを決定できるため、遅延が少なくなるという利点がある。 For example, the motion compensation parameter corresponding to the merge candidate that is the merge candidate derived by the spatial merge candidate derivation unit 1212D1 and has the smallest index among the merge candidates recorded in the merge candidate list is used as the reference motion compensation parameter. It may be used. By limiting the merge candidates that can be used as the reference motion compensation parameter to the spatial merge candidates, the possibility that the temporal merge candidate is used as the reference motion compensation parameter is eliminated. In general, temporal merge candidate derivation requires a larger amount of processing than spatial merge candidate derivation. Therefore, by limiting the reference motion compensation parameter candidates to the spatial merge candidates, the reference motion compensation parameters can be determined without waiting for the derivation of the temporal merge candidates, so that there is an advantage that the delay is reduced.
また、別の例として、選択される可能性の高い動き補償パラメータを規定しておき、当該規定動き補償パラメータを基準動き補償パラメータとして用いることもできる。ここで、規定の動き補償パラメータの値は、スライス内で不変であることが好ましい。具体的な規定の動き補償パラメータとして、以下が挙げられる。
(a)predFlagL0=1, predFlagL1=0, mvL0=(0,0), refIdxL0=0
(b)ピクチャパラメータセットPPS、スライスヘッダSHで送信された動き補償パラメータ。
(c)前ピクチャ、前スライスにおいて利用された動き補償パラメータに基づいて導出される動き補償パラメータ。
As another example, a motion compensation parameter that is likely to be selected can be defined, and the defined motion compensation parameter can be used as a reference motion compensation parameter. Here, it is preferable that the value of the prescribed motion compensation parameter does not change in the slice. Specific specific motion compensation parameters include the following.
(A) predFlagL0 = 1, predFlagL1 = 0, mvL0 = (0,0), refIdxL0 = 0
(B) Motion compensation parameters transmitted with picture parameter set PPS and slice header SH.
(C) Motion compensation parameters derived based on motion compensation parameters used in the previous picture and previous slice.
既定の動き補償パラメータを基準動き補償パラメータとして用いる場合、局所的な特性を利用する空間マージ候補や時間マージ候補を基準動き補償パラメータとする場合に較べて、若干符号化効率が低下するが、マージ候補の導出を待たず基準動き補償パラメータを導出できるため遅延を低減できる。
[変形例4:オフセットリストの切り替え]
上記実施形態では、補正マージ候補導出部1212D5において、基準動きベクトルの調整を単一のオフセットリストに基づき実行する例を記載したが、それに限らない。複数のオフセットリストを規定しておき、所定の条件に基づいて何れかのオフセットリストを選択し、当該オフセットリストに基づき動きベクトルの調整を行ってもよい。
When the default motion compensation parameter is used as the reference motion compensation parameter, the encoding efficiency is slightly reduced compared to the case where the spatial merge candidate using the local characteristics or the temporal merge candidate is used as the reference motion compensation parameter. Since the reference motion compensation parameter can be derived without waiting for candidate derivation, the delay can be reduced.
[Variation 4: Switching the offset list]
In the above embodiment, the correction merge candidate derivation unit 1212D5 describes an example in which the adjustment of the reference motion vector is executed based on a single offset list, but the present invention is not limited to this. A plurality of offset lists may be defined, one of the offset lists may be selected based on a predetermined condition, and the motion vector may be adjusted based on the offset list.
(mvの方向に応じた切り替え)
例えば、基準動きベクトルmvBの方向に応じてオフセットリストを切り替えてもよい。具体的には、オフセットリストとして、水平オフセットリストoffListHと垂直オフセットリストoffListVの何れかを選択可能である場合、mvBの水平成分mvBXおよび垂直成分mvBYに基づいて、次のようにオフセットリストoffListを選択する。なお、水平オフセットリストは、例えば図10の(a)で説明したオフセットリストであり、垂直オフセットリストは、例えば図10の(b)で説明したオフセットリストである。
(Switching according to mv direction)
For example, the offset list may be switched according to the direction of the reference motion vector mvB. Specifically, when either the horizontal offset list offListH or the vertical offset list offListV can be selected as the offset list, the offset list offList is selected based on the horizontal component mvBX and the vertical component mvBY of mvB as follows. To do. The horizontal offset list is, for example, the offset list described with reference to FIG. 10A, and the vertical offset list is, for example, the offset list described with reference to FIG.
offList = offLixtV ( |mvBX| ≧ |mvBY| )
offList = offListH ( |mvBX| < |mvBY| )
すなわち、基準動きベクトルの水平成分の絶対値が垂直成分の絶対値以上である場合に垂直オフセットリストを選択し、逆に、水平成分の絶対値が垂直成分の絶対値未満である場合に水平オフセットリストを選択する。
offList = offLixtV (| mvBX | ≧ | mvBY |)
offList = offListH (| mvBX | <| mvBY |)
In other words, the vertical offset list is selected when the absolute value of the horizontal component of the reference motion vector is greater than or equal to the absolute value of the vertical component. Conversely, when the absolute value of the horizontal component is less than the absolute value of the vertical component, the horizontal offset is selected. Select a list.
なお、水平オフセットリストは、上記の例に限らず、オフセットリストに含まれるオフセットの水平成分の絶対値の総和が、垂直成分の絶対値の総和に較べて大きいオフセットリストであればよい。例えば、図10の(e)または(f)のオフセットリストも水平オフセットリストとして利用できる。同様に、垂直オフセットリストは、オフセットリストに含まれるオフセットの垂直成分の絶対値の総和が、水平成分の絶対値の総和に較べて大きいオフセットリストであればよい。 The horizontal offset list is not limited to the above example, and may be an offset list in which the sum of absolute values of offset horizontal components included in the offset list is larger than the sum of absolute values of vertical components. For example, the offset list of (e) or (f) of FIG. 10 can also be used as the horizontal offset list. Similarly, the vertical offset list may be an offset list in which the sum of absolute values of offset vertical components included in the offset list is larger than the sum of absolute values of horizontal components.
一般に、動きベクトルが大きいほど、オフセットの調整により対象PUに適した動きベクトルを導出される可能性が低下する。これは、動きベクトルが大きい場合、適切な調整を行うためにはより多数のオフセット候補が必要であり、逆に、限定されたオフセット候補では適切な調整が行えない可能性が高いという事実に基づく。したがって、オフセット候補数が限定されている場合であって、基準動きベクトルの一方の成分の絶対値が他方の成分よりも大きい場合、絶対値が小さい方の成分の方向に調整するオフセット候補を多数オフセットリストに含める方が好ましい。 In general, the larger the motion vector, the lower the possibility that a motion vector suitable for the target PU will be derived by adjusting the offset. This is based on the fact that when the motion vector is large, a larger number of offset candidates are required to make an appropriate adjustment, and conversely, a limited offset candidate is likely not to make an appropriate adjustment. . Therefore, when the number of offset candidates is limited and the absolute value of one component of the reference motion vector is larger than the other component, a large number of offset candidates to be adjusted in the direction of the component having the smaller absolute value It is preferable to include it in the offset list.
類似の例として、オフセットリストとして、上記水平、垂直の各オフセットリストに加えて、十字オフセットリストoffListC(図10の(c))が選択可能である場合は、次のようにオフセットリストを選択することが好ましい。 As a similar example, if the cross offset list offListC ((c) in FIG. 10) can be selected as the offset list in addition to the horizontal and vertical offset lists, the offset list is selected as follows. It is preferable.
offList = offLixtV ( |mvBX| > 2×|mvBY| )
offList = offListH ( |mvBY| > 2×|mvBX| )
offList = offLixtC ( 上記以外 )
すなわち、基準動きベクトルの水平成分の絶対値が垂直成分の絶対値より一定以上大きい場合(上記式では2倍より大きい場合)に垂直オフセットリストを選択する。逆に、垂直成分の絶対値が水平成分の絶対値より一定以上大きい場合に水平オフセットリストを選択する。そして、上記いずれでもない場合、十字オフセットリストを選択する。なお、以上において、十字オフセットリストの代わりに図10の(d)に示すオフセットリストを用いる構成も採用可能である。
offList = offLixtV (| mvBX |> 2 × | mvBY |)
offList = offListH (| mvBY |> 2 × | mvBX |)
offList = offLixtC (other than above)
That is, the vertical offset list is selected when the absolute value of the horizontal component of the reference motion vector is larger than the absolute value of the vertical component by a certain amount or more (in the case of the above formula, it is larger than twice). Conversely, when the absolute value of the vertical component is larger than the absolute value of the horizontal component by a certain amount, the horizontal offset list is selected. If none of the above, a cross offset list is selected. In the above, a configuration using the offset list shown in (d) of FIG. 10 instead of the cross offset list can be adopted.
(mvの大きさに応じた切り替え)
また、例えば、基準動きベクトルmvBの大きさに応じてオフセットリストを切り替えてもよい。具体的には、オフセットリストとして、小変位オフセットリストoffListSと大変位オフセットリストoffListLとの何れかを選択可能である場合、ベクトルmvBの長さ‖mvB‖の値に応じて次のようにオフセットリストoffListを選択する。なお、小変位オフセットリストとして、例えば図10の(a)、大変位オフセットリストとして、例えば図10の(e)を用いることができる。
(Switching according to the size of mv)
Further, for example, the offset list may be switched according to the magnitude of the reference motion vector mvB. Specifically, when either the small displacement offset list offListS or the large displacement offset list offListL can be selected as the offset list, the offset list is as follows according to the value of the length ‖mvB‖ of the vector mvB: Select offList. For example, (a) in FIG. 10 can be used as the small displacement offset list, and (e) in FIG. 10 can be used as the large displacement offset list.
offList = offLixtL (‖mvB‖ > THL )
offList = offLixtS (‖mvB‖ ≦ THL )
すなわち、基準動きベクトルの長さが所定の閾値THLより大きい場合に大変位オフセットリストを選択する。逆に、基準動きベクトルの長さが所定の閾値THL未満の場合に小変位オフセットリストを選択する。
offList = offLixtL (‖mvB‖> THL)
offList = offLixtS (‖mvB‖ ≤ THL)
That is, the large displacement offset list is selected when the length of the reference motion vector is larger than the predetermined threshold value THL. Conversely, when the length of the reference motion vector is less than the predetermined threshold THL, the small displacement offset list is selected.
一般に、基準動きベクトルが大きいほど、より大きなオフセットを利用した調整が必要となる可能性が高くなる。したがって、基準動きベクトルが大きい場合に、大きな変位を表すオフセットを多く含むオフセットリストを用い、逆に、基準動きベクトルが小さい場合に、小さい変位を表すオフセットを多く含むオフセットリストを用いることで、適切な調整に必要なオフセットがオフセットリストに含まれる可能性が高まるため符号化効率が向上する。 In general, the larger the reference motion vector, the higher the possibility that adjustment using a larger offset is required. Therefore, when the reference motion vector is large, an offset list that includes many offsets representing a large displacement is used, and conversely, when the reference motion vector is small, an offset list that includes many offsets representing a small displacement is used. Since there is a high possibility that an offset required for the adjustment is included in the offset list, the coding efficiency is improved.
なお、小変位オフセットリストと大変位オフセットリストの定義は相対的なものだが、例えば、オフセットリストの変位の大小を例えば次のように定義できる。オフセットリストの変位は、オフセットリストに含まれる全てのオフセットのノルムの平均である。2種類のオフセットリストが存在する場合、変位の大きいほうのオフセットリストが大変位オフセットリストであり、変位の小さいほうのオフセットリストが小変位オフセットリストである。 Note that the definitions of the small displacement offset list and the large displacement offset list are relative, but for example, the magnitude of the displacement of the offset list can be defined as follows, for example. The offset list displacement is the average of the norms of all offsets contained in the offset list. When two types of offset lists exist, the offset list with the larger displacement is the large displacement offset list, and the offset list with the smaller displacement is the small displacement offset list.
(mvの各成分の符号に基づく切り替え)
また、例えば、基準動きベクトルmvBの各成分の符号に基づいてオフセットリストを切り替えても良い。具体的には、水平正オフセットリストoffListHPと水平負オフセットリストoffListHNが選択可能である場合、mvBの水平成分が正または0である場合に水平負オフセットリストを選択し、mvBの水平成分が負である場合に水平正オフセットリストを選択してもよい。
(Switching based on the sign of each component of mv)
Further, for example, the offset list may be switched based on the sign of each component of the reference motion vector mvB. Specifically, when the horizontal positive offset list offListHP and the horizontal negative offset list offListHN can be selected, the horizontal negative offset list is selected when the horizontal component of mvB is positive or 0, and the horizontal component of mvB is negative. In some cases, a horizontal positive offset list may be selected.
offList = offLixtHN ( mvBX >= 0 )
offList = offListHP ( mvBX < 0 )
ここで、水平正オフセットリストは、含まれる全てのオフセットの水平成分が正であるオフセットリストであり、例えば、オフセット(1,0)のみを含むオフセットリスト、オフセット(1,0)と(4,0)を含むオフセットリストが水平正オフセットリストである。同様に水平負オフセットリストは、含まれる全てのオフセットの水平成分が負であるオフセットリストである。
offList = offLixtHN (mvBX> = 0)
offList = offListHP (mvBX <0)
Here, the horizontal positive offset list is an offset list in which the horizontal components of all included offsets are positive, for example, an offset list including only offset (1,0), offset (1,0) and (4, The offset list including 0) is the horizontal positive offset list. Similarly, the horizontal negative offset list is an offset list in which the horizontal components of all the included offsets are negative.
上記オフセットリストの選択によれば、基準動きベクトルmvBを当該基準動きベクトルの水平成分と逆の方向に調整することで補正マージ候補が導出される。このような補正により、平均的に、基準動きベクトルの水平成分の絶対値が小さくなる。一般的な動きベクトルの確率分布では、水平成分の値が小さい動きベクトルが、水平成分の値が大きい動きベクトルに較べて発生確率が高い。そのため、補正を行う場合、水平成分の値が小さくなるよう補正することで、より選択されやすい補正マージ候補を生成することができるため、符号化効率が改善する。 According to the selection of the offset list, a correction merge candidate is derived by adjusting the reference motion vector mvB in the direction opposite to the horizontal component of the reference motion vector. By such correction, the absolute value of the horizontal component of the reference motion vector is reduced on average. In a general motion vector probability distribution, a motion vector having a small horizontal component value has a higher probability of occurrence than a motion vector having a large horizontal component value. Therefore, when correction is performed, by correcting so that the value of the horizontal component becomes small, a correction merge candidate that can be selected more easily can be generated, so that the encoding efficiency is improved.
なお、上記では水平成分を調整する場合について説明したが、垂直成分についても同様のことが言えるため、オフセットリストを基準動きベクトルの垂直成分の符号に基づいて切り替えてもよい。さらに、水平成分の符号と垂直成分の符号の組み合わせに応じてオフセットリストを切り替えてもよい。 In addition, although the case where the horizontal component is adjusted has been described above, the same can be said for the vertical component. Therefore, the offset list may be switched based on the sign of the vertical component of the reference motion vector. Furthermore, the offset list may be switched according to the combination of the horizontal component code and the vertical component code.
(mvの特定成分が0か否かによる切り替え)
また、例えば、基準動きベクトルmvBの水平成分または垂直成分の値が0であるか否かに応じてオフセットリストを切り替えてもよい。具体的には、オフセットリストとして、前述の水平オフセットリストoffListHと垂直オフセットリストoffListVの何れかを選択可能である場合、mvBの水平成分mvBXおよび垂直成分mvBYに基づいて、次のようにオフセットリストoffListを選択する。
(Switching depending on whether the specific component of mv is 0)
Further, for example, the offset list may be switched depending on whether the value of the horizontal component or the vertical component of the reference motion vector mvB is 0. Specifically, when one of the horizontal offset list offListH and the vertical offset list offListV can be selected as the offset list, the offset list offList is based on the horizontal component mvBX and the vertical component mvBY of mvB as follows. Select.
offList = offLixtH ( |mvBY| = 0 )
offList = offListV ( 上記以外 )
すなわち、基準動きベクトルの水平成分の絶対値が0の場合に水平オフセットリストを選択し、それ以外の場合に垂直オフセットリストを選択する。
offList = offLixtH (| mvBY | = 0)
offList = offListV (other than above)
That is, the horizontal offset list is selected when the absolute value of the horizontal component of the reference motion vector is 0, and the vertical offset list is selected otherwise.
一般に、ビデオカメラによる動画像の撮影時には、パンやチルトを用いることが多く、そのような場合、完全な垂直方向、または、完全な水平方向の動きベクトルが多数用いられる。そのような場合に、補正マージ候補を基準動きベクトルの成分の値が0ではない方向に補正することで、符号化効率が向上する。 Generally, panning and tilting are often used when capturing a moving image with a video camera. In such a case, a large number of motion vectors in a complete vertical direction or a complete horizontal direction are used. In such a case, the correction efficiency is improved by correcting the correction merge candidate in a direction in which the value of the reference motion vector component is not zero.
(画像サイズに応じた切り替え)
また、例えば、画像サイズに応じてオフセットリストを切り替えてもよい。具体的には、オフセットリストとして、小変位オフセットリストoffListSと大変位オフセットリストoffListLとの何れかを選択可能である場合、画像サイズが所定のサイズより大きい場合に大変位オフセットリストを選択する。
(Switch according to image size)
Further, for example, the offset list may be switched according to the image size. Specifically, when either the small displacement offset list offListS or the large displacement offset list offListL can be selected as the offset list, the large displacement offset list is selected when the image size is larger than a predetermined size.
一般に画像サイズが大きい場合、大きい動きベクトルが発生する可能性が、画像サイズが小さい場合に較べて高い。そのため、前述の理由により、画像サイズが大きい場合に、大変位オフセットリストを選択することで符号化効率を向上できる。 In general, when the image size is large, the possibility of generating a large motion vector is higher than when the image size is small. For this reason, when the image size is large, the coding efficiency can be improved by selecting the large displacement offset list.
(レベルに応じた切り替え)
また、例えば、符号化データが適合するレベルに応じてオフセットリストを切り替えてもよい。具体的には、符号化データが適合するレベルが所定のレベル以上であれば、大変位オフセットリストを選択し、それ以外の場合、小変位オフセットリストを選択する。
(Switch according to the level)
Further, for example, the offset list may be switched according to the level to which the encoded data is suitable. Specifically, the large displacement offset list is selected if the level to which the encoded data matches is equal to or higher than a predetermined level, and the small displacement offset list is selected otherwise.
ここで、符号化データの適合するレベルは、例えば、シーケンスパラメータセットSPSに含まれるシンタックス要素level_idcで規定される。なお、符号化データの適合するレベルは、復号装置が1秒単位で復号し得る最大の輝度画素数、ピクチャ内の最大輝度画素数、符号化データの最大ビットレートを少なくとも含む復号装置や符号化データの準拠すべき性能が関連付けられている。例えば、H.264およびHEVCにおいては、レベル4は、少なくとも1920×1088画素のピクチャを含む符号化データを復号する性能が復号装置に必要であることを示す。また、レベル5は、少なくとも4096×2160画素のピクチャを含む符号化データを復号する性能が復号装置に必要であることを示す。一般にレベルが高い(level_idcの値が大きい)ほど、より大きいサイズのピクチャを復号可能な性能が復号装置に要求されることを意味する。
Here, the compatible level of the encoded data is defined by a syntax element level_idc included in the sequence parameter set SPS, for example. It should be noted that the level at which the encoded data is suitable is a decoding device or encoding that includes at least the maximum number of luminance pixels that the decoding device can decode in units of one second, the maximum number of luminance pixels in the picture, and the maximum bit rate of the encoded data. The performance that the data should comply with is related. For example, H.M. In H.264 and HEVC,
上記のレベルの定義から、高いレベルに適合する符号化データほど、より大きい画像サイズを符号化して得られる符号化データである可能性が高い。従って、前述の理由により、符号化データが適合するレベルが高い場合(例えばレベル4以上である場合)に、大変位オフセットリストを選択することで符号化効率が向上する。
[変形例5:双予測制約への適用例]
上記実施形態では、図5を用いたマージ動き補償パラメータ導出部1212におけるマージ候補リストの導出動作の説明において、スライスタイプに応じて結合マージ候補導出部と補正マージ候補導出部を切り替える構成を示した。より一般的には、対象PUにおいて双予測が適用可能か否かに基づいて選択してもよい。以下では、PUサイズに応じた双予測の適用制限を行う場合に、マージ候補導出部を選択的に利用する例を、図14および図15を参照して説明する。
From the above level definition, encoded data that conforms to a higher level is more likely to be encoded data obtained by encoding a larger image size. Therefore, for the reason described above, when the level to which the encoded data is compatible is high (for example, when the level is 4 or higher), the encoding efficiency is improved by selecting the large displacement offset list.
[Variation 5: Application example to bi-prediction constraint]
In the above embodiment, in the description of the merge candidate list derivation operation in the merge motion compensation
図14は、本変形例に係るマージ動き補償パラメータ導出部1212の構成を示すブロック図である。マージ動き補償パラメータ導出部1212は、図1に示したマージ動き補償パラメータ導出部1212の構成において、マージ候補導出判定部1212Aを、マージ候補導出判定部1212Gに、スライスタイプ判定部1212Eを、双予測制限判定部1212Fにそれぞれ置きかえた構成となっている。なお、上記以外の構成要素については、図1のマージ動き補償パラメータ導出部1212の対応する構成と同一であり、同じ符号を付与して説明を省略する。
FIG. 14 is a block diagram showing the configuration of the merge motion compensation
(マージ候補導出制御部)
マージ候補導出制御部1212Fは、マージ候補導出手段を制御し、所定数(マージ候補導出数)のマージ候補を導出しマージ候補格納部1212Bに格納する。マージ候補導出制御部1212Fは、マージ候補導出において、必要に応じて双予測制限判定部1212Gにアクセスして双予測制限の適用有無情報を取得してマージ候補の導出に利用する。マージ候補導出手段の制御の手順は、マージ候補リストの導出処理フローとして後述する。
(Merge candidate derivation control unit)
The merge candidate
(双予測制限判定部)
双予測制限判定部1212Gは、対象PUにおいて、双予測制限を適用するか否かを判定し、結果を出力する。ここで、対象PUにおいて双予測制限を適用する場合、対象PUにおいて参照画像リストL0、または、参照画像リストL1のいずれかを用いた単予測のみ適用可能である。一方、双予測制限を適用しない場合、L0とL1との2つの参照画像リストを利用した双予測が適用可能である。
(Bi-prediction restriction determination unit)
The bi-prediction
本変形例においては、対象PUのサイズが所定よりも小さい場合に双予測制限を適用するものとする。具体的には、双予測制限の適用有無を示すフラグrestBiPredFlagの値は、以下の条件により判定される。 In this modification, bi-prediction restriction is applied when the size of the target PU is smaller than a predetermined size. Specifically, the value of the flag restBiPredFlag indicating whether or not the bi-prediction restriction is applied is determined under the following conditions.
restBiPredFlag = 1 ( 対象PUの少なくとも一辺の長さが8未満 )
restBiPredFlag = 0 ( 対象PUの両辺の長さが8以上 )
ここで、restBipredFlagの値は、“1”が双予測制限を適用することを示し、“0”が双予測制限を適用しないことを示す。双予測制限判定部1212Gは、restBiPredFlagの値を判定することで、双予測制限の適用有無を判定する。
restBiPredFlag = 1 (the length of at least one side of the target PU is less than 8)
restBiPredFlag = 0 (the length of both sides of the target PU is 8 or more)
Here, the value of restBipredFlag indicates that “1” applies the bi-prediction restriction, and “0” indicates that the bi-prediction restriction is not applied. The bi-prediction
なお、本発明に適用可能な双予測制限は上記に限定されず、他の異なる基準による双予測制限であってもよい。例えば、対象PUを含む対象CUのサイズ、符号化データの適合するレベル、対象CUサイズと対象PUサイズの組み合わせ、ツリーブロックサイズと対象PUサイズの組み合わせ等により双予測制限を行ってもよい。 The bi-prediction restriction applicable to the present invention is not limited to the above, and may be a bi-prediction restriction based on another different standard. For example, bi-prediction restriction may be performed based on the size of the target CU including the target PU, the level at which encoded data is compatible, the combination of the target CU size and the target PU size, the combination of the tree block size and the target PU size, and the like.
図15は、マージ動き補償パラメータ導出部1212の動作の別の例を示すフロー図である。始めに、空間マージ候補導出部1212D1において、マージ候補が導出される(S301)。続いて、時間マージ候補導出部1212D2において、マージ候補が導出される(S302)。双予測制限判定部1212Fは、対象PUに対して双予測制限が適用されるか否かを判定する(S303)。双予測制限を適用しない場合(S303でNO)、結合マージ候補導出部1212D3において、マージ候補が導出され(S304)、その後ステップS306に遷移する。一方、双予測制限を適用する場合(S303でYES)、補正マージ候補導出部1212D5において、マージ候補が導出され(S305)、その後ステップS306に遷移する。最後に、ゼロマージ候補導出部1215D4において、マージ候補が導出され(S306)、マージ候補リスト導出処理を終了する。
FIG. 15 is a flowchart showing another example of the operation of the merge motion compensation
(結合マージ候補と補正マージ候補の併用効果)
以上に示したように、本変形例に係るマージ動き補償パラメータ導出部1212は、複数のマージ候補導出部を備え、多様なマージ候補を生成してマージ候補リストに追加することで、対象PUに適した動き補償パラメータがマージ候補としてマージ候補リストに含まれている可能性を高める。それにより、スキップCUまたはマージPUの選択率を高めることができるため、符号量を削減できる。なお、一般に、マージ候補リストに含まれるマージ候補数が多ければ、マージ候補リストの選択率を高めることができるが、一方で、マージ候補リストの導出に必要な処理量が増加する。
(Combination effect of merge merge candidate and correction merge candidate)
As described above, the merge motion compensation
本変形例における、マージ動き補償パラメータ導出部1212は、マージ候補導出部に、少なくとも、補正マージ候補導出部、および、結合マージ候補導出部を含んでおり、対象PUに双予測制限が適用されるか否かに応じて、マージ候補導出部、または、補正マージ候補導出部のいずれかを選択してマージ候補を導出する。結合マージ候補は、双予測が適用可能な場合、すなわち、双予測制限が適用されない場合のマージ候補として利用できるが、双予測が適用できない場合、すなわち、単予測を適用する場合のマージ候補としては利用できない。そのため、スライスタイプが双予測が適用できないことを既定するPスライスである場合には、双予測が適用可能なBスライスに較べてマージ候補数が減少し、マージの選択率が低下する。本実施形態においては、Pスライスにおいて、結合マージ候補の代わりに補正マージ候補を利用することで、マージ候補数の減少を抑制し、スキップCUまたはマージPUの選択率が高まるため符号化効率が向上する。また、Bスライスにおいては、補正マージ候補を追加しないため、処理量が増加しないという利点がある。
[変形例6:補正マージ候補導出部と結合マージ候補導出部以外による構成例]
上記実施形態では、マージ動き補償パラメータ導出部1212において、双予測が適用可能か否かに基づいて、結合マージ候補導出部1212D3と補正マージ候補導出部1212D5を切り替えて用いることでマージ候補リストを導出すると説明したが、結合マージ候補導出部1212D3と補正マージ候補導出部1212D5とを別のマージ候補導出部に置き換えてもよい。
The merge motion compensation
[Modification 6: Configuration example other than correction merge candidate derivation unit and combined merge candidate derivation unit]
In the above embodiment, the merge motion compensation
結合マージ候補導出部1212D3は、双予測を行うマージ候補を導出し、単予測を行うマージ候補を導出しない、別のマージ候補導出部に置き換えることが可能である。具体的には、次の手順で双予測マージ候補を導出するマージ候補導出部を結合マージ候補導出部1212D3の代わりに用いてもよい。 The merge merge candidate derivation unit 1212D3 can derive a merge candidate that performs bi-prediction and replace it with another merge candidate derivation unit that does not derive a merge candidate that performs single prediction. Specifically, a merge candidate derivation unit that derives bi-predictive merge candidates by the following procedure may be used instead of the merged merge candidate derivation unit 1212D3.
まず、補正マージ候補導出部1212D5で説明したのと同様に基準動き補償パラメータを導出する。導出するマージ候補の、動きベクトルmvL0および参照画像インデックスrefIdxL0を、基準動き補償パラメータの対応する値とする。参照画像refIdxL1の値を1とする。動きベクトルmvL1の値は、動きベクトルmvL0をスケーリングすることで生成する。なお、スケーリングは、参照画像refIdxL1と対象フレームのPOCの差分と、参照画像refIdxL0と対象フレームのPOCの差分との比に基づいて実行する。最後に参照画像リスト利用フラグpredFlagL0とpredFlagL1の値をそれぞれ1に設定し、双予測マージ候補とする。 First, a reference motion compensation parameter is derived in the same manner as described in the correction merge candidate derivation unit 1212D5. The motion vector mvL0 and the reference image index refIdxL0 of the merge candidate to be derived are set as corresponding values of the standard motion compensation parameter. The value of the reference image refIdxL1 is set to 1. The value of the motion vector mvL1 is generated by scaling the motion vector mvL0. Note that the scaling is performed based on the ratio between the difference between the reference image refIdxL1 and the POC of the target frame and the difference between the reference image refIdxL0 and the POC of the target frame. Finally, the values of the reference image list use flags predFlagL0 and predFlagL1 are set to 1, respectively, and set as bi-predictive merge candidates.
また、補正マージ候補導出部1212D5は、単予測行うマージ候補を導出し、双予測を行うマージ候補を導出しない、別のマージ候補導出部に置き換えることが可能である。具体的には、次の手順で単予測マージ候補を導出するマージ候補導出部を補正マージ候補導出部1212D5の代わりに用いてもよい。 Further, the corrected merge candidate derivation unit 1212D5 can derive a merge candidate for performing single prediction and replace it with another merge candidate derivation unit that does not derive a merge candidate for performing bi-prediction. Specifically, a merge candidate derivation unit that derives a single prediction merge candidate by the following procedure may be used instead of the correction merge candidate derivation unit 1212D5.
まず、マージ候補リストに記録されているマージ候補のうち、双予測を行うマージ候補(predFlagL0=1かつpredFlagL1=1であるマージ候補)を選択する。選択したマージ候補において、predFlagL1の値を0に変更することでマージ候補を生成する。 First, of the merge candidates recorded in the merge candidate list, a merge candidate for performing bi-prediction (a merge candidate with predFlagL0 = 1 and predFlagL1 = 1) is selected. In the selected merge candidate, the merge candidate is generated by changing the value of predFlagL1 to 0.
上記のような置き換えを行った場合でも、本実施形態と同様の効果が得られる。すなわち、Pスライスにおいて、双予測マージ候補の代わりに単予測マージ候補を利用することで、Bスライスにおけるマージ候補数に対するマージ候補数の減少を抑制し、スキップCUまたはマージPUの選択率が高まるため符号化効率が向上する。また、Bスライスにおいては、単予測マージ候補を追加しないため、処理量が増加しないという利点がある。 Even when the above replacement is performed, the same effect as in the present embodiment can be obtained. That is, in the P slice, by using the uni-predictive merge candidate instead of the bi-predictive merge candidate, the decrease in the number of merge candidates with respect to the number of merge candidates in the B slice is suppressed, and the skip CU or merge PU selection rate is increased. Encoding efficiency is improved. In addition, in the B slice, since a single prediction merge candidate is not added, there is an advantage that the processing amount does not increase.
〔動画像符号化装置〕
以下において、本実施形態に係る動画像符号化装置2について、図16〜図18を参照して説明する。
[Moving picture encoding device]
Hereinafter, the moving
(動画像符号化装置の概要)
動画像符号化装置2は、概略的に言えば、入力画像#10を符号化することによって符号化データ#1を生成し、出力する装置である。
(Outline of video encoding device)
Generally speaking, the moving
(動画像符号化装置の構成)
まず、図16を用いて、動画像符号化装置2の構成例について説明する。図16は、動画像符号化装置2の構成について示す機能ブロック図である。図16に示すように、動画像符号化装置2は、符号化設定部21、逆量子化・逆変換部22、予測画像生成部23、加算器24、フレームメモリ25、減算器26、変換・量子化部27、および符号化データ生成部(符号化手段)29を備えている。
(Configuration of video encoding device)
First, a configuration example of the
符号化設定部21は、入力画像#10に基づいて、符号化に関する画像データおよび各種の設定情報を生成する。
The
具体的には、符号化設定部21は、次の画像データおよび設定情報を生成する。
Specifically, the
まず、符号化設定部21は、入力画像#10を、スライス単位、ツリーブロック単位、CU単位に順次分割することにより、対象CUについてのCU画像#100を生成する。
First, the
また、符号化設定部21は、分割処理の結果に基づいて、ヘッダ情報H’を生成する。ヘッダ情報H’は、(1)対象スライスに属するツリーブロックのサイズ、形状および対象スライス内での位置についての情報、並びに、(2)各ツリーブロックに属するCUのサイズ、形状および対象ツリーブロック内での位置についてのCU情報CU’を含んでいる。
Also, the
さらに、符号化設定部21は、CU画像#100、および、CU情報CU’を参照して、PT設定情報PTI’を生成する。PT設定情報PTI’には、対象CUの予測タイプ、対象CUのPUへの分割情報、および、対象CUがインターCUである場合には各PUにおける動き補償パラメータが少なくとも含まれる。に関する情報が含まれる。
Further, the
符号化設定部21は、(1)対象CUの予測タイプ、(2)対象CUの各PUへの可能な分割パターン、および、(3)各PUに割り付ける可能な予測モード(イントラCUであればイントラ予測モード、インターCUであれば動き補償パラメータ)、の全ての組み合わせについて、コストを算出し、最低コストの予測タイプ、分割パターン、および、予測モードを決定して、PT設定情報PTI’とする。
The
符号化設定部21は、CU画像#100を減算器26に供給する。また、符号化設定部21は、ヘッダ情報H’を符号化データ生成部29に供給する。また、符号化設定部21は、PT設定情報PTI’を予測画像生成部23、および、PU情報生成部30に供給する。
The
逆量子化・逆変換部22は、変換・量子化部27より供給される、ブロック毎の量子化予測残差を、逆量子化、および、逆直交変換することによって、ブロック毎の予測残差を復元する。逆直交変換については、図2に示す逆量子化・逆変換部15について、既に説明したとおりであるので、ここではその説明を省略する。
The inverse quantization /
また、逆量子化・逆変換部22は、ブロック毎の予測残差を、TT分割情報(後述)により指定される分割パターンに従って統合し、対象CUについての予測残差Dを生成する。逆量子化・逆変換部22は、生成した対象CUについての予測残差Dを、加算器24に供給する。
Further, the inverse quantization /
予測画像生成部23は、フレームメモリ25に記録されている局所復号画像P’、および、PT設定情報PTI’を参照して、対象CUについての予測画像Predを生成する。なお、予測画像生成部23による予測画像生成処理は、動画像復号装置1の備える予測画像生成部14と同様であるので、ここでは説明を省略する。
The predicted
加算器24は、予測画像生成部23より供給される予測画像Predと、逆量子化・逆変換部22より供給される予測残差Dとを加算することによって、対象CUについての復号画像Pを生成する。
The
フレームメモリ25には、復号された復号画像Pが順次記録される。フレームメモリ25には、対象ツリーブロックを復号する時点において、当該対象ツリーブロックよりも先に復号された全てのツリーブロック(例えば、ラスタスキャン順で先行する全てのツリーブロック)に対応する復号画像が、当該復号画像Pの復号に用いられたパラメータと共に、記録されている。
Decoded decoded images P are sequentially recorded in the
減算器26は、CU画像#100から予測画像Predを減算することによって、対象CUについての予測残差Dを生成する。減算器26は、生成した予測残差Dを、変換・量子化部27に供給する。
The
変換・量子化部27は、予測残差Dに対して、直交変換および量子化を行うことで量子化予測残差を生成する。なお、ここで直交変換とは、画素領域から周波数領域への直交変換のことをさす。また、逆直交変換の例としては、DCT変換(Discrete Cosine Transform)、およびDST変換(Discrete Sine Transform)等が挙げられる。
The transform /
具体的には、変換・量子化部27は、CU画像#100、および、CU情報CU’を参照し、対象CUの1または複数のブロックへの分割パターンを決定する。また、決定された分割パターンに従って、予測残差Dを、各ブロックについての予測残差に分割する。
Specifically, the transform /
また、変換・量子化部27は、各ブロックについての予測残差を直交変換することによって周波数領域における予測残差を生成した後、当該周波数領域における予測残差を量子化することによってブロック毎の量子化予測残差を生成する。
The transform /
また、変換・量子化部27は、生成したブロック毎の量子化予測残差と、対象CUの分割パターンを指定するTT分割情報と、対象CUの各ブロックへの可能な全分割パターンに関する情報とを含むTT設定情報TTI’を生成する。変換・量子化部27は、生成したTT設定情報TTI’を逆量子化・逆変換部22および符号化データ生成部29に供給する。
In addition, the transform /
PU情報生成部30は、PT設定情報PTI’に基づいてPT設定情報PTIを導出すし、符号化設定部21に供給する。PU情報生成部30の詳細については後述する。
The PU
符号化データ生成部29は、ヘッダ情報H’、TT設定情報TTI’、およびPT設定情報PTI’を符号化し、符号化したヘッダ情報H、TT設定情報TTI、およびPT設定情報PTIを多重化して符号化データ#1を生成し、出力する。
The encoded
(動画像復号装置との対応関係)
動画像符号化装置2は、動画像復号装置1の各構成と対応する構成を含む。ここで、対応とは、同様の処理、または、逆の処理を行う関係にあるということである。
(Correspondence relationship with video decoding device)
The
例えば、上述したように、動画像復号装置1が備える予測画像生成部14の予測画像生成処理と、動画像符号化装置2が備える予測画像生成部23の予測画像生成処理とは、同様である。
For example, as described above, the prediction image generation process of the prediction
例えば、動画像復号装置1において、ビット列から、シンタックス値を復号する処理は、動画像符号化装置2において、シンタックス値から、ビット列を符号化する処理と逆の処理としての対応となっている。
For example, the process of decoding a syntax value from a bit string in the
以下では、動画像符号化装置2における各構成が、動画像復号装置1のCU情報復号部11、PU情報復号部12、およびTU情報復号部13とどのような対応となっているかについて説明する。これにより、動画像符号化装置2における各構成の動作・機能はより詳細に明らかになるだろう。
In the following, it will be described how each configuration in the
符号化データ生成部29は、復号モジュール10に対応している。より詳しくいえば、復号モジュール10が、符号化データおよびシンタックス種別に基づいてシンタックス値を導出するのに対して、符号化データ生成部29は、シンタックス値およびシンタックス種別に基づいて符号化データを生成する。
The encoded
符号化設定部21は、動画像復号装置1のCU情報復号部11に対応している。符号化設定部21と、CU情報復号部11とを比較すると次のとおりである。
The
CU情報復号部11が、CU予測タイプ情報に係る符号化データとシンタックス種別とを復号モジュール10に供給し、復号モジュール10により復号されたCU予測タイプ情報に基づいてPU分割タイプを決定する。
The CU
これに対して、符号化設定部21は、PU分割タイプを決定してCU予測タイプ情報を生成し、CU予測タイプ情報に係るシンタックス値とシンタックス種別とを符号化データ生成部29に供給する。
In response to this, the
PU情報生成部30および予測画像生成部23は、動画像復号装置1のPU情報復号部12および予測画像生成部14に対応している。これらを比較すると次のとおりである。
The PU
上述のとおり、PU情報復号部12は、動き情報に係る符号化データとシンタックス種別とを復号モジュール10に供給し、復号モジュール10により復号された動き情報に基づいて動き補償パラメータを導出する。また、予測画像生成部14は、導出された動き補償パラメータに基づいて予測画像を生成する。
As described above, the PU
これに対して、PU情報生成部30は、動き補償パラメータを決定し、動き補償パラメータに係るシンタックス値とシンタックス種別とを符号化データ生成部29に供給する。
In response to this, the PU
(PU情報生成部30の詳細)
図17は、PU情報生成部30の構成を示すブロック図である。PU情報生成部30は、動き補償パラメータを生成するための動き補償パラメータ生成部301、および、CU予測タイプ判定部302を備える。動き補償パラメータ生成部301は、動き補償方法決定部3011、基本動き補償パラメータ生成部3012、マージ動き補償パラメータ生成部3013、および、スイッチ3014を備える。
(Details of PU information generation unit 30)
FIG. 17 is a block diagram illustrating a configuration of the PU
CU予測タイプ判定部302は、入力されたPT設定情報PTI’が示す予測タイプがイントラCUである場合は、PT設定情報PTIをPT設定情報PTI’として外部に出力する。一方、当該予測タイプがインターCUである場合は、動き補償パラメータ生成部301にPT設定情報PTI’を供給する。
When the prediction type indicated by the input PT setting information PTI 'is an intra CU, the CU prediction
基本動き補償パラメータ生成部3012は、入力されたPT設定情報PTI’に含まれる各PUにおける動き補償パラメータから、対応するシンタックス要素値であるinter_pred_flag、mvd、mvp_idx、および、refIdxを導出してPT設定情報PTIとして出力する。
The basic motion compensation
マージ動き補償パラメータ生成部3013は、入力されたPT設定情報PTI’に含まれる各PUにおける動き補償パラメータと類似の動き補償パラメータを有するマージ候補を生成し、当該マージ候補を示すシンタックス要素値merge_idxを出力する。また、マージ候補を動き補償方法決定部3011に供給する。
The merge motion compensation
なお、マージ動き補償パラメータ生成部3013は、動画像復号装置1の図1で説明したマージ動き補償パラメータ導出部1212と同一の構成を含んでいる。そのため、同一のmerge_idxに対応して導出されるマージ候補は、マージ動き補償パラメータ生成部3013と、マージ動き補償パラメータ導出部1212との間で同一となる。
The merge motion compensation
動き補償方法決定部3011は、入力されるマージ候補と動き補償パラメータの類似の度合を評価して、マージを適用するか否かを判定して結果をスイッチ3014に供給する。スイッチ3014は、入力がマージを適用することを示す場合、マージ動き補償パラメータ生成部3013の出力を選択して、PT設定情報PTIとして外部に出力する。一方、入力がマージを適用しないことを示す場合、基本動き補償パラメータ設定部3013の出力を選択して、PT設定情報PTIとして外部に出力する。
The motion compensation
(処理の流れ)
図18を用いて、動画像符号化装置2におけるCU符号化処理について説明すると以下のとおりである。なお、以下では、対象CUは、インターCU、または、スキップCUであるとする。図18は、動画像符号化装置2におけるCU符号化処理(インター/スキップCU)の流れの一例について示すフローチャートである。
(Process flow)
The CU encoding process in the moving
CU符号化処理が開始されると、符号化設定部21が、対象CUについてCU予測情報を決定し、符号化データ生成部29が、符号化設定部21により決定されたCU予測情報を符号化する(S21)。この処理は、CU単位で行われる。
When the CU encoding process is started, the
具体的には、符号化設定部21が、対象CUがスキップCUであるか否かを決定する。対象CUがスキップCUである場合、符号化設定部21は、スキップフラグSKIPを符号化データ生成部20に符号化させる。また、対象CUがスキップCUでない場合、符号化設定部21は、CU予測タイプ情報Pred_typeを符号化データ生成部20に符号化させる。
Specifically, the
次に、PU単位の処理が行われる。すなわち、符号化設定部21が動き情報(動き補償パラメータ)を導出する。PU情報生成部30は当該動き情報に基づき、動き情報に対応するシンタックス要素値を導出し、符号化データ生成部29が、前記シンタックス要素値を符号化する(S22)。また、予測画像生成部14は、導出した当該動き情報に基づいてインター予測により予測画像を生成する(S23)。
Next, PU unit processing is performed. That is, the
次に、変換・量子化部27が、TU分割符号化処理を行う(S24)。具体的には、変換・量子化部27は、対象CUのCUサイズおよびPU分割タイプに基づいて、TU分割の方式を設定する。この処理は、CU単位で行われる。
Next, the transform /
次に、TU単位の処理が行われる。すなわち、変換・量子化部27が、予測残差を変換係数に変換・量子化し(S25)、符号化データ生成部29が、変換・量子化された変換係数を符号化する(S26)。
Next, TU unit processing is performed. That is, the transform /
次に、逆量子化・逆変換部22が、変換・量子化された変換係数を、逆量子化・逆変換して予測残差を復元するとともに、加算器24が、予測画像および予測残差を加算することにより、復号画像が生成される(S27)。この処理は、CU単位で行われる。
Next, the inverse quantization /
〔応用例〕
上述した動画像符号化装置2及び動画像復号装置1は、動画像の送信、受信、記録、再生を行う各種装置に搭載して利用することができる。なお、動画像は、カメラ等により撮像された自然動画像であってもよいし、コンピュータ等により生成された人工動画像(CGおよびGUIを含む)であってもよい。
[Application example]
The above-described moving
まず、上述した動画像符号化装置2及び動画像復号装置1を、動画像の送信及び受信に利用できることを、図19を参照して説明する。
First, it will be described with reference to FIG. 19 that the above-described moving
図19の(a)は、動画像符号化装置2を搭載した送信装置PROD_Aの構成を示したブロック図である。図19の(a)に示すように、送信装置PROD_Aは、動画像を符号化することによって符号化データを得る符号化部PROD_A1と、符号化部PROD_A1が得た符号化データで搬送波を変調することによって変調信号を得る変調部PROD_A2と、変調部PROD_A2が得た変調信号を送信する送信部PROD_A3と、を備えている。上述した動画像符号化装置2は、この符号化部PROD_A1として利用される。
FIG. 19A is a block diagram illustrating a configuration of a transmission device PROD_A in which the moving
送信装置PROD_Aは、符号化部PROD_A1に入力する動画像の供給源として、動画像を撮像するカメラPROD_A4、動画像を記録した記録媒体PROD_A5、動画像を外部から入力するための入力端子PROD_A6、及び、画像を生成または加工する画像処理部A7を更に備えていてもよい。図19の(a)においては、これら全てを送信装置PROD_Aが備えた構成を例示しているが、一部を省略しても構わない。 The transmission device PROD_A is a camera PROD_A4 that captures a moving image, a recording medium PROD_A5 that records the moving image, an input terminal PROD_A6 that inputs the moving image from the outside, as a supply source of the moving image input to the encoding unit PROD_A1. An image processing unit A7 that generates or processes an image may be further provided. FIG. 19A illustrates a configuration in which the transmission apparatus PROD_A includes all of these, but a part of the configuration may be omitted.
なお、記録媒体PROD_A5は、符号化されていない動画像を記録したものであってもよいし、伝送用の符号化方式とは異なる記録用の符号化方式で符号化された動画像を記録したものであってもよい。後者の場合、記録媒体PROD_A5と符号化部PROD_A1との間に、記録媒体PROD_A5から読み出した符号化データを記録用の符号化方式に従って復号する復号部(不図示)を介在させるとよい。 The recording medium PROD_A5 may be a recording of a non-encoded moving image, or a recording of a moving image encoded by a recording encoding scheme different from the transmission encoding scheme. It may be a thing. In the latter case, a decoding unit (not shown) for decoding the encoded data read from the recording medium PROD_A5 according to the recording encoding method may be interposed between the recording medium PROD_A5 and the encoding unit PROD_A1.
図19の(b)は、動画像復号装置1を搭載した受信装置PROD_Bの構成を示したブロック図である。図19の(b)に示すように、受信装置PROD_Bは、変調信号を受信する受信部PROD_B1と、受信部PROD_B1が受信した変調信号を復調することによって符号化データを得る復調部PROD_B2と、復調部PROD_B2が得た符号化データを復号することによって動画像を得る復号部PROD_B3と、を備えている。上述した動画像復号装置1は、この復号部PROD_B3として利用される。
FIG. 19B is a block diagram illustrating a configuration of the receiving device PROD_B in which the
受信装置PROD_Bは、復号部PROD_B3が出力する動画像の供給先として、動画像を表示するディスプレイPROD_B4、動画像を記録するための記録媒体PROD_B5、及び、動画像を外部に出力するための出力端子PROD_B6を更に備えていてもよい。図19の(b)においては、これら全てを受信装置PROD_Bが備えた構成を例示しているが、一部を省略しても構わない。 The receiving device PROD_B has a display PROD_B4 for displaying a moving image, a recording medium PROD_B5 for recording the moving image, and an output terminal for outputting the moving image to the outside as a supply destination of the moving image output by the decoding unit PROD_B3. PROD_B6 may be further provided. FIG. 19B illustrates a configuration in which the reception apparatus PROD_B includes all of these, but a part of the configuration may be omitted.
なお、記録媒体PROD_B5は、符号化されていない動画像を記録するためのものであってもよいし、伝送用の符号化方式とは異なる記録用の符号化方式で符号化されたものであってもよい。後者の場合、復号部PROD_B3と記録媒体PROD_B5との間に、復号部PROD_B3から取得した動画像を記録用の符号化方式に従って符号化する符号化部(不図示)を介在させるとよい。 The recording medium PROD_B5 may be used for recording a non-encoded moving image, or may be encoded using a recording encoding method different from the transmission encoding method. May be. In the latter case, an encoding unit (not shown) for encoding the moving image acquired from the decoding unit PROD_B3 according to the recording encoding method may be interposed between the decoding unit PROD_B3 and the recording medium PROD_B5.
なお、変調信号を伝送する伝送媒体は、無線であってもよいし、有線であってもよい。また、変調信号を伝送する伝送態様は、放送(ここでは、送信先が予め特定されていない送信態様を指す)であってもよいし、通信(ここでは、送信先が予め特定されている送信態様を指す)であってもよい。すなわち、変調信号の伝送は、無線放送、有線放送、無線通信、及び有線通信の何れによって実現してもよい。 Note that the transmission medium for transmitting the modulation signal may be wireless or wired. Further, the transmission mode for transmitting the modulated signal may be broadcasting (here, a transmission mode in which the transmission destination is not specified in advance) or communication (here, transmission in which the transmission destination is specified in advance). Refers to the embodiment). That is, the transmission of the modulation signal may be realized by any of wireless broadcasting, wired broadcasting, wireless communication, and wired communication.
例えば、地上デジタル放送の放送局(放送設備など)/受信局(テレビジョン受像機など)は、変調信号を無線放送で送受信する送信装置PROD_A/受信装置PROD_Bの一例である。また、ケーブルテレビ放送の放送局(放送設備など)/受信局(テレビジョン受像機など)は、変調信号を有線放送で送受信する送信装置PROD_A/受信装置PROD_Bの一例である。 For example, a terrestrial digital broadcast broadcasting station (such as broadcasting equipment) / receiving station (such as a television receiver) is an example of a transmitting device PROD_A / receiving device PROD_B that transmits and receives a modulated signal by wireless broadcasting. Further, a broadcasting station (such as broadcasting equipment) / receiving station (such as a television receiver) of cable television broadcasting is an example of a transmitting device PROD_A / receiving device PROD_B that transmits and receives a modulated signal by cable broadcasting.
また、インターネットを用いたVOD(Video On Demand)サービスや動画共有サービスなどのサーバ(ワークステーションなど)/クライアント(テレビジョン受像機、パーソナルコンピュータ、スマートフォンなど)は、変調信号を通信で送受信する送信装置PROD_A/受信装置PROD_Bの一例である(通常、LANにおいては伝送媒体として無線又は有線の何れかが用いられ、WANにおいては伝送媒体として有線が用いられる)。ここで、パーソナルコンピュータには、デスクトップ型PC、ラップトップ型PC、及びタブレット型PCが含まれる。また、スマートフォンには、多機能携帯電話端末も含まれる。 Also, a server (workstation or the like) / client (television receiver, personal computer, smartphone, etc.) such as a VOD (Video On Demand) service or a video sharing service using the Internet transmits and receives a modulated signal by communication. This is an example of PROD_A / reception device PROD_B (usually, either a wireless or wired transmission medium is used in a LAN, and a wired transmission medium is used in a WAN). Here, the personal computer includes a desktop PC, a laptop PC, and a tablet PC. The smartphone also includes a multi-function mobile phone terminal.
なお、動画共有サービスのクライアントは、サーバからダウンロードした符号化データを復号してディスプレイに表示する機能に加え、カメラで撮像した動画像を符号化してサーバにアップロードする機能を有している。すなわち、動画共有サービスのクライアントは、送信装置PROD_A及び受信装置PROD_Bの双方として機能する。 Note that the client of the video sharing service has a function of encoding a moving image captured by a camera and uploading it to the server in addition to a function of decoding the encoded data downloaded from the server and displaying it on the display. That is, the client of the video sharing service functions as both the transmission device PROD_A and the reception device PROD_B.
次に、上述した動画像符号化装置2及び動画像復号装置1を、動画像の記録及び再生に利用できることを、図20を参照して説明する。
Next, it will be described with reference to FIG. 20 that the above-described moving
図20の(a)は、上述した動画像符号化装置2を搭載した記録装置PROD_Cの構成を示したブロック図である。図20の(a)に示すように、記録装置PROD_Cは、動画像を符号化することによって符号化データを得る符号化部PROD_C1と、符号化部PROD_C1が得た符号化データを記録媒体PROD_Mに書き込む書込部PROD_C2と、を備えている。上述した動画像符号化装置2は、この符号化部PROD_C1として利用される。
FIG. 20A is a block diagram showing a configuration of a recording apparatus PROD_C in which the above-described moving
なお、記録媒体PROD_Mは、(1)HDD(Hard Disk Drive)やSSD(Solid State Drive)などのように、記録装置PROD_Cに内蔵されるタイプのものであってもよいし、(2)SDメモリカードやUSB(Universal Serial Bus)フラッシュメモリなどのように、記録装置PROD_Cに接続されるタイプのものであってもよいし、(3)DVD(Digital Versatile Disc)やBD(Blu-ray Disc:登録商標)などのように、記録装置PROD_Cに内蔵されたドライブ装置(不図示)に装填されるものであってもよい。 The recording medium PROD_M may be of a type built in the recording device PROD_C, such as (1) HDD (Hard Disk Drive) or SSD (Solid State Drive), or (2) SD memory. It may be of a type connected to the recording device PROD_C, such as a card or USB (Universal Serial Bus) flash memory, or (3) DVD (Digital Versatile Disc) or BD (Blu-ray Disc: registration) Or a drive device (not shown) built in the recording device PROD_C.
また、記録装置PROD_Cは、符号化部PROD_C1に入力する動画像の供給源として、動画像を撮像するカメラPROD_C3、動画像を外部から入力するための入力端子PROD_C4、動画像を受信するための受信部PROD_C5、及び、画像を生成または加工する画像処理部C6を更に備えていてもよい。図20の(a)においては、これら全てを記録装置PROD_Cが備えた構成を例示しているが、一部を省略しても構わない。 In addition, the recording device PROD_C serves as a moving image supply source to be input to the encoding unit PROD_C1. The unit PROD_C5 and an image processing unit C6 that generates or processes an image may be further provided. In FIG. 20A, a configuration in which the recording apparatus PROD_C includes all of these is illustrated, but a part may be omitted.
なお、受信部PROD_C5は、符号化されていない動画像を受信するものであってもよいし、記録用の符号化方式とは異なる伝送用の符号化方式で符号化された符号化データを受信するものであってもよい。後者の場合、受信部PROD_C5と符号化部PROD_C1との間に、伝送用の符号化方式で符号化された符号化データを復号する伝送用復号部(不図示)を介在させるとよい。 The receiving unit PROD_C5 may receive a non-encoded moving image, or may receive encoded data encoded by a transmission encoding scheme different from the recording encoding scheme. You may do. In the latter case, a transmission decoding unit (not shown) that decodes encoded data encoded by the transmission encoding method may be interposed between the reception unit PROD_C5 and the encoding unit PROD_C1.
このような記録装置PROD_Cとしては、例えば、DVDレコーダ、BDレコーダ、HDD(Hard Disk Drive)レコーダなどが挙げられる(この場合、入力端子PROD_C4又は受信部PROD_C5が動画像の主な供給源となる)。また、カムコーダ(この場合、カメラPROD_C3が動画像の主な供給源となる)、パーソナルコンピュータ(この場合、受信部PROD_C5又は画像処理部C6が動画像の主な供給源となる)、スマートフォン(この場合、カメラPROD_C3又は受信部PROD_C5が動画像の主な供給源となる)なども、このような記録装置PROD_Cの一例である。 Examples of such a recording device PROD_C include a DVD recorder, a BD recorder, and an HDD (Hard Disk Drive) recorder (in this case, the input terminal PROD_C4 or the receiving unit PROD_C5 is a main supply source of moving images). . In addition, a camcorder (in this case, the camera PROD_C3 is a main source of moving images), a personal computer (in this case, the receiving unit PROD_C5 or the image processing unit C6 is a main source of moving images), a smartphone (in this case In this case, the camera PROD_C3 or the receiving unit PROD_C5 is a main supply source of moving images) is also an example of such a recording device PROD_C.
図20の(b)は、上述した動画像復号装置1を搭載した再生装置PROD_Dの構成を示したブロックである。図20の(b)に示すように、再生装置PROD_Dは、記録媒体PROD_Mに書き込まれた符号化データを読み出す読出部PROD_D1と、読出部PROD_D1が読み出した符号化データを復号することによって動画像を得る復号部PROD_D2と、を備えている。上述した動画像復号装置1は、この復号部PROD_D2として利用される。
(B) of FIG. 20 is a block showing a configuration of a playback device PROD_D in which the above-described
なお、記録媒体PROD_Mは、(1)HDDやSSDなどのように、再生装置PROD_Dに内蔵されるタイプのものであってもよいし、(2)SDメモリカードやUSBフラッシュメモリなどのように、再生装置PROD_Dに接続されるタイプのものであってもよいし、(3)DVDやBDなどのように、再生装置PROD_Dに内蔵されたドライブ装置(不図示)に装填されるものであってもよい。 Note that the recording medium PROD_M may be of the type built into the playback device PROD_D, such as (1) HDD or SSD, or (2) such as an SD memory card or USB flash memory, It may be of a type connected to the playback device PROD_D, or (3) may be loaded into a drive device (not shown) built in the playback device PROD_D, such as DVD or BD. Good.
また、再生装置PROD_Dは、復号部PROD_D2が出力する動画像の供給先として、動画像を表示するディスプレイPROD_D3、動画像を外部に出力するための出力端子PROD_D4、及び、動画像を送信する送信部PROD_D5を更に備えていてもよい。図20の(b)においては、これら全てを再生装置PROD_Dが備えた構成を例示しているが、一部を省略しても構わない。 In addition, the playback device PROD_D has a display PROD_D3 that displays a moving image, an output terminal PROD_D4 that outputs the moving image to the outside, and a transmission unit that transmits the moving image as a supply destination of the moving image output by the decoding unit PROD_D2. PROD_D5 may be further provided. FIG. 20B illustrates a configuration in which the playback apparatus PROD_D includes all of these, but a part of the configuration may be omitted.
なお、送信部PROD_D5は、符号化されていない動画像を送信するものであってもよいし、記録用の符号化方式とは異なる伝送用の符号化方式で符号化された符号化データを送信するものであってもよい。後者の場合、復号部PROD_D2と送信部PROD_D5との間に、動画像を伝送用の符号化方式で符号化する符号化部(不図示)を介在させるとよい。 The transmission unit PROD_D5 may transmit an unencoded moving image, or transmits encoded data encoded by a transmission encoding method different from the recording encoding method. You may do. In the latter case, it is preferable to interpose an encoding unit (not shown) that encodes a moving image with an encoding method for transmission between the decoding unit PROD_D2 and the transmission unit PROD_D5.
このような再生装置PROD_Dとしては、例えば、DVDプレイヤ、BDプレイヤ、HDDプレイヤなどが挙げられる(この場合、テレビジョン受像機等が接続される出力端子PROD_D4が動画像の主な供給先となる)。また、テレビジョン受像機(この場合、ディスプレイPROD_D3が動画像の主な供給先となる)、デジタルサイネージ(電子看板や電子掲示板等とも称され、ディスプレイPROD_D3又は送信部PROD_D5が動画像の主な供給先となる)、デスクトップ型PC(この場合、出力端子PROD_D4又は送信部PROD_D5が動画像の主な供給先となる)、ラップトップ型又はタブレット型PC(この場合、ディスプレイPROD_D3又は送信部PROD_D5が動画像の主な供給先となる)、スマートフォン(この場合、ディスプレイPROD_D3又は送信部PROD_D5が動画像の主な供給先となる)なども、このような再生装置PROD_Dの一例である。 Examples of such a playback device PROD_D include a DVD player, a BD player, and an HDD player (in this case, an output terminal PROD_D4 to which a television receiver or the like is connected is a main supply destination of moving images). . In addition, a television receiver (in this case, the display PROD_D3 is a main supply destination of moving images), a digital signage (also referred to as an electronic signboard or an electronic bulletin board), and the display PROD_D3 or the transmission unit PROD_D5 is the main supply of moving images. Desktop PC (in this case, the output terminal PROD_D4 or the transmission unit PROD_D5 is the main video image supply destination), laptop or tablet PC (in this case, the display PROD_D3 or the transmission unit PROD_D5 is a moving image) A smartphone (which is a main image supply destination), a smartphone (in this case, the display PROD_D3 or the transmission unit PROD_D5 is a main moving image supply destination), and the like are also examples of such a playback device PROD_D.
(ハードウェア的実現およびソフトウェア的実現)
また、上述した動画像復号装置1および動画像符号化装置2の各ブロックは、集積回路(ICチップ)上に形成された論理回路によってハードウェア的に実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェア的に実現してもよい。
(Hardware implementation and software implementation)
Each block of the moving
後者の場合、上記各装置は、各機能を実現するプログラムの命令を実行するCPU、上記プログラムを格納したROM(Read Only Memory)、上記プログラムを展開するRAM(Random Access Memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアである上記各装置の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記各装置に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。 In the latter case, each device includes a CPU that executes instructions of a program that realizes each function, a ROM (Read Only Memory) that stores the program, a RAM (Random Access Memory) that expands the program, the program, and various types A storage device (recording medium) such as a memory for storing data is provided. An object of the present invention is to provide a recording medium in which a program code (execution format program, intermediate code program, source program) of a control program for each of the above devices, which is software that realizes the above-described functions, is recorded so as to be readable by a computer. This can also be achieved by supplying each of the above devices and reading and executing the program code recorded on the recording medium by the computer (or CPU or MPU).
上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ類、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM(Compact Disc Read-Only Memory)/MOディスク(Magneto-Optical disc)/MD(Mini Disc)/DVD(Digital Versatile Disc)/CD−R(CD Recordable)/ブルーレイディスク(Blu-ray Disc:登録商標)等の光ディスクを含むディスク類、ICカード(メモリカードを含む)/光カード等のカード類、マスクROM/EPROM(Erasable Programmable Read-Only Memory)/EEPROM(Electrically Erasable and Programmable Read-Only Memory)/フラッシュROM等の半導体メモリ類、あるいはPLD(Programmable logic device)やFPGA(Field Programmable Gate Array)等の論理回路類などを用いることができる。 Examples of the recording medium include tapes such as magnetic tape and cassette tape, magnetic disks such as floppy (registered trademark) disks / hard disks, CD-ROM (Compact Disc Read-Only Memory) / MO disks (Magneto-Optical discs), and the like. ) / MD (Mini Disc) / DVD (Digital Versatile Disc) / CD-R (CD Recordable) / Blu-ray Disc (Blu-ray Disc: registered trademark) and other optical discs, IC cards (including memory cards) / Cards such as optical cards, mask ROM / EPROM (Erasable Programmable Read-Only Memory) / EEPROM (Electrically Erasable and Programmable Read-Only Memory) / Semiconductor memories such as flash ROM, or PLD (Programmable Logic Device) or FPGA Logic circuits such as (Field Programmable Gate Array) can be used.
また、上記各装置を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークは、プログラムコードを伝送可能であればよく、特に限定されない。例えば、インターネット、イントラネット、エキストラネット、LAN(Local Area Network)、ISDN(Integrated Services Digital Network)、VAN(Value-Added Network)、CATV(Community Antenna television/Cable Television)通信網、仮想専用網(Virtual Private Network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、この通信ネットワークを構成する伝送媒体も、プログラムコードを伝送可能な媒体であればよく、特定の構成または種類のものに限定されない。例えば、IEEE(Institute of Electrical and Electronic Engineers)1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL(Asymmetric Digital Subscriber Line)回線等の有線でも、IrDA(Infrared Data Association)やリモコンのような赤外線、Bluetooth(登録商標)、IEEE802.11無線、HDR(High Data Rate)、NFC(Near Field Communication)、DLNA(Digital Living Network Alliance)、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。 Further, each of the above devices may be configured to be connectable to a communication network, and the program code may be supplied via the communication network. The communication network is not particularly limited as long as it can transmit the program code. For example, Internet, Intranet, Extranet, LAN (Local Area Network), ISDN (Integrated Services Digital Network), VAN (Value-Added Network), CATV (Community Antenna television / Cable Television) communication network, Virtual Private Network (Virtual Private Network) Network), telephone line network, mobile communication network, satellite communication network, and the like. The transmission medium constituting the communication network may be any medium that can transmit the program code, and is not limited to a specific configuration or type. For example, infra-red such as IrDA (Infrared Data Association) or remote control, such as IEEE (Institute of Electrical and Electronic Engineers) 1394, USB, power line carrier, cable TV line, telephone line, ADSL (Asymmetric Digital Subscriber Line) line, etc. , Bluetooth (registered trademark), IEEE 802.11 wireless, HDR (High Data Rate), NFC (Near Field Communication), DLNA (Digital Living Network Alliance), mobile phone network, satellite line, terrestrial digital network, etc. Is possible. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.
本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope shown in the claims. That is, embodiments obtained by combining technical means appropriately modified within the scope of the claims are also included in the technical scope of the present invention.
なお、本発明に係る画像復号装置および画像符号化装置は、次のように表現することができる。すなわち、本発明に係る画像復号装置は、予測単位内の画像を、1枚の参照画像を参照する単予測、または、2枚の参照画像を参照する双予測の何れかの画面間予測の予測方式によって復元する画像復号装置において、1以上のマージ候補を含むマージ候補リストを導出するマージ動き補償パラメータ導出手段を備え、上記マージ動き補償パラメータ導出手段は、双予測マージ候補導出手段と単予測マージ候補導出手段、および、双予測適用判定手段を備え、上記マージ動き補償パラメータ導出手段は、上記双予測適用判定手段が双予測が適用可能であることを示す場合に、上記双予測マージ候補導出手段を用いてマージ候補リストを導出し、上記双予測適用判定手段が双予測が適用不可能であることを示す場合に、上記単予測マージ候補導出手段を用いてマージ候補リストを導出する構成である。 Note that the image decoding apparatus and the image encoding apparatus according to the present invention can be expressed as follows. That is, the image decoding apparatus according to the present invention predicts inter-frame prediction, which is either uni-prediction that refers to one reference image or bi-prediction that refers to two reference images. In the image decoding apparatus to be restored by the method, the image processing apparatus further comprises merge motion compensation parameter derivation means for deriving a merge candidate list including one or more merge candidates, the merge motion compensation parameter derivation means comprising: Candidate derivation means and bi-prediction application determination means, and the merge motion compensation parameter derivation means, when the bi-prediction application determination means indicates that bi-prediction is applicable, the bi-prediction merge candidate derivation means Is used to derive a merge candidate list and the bi-prediction application determination means indicates that bi-prediction is not applicable. It is configured to derive a merge candidate list using means.
また、本発明に係る画像符号化装置は、予測単位内の画像を、1枚の参照画像を参照する単予測、または、2枚の参照画像を参照する双予測の何れかの画面間予測の予測方式によって復元する画像符号化装置において、1以上のマージ候補を含むマージ候補リストを導出するマージ動き補償パラメータ導出手段を備え、上記マージ動き補償パラメータ導出手段は、双予測マージ候補導出手段と単予測マージ候補導出手段、および、双予測適用判定手段を備え、上記マージ動き補償パラメータ導出手段は、上記双予測適用判定手段が双予測が適用可能であることを示す場合に、上記双予測マージ候補手段を用いてマージ候補リストを導出し、上記双予測適用判定手段が双予測が適用不可能であることを示す場合に、上記単予測マージ候補手段を用いてマージ候補リストを導出する構成である。 In addition, the image encoding apparatus according to the present invention performs inter-screen prediction of an image in a prediction unit, either uni-prediction referring to one reference image or bi-prediction referring to two reference images. The image coding apparatus that is restored by the prediction method includes a merge motion compensation parameter deriving unit that derives a merge candidate list including one or more merge candidates, and the merge motion compensation parameter deriving unit is different from the bi-predictive merge candidate deriving unit. A prediction merge candidate derivation unit; and a bi-prediction application determination unit, wherein the merge motion compensation parameter derivation unit includes the bi-prediction merge candidate when the bi-prediction application determination unit indicates that bi-prediction is applicable. When the merge candidate list is derived using the means, and the bi-prediction application determination means indicates that bi-prediction is not applicable, the single prediction merge candidate means is It is configured to derive the merge candidate list have.
本発明は、画像データが符号化された符号化データを復号する画像復号装置、および、画像データが符号化された符号化データを生成する画像符号化装置に好適に適用することができる。また、画像符号化装置によって生成され、画像復号装置によって参照される符号化データのデータ構造に好適に適用することができる。 The present invention can be suitably applied to an image decoding apparatus that decodes encoded data obtained by encoding image data and an image encoding apparatus that generates encoded data obtained by encoding image data. Further, the present invention can be suitably applied to the data structure of encoded data generated by an image encoding device and referenced by the image decoding device.
1 動画像復号装置(画像復号装置)
10 復号モジュール
12 PU情報復号部
16 フレームメモリ
121 動き補償パラメータ導出部
1021 スキップ情報復号部
1022 動き情報復号部
1212 マージ動き補償パラメータ導出部
1212A マージ候補導出制御部(マージ候補リスト導出手段)
1212B マージ候補格納部
1212C マージ候補選択部
1212D マージ候補導出部
1212D1 空間マージ候補導出部
1212D2 時間マージ候補導出部
1212D3 結合マージ候補導出部(双予測マージ候補導出手段)
1212D4 ゼロマージ候補導出部
1212D5 補正マージ候補導出部(単予測マージ候補導出手段)
1212E スライスタイプ判定部(双予測適用判定手段、スライスタイプ判定手段)
1212F マージ候補導出制御部
1212G 双予測制限判定部(双予測適用判定手段、双予測制限判定手段)
2 動画像符号化装置(画像符号化装置)
25 フレームメモリ
29 符号化データ生成部
30 PU情報生成部
301 動き補償パラメータ生成部
3013 マージ動き補償パラメータ生成部(双予測マージ候補導出手段、単予測マージ候補導出手段、双予測適用判定手段、マージ候補リスト導出手段)
1 video decoding device (image decoding device)
DESCRIPTION OF
1212B Merge
1212D4 Zero merge candidate derivation unit 1212D5 Correction merge candidate derivation unit (single prediction merge candidate derivation means)
1212E Slice type determination unit (bi-prediction application determination means, slice type determination means)
1212F Merge candidate
2 Video encoding device (image encoding device)
25
Claims (11)
双予測マージ候補を導出する双予測マージ候補導出手段と、
1以上の単予測マージ候補を導出する単予測マージ候補導出手段と、
双予測の適用可否を判定する双予測適用判定手段と、
双予測が適用可能である場合に、上記双予測マージ候補導出手段を用いてマージ候補リストを導出する一方で、双予測が適用不可能である場合に、上記単予測マージ候補導出手段を用いて、1以上のマージ候補を含むマージ候補リストを導出するマージ候補リスト導出手段と、を備えることを特徴とする画像復号装置。 In an image decoding apparatus that restores an image in a prediction unit by a prediction method of inter prediction of either single prediction referring to one reference image or bi-prediction referring to two reference images,
Bi-predictive merge candidate derivation means for deriving bi-predictive merge candidates;
Uni-predictive merge candidate derivation means for deriving one or more uni-predictive merge candidates;
Bi-prediction application determination means for determining whether bi-prediction is applicable;
When bi-prediction is applicable, a merge candidate list is derived using the bi-prediction merge candidate derivation unit, whereas when bi-prediction is not applicable, the single prediction merge candidate derivation unit is used. An image decoding apparatus comprising: merge candidate list deriving means for deriving a merge candidate list including one or more merge candidates.
上記単予測マージ候補導出手段は、単一のマージ候補に基づいてマージ候補を導出することを特徴とする請求項1に記載の画像復号装置。 The bi-predictive merge candidate derivation means derives merge candidates based on motion vectors of two different merge candidates,
The image decoding apparatus according to claim 1, wherein the single prediction merge candidate derivation unit derives merge candidates based on a single merge candidate.
上記スライスタイプ判定手段は、スライスタイプがBスライスである場合に双予測が適用可能と判定し、スライスタイプがPスライスである場合に双予測が適用不可能と判定することを特徴とする請求項1から3の何れか1項に記載の画像復号装置。 The bi-prediction application determination unit is a slice type determination unit that determines a slice type including a target prediction unit,
The slice type determination means determines that bi-prediction is applicable when the slice type is B slice, and determines that bi-prediction is not applicable when the slice type is P slice. The image decoding device according to any one of 1 to 3.
上記双予測制限判定手段は、対象予測単位の大きさが所定の大きさ以上の場合に双予測が適用可能と判定し、対象予測単位の大きさが所定の大きさより小さい場合に双予測が適用不可能と判定することを特徴とする請求項1から3の何れか1項に記載の画像復号装置。 The bi-prediction application determination unit is a bi-prediction limitation determination unit that determines whether bi-prediction limitation is applied to a target prediction unit.
The bi-prediction restriction determination means determines that bi-prediction is applicable when the size of the target prediction unit is greater than or equal to a predetermined size, and applies bi-prediction when the size of the target prediction unit is smaller than the predetermined size. The image decoding device according to claim 1, wherein the image decoding device is determined to be impossible.
上記オフセットリストは、既定の複数のオフセットリストの中から、上記基準動き補償パラメータにおける動きベクトルの方向、または、大きさに基づいて選択されることを特徴とする請求項8に記載の画像復号装置。 In the adjustment by adding the offset, the offset is selected from an offset list,
9. The image decoding apparatus according to claim 8, wherein the offset list is selected from a plurality of predetermined offset lists based on a direction or magnitude of a motion vector in the reference motion compensation parameter. .
双予測マージ候補を導出する双予測マージ候補導出手段と、
1以上の単予測マージ候補を導出する単予測マージ候補導出手段と、
双予測の適用可否を判定する双予測適用判定手段と、
双予測が適用可能である場合に、上記双予測マージ候補導出手段を用いてマージ候補リストを導出する一方で、双予測が適用不可能である場合に、上記単予測マージ候補導出手段を用いて、1以上のマージ候補を含むマージ候補リストを導出するマージ候補リスト導出手段と、を備えることを特徴とする画像符号化装置。 Encodes information indicating whether the image in the prediction unit should be restored by the prediction method of the single prediction referring to one reference image or the bi-prediction referring to two reference images. In an image encoding device,
Bi-predictive merge candidate derivation means for deriving bi-predictive merge candidates;
Uni-predictive merge candidate derivation means for deriving one or more uni-predictive merge candidates;
Bi-prediction application determination means for determining whether bi-prediction is applicable;
When bi-prediction is applicable, a merge candidate list is derived using the bi-prediction merge candidate derivation unit, whereas when bi-prediction is not applicable, the single prediction merge candidate derivation unit is used. An image coding apparatus comprising: merge candidate list deriving means for deriving a merge candidate list including one or more merge candidates.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012092481A JP2013223049A (en) | 2012-04-13 | 2012-04-13 | Image decoding apparatus and image encoding apparatus |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012092481A JP2013223049A (en) | 2012-04-13 | 2012-04-13 | Image decoding apparatus and image encoding apparatus |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2013223049A true JP2013223049A (en) | 2013-10-28 |
Family
ID=49593749
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2012092481A Pending JP2013223049A (en) | 2012-04-13 | 2012-04-13 | Image decoding apparatus and image encoding apparatus |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2013223049A (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2020067700A1 (en) * | 2018-09-24 | 2020-04-02 | 김기백 | Image encoding/decoding method and device |
| JP2021520120A (en) * | 2018-04-02 | 2021-08-12 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | Moving image processing method and equipment |
| CN113727119A (en) * | 2020-05-20 | 2021-11-30 | Oppo广东移动通信有限公司 | Inter-frame prediction method, encoder, decoder, and computer storage medium |
| CN116074506A (en) * | 2018-11-08 | 2023-05-05 | Oppo广东移动通信有限公司 | Video signal encoding/decoding method and device used for said method |
-
2012
- 2012-04-13 JP JP2012092481A patent/JP2013223049A/en active Pending
Cited By (18)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7648296B2 (en) | 2018-04-02 | 2025-03-18 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッド | Video decoding method, video decoding device, and bitstream generating method |
| JP2021520120A (en) * | 2018-04-02 | 2021-08-12 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | Moving image processing method and equipment |
| US12389030B2 (en) | 2018-04-02 | 2025-08-12 | SZ DJI Technology Co., Ltd. | Method and device for image motion compensation |
| US12294737B2 (en) | 2018-04-02 | 2025-05-06 | SZ DJI Technology Co., Ltd. | Method and device for video image processing |
| US12294736B2 (en) | 2018-04-02 | 2025-05-06 | SZ DJI Technology Co., Ltd. | Method and device for obtaining motion vector of video image |
| US11871032B2 (en) | 2018-04-02 | 2024-01-09 | SZ DJI Technology Co., Ltd. | Method and device for image motion compensation |
| US11949912B2 (en) | 2018-04-02 | 2024-04-02 | SZ DJI Technology Co., Ltd. | Method and device for video image processing |
| US11949911B2 (en) | 2018-04-02 | 2024-04-02 | SZ DJI Technology Co., Ltd. | Method and device for obtaining motion vector of video image |
| JP2024057014A (en) * | 2018-04-02 | 2024-04-23 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッド | Video encoding method, video encoding device, and bitstream generation method |
| US11997312B2 (en) | 2018-04-02 | 2024-05-28 | SZ DJI Technology Co., Ltd. | Method and device for video image processing |
| JP7533945B2 (en) | 2018-04-02 | 2024-08-14 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッド | Video processing method and video processing device |
| US12294738B2 (en) | 2018-04-02 | 2025-05-06 | SZ DJI Technology Co., Ltd. | Method and device for video image processing |
| US12219148B2 (en) | 2018-09-24 | 2025-02-04 | B1 Institute Of Image Technology, Inc. | Image encoding/decoding method and device |
| WO2020067700A1 (en) * | 2018-09-24 | 2020-04-02 | 김기백 | Image encoding/decoding method and device |
| US12075062B2 (en) | 2018-09-24 | 2024-08-27 | B1 Institute Of Image Technology, Inc. | Image encoding/decoding method and device |
| CN116074506A (en) * | 2018-11-08 | 2023-05-05 | Oppo广东移动通信有限公司 | Video signal encoding/decoding method and device used for said method |
| CN113727119B (en) * | 2020-05-20 | 2023-03-17 | Oppo广东移动通信有限公司 | Inter-frame prediction method, encoder, decoder, and computer storage medium |
| CN113727119A (en) * | 2020-05-20 | 2021-11-30 | Oppo广东移动通信有限公司 | Inter-frame prediction method, encoder, decoder, and computer storage medium |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12184879B2 (en) | Video decoding device | |
| US12075088B2 (en) | Image decoding device and image decoding method | |
| KR101768401B1 (en) | Image decoding device | |
| US9912959B2 (en) | Image decoding device and image coding device | |
| JP2021010046A (en) | Image encoding device and image decoding device | |
| JP7213689B2 (en) | Image decoding device and image encoding device | |
| WO2016203981A1 (en) | Image decoding device and image encoding device | |
| CN114501005A (en) | Image decoding device and image encoding device | |
| JP2013118424A (en) | Image decoding device, image encoding device, and data structure of encoded data | |
| WO2013065431A1 (en) | Image decoding device, image decoding method, and image encoding device | |
| JP2013223049A (en) | Image decoding apparatus and image encoding apparatus | |
| HK1194223B (en) | Image decoding apparatus, image decoding method and image encoding apparatus | |
| HK1194223A (en) | Image decoding apparatus, image decoding method and image encoding apparatus |