JPWO2018163857A1 - 画像処理装置および方法 - Google Patents
画像処理装置および方法 Download PDFInfo
- Publication number
- JPWO2018163857A1 JPWO2018163857A1 JP2019504470A JP2019504470A JPWO2018163857A1 JP WO2018163857 A1 JPWO2018163857 A1 JP WO2018163857A1 JP 2019504470 A JP2019504470 A JP 2019504470A JP 2019504470 A JP2019504470 A JP 2019504470A JP WO2018163857 A1 JPWO2018163857 A1 JP WO2018163857A1
- Authority
- JP
- Japan
- Prior art keywords
- image
- mode
- unit
- block
- prediction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 267
- 230000002146 bilateral effect Effects 0.000 claims abstract description 106
- 239000013598 vector Substances 0.000 claims abstract description 106
- 238000003672 processing method Methods 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 abstract description 32
- 238000013139 quantization Methods 0.000 description 45
- 238000004364 calculation method Methods 0.000 description 17
- 238000006243 chemical reaction Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 14
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 8
- 102100035793 CD83 antigen Human genes 0.000 description 7
- 230000009466 transformation Effects 0.000 description 7
- 101000575029 Bacillus subtilis (strain 168) 50S ribosomal protein L11 Proteins 0.000 description 6
- 101000946856 Homo sapiens CD83 antigen Proteins 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 101001070329 Geobacillus stearothermophilus 50S ribosomal protein L18 Proteins 0.000 description 3
- 101100537098 Mus musculus Alyref gene Proteins 0.000 description 3
- 101150095908 apex1 gene Proteins 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 241001482237 Pica Species 0.000 description 2
- 101150103552 cagE gene Proteins 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- VBRBNWWNRIMAII-WYMLVPIESA-N 3-[(e)-5-(4-ethylphenoxy)-3-methylpent-3-enyl]-2,2-dimethyloxirane Chemical compound C1=CC(CC)=CC=C1OC\C=C(/C)CCC1C(C)(C)O1 VBRBNWWNRIMAII-WYMLVPIESA-N 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/587—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
本技術は、さらなる符号化効率の向上を図ることができるようにする画像処理装置および方法に関する。画像処理装置は、参照画像を用いて符号化対象のブロックから予測画像を生成する処理を行う際に、参照画像を用いたブロックマッチングによりブロックの動きベクトルを導出するにあたって、互いに異なる時刻の参照画像に基づくバイラテラルマッチングが使えるか否かの判定を行う予測部を備える。本技術は、例えば、画像符号化装置および画像復号装置に適用することができる。
Description
本技術は画像処理装置および方法に関し、特に、さらなる符号化効率の向上を図ることができるようにした画像処理装置および方法に関する。
例えば、画像の符号化や復号に関する技術としてFRUC(Frame Rate Up Conversion)と呼ばれる技術が提案されている。このFRUC技術はJVET(Joint Video Exploration Team)で提案されている技術であり、FRUC技術ではインター予測の際にデコーダ側で動き情報の予測が行われる(例えば、非特許文献1参照)。
FRUC技術では、デコーダにおいてテンプレートマッチング法またはバイラテラルマッチング法によってブロックマッチング処理が行われ、動き情報が導出される。このようにデコーダにおいて動き情報を導出すれば、ビットストリームに格納する動き情報に関する情報を削減することができるようになる。
Joint Video Exploration Team (JVET)of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11, "Algorithm Description of Joint Exploration Test Model 4" , JVET-D1001_v3, 4th Meeting: Chengdu, CN, 15-21 October 2016
ところで、FRUC技術を用いた場合、マッチングの探索対象が1フレームだけであった場合、バイラテラルマッチング法によってブロックマッチング処理を用いることができない。従って、この場合、デコーダが、例えば、ビットストリームに常にテンプレートマッチング法を用いることを示す情報を付加することが想定されるが、そのような情報の送付は無駄な符号の送信になってしまい、符号化効率を悪化させることになってしまう。
そのため、このような無駄な符号の送信を回避して、符号化効率の向上を図ることができるようにする技術が求められている。
本技術は、このような状況に鑑みてなされたものであり、さらなる符号化効率の向上を図ることができるようにするものである。
本技術の一側面の画像処理装置は、参照画像を用いて符号化対象のブロックから予測画像を生成する処理を行う際に、前記参照画像を用いたブロックマッチングにより前記ブロックの動きベクトルを導出するにあたって、互いに異なる時刻の前記参照画像に基づくバイラテラルマッチングが使えるか否かの判定を行う予測部を備える。
本技術の一側面の画像処理方法は、本技術の一側面の画像処理装置に対応する。
本技術の一側面においては、参照画像を用いて符号化対象のブロックから予測画像を生成する処理を行う際に、前記参照画像を用いたブロックマッチングにより前記ブロックの動きベクトルを導出するにあたって、互いに異なる時刻の前記参照画像に基づくバイラテラルマッチングが使えるか否かの判定が行われる。
本技術の一側面によれば、さらなる符号化効率の向上を図ることができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載された何れかの効果であってもよい。
以下、図面を参照して、本技術を適用した実施の形態について説明する。
〈第1の実施の形態〉
〈インター予測モードの種類について〉
本技術では、処理対象となる動画像がインター予測モードまたはイントラ予測モードにより符号化および復号される。
〈インター予測モードの種類について〉
本技術では、処理対象となる動画像がインター予測モードまたはイントラ予測モードにより符号化および復号される。
動画像の符号化時や復号時には、動画像を構成するフレームに対応するピクチャがCU(Coding Unit)と呼ばれる処理単位(符号化単位)で符号化および復号される。
CUは、最大符号化単位であるCTU(Coding Tree Unit)を再帰的に分割することにより形成される、可変的なサイズを有するブロックである。以下では、特に断りのない場合には、CTUを単にCUと称し、CTUを分割して得られたCUをサブブロックと称することとする。また、以下ではCUとサブブロックを特に区別する必要がないときには、単にブロックとも称することとする。
さらに、インター予測モードには、例えば図1に示すように複数のモードがあり、それらの複数のモードのうちの何れかのモードに従って符号化および復号が行われる。
図1に示す例では、インター予測モードはスキップモードとノンスキップモードとに分けられる。
ノンスキップモードでは、符号化により得られたビットストリームには、ピクチャ内のブロックについて、そのブロックと参照先となる参照ピクチャの参照ブロックとの画像の差分である予測残差が格納される。これに対して、スキップモードでは、予測残差がビットストリーム内には格納されない。
また、ノンスキップモードは、さらにマージモードとノンマージモードとに分けられる。ノンマージモードでは、符号化により得られたビットストリームには、ピクチャ内のブロックについて、そのブロックについて求められた予測動きベクトルの誤差を示す差分動きベクトルが格納される。これに対して、マージモードではビットストリームには差分動きベクトルは格納されない。
さらに、ノンスキップモードでのノンマージモードには、矢印A11に示すアフィンAMVP(Advanced Motion Vector Prediction)モードと、矢印A12に示すNon-FRUCモード、つまり通常のAMVPモードと、矢印A13に示すFRUCモードとがある。
アフィンAMVPモードは、アフィン変換を利用して動き情報を導出するモードである。AMVPモードは、ピクチャ内のブロックについて、予測残差、予測動きベクトルを得るための予測動きベクトルの候補、および差分動きベクトルがビットストリームに格納されるモードである。すなわち、動き情報として予測動きベクトルの候補と差分動きベクトルがビットストリームに格納される。
ここでは予測動きベクトルの候補を示す情報として、処理対象のブロックの周囲にある複数の周辺領域のうちの1つの周辺領域を示すインデックス等がビットストリームに格納されている。AMVPモードでは、復号時には、予測動きベクトルの候補とされた周辺領域の予測動きベクトルに対して差分動きベクトルを加算して得られるベクトルが処理対象のブロックの動きベクトルとして用いられる。
また、矢印A13に示すFRUCモードは、ピクチャ内のブロックについて、テンプレートマッチング法とバイラテラルマッチング法の何れにより動き情報を導出するかを示すFRUC_Mode_flagと、予測残差と、差分動きベクトルとがビットストリームに格納されるモードである。このFRUCモードは、AMVPモードを基本としてデコーダ側で動き情報を導出するモードである。以下では、矢印A13に示すFRUCモードを、特にFRUC AMVPモードとも称することとする。
さらに、ノンスキップモードでのマージモードには、矢印A14に示すFRUCモードと、矢印A15に示すAMVPでのマージモードと、矢印A16に示すアフィンマージモードとがある。
矢印A14に示すFRUCモードは、ピクチャ内のブロックについて、FRUC_Mode_flagと、予測残差とがビットストリームに格納されるモードである。以下では、矢印A14に示すFRUCモードを、特にFRUCマージモードとも称することとする。
矢印A15に示すAMVPでのマージモードは、ピクチャ内のブロックについて、予測残差および予測動きベクトルの候補がビットストリームに格納されるモードであり、以下ではこのマージモードを特にAMVPマージモードとも称することとする。
矢印A16に示すアフィンマージモードは、差分動きベクトルがビットストリームに格納されない点で、矢印A11に示したアフィンAMVPモードと異なる。
さらに、スキップモードは、FRUCモードとNon-FRUCモードとに分けられる。すなわち、スキップモードには、矢印A17に示すFRUCモードと、矢印A18に示すマージモードと、矢印A19に示すアフィンマージモードとがある。
矢印A17に示すFRUCモードは、ピクチャ内のブロックについて、FRUC_Mode_flagがビットストリームに格納されるモードである。以下では、矢印A17に示すFRUCモードを、特にスキップFRUCモードとも称することとする。
矢印A18に示すマージモードは、ピクチャ内のブロックについて、予測動きベクトルの候補がビットストリームに格納されるモードであり、以下ではこのマージモードを特にスキップマージモードとも称することとする。
矢印A19に示すアフィンマージモードは、予測残差がビットストリームに格納されない点で、矢印A16に示したアフィンマージモードと異なる。
本技術では、図1の矢印A11乃至矢印A19に示すモードのうちの何れかのモードがエンコーダ側で選択されてピクチャ上のブロックが符号化される。なお、以下では説明を簡単にするためスキップモードやアフィン変換に関するモードは選択されず、AMVPモード、FRUC AMVPモード、AMVPマージモード、およびFRUCマージモードのなかからブロックの符号化時のモードが選択されるものとして説明を続ける。
〈画像符号化装置の構成例〉
次に、本技術を適用した画像処理装置としての画像符号化装置について説明する。
次に、本技術を適用した画像処理装置としての画像符号化装置について説明する。
図2は、本技術を適用した画像符号化装置の一実施の形態の構成例を示す図である。
図2に示す画像符号化装置11は、AVC(Advanced Video Coding)やHEVC(High Efficiency Video Coding)のように、画像とその予測画像との予測残差を符号化するエンコーダである。例えば、画像符号化装置11は、HEVCの技術やJVETにて提案された技術を実装している。
なお、図2においては、処理部やデータの流れ等の主なものを示しており、図2に示されるものが全てとは限らない。つまり、画像符号化装置11において、図2においてブロックとして示されていない処理部が存在したり、図2において矢印等として示されていない処理やデータの流れが存在したりしてもよい。
画像符号化装置11は、制御部21、演算部22、変換部23、量子化部24、符号化部25、逆量子化部26、逆変換部27、演算部28、フレームメモリ29、および予測部30を有する。画像符号化装置11は、入力されるフレーム単位の動画像であるピクチャに対してCUごとまたはサブブロックごとに符号化を行う。
具体的には、画像符号化装置11の制御部21は、外部からの入力等に基づいて、ヘッダ情報Hinfo、予測情報Pinfo、変換情報Tinfo等からなる符号化パラメータを設定する。
ヘッダ情報Hinfoは、例えば、ビデオパラメータセット(VPS(Video Parameter Set))、シーケンスパラメータセット(SPS(Sequence Parameter Set))、ピクチャパラメータセット(PPS(Picture Parameter Set))、スライスヘッダ(SH)等の情報を含む。
予測情報Pinfoには、例えば、サブブロック(PU(Prediction Unit))の形成時の各分割階層における水平方向または垂直方向の分割の有無を示すsplit flagが含まれる。また、予測情報Pinfoには、ブロックごとに、そのブロックの予測処理がイントラ予測処理であるか、またはインター予測処理であるかを示すモード情報pred_mode_flagが含まれる。
モード情報pred_mode_flagがインター予測処理を示す場合、予測情報Pinfoには、Merge_flag、FRUC_flag、FRUC_Mode_flag、動きベクトル情報、参照画像(参照ピクチャ)を特定する参照画像特定情報などが含まれる。
Merge_flagは、インター予測処理のモードがマージモードであるか否かを示すフラグ情報である。例えばマージモードである場合にはMerge_flagの値は1とされ、マージモードでない場合にはMerge_flagの値は0とされる。
FRUC_flagは、FRUCモードであるか否かを示すフラグ情報であり、例えばFRUCモードである場合にはFRUC_flagの値は1とされ、FRUCモードでない場合にはFRUC_flagの値は0とされる。
FRUC_Mode_flagは、FRUCモードである場合に、テンプレートマッチング法またはバイラテラルマッチング法の何れにより動き情報を導出するかを示すフラグ情報である。例えばバイラテラルマッチングにより動き情報を導出する場合にはFRUC_Mode_flagの値は1とされ、テンプレートマッチングにより動き情報を導出する場合にはFRUC_Mode_flagの値は0とされる。
動きベクトル情報は、上述した予測動きベクトルの候補と差分動きベクトルのうちの少なくとも何れか一方からなる情報である。
モード情報pred_mode_flagがイントラ予測処理を示す場合、予測情報Pinfoには、そのイントラ予測処理のモードであるイントラ予測モードを示すイントラ予測モード情報などが含まれる。もちろん、予測情報Pinfoの内容は任意であり、上述した例以外のどのような情報がこの予測情報Pinfoに含まれるようにしてもよい。
変換情報Tinfoには、TB(Transform Block)と呼ばれる処理単位(変換ブロック)のサイズを示すTBSizeなどが含まれる。輝度(Y)および色差(Cb,Cr)ごとのTBにより、直交変換処理の処理単位であるTU(Transform Unit)が構成されるが、ここではTUはサブブロックと同じであるとされる。
また、画像符号化装置11では、符号化対象となる動画像のピクチャ(以下、原画像とも称する)が演算部22および予測部30に供給される。
演算部22は、入力されるピクチャを順に符号化対象のピクチャとし、予測情報Pinfoのsplit flagに基づいて、符号化対象のピクチャに対して符号化対象のブロック、すなわちCUまたはサブブロックを設定する。演算部22は、符号化対象のブロックの画像I(以下、カレントブロックとも称する)から、予測部30から供給されたブロック単位の予測画像Pを減算して予測残差Dを求め、変換部23に供給する。
変換部23は、制御部21から供給された変換情報Tinfoに基づいて、演算部22から供給された予測残差Dに対して直交変換等を行い、変換係数Coeffを導出し、量子化部24に供給する。
量子化部24は、制御部21から供給された変換情報Tinfoに基づいて、変換部23から供給された変換係数Coeffをスケーリング(量子化)し、量子化変換係数レベルlevelを導出する。量子化部24は、量子化変換係数レベルlevelを符号化部25および逆量子化部26に供給する。
符号化部25は、量子化部24から供給された量子化変換係数レベルlevel等を所定の方法で符号化する。例えば、符号化部25は、シンタックステーブルの定義に沿って、制御部21から供給された符号化パラメータ(ヘッダ情報Hinfo、予測情報Pinfo、変換情報Tinfo等)と、量子化部24から供給された量子化変換係数レベルlevelを、各シンタックス要素のシンタックス値へ変換する。そして、符号化部25は、各シンタックス値を算術符号化等により符号化する。
符号化部25は、例えば符号化の結果得られた各シンタックス要素のビット列である符号化データを多重化し、符号化ストリームとして出力する。
逆量子化部26は、制御部21から供給された変換情報Tinfoに基づいて、量子化部24から供給された量子化変換係数レベルlevelの値をスケーリング(逆量子化)し、逆量子化後の変換係数Coeff_IQを導出する。逆量子化部26は、変換係数Coeff_IQを逆変換部27に供給する。この逆量子化部26により行われる逆量子化は、量子化部24により行われる量子化の逆処理であり、後述する画像復号装置において行われる逆量子化と同様の処理である。
逆変換部27は、制御部21から供給された変換情報Tinfoに基づいて、逆量子化部26から供給された変換係数Coeff_IQに対して逆直交変換等を行い、予測残差D’を導出する。逆変換部27は、予測残差D’を演算部28に供給する。
この逆変換部27により行われる逆直交変換は、変換部23により行われる直交変換の逆処理であり、後述する画像復号装置において行われる逆直交変換と同様の処理である。
演算部28は、逆変換部27から供給された予測残差D’と、予測部30から供給された、その予測残差D’に対応する予測画像Pとを加算して局所的な復号画像Recを導出する。演算部28は、局所的な復号画像Recをフレームメモリ29に供給する。
フレームメモリ29は、演算部28から供給された局所的な復号画像Recを用いてピクチャ単位の復号画像を再構築し、フレームメモリ29内のバッファへ格納する。
フレームメモリ29は、予測部30により指定される復号画像を参照画像(参照ピクチャ)としてバッファより読み出し、予測部30に供給する。また、フレームメモリ29は、復号画像の生成に係るヘッダ情報Hinfo、予測情報Pinfo、変換情報Tinfoなどを、フレームメモリ29内のバッファに格納するようにしてもよい。
予測部30は、予測情報Pinfoのモード情報pred_mode_flagに基づいて、フレームメモリ29に格納された、符号化対象のブロックと同一時刻の復号画像を参照画像として取得する。そして、予測部30は、参照画像を用いて符号化対象のブロックに対して、イントラ予測モード情報が示すイントラ予測モードのイントラ予測処理を行う。
また、予測部30は、予測情報Pinfoのモード情報pred_mode_flagと参照画像特定情報に基づいて、フレームメモリ29に格納された、符号化対象のブロックとは異なる時刻の復号画像を参照画像として取得する。予測部30は、Merge_flagやFRUC_flag、FRUC_Mode_flag、動きベクトル情報等に基づいて、参照画像に対してMerge_flagおよびFRUC_flagにより定まるモードでのインター予測処理を行う。なお、インター予測処理時には、供給された原画像も必要に応じて用いられる。
予測部30は、イントラ予測処理またはインター予測処理の結果生成された符号化対象のブロックの予測画像Pを演算部22および演算部28に供給する。
さらに、予測部30は、イントラ予測処理またはインター予測処理を行う際に、FRUC技術を用いて動き情報を導出するにあたって、バイラテラルマッチング法が使えるか否かを判定して、バイラテラルマッチング法が使えないと判定された場合には、自動的に、テンプレートマッチング法を用いることとする。
即ち、上述の図1を参照して説明したように、矢印A13に示すFRUC AMVPモード、矢印A14に示すFRUCマージモード、および、矢印A17に示すスキップFRUCモードは、FRUC技術を用いた動き情報を導出するモードである。そして、これらの各モードでは、バイラテラルマッチング法とテンプレートマッチング法の何れかが選択されるが、画像I、すなわちカレントブロックがPスライスのブロックである場合には、バイラテラルマッチング法を用いることができない。
例えば、バイラテラルマッチングでは、後述の図3を参照して説明するように、符号化対象のピクチャ(フレーム)であるピクチャPIC11と、参照ピクチャであるピクチャPIC12およびピクチャPIC13とが用いられる。このように、バイラテラルマッチングでは、マッチングの探索対象として、異なる時間の2つの参照フレームが必要になることより、マッチングの探索対象が1フレームだけであった場合には、バイラテラルマッチング法を用いることができない。
そこで、予測部30は、参照フレームの出力順を示すPOC(Picture Order Count:ピクチャオーダカウント)番号に従って、符号化対象のピクチャが参照する参照フレームが1枚だけなのか、または、参照フレームが2枚あるのか(以下適宜、符号化対象のピクチャの参照関係と称する)を確認し、その参照関係よりバイラテラルマッチング法が使えるか否かを判定する。
例えば、予測部30は、参照フレームが同じPOC番号しかない場合、符号化対象のピクチャの参照関係について、参照フレームが1枚だけであると確認し、バイラテラルマッチング法が使えないと判定する。従って、この場合、動き情報の導出方法としてテンプレートマッチング法が自動的に採用(選択)され、予測部30は、テンプレートマッチング法により動き情報を導出して、その動き情報に基づいて予測画像を生成する。
また、予測部30は、参照フレームに異なるPOC番号がある場合、符号化対象のピクチャの参照関係について、参照フレームが2枚あると確認し、バイラテラルマッチング法が使えると判定する。従って、この場合、予測部30は、まず、後述の図9のフローチャートを参照して説明するように、バイラテラルマッチング法により導出された動き情報から算出されるコストと、テンプレートマッチング法により導出された動き情報から算出されるコストとを算出する。例えば、差分計算ブロックについて求まるコストは、差分計算ブロックについての差分が小さいほど小さくなるようにされる。
そして、予測部30は、バイラテラルマッチング法を用いるコストが、テンプレートマッチング法を用いるコスト未満であれば、バイラテラルマッチング法を用いることを決定し、バイラテラルマッチング法より導出した動き情報に基づいて予測画像を生成する。一方、予測部30は、バイラテラルマッチング法が使える場合であっても、バイラテラルマッチング法を用いるコストが、テンプレートマッチング法を用いるコスト未満でなければ、テンプレートマッチング法を用いることを決定し、テンプレートマッチング法により導出した動き情報に基づいて予測画像を生成する。
このように、画像符号化装置11では、予測部30が、符号化対象のピクチャの参照関係に基づいてバイラテラルマッチング法が使えるか否かの判定を行うことができる。これにより、画像符号化装置11では、バイラテラルマッチング法が使えない場合には、動き情報の導出方法としてテンプレートマッチング法が自動的に採用される。従って、画像符号化装置11は、例えば、テンプレートマッチング法を用いることを示す情報を付加するような無駄な符号の送信を回避して、さらなる符号化効率の向上を図ることができる。
〈FRUCモードについて〉
ここで、FRUCモードについて説明する。
ここで、FRUCモードについて説明する。
例えばインター予測では、動き補償を行うためにデコーダ側において予測動きベクトルや参照インデックスといった動き情報が必要となる。
通常、予測動きベクトルは、予測動きベクトルの候補との差分動きベクトル情報といった形で符号化ストリームに含められ、デコーダは予測動きベクトルの候補と差分動きベクトル情報に基づいて予測動きベクトルを再構成する。
符号化ストリームに差分動きベクトルを格納すると、符号化ストリームの符号量が増加することになるため、符号化効率が悪化することになる。
FRUC技術は動き情報の予測、すなわち動き情報の導出の方法の1つであり、FRUC技術によりデコーダ側で動き情報を導出すれば、高精度に予測動きベクトルを予測できるようになるだけでなく動き情報の符号量を削減することができ、符号化効率を向上させることができる。特に、スキップFRUCモードでは動き情報が不要であるため、符号化効率を大幅に向上させることができる。
上述したようにFRUCモードでは、エンコーダ側においてバイラテラルマッチング法とテンプレートマッチング法のうちの何れかを選択することができ、デコーダ側ではエンコーダ側で指定された方法により動き情報を導出することになる。
例えばバイラテラルマッチングでは、図3に示すように符号化対象のピクチャ(フレーム)であるピクチャPIC11と、参照ピクチャであるピクチャPIC12およびピクチャPIC13とが用いられて、ピクチャPIC11上のカレントブロックCB11の予測動きベクトルが導出される。
なお、図3において横方向は時間を示しており、この例ではピクチャPIC12は、ピクチャPIC11よりも表示順で古い時刻のフレームとなっており、ピクチャPIC13は、ピクチャPIC11よりも表示順で新しい時刻のフレームとなっている。
特に、ピクチャPIC12は参照画像特定情報としてのリファレンスリストRef0により参照ピクチャとして示されるピクチャ(フレーム)である。これに対してピクチャPIC13は参照画像特定情報としてのリファレンスリストRef1により参照ピクチャとして示されるピクチャ(フレーム)である。
ここで、リファレンスリストRef0は、基本的には符号化対象のピクチャPIC11よりも古いフレームを参照ピクチャとして示すリストであり、リファレンスリストRef0では符号化対象のピクチャを含む複数のピクチャを参照ピクチャとして指定することができる。
同様に、リファレンスリストRef1は、基本的には符号化対象のピクチャPIC11よりも新しいフレームを参照ピクチャとして示すリストであり、リファレンスリストRef1では符号化対象のピクチャを含む複数のピクチャを参照ピクチャとして指定することができる。
また、図3に示す例では、TD0はピクチャPIC11とピクチャPIC12との間の時間距離を示しており、TD1はピクチャPIC11とピクチャPIC13との間の時間距離を示している。ここでは、例えば時間距離TD0と時間距離TD1は等しい距離とされる。
例えば符号化対象であるカレントブロックCB11の予測動きベクトルの導出時には、カレントブロックCB11の中心を通る直線L11について、ピクチャPIC12における直線L11との交点を中心とするブロックBL11と、ピクチャPIC13における直線L11との交点を中心とするブロックBL12とが選択される。そして、ブロックBL11とブロックBL12との差分が算出される。
さらに、サーチレンジ内において、ブロックBL11とブロックBL12の位置がずらされながら、全てのブロックBL11とブロックBL12の組み合わせについて差分が計算され、差分が最も小さくなる組み合わせが探索される。そして、最も差分が小さくなる組み合わせのブロックを示すベクトルが求めたい予測動きベクトルとされる。
なお、このとき、ブロックBL11の中心とブロックBL12の中心とを結ぶ直線が、必ずカレントブロックCB11の中心を通るように各ブロックが選択される。つまり、カレントブロックCB11を直線的に結ぶブロックBL11およびブロックBL12の差分が計算される。
この例では、カレントブロックCB11の予測動きベクトルとして、図中、矢印により表される動きベクトルMV0と動きベクトルMV1とが得られている。
動きベクトルMV0は、カレントブロックCB11の中心位置と同じ位置関係のピクチャPIC12上の位置を始点とし、ブロックBL11の中心の位置を終点とするベクトルである。同様に、動きベクトルMV1は、カレントブロックCB11の中心位置と同じ位置関係のピクチャPIC13上の位置を始点とし、ブロックBL12の中心の位置を終点とするベクトルである。
このようにバイラテラルマッチングでは、ピクチャPIC12とピクチャPIC13との間ではテクスチャが直線状に動くというモデルを仮定しており、等速で運動(移動)する物体がこのモデルに当てはまる。
図4は、バイラテラルマッチングにおいて、2つの参照ピクチャ上のブロックがカレントブロックと直線的に結ばれていることを分かり易くするために各ピクチャを1次元的に表現した図である。なお、図4において図3における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
この例では、カレントブロックCB11と、ピクチャPIC12上のブロックBL21と、ピクチャPIC13上のブロックBL22とが直線的に結ばれている。すなわち、カレントブロックCB11、ブロックBL21、およびブロックBL22が直線L21上に位置しており、予測動きベクトルを導出するためにブロックBL21とブロックBL22との差分が計算される。
ここで、参照ピクチャであるピクチャPIC12とピクチャPIC13については、カレントブロックCB11が符号化対象または復号対象となった時点で、それらのピクチャPIC12およびピクチャPIC13の全領域が符号化済みまたは復号済みとなっている。
これに対して、ピクチャPIC11については、カレントブロックCB11が符号化対象または復号対象となった時点において、カレントブロックCB11よりも図中、上側の領域は符号化済みまたは復号済みであるが、カレントブロックCB11よりも図中、下側の領域は符号化または復号がされていない状態となっている。
カレントブロックCB11の予測動きベクトルの導出時には、直線L21の角度(傾き)を変化させることで、差分の計算対象となるブロックが変化する。
以上のようにしてバイラテラルマッチングでは、差分の計算対象となるブロックを変化させながら、符号化対象のピクチャとは表示時刻が異なり、かつ互いに表示時刻が異なる2つの参照ピクチャを用いたブロックマッチングにより予測動きベクトルが導出される。これにより、エンコーダ側だけでなくデコーダ側においても高精度に予測動きベクトルを導出(予測)することができる。
また、テンプレートマッチングでは、例えば図5に示すように符号化対象のピクチャと、符号化対象のピクチャとは表示時刻の異なる参照ピクチャとの間でブロックマッチングが行われる。なお、図5において図3における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
図5に示す例では、ピクチャPIC11のカレントブロックCB11が符号化対象となっており、このピクチャPIC11と、ピクチャPIC12との間でブロックマッチングが行われる。
ブロックマッチングでは、ピクチャPIC11上のカレントブロックCB11に隣接する領域TM11-1および領域TM11-2がブロックマッチング、つまり差分の計算に用いられる領域であるテンプレートとされる。なお、以下、領域TM11-1および領域TM11-2を特に区別する必要のない場合、単に領域TM11とも称することとする。
この領域TM11は、カレントブロックCB11が処理対象となった時点で、既に符号化済みまたは復号済みとなっている領域である。
また、参照ピクチャであるピクチャPIC12では、領域TM11-1および領域TM11-2と同じ大きさおよび形状である領域TM12-1および領域TM12-2がテンプレートとされる。
なお、領域TM12-1の形状および大きさは、領域TM11-1の形状および大きさと同じであり、領域TM12-2の形状および大きさは、領域TM11-2の形状および大きさと同じである。さらに、領域TM12-1と領域TM12-2の相対的な位置関係は、領域TM11-1と領域TM11-2の相対的な位置関係と同じとなっている。
以下、領域TM12-1および領域TM12-2を特に区別する必要のない場合、単に領域TM12とも称することとする。
テンプレートマッチングでは、所定のサーチレンジ内で領域TM12の位置をずらしながら、各位置について同じ形状の領域TM11と領域TM12との差分を計算し、差分が最も小さくなる領域TM12の位置が探索される。
この例では、差分の計算時には領域TM11-1と領域TM12-1の差分、および領域TM11-2と領域TM12-2の差分が計算されることになる。
そして、差分が最も小さくなるときの領域TM12の位置を示すベクトルが求めたい予測動きベクトルとされる。この例では、カレントブロックCB11の予測動きベクトルとして、図中、矢印により表される動きベクトルMV0が得られている。
例えばカレントブロックCB11と同じ形状および大きさであり、ピクチャPIC12における領域TM12との相対的な位置関係が領域TM11とカレントブロックCB11の相対的な位置関係と同じであるブロックをブロックBL31とする。また、領域TM12およびブロックBL31の位置が図5に示されている位置となっているときに領域TM11と領域TM12の差分が最小となるとする。
この場合、カレントブロックCB11の中心位置と同じ位置関係のピクチャPIC12上の位置を始点とし、ブロックBL31の中心の位置を終点とするベクトルが動きベクトルMV0となる。
図6は、テンプレートマッチングにおける、参照ピクチャのテンプレートと、カレントブロックに隣接するテンプレートとの関係を分かり易くするために各ピクチャを1次元的に表現した図である。なお、図6において図3または図5における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
この例では、カレントブロックCB11に隣接するテンプレートの領域TM11と、参照ピクチャであるピクチャPIC12上のテンプレートの領域TM12とが直線により結ばれて描かれており、予測動きベクトルを導出するために領域TM11と領域TM12との差分が計算される。
ここで、参照ピクチャであるピクチャPIC12とピクチャPIC13については、カレントブロックCB11が符号化対象または復号対象となった時点で、それらのピクチャPIC12およびピクチャPIC13の全領域が符号化済みまたは復号済みとなっている。
これに対して、ピクチャPIC11については、カレントブロックCB11が符号化対象または復号対象となった時点において、カレントブロックCB11よりも図中、上側の領域は符号化済みまたは復号済みであるが、カレントブロックCB11よりも図中、下側の領域は符号化または復号がされていない状態となっている。この例では、領域TM11は符号化済みまたは復号済みの領域となっている。
テンプレートマッチングでは、カレントブロックCB11と、そのカレントブロックCB11に隣接するテンプレートである領域TM11とでは動きベクトルは同じであると仮定される。そして、ピクチャPIC12から領域TM11と類似する領域、つまり差分の小さい領域TM12が探索され、その探索結果により示される動きベクトルが、カレントブロックCB11の予測動きベクトルであるとされる。
以上のようにしてテンプレートマッチングでは、差分の計算対象となる参照ピクチャ上のテンプレート位置を変化させながら、符号化対象のピクチャとは表示時刻が異なる1つの参照ピクチャを用いたブロックマッチングにより予測動きベクトルが導出される。これにより、エンコーダ側だけでなくデコーダ側においても高精度に予測動きベクトルを導出(予測)することができる。
〈画像符号化処理の説明〉
次に、以上において説明した画像符号化装置11の動作について説明する。
次に、以上において説明した画像符号化装置11の動作について説明する。
まず、図7のフローチャートを参照して、画像符号化装置11による画像符号化処理について説明する。なお、この画像符号化処理は、CU単位またはサブブロック単位で行われる。
ステップS11において、制御部21は、外部からの入力等に基づいて符号化パラメータを設定し、設定した各符号化パラメータを画像符号化装置11の各部に供給する。
ステップS11では、例えば上述したヘッダ情報Hinfo、予測情報Pinfo、変換情報Tinfo等が符号化パラメータとして設定される。
ステップS12において、予測部30は制御部21から供給された予測情報Pinfoのモード情報pred_mode_flagに基づいて、インター予測処理を行うか否かを判定する。例えばモード情報pred_mode_flagの値がインター予測処理を示している場合、ステップS12においてインター予測処理を行うと判定される。
ステップS12においてインター予測処理を行うと判定された場合、ステップS13において、予測部30は制御部21から供給された予測情報PinfoのMerge_flagの値が1であるか否か、すなわちMerge_flag=1であるか否かを判定する。
ステップS13においてMerge_flag=1であると判定された場合、すなわちマージモードであると判定された場合、ステップS14において、予測部30は制御部21から供給された予測情報PinfoのFRUC_flagの値が1であるか否か、すなわちFRUC_flag=1であるか否かを判定する。
ステップS14においてFRUC_flag=1であると判定された場合、すなわちFRUCモードであると判定された場合、処理はステップS15へと進む。
ステップS15において、画像符号化装置11の各部はFRUCマージモードで符号化対象の画像I(カレントブロック)を符号化する符号化処理を行い、画像符号化処理は終了する。
FRUCマージモードでの符号化処理では、FRUCモードにより動き情報が導出されて予測情報Pinfoや量子化変換係数レベルlevel等が格納された符号化ストリームが生成される。
このとき生成される予測情報Pinfoには、例えばMerge_flagやFRUC_flag、FRUC_Mode_flag、参照画像特定情報が含まれており、動きベクトル情報は含まれていない。また、画像I、すなわちカレントブロックがPスライスのブロックであるときには、予測情報PinfoにはFRUC_Mode_flagが含まれていないようにされる。
さらに、ここでは説明を省略したが、スキップFRUCモードである場合にはステップS15で行われるFRUCマージモードでの符号化処理と同様の処理が行われ、符号化ストリームが生成されて出力される。但し、スキップFRUCモードでは、符号化ストリームには量子化変換係数レベルlevelは格納されない。
一方、ステップS14においてFRUC_flag=1でないと判定された場合、すなわちFRUC_flag=0であり、FRUCモードではないと判定された場合、処理はステップS16へと進む。
ステップS16において、画像符号化装置11の各部はAMVPマージモードで符号化対象の画像Iを符号化する符号化処理を行い、画像符号化処理は終了する。
なお、AMVPマージモードでの符号化処理では、予測部30においてAMVPモードにより動き補償が行われてインター予測処理が行われる。そして、インター予測処理により得られた予測画像Pが用いられてカレントブロックが符号化され、予測情報Pinfoや量子化変換係数レベルlevel等が格納された符号化ストリームが生成される。
また、ステップS13において、Merge_flag=1でないと判定された場合、すなわちMerge_flag=0であり、ノンマージモードであると判定された場合、処理はステップS17へと進む。
ステップS17において、予測部30は制御部21から供給された予測情報PinfoのFRUC_flagの値が1であるか否か、すなわちFRUC_flag=1であるか否かを判定する。
ステップS17において、FRUC_flag=1であると判定された場合、すなわちFRUCモードであると判定された場合、処理はステップS18へと進む。
ステップS18において、画像符号化装置11の各部はFRUC AMVPモードで符号化対象の画像Iを符号化する符号化処理を行い、画像符号化処理は終了する。
なお、FRUC AMVPモードでの符号化処理では、FRUCマージモードでの符号化処理と同様の処理が行われて符号化ストリームが生成される。この場合、FRUCモードにより動き情報が導出されて予測情報Pinfoや量子化変換係数レベルlevel等が格納された符号化ストリームが生成される。
また、予測情報Pinfoには、例えばMerge_flagやFRUC_flag、FRUC_Mode_flag、動きベクトル情報としての差分動きベクトル、参照画像特定情報が含まれている。但し、カレントブロックがPスライスのブロックであるときには、予測情報PinfoにはFRUC_Mode_flagが含まれていないようにされる。
これに対して、ステップS17においてFRUC_flag=1でないと判定された場合、すなわちFRUC_flag=0であり、FRUCモードではないと判定された場合、処理はステップS19へと進む。
ステップS19において、画像符号化装置11の各部はAMVPモードで符号化対象の画像Iを符号化する符号化処理を行い、画像符号化処理は終了する。
なお、AMVPモードでの符号化処理では、予測部30においてAMVPモードにより動き補償が行われてインター予測処理が行われる。そして、インター予測処理により得られた予測画像Pが用いられてカレントブロックが符号化され、予測情報Pinfoや量子化変換係数レベルlevel、動きベクトル情報等が格納された符号化ストリームが生成される。
また、ステップS12においてインター予測処理を行わないと判定された場合、すなわちイントラ予測処理を行うと判定された場合、処理はステップS20へと進む。
ステップS20において、画像符号化装置11の各部はイントラ予測モードで符号化対象の画像Iを符号化するイントラ符号化処理を行い、画像符号化処理は終了する。
イントラ符号化処理では、予測部30においてイントラ予測モードにより予測画像Pが生成される。そして、予測画像Pが用いられてカレントブロックが符号化されて、予測情報Pinfoや量子化変換係数レベルlevel等が格納された符号化ストリームが生成される。
以上のようにして、画像符号化装置11は、符号化パラメータに応じて入力された画像を符号化し、符号化により得られた符号化ストリームを出力する。このように適切なモードで画像を符号化することにより、符号化効率を向上させることができる。
〈インター予測処理モード設定処理の説明〉
次に、図8のフローチャートを参照して、図7のステップS11の処理に対応するインター予測処理モード設定処理について説明する。
次に、図8のフローチャートを参照して、図7のステップS11の処理に対応するインター予測処理モード設定処理について説明する。
このインター予測処理モード設定処理は、図7のステップS11の処理のうちのインター予測処理モードに関する部分の処理である。すなわち、インター予測処理モード設定処理は、Merge_flagとFRUC_flagの値が決定される部分の処理である。また、インター予測処理モード設定処理は、CU単位またはサブブロック単位で行われる。
ステップS51において、制御部21は画像符号化装置11の各部を制御して、符号化対象のブロックについてFRUCマージモードでの符号化処理を行わせ、RDコストJFRUC_MRGを算出させる。
なお、RDコストは符号化の結果得られる発生ビット量(符号量)や復号画像のSSE(Error Sum of Squares)などに基づいて算出される。
ステップS52において、制御部21は画像符号化装置11の各部を制御して、符号化対象のブロックについてAMVPマージモードでの符号化処理を行わせ、RDコストJMRGを算出させる。
ステップS53において、制御部21は画像符号化装置11の各部を制御して、符号化対象のブロックについてFRUC AMVPモードでの符号化処理を行わせ、RDコストJFRUC_AMVPを算出させる。
ステップS54において、制御部21は画像符号化装置11の各部を制御して、符号化対象のブロックについてAMVPモードでの符号化処理を行わせ、RDコストJAMVPを算出させる。
ステップS55において、制御部21は、ステップS51乃至ステップS54の各処理で得られたRDコストJFRUC_MRG、RDコストJMRG、RDコストJFRUC_AMVP、およびRDコストJAMVPのうち、RDコストJFRUC_MRGが最小であるか否かを判定する。
ステップS55において、RDコストJFRUC_MRGが最小であると判定された場合、処理はステップS56へと進む。この場合、カレントブロックのインター予測モードとして、FRUCマージモードが選択されたことになり、図7を参照して説明した画像符号化処理では、ステップS15の符号化処理が行われて符号化ストリームが生成されることになる。
ステップS56において、制御部21はMerge_flag=1およびFRUC_flag=1とする。すなわち、制御部21は、予測情報PinfoとしてのMerge_flagの値を1とするとともにFRUC_flagの値を1とする。
ステップS57において、制御部21はFRUCモードでの動き情報の導出結果に基づいて、FRUC_Mode_flagを生成し、インター予測処理モード設定処理は終了する。但し、カレントブロックがPスライスのブロックであるときには、ステップS57の処理は行われず、FRUC_Mode_flagは生成されない。
例えば、FRUCモードでの符号化時において、動き情報の導出にテンプレートマッチング法を採用したときのRDコストJTemplateよりも、動き情報の導出にバイラテラルマッチング法を採用したときのRDコストJBiLateralが小さい場合、FRUC_Mode_flagの値は1とされる。すなわち、ステップS57では値が1であるFRUC_Mode_flagが生成される。これに対して、RDコストJBiLateralがRDコストJTemplate以上である場合、FRUC_Mode_flagの値は0とされる。
また、ステップS55において、RDコストJFRUC_MRGが最小でないと判定された場合、処理はステップS58へと進む。ステップS58において、制御部21はRDコストJFRUC_MRG、RDコストJMRG、RDコストJFRUC_AMVP、およびRDコストJAMVPのうち、RDコストJMRGが最小であるか否かを判定する。
ステップS58においてRDコストJMRGが最小であると判定された場合、処理はステップS59へと進む。この場合、カレントブロックのインター予測モードとして、AMVPマージモードが選択されたことになり、図7を参照して説明した画像符号化処理では、ステップS16の符号化処理が行われて符号化ストリームが生成されることになる。
ステップS59において、制御部21はMerge_flag=1およびFRUC_flag=0として、インター予測処理モード設定処理は終了する。
さらに、ステップS58においてRDコストJMRGが最小でないと判定された場合、処理はステップS60へと進む。
ステップS60において、制御部21はRDコストJFRUC_MRG、RDコストJMRG、RDコストJFRUC_AMVP、およびRDコストJAMVPのうち、RDコストJFRUC_AMVPが最小であるか否かを判定する。
ステップS60においてRDコストJFRUC_AMVPが最小であると判定された場合、ステップS61において、制御部21はMerge_flag=0およびFRUC_flag=1とする。
この場合、カレントブロックのインター予測モードとして、FRUC AMVPモードが選択されたことになり、図7を参照して説明した画像符号化処理では、ステップS18の符号化処理が行われて符号化ストリームが生成されることになる。
ステップS62において、制御部21はFRUCモードでの動き情報の導出結果に基づいて、FRUC_Mode_flagを生成し、インター予測処理モード設定処理は終了する。但し、カレントブロックがPスライスのブロックであるときには、ステップS62の処理は行われず、FRUC_Mode_flagは生成されない。
なお、ステップS62ではステップS57と同様の処理が行われる。
また、ステップS60において、RDコストJFRUC_AMVPが最小でないと判定された場合、すなわちRDコストJAMVPが最小であると判定された場合、処理はステップS63へと進む。この場合、カレントブロックのインター予測モードとして、AMVPモードが選択されたことになり、図7を参照して説明した画像符号化処理では、ステップS19の符号化処理が行われて符号化ストリームが生成されることになる。
ステップS63において、制御部21はMerge_flag=0およびFRUC_flag=0として、インター予測処理モード設定処理は終了する。
以上のようにして画像符号化装置11は、各モードのRDコストを算出し、RDコストが最小となるモードを選択して、その選択結果に応じてMerge_flagやFRUC_flagを生成する。これにより、符号化効率を向上させることができる。
〈FRUCマージモード符号化処理の説明〉
続いて、図9のフローチャートを参照して、画像符号化装置11によるFRUCマージモード符号化処理について説明する。なお、このFRUCマージモード符号化処理は、CU単位またはサブブロック単位で行われる。
続いて、図9のフローチャートを参照して、画像符号化装置11によるFRUCマージモード符号化処理について説明する。なお、このFRUCマージモード符号化処理は、CU単位またはサブブロック単位で行われる。
ステップS91において、予測部30は、制御部21から供給された予測情報Pinfo等に基づいて、処理対象のカレントブロック、すなわち符号化対象の画像IであるCUまたはサブブロックがPスライスのブロックであるか否かを判定する。
ステップS91においてPスライスのブロックであると判定された場合、処理はステップS92へと進む。カレントブロックがPスライスのブロックである場合、Pスライスに対しては参照ピクチャが1つしかなく、動き情報の導出時にバイラテラルマッチングを行うことができないので、動き情報の導出方法としてテンプレートマッチングが自動的に採用(選択)される。
ステップS92において、予測部30は、テンプレートマッチング法によりカレントブロックの動き情報を導出する。例えば予測部30は、制御部21から供給された予測情報Pinfo等に基づいて、フレームメモリ29から符号化対象のピクチャ(フレーム)と、参照画像特定情報により示される参照ピクチャとを読み出して、それらのピクチャを用いてテンプレートマッチング法によりカレントブロックの動き情報を導出する。
ステップS92の処理が行われて動き情報が導出されると、その後、処理はステップS99へと進む。
また、ステップS91においてPスライスのブロックでないと判定された場合、処理はステップS93へと進む。
ステップS93において、予測部30は、符号化対象のピクチャの参照関係を確認する。
ステップS94において、予測部30は、ステップS93で符号化対象のピクチャの参照関係を確認した結果に基づいて、その参照関係からバイラテラルマッチング法が使えるか否かを判定する。例えば、予測部30は、参照フレームが同じPOC番号しかない場合、バイラテラルマッチング法が使えないと判定し、参照フレームに異なるPOC番号がある場合、バイラテラルマッチング法が使えると判定する。
ステップS94においてバイラテラルマッチング法が使えないと判定された場合、処理はステップS92へと進み、上述したように、予測部30は、テンプレートマッチング法によりカレントブロックの動き情報を導出する。
また、ステップS94においてバイラテラルマッチング法が使えると判定された場合、処理はステップS95へと進む。
ステップS95において、予測部30は、テンプレートマッチング法によりカレントブロックの動き情報を導出し、テンプレートマッチング法を採用したときのRDコストJTemplateを算出する。
例えば予測部30は、制御部21から供給された予測情報Pinfo等に基づいて、フレームメモリ29から符号化対象のピクチャ(フレーム)と、参照画像特定情報により示される参照ピクチャとを読み出す。また、予測部30は読み出したピクチャを用いてテンプレートマッチング法によりカレントブロックの動き情報を導出するとともに、RDコストJTemplateも算出する。
ステップS96において、予測部30は、バイラテラルマッチング法によりカレントブロックの動き情報を導出し、バイラテラルマッチング法を採用したときのRDコストJBiLateralを算出する。
例えば予測部30は、制御部21から供給された予測情報Pinfoの参照画像特定情報により示される2つの参照ピクチャをフレームメモリ29から読み出す。また、予測部30は読み出した参照ピクチャを用いてバイラテラルマッチング法によりカレントブロックの動き情報を導出するとともに、RDコストJBiLateralも算出する。
ステップS97において、予測部30はRDコストJBiLateralがRDコストJTemplate未満であるか否かを判定する。
ステップS97において、RDコストJBiLateralがRDコストJTemplate未満であると判定された場合、ステップS98において、予測部30はバイラテラルマッチング法により導出した動き情報に基づいて予測画像を生成し、演算部22および演算部28に供給する。
例えば予測部30は、2つの各参照ピクチャのそれぞれにおける動き情報(予測動きベクトル)により示されるブロックのそれぞれを用いた動き補償により生成された画像を予測画像Pとする。
予測画像が生成されると、その後、処理はステップS100へと進む。
また、ステップS97においてRDコストJBiLateralがRDコストJTemplate未満でないと判定されたか、またはステップS92の処理が行われると、その後、ステップS99の処理が行われる。
すなわち、ステップS99において、予測部30はテンプレートマッチング法により導出した動き情報に基づいて予測画像を生成し、演算部22および演算部28に供給する。例えば予測部30は、参照ピクチャにおける動き情報(予測動きベクトル)により示されるブロックの画像を予測画像Pとする。
予測画像が生成されると、その後、処理はステップS100へと進む。
ステップS98またはステップS99の処理が行われて予測画像Pが生成されると、その後、ステップS100の処理が行われる。
ステップS100において、演算部22は、供給された画像Iと、予測部30から供給された予測画像Pとの差分を予測残差Dとして演算し、変換部23に供給する。
ステップS101において、変換部23は、制御部21から供給された変換情報Tinfoに基づいて、演算部22から供給された予測残差Dに対して直交変換等を行い、その結果得られた変換係数Coeffを量子化部24に供給する。
ステップS102において、量子化部24は、制御部21から供給された変換情報Tinfoに基づいて、変換部23から供給された変換係数Coeffをスケーリング(量子化)し、量子化変換係数レベルlevelを導出する。量子化部24は、量子化変換係数レベルlevelを符号化部25および逆量子化部26に供給する。
ステップS103において、逆量子化部26は、制御部21から供給された変換情報Tinfoに基づいて、量子化部24から供給された量子化変換係数レベルlevelを、ステップS102の量子化の特性に対応する特性で逆量子化する。逆量子化部26は、逆量子化により得られた変換係数Coeff_IQを逆変換部27に供給する。
ステップS104において、逆変換部27は、制御部21から供給された変換情報Tinfoに基づいて、逆量子化部26から供給された変換係数Coeff_IQに対して、ステップS101の直交変換等に対応する方法で逆直交変換等を行い、予測残差D’を導出する。逆変換部27は、得られた予測残差D’を演算部28に供給する。
ステップS105において、演算部28は、逆変換部27から供給された予測残差D’と、予測部30から供給された予測画像Pとを加算することにより、局所的な復号画像Recを生成し、フレームメモリ29に供給する。
ステップS106において、フレームメモリ29は、演算部28から供給された局所的な復号画像Recを用いてピクチャ単位の復号画像を再構築し、フレームメモリ29内のバッファで保持する。
ステップS107において、符号化部25は、図7のステップS11の処理において設定され、制御部21から供給された符号化パラメータと、ステップS102の処理で量子化部24から供給された量子化変換係数レベルlevelとを所定の方法で符号化する。
符号化部25は、符号化により得られた符号化データを多重化して符号化ストリーム(ビットストリーム)とし、画像符号化装置11の外部に出力してFRUCマージモード符号化処理は終了する。
この場合、符号化ストリームには、例えばMerge_flagやFRUC_flag、FRUC_Mode_flag、参照画像特定情報等を符号化して得られたデータと、量子化変換係数レベルlevelを符号化して得られたデータなどが格納されている。このようにして得られた符号化ストリームは、例えば伝送路や記録媒体を介して復号側に伝送される。
なお、以上において説明したFRUCマージモード符号化処理は、基本的には図7のステップS15の処理に対応する。但し、より詳細には、ステップS15の時点では、既にテンプレートマッチングを行うか、またはバイラテラルマッチングが行われるかは定められている。そのため、予測情報Pinfoにより示される方法にしたがって動き情報が導出され、得られた動き情報に基づいてステップS98やステップS99で予測画像Pが生成される。
また、図9におけるステップS91乃至ステップS97の処理は、図7のステップS11の処理、特にステップS11の処理のうちの図8のステップS51の処理に対応する。
すなわち、図8のステップS51において制御部21から予測部30に対してRDコストJFRUC_MRGの算出の指示がなされると、ステップS91乃至ステップS97の処理が行われる。そして、例えば予測部30は、RDコストJTemplateとRDコストJBiLateralのうちのより小さい方をRDコストJFRUC_MRGとして制御部21に出力する。なお、カレントブロックがPスライスのブロックであるときには、RDコストJBiLateralの算出は行われず、RDコストJTemplateがRDコストJFRUC_MRGとして出力される。
さらに、図7のステップS15における場合と同様に、図7のステップS18においても図9を参照して説明したFRUCマージモード符号化処理と同様の処理が行われる。すなわち、ステップS15における場合とステップS18における場合とでは、図9のステップS107において符号化される符号化パラメータが異なる。
以上のようにして、画像符号化装置11は、FRUCモードにより動き情報を導出し、符号化対象となるブロックを符号化する。このようにFRUCモードを利用し、復号側において動き情報を導出するようにすることで、符号化ストリームに格納する動きベクトル情報(動き情報)を削減することができ、符号化効率を向上させることができる。
そして、画像符号化装置11は、符号化対象のピクチャの参照関係からバイラテラルマッチング法が使えるか否かの判定を行って、バイラテラルマッチング法が使えない場合には、動き情報の導出方法としてテンプレートマッチング法を自動的に採用することができる。これにより、上述したような無駄な符号の送信が回避されて、さらなる符号化効率の向上を図ることができる。
〈画像復号装置の説明〉
次に、図2に示した画像符号化装置11から出力された符号化ストリームを復号する、本技術を適用した画像処理装置としての画像復号装置について説明する。
次に、図2に示した画像符号化装置11から出力された符号化ストリームを復号する、本技術を適用した画像処理装置としての画像復号装置について説明する。
図10は、本技術を適用した画像復号装置の一実施の形態の構成例を示す図である。
図10に示す画像復号装置201は、画像符号化装置11により生成された符号化ストリームを、画像符号化装置11における符号化方法に対応する復号方法で復号する。例えば、画像復号装置201は、HEVCに提案された技術やJVETにて提案された技術を実装している。
なお、図10においては、処理部やデータの流れ等の主なものを示しており、図10に示されるものが全てとは限らない。つまり、画像復号装置201において、図10においてブロックとして示されていない処理部が存在したり、図10において矢印等として示されていない処理やデータの流れが存在したりしてもよい。
画像復号装置201は復号部211、逆量子化部212、逆変換部213、演算部214、フレームメモリ215、および予測部216を有している。
画像復号装置201は、入力された符号化ストリームに対して、CUごとまたはサブブロックごとに復号を行う。
復号部211は、供給された符号化ストリームを、符号化部25における符号化方法に対応する所定の復号方法で復号する。例えば、復号部211は、シンタックステーブルの定義に沿って、符号化ストリームのビット列からヘッダ情報Hinfo、予測情報Pinfo、変換情報Tinfo等の符号化パラメータと、量子化変換係数レベルlevelとを復号する。
例えば復号部211は、符号化パラメータに含まれるsplit flagに基づいてCUを分割し、各量子化変換係数レベルlevelに対応するCUやサブブロックを順に復号対象のブロックに設定する。
また、復号部211は、復号により得られた符号化パラメータを画像復号装置201の各ブロックに供給する。例えば、復号部211は予測情報Pinfoを予測部216に供給し、変換情報Tinfoを逆量子化部212と逆変換部213に供給し、ヘッダ情報Hinfoを各ブロックに供給する。また、復号部211は、量子化変換係数レベルlevelを逆量子化部212に供給する。
逆量子化部212は、復号部211から供給された変換情報Tinfoに基づいて、復号部211から供給された量子化変換係数レベルlevelの値をスケーリング(逆量子化)し、変換係数Coeff_IQを導出する。この逆量子化は、画像符号化装置11の量子化部24により行われる量子化の逆処理である。なお、逆量子化部26は、この逆量子化部212と同様の逆量子化を行う。逆量子化部212は、得られた変換係数Coeff_IQを逆変換部213に供給する。
逆変換部213は、復号部211から供給された変換情報Tinfo等に基づいて、逆量子化部212から供給された変換係数Coeff_IQに対して逆直交変換等を行い、その結果得られた予測残差D’を演算部214に供給する。
逆変換部213で行われる逆直交変換は、画像符号化装置11の変換部23により行われる直交変換の逆処理である。なお、逆変換部27は、この逆変換部213と同様の逆直交変換を行う。
演算部214は、逆変換部213から供給された予測残差D’と、その予測残差D’に対応する予測画像Pとを加算して局所的な復号画像Recを導出する。
演算部214は、得られた局所的な復号画像Recを用いてピクチャ単位毎の復号画像を再構築し、得られた復号画像を外部に出力する。また、演算部214は、局所的な復号画像Recをフレームメモリ215にも供給する。
フレームメモリ215は、演算部214から供給された局所的な復号画像Recを用いてピクチャ単位毎の復号画像を再構築し、フレームメモリ215内のバッファに格納する。
また、フレームメモリ215は予測部216により指定される復号画像を参照画像(参照ピクチャ)としてバッファより読み出し、予測部216に供給する。さらにフレームメモリ215は、その復号画像の生成に係るヘッダ情報Hinfo、予測情報Pinfo、変換情報Tinfoなどをフレームメモリ215内のバッファに格納するようにしてもよい。
予測部216は、予測情報Pinfoのモード情報pred_mode_flagに基づいて、フレームメモリ215に格納された、復号対象のブロックと同一時刻の復号画像を参照画像として取得する。そして、予測部216は、参照画像を用いて復号対象のブロックに対して、イントラ予測モード情報が示すイントラ予測モードのイントラ予測処理を行う。
また、予測部216は、予測情報Pinfoのモード情報pred_mode_flagと参照画像特定情報に基づいてフレームメモリ215に格納された、復号対象のブロックと同一時刻の復号画像を取得するとともに、復号対象のブロックとは異なる時刻の復号画像を参照画像として取得する。
予測部216は、画像符号化装置11の予測部30と同様に、Merge_flagやFRUC_flag、FRUC_Mode_flag、動きベクトル情報等に基づいて、フレームメモリ215から取得した画像を用いてMerge_flagおよびFRUC_flagにより定まるモードでのインター予測処理を行う。
予測部216は、イントラ予測処理またはインター予測処理の結果生成された復号対象のブロックの予測画像Pを演算部214に供給する。
さらに、予測部216は、予測部30と同様に、符号化対象のピクチャの参照関係に基づいて、バイラテラルマッチング法が使えるか否かを判定して、バイラテラルマッチング法が使えないと判定された場合には、自動的に、テンプレートマッチング法を用いることとする。
例えば、予測部216は、参照フレームが同じPOC番号しかない場合、符号化対象のピクチャの参照関係について、参照フレームが1枚だけであると確認し、バイラテラルマッチング法が使えないと判定する。従って、この場合、動き情報の導出方法としてテンプレートマッチング法が自動的に採用(選択)され、予測部216は、テンプレートマッチング法により動き情報を導出して、その動き情報に基づいて予測画像を生成する。
また、予測部216は、参照フレームに異なるPOC番号がある場合、符号化対象のピクチャの参照関係について、参照フレームが2枚あると確認し、バイラテラルマッチング法が使えると判定する。この場合、予測部216は、画像符号化装置11から送信されてくるFRUC_MERGE_MODE_FLAG1をビットストリームから読み出す。
〈画像復号処理の説明〉
次に、画像復号装置201の動作について説明する。
次に、画像復号装置201の動作について説明する。
まず、図11のフローチャートを参照して、画像復号装置201による画像復号処理について説明する。
ステップS211において、復号部211は、画像復号装置201に供給された符号化ストリームを復号し、符号化パラメータと量子化変換係数レベルlevelを得る。
復号部211は、符号化パラメータを画像復号装置201の各部に供給するとともに、量子化変換係数レベルlevelを逆量子化部212に供給する。
ステップS212において、復号部211は符号化パラメータに含まれるsplit flagに基づいてCTUを分割し、各量子化変換係数レベルlevelに対応するブロック、すなわちCUまたはサブブロックを復号対象のブロックに設定する。なお、以降のステップS213乃至ステップS221の処理は復号対象のブロックごとに行われる。
復号対象のブロックが定められると、その後、復号部211から出力された予測情報Pinfoに基づいて、予測部216によりステップS213乃至ステップS215の処理が行われて復号時のモードが決定される。なお、これらのステップS213乃至ステップS215の処理は、予測部30ではなく予測部216により行われる点を除いて、図7のステップS12乃至ステップS14の処理と同様であるので、その説明は省略する。
ステップS215においてFRUC_flag=1であると判定された場合、すなわちFRUCモードであると判定された場合、処理はステップS216へと進む。
ステップS216において、画像復号装置201の各部はFRUCマージモードで復号対象のブロック(カレントブロック)の画像を復号する復号処理を行い、画像復号処理は終了する。
FRUCマージモードでの復号処理では、FRUCモードにより動き情報が導出され、得られた動き情報を用いたインター予測処理を行うことにより生成された予測画像Pが用いられて復号対象のブロックの画像が生成される。
これに対して、ステップS215においてFRUC_flag=1でないと判定された場合、すなわちFRUC_flag=0であり、FRUCモードではないと判定された場合、処理はステップS217へと進む。
ステップS217において、画像復号装置201の各部はAMVPマージモードで復号対象のブロックの画像を復号する復号処理を行い、画像復号処理は終了する。
なお、AMVPマージモードでの復号処理では、予測部216においてAMVPモードにより動き補償が行われてインター予測処理が行われる。そして、その結果得られた予測画像Pと、予測残差D’とが加算されて復号対象のブロックの画像とされる。
また、ステップS214においてMerge_flag=1でないと判定された場合、すなわちMerge_flag=0であり、ノンマージモードであると判定された場合、処理はステップS218へと進む。
ステップS218において、予測部216は復号部211から供給された予測情報PinfoのFRUC_flagの値が1であるか否か、すなわちFRUC_flag=1であるか否かを判定する。
ステップS218において、FRUC_flag=1であると判定された場合、すなわちFRUCモードであると判定された場合、処理はステップS219へと進む。
ステップS219において、画像復号装置201の各部はFRUC AMVPモードで復号対象のブロックの画像を復号する復号処理を行い、画像復号処理は終了する。
なお、FRUC AMVPモードでの復号処理では、FRUCマージモードでの復号処理と同様の処理が行われて動き情報が導出され、復号対象のブロックの画像が生成される。但し、FRUC AMVPモードでは、符号化ストリームには差分動きベクトルが格納されているため、その差分動きベクトルが用いられて復号対象のブロックの予測動きベクトルが導出される。
これに対して、ステップS218においてFRUC_flag=1でないと判定された場合、すなわちFRUC_flag=0であり、FRUCモードではないと判定された場合、処理はステップS220へと進む。
ステップS220において、画像復号装置201の各部はAMVPモードで復号対象のブロックの画像を復号する復号処理を行い、画像復号処理は終了する。
なお、AMVPモードでの復号処理では、予測部216においてAMVPモードにより動き補償が行われてインター予測処理が行われる。そして、インター予測処理により得られた予測画像Pと予測残差D’とが加算されて復号対象のブロックの画像とされる。
また、ステップS213においてインター予測処理を行わないと判定された場合、すなわちイントラ予測処理を行うと判定された場合、処理はステップS221へと進む。
ステップS221において、画像復号装置201の各部はイントラ予測モードで復号対象のブロックの画像を復号するイントラ復号処理を行い、画像復号処理は終了する。
イントラ復号処理では、予測部216においてイントラ予測モードにより予測画像Pが生成され、予測画像Pと予測残差D’とが加算されて復号対象のブロックの画像とされる。
以上のようにして画像復号装置201は、符号化パラメータに応じて復号対象のブロックを復号する。このように適切なモードで画像を復号することにより、少ない符号量の符号化ストリームでも品質のよい画像を得ることができる。
〈FRUCマージモード復号処理の説明〉
続いて、図11のステップS216の処理に対応するFRUCマージモード復号処理について説明する。すなわち、以下、図12のフローチャートを参照して、画像復号装置201により行われるFRUCマージモード復号処理について説明する。なお、このFRUCマージモード復号処理は、復号対象のブロックごとに行われる。
続いて、図11のステップS216の処理に対応するFRUCマージモード復号処理について説明する。すなわち、以下、図12のフローチャートを参照して、画像復号装置201により行われるFRUCマージモード復号処理について説明する。なお、このFRUCマージモード復号処理は、復号対象のブロックごとに行われる。
ステップS251において、逆量子化部212は、図11のステップS211の処理により得られた量子化変換係数レベルlevelを逆量子化して変換係数Coeff_IQを導出し、逆変換部213に供給する。
ステップS252において、逆変換部213は、逆量子化部212から供給された変換係数Coeff_IQに対して逆直交変換等を行い、その結果得られた予測残差D’を演算部214に供給する。
ステップS253において、予測部216は、復号部211から供給された予測情報Pinfo等に基づいて、復号対象のブロックがPスライスのブロックであるか否かを判定する。
ステップS253においてPスライスのブロックでないと判定された場合、処理はステップS254へと進む。
ステップS254において、予測部216は、符号化対象のピクチャの参照関係を確認する。
ステップS255において、予測部216は、ステップSS254で符号化対象のピクチャの参照関係を確認した結果に基づいて、その参照関係からバイラテラルマッチング法が使えるか否かを判定する。例えば、予測部216は、参照フレームが同じPOC番号しかない場合、バイラテラルマッチング法が使えないと判定し、参照フレームに異なるPOC番号がある場合、バイラテラルマッチング法が使えると判定する。
ステップS255においてバイラテラルマッチング法が使えると判定された場合、処理はステップS256へと進む。
ステップS256において、予測部216はFRUC_Mode_flagを取得する。
すなわち、復号対象のブロックがPスライスのブロックでない場合、図11のステップS211では、復号部211によって符号化ストリームからFRUC_Mode_flagが読み出され、読み出されたFRUC_Mode_flagを含む予測情報Pinfoが復号部211から予測部216へと供給される。予測部216は、このようにして供給された予測情報PinfoからFRUC_Mode_flagを取得する。
ステップS257において、予測部216はFRUC_Mode_flagに基づいて、バイラテラルマッチングを行うか否かを判定する。例えばFRUC_Mode_flagの値が1である場合、バイラテラルマッチングを行うと判定される。
ステップS257においてバイラテラルマッチングを行うと判定された場合、ステップS258において予測部216はバイラテラルマッチング法により動き情報を導出する。これにより、復号対象のブロックの動き情報として、予測動きベクトルが得られる。
ステップS259において、予測部216は、ステップS258の処理により導出した動き情報、すなわち予測動きベクトルに基づいて動き補償を行って予測画像Pを生成し、演算部214に供給する。
例えば予測部216は、フレームメモリ215から参照画像特定情報により示される2つの復号画像を参照ピクチャとして読み出すとともに、各参照ピクチャにおける予測動きベクトルにより示されるブロックを用いた動き補償により予測画像Pを生成する。
このようにして予測画像Pが得られると、その後、処理はステップS262へと進む。
これに対して、ステップS257においてバイラテラルマッチングを行わないと判定されたか、ステップS255においてバイラテラルマッチング方が使えないと判定されたか、またはステップS253においてPスライスのブロックであると判定された場合、ステップS260の処理が行われる。
ステップS260において予測部216はテンプレートマッチング法により動き情報を導出する。これにより、復号対象のブロックの動き情報として予測動きベクトルが得られる。
ステップS261において、予測部216は、ステップS260の処理により導出した動き情報、すなわち予測動きベクトルに基づいて動き補償を行って予測画像Pを生成し、演算部214に供給する。
例えば予測部216は、フレームメモリ215から参照画像特定情報により示される1つの復号画像を参照ピクチャとして読み出すとともに、参照ピクチャにおける予測動きベクトルにより示されるブロックの画像を予測画像Pとする。
このようにして予測画像Pが得られると、その後、処理はステップS262へと進む。
ステップS259またはステップS261の処理が行われて予測画像Pが生成されると、ステップS262の処理が行われる。
ステップS262において、演算部214は逆変換部213から供給された予測残差D’と、予測部216から供給された予測画像Pとを加算し、局所的な復号画像Recを導出する。演算部214は、得られた局所的な復号画像Recを用いてピクチャ単位の復号画像を再構築し、得られた復号画像を画像復号装置201の外部に出力する。また、演算部214は、その局所的な復号画像Recをフレームメモリ215に供給する。
ステップS263において、フレームメモリ215は演算部214から供給された局所的な復号画像Recを用いてピクチャ単位の復号画像を再構築し、フレームメモリ215内のバッファに保持する。このようにして復号画像が得られると、FRUCマージモード復号処理は終了する。
以上のようにして画像復号装置201は、FRUCモードにより動き情報を導出し、復号対象となるブロックを復号する。このようにFRUCモードを利用し、復号側において動き情報を導出することで、符号化ストリームの符号量を削減することができ、符号化効率を向上させることができる。
なお、図11のステップS219においても、図12を参照して説明したFRUCマージモード復号処理と同様の処理が行われる。但し、FRUC AMVPモードでは、符号化ストリームには差分動きベクトルが格納されているため、その差分動きベクトルが用いられて復号対象のブロックの予測動きベクトルが導出される。
そして、画像復号装置201は、符号化対象のピクチャの参照関係からバイラテラルマッチング法が使えるか否かの判定を行って、バイラテラルマッチング法が使えない場合には、動き情報の導出方法としてテンプレートマッチング法を自動的に採用することができる。これにより、上述したような無駄な符号の送信が回避されて、さらなる符号化効率の向上を図ることができる。
さらに、画像復号装置201では、バイラテラルマッチング法が使えない場合には、バイラテラルマッチング法を試してRDコストを計算する必要がない。即ち、従来では、FRUC Mergeモードを符号化する際、Pスライスでない場合、テンプレートマッチング法およびバイラテラルマッチング法のどちらを用いるかを判断するために、RDコストを計算するようにしていた。
これに対し、画像復号装置201は、図12に示したFRUCマージモード復号処理のように、バイラテラルマッチング法が使えるか否かを判定することで、バイラテラルマッチング法が使えない場合には、RDコストを算出する処理を行わないようにすることができる。従って、画像復号装置201は、RDコストを算出する処理を行わない分だけ、処理量を削減することができる。
ところで、仮に、バイラテラルマッチング法を行うことを示す情報がビットストリームにあった場合、デコーダはバイラテラルマッチング法を行うことができないため、デコード処理で曖昧になることが懸念される。従って、この場合、各デコーダで処理結果が異なってしまうことが想定される。
これに対し、本実施の形態の画像符号化装置11および画像復号装置201は、符号化対象のピクチャの参照関係に基づいて、バイラテラルマッチング法が使えるか否かを判定することによって、このように各デコーダで処理結果が異なってしまうことを回避し、確実に正確なデコードが行われるようにすることができる。
なお、上述したように、図9のステップS94および図12のステップS255では、符号化対象のピクチャの参照関係に基づいてバイラテラルマッチング法が使えるか否かを判定していたが、この判定は、符号化対象のピクチャの参照関係に基づくものに限定されることはない。即ち、符号化対象のピクチャの参照関係以外に基づいて、バイラテラルマッチング法が使えるか否かを判定してもよい。
〈スライスヘッダのシンタックス〉
図13に、スライスヘッダのシンタックスの例を示す。なお、図13においては、バイラテラルマッチング法が使えるか否かの判定について説明するのに必要な一部分のみが抜き出されており、各行の左端の数字は、説明の便宜上付した行番号である。
図13に、スライスヘッダのシンタックスの例を示す。なお、図13においては、バイラテラルマッチング法が使えるか否かの判定について説明するのに必要な一部分のみが抜き出されており、各行の左端の数字は、説明の便宜上付した行番号である。
例えば、3行目には、スライスタイプの判定を行うこと(例えば、図9のステップS91および図12のステップS253に対応)が示されている。例えば、PスライスまたはBスライスであれば、4行目に示すようなリファレンスフレーム数を伝えるためのフラグnum_ref_idx_active_override_flagが含まれている。
また、6行目に示すnum_ref_idx_l0_active_minus1は、リスト0の参照インデックス数の最大に1を引いた数を意味しており、これが0であるか否かに従って、バイラテラルマッチング法が使えるか否かの判定が行われる。また、このnum_ref_idx_l0_active_minus1の詳細については、図14に示す通りである。
また、8行目に示すnum_ref_idx_l1_active_minus1は、リスト1の参照インデックス数の最大に1を引いた数を意味しており、これが0であるか否かに従って、バイラテラルマッチング法が使えるか否かの判定が行われる。また、このnum_ref_idx_l1_active_minus1の詳細については、図15に示す通りである。
なお、この判定には、参照フレームのPOCを知る必要があり、POCについては、HEVCの規格書 8.3.1 Decoding process for picture order countに記述されている。例えば、関数PicOrderCnt( picX )は、図16の2行目に示すように指定される。また、関数DiffPicOrderCnt( picA , picB )は、図16の4行目に示すように、picAとpicBのPOCの差を計算する。また、図16の5行目に示すように、リスト0のインデックス0のPOCと、リスト1のインデックス1のPOCの差を計算する。
〈コーディングユニットのシンタックス〉
図17乃至図21に、コーディングユニットのシンタックスの例を示す。なお、図17乃至図21において、各行の左端の数字は、説明の便宜上付した行番号である。なお、HEVCではコーディングユニットとプリディクションユニット(PU(Prediction Unit))が異なったサイズであったのに対し、それらのサイズを統合すること(PART_2Nx2Nだけ)が検討されている。
図17乃至図21に、コーディングユニットのシンタックスの例を示す。なお、図17乃至図21において、各行の左端の数字は、説明の便宜上付した行番号である。なお、HEVCではコーディングユニットとプリディクションユニット(PU(Prediction Unit))が異なったサイズであったのに対し、それらのサイズを統合すること(PART_2Nx2Nだけ)が検討されている。
例えば、図17の7行目に示すように、スキップモードであるか否かが判定され、スキップモードである場合には、図17の8行目のprediction_unit( x0, y0, nCbS, nCbS )に従って、図18の49行目が読み出される。一方、スキップモードでない場合には、図18の35行目のprediction_unit( x0, y0, nCbS, nCbS )に従って、図18の49行目が読み出される。
そして、図19の51行目から64行目に示すような条件に従って、バイラテラルマッチング法が使えるか否かの判定が行われる。また、同様に、マージモードの場合には、図19の71行目から84行目に示すような条件に従って、バイラテラルマッチング法が使えるか否かの判定が行われる。
ここで、Current Reference Picture (CRP)またはIntra Block Copy (IBC) と呼ばれる技術がある。従来、参照ピクチャのPOC番号は、カレント・ピクチャとは異なっていたが、CRPまたはIBCを適用する際、カレント・ピクチャと同じPOC番号の参照ピクチャを参照できる。
例えば、上述したシンタックスではfruc_merge_mode_flag1を送信しない条件として、図19の54行目に示すような条件が挙げられていた。すなわち、Bスライスで、参照ピクチャ数がリスト0およびリスト1ともに1で、それらのPOC番号の差がゼロであることを条件としている。
しかし、CRPまたはIBCが適用されるならば、参照ピクチャ数が1追加されることより、図19の54行目に示すような条件は、図22に示すように変更されることが検討される。即ち、図22に示すRefPicList0[0]およびRefPicList1[0]には、カレント・ピクチャとは異なるPOC番号の参照ピクチャが格納されており、RefPicList0[0]およびRefPicList1[0]には、カレント・ピクチャと同じPOCの参照ピクチャが格納されている。なお、ここで説明した以外にも、必要に応じて、バイラテラルマッチング法が使えるか否かを判定するための条件を、適宜、変更してもよい。
〈コンピュータの構成例〉
ところで、上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のコンピュータなどが含まれる。
ところで、上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のコンピュータなどが含まれる。
図23は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータにおいて、CPU501,ROM(Read Only Memory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。
バス504には、さらに、入出力インターフェース505が接続されている。入出力インターフェース505には、入力部506、出力部507、記録部508、通信部509、及びドライブ510が接続されている。
入力部506は、キーボード、マウス、マイクロホン、撮像素子などよりなる。出力部507は、ディスプレイ、スピーカアレイなどよりなる。記録部508は、ハードディスクや不揮発性のメモリなどよりなる。通信部509は、ネットワークインターフェースなどよりなる。ドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブル記録媒体511を駆動する。
以上のように構成されるコンピュータでは、CPU501が、例えば、記録部508に記録されているプログラムを、入出力インターフェース505及びバス504を介して、RAM503にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU501)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体511に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブル記録媒体511をドライブ510に装着することにより、入出力インターフェース505を介して、記録部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記録部508にインストールすることができる。その他、プログラムは、ROM502や記録部508に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
また、本明細書中に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
さらに、本技術は、以下の構成とすることも可能である。
(1)
参照画像を用いて符号化対象のブロックから予測画像を生成する処理を行う際に、前記参照画像を用いたブロックマッチングにより前記ブロックの動きベクトルを導出するにあたって、互いに異なる時刻の前記参照画像に基づくバイラテラルマッチングが使えるか否かの判定を行う予測部を備える
画像処理装置。
(2)
前記予測部は、前記符号化対象のブロックが参照する前記参照画像が1枚だけなのか、または、前記参照画像が2枚あるのかという参照関係に基づいて、前記バイラテラルマッチングが使えるか否かの判定を行う
上記(1)に記載の画像処理装置。
(3)
前記予測部は、前記参照画像についてピクチャの出力順を示すピクチャオーダカウントに従って、前記参照関係を確認する
上記(2)に記載の画像処理装置。
(4)
前記予測部は、前記符号化対象のブロックが参照する前記参照画像が1枚だけである場合、前記バイラテラルマッチングが使えないと判定し、前記ブロックを含む画像と前記参照画像とに基づくテンプレートマッチングにより前記動きベクトルを導出する
上記(1)から(3)までのいずれかに記載の画像処理装置。
(5)
前記予測部は、前記符号化対象のブロックが参照する前記参照画像が2枚ある場合、前記バイラテラルマッチングが使えると判定し、前記バイラテラルマッチングにより導出された前記動きベクトルから算出されるコストが、前記テンプレートマッチングにより導出された前記動きベクトルから算出されるコスト未満であれば、前記バイラテラルマッチングにより前記動きベクトルを導出する
上記(4)に記載の画像処理装置。
(6)
前記予測部は、前記バイラテラルマッチングが使えると判定した場合であっても、前記バイラテラルマッチングにより導出された前記動きベクトルから算出されるコストが、前記テンプレートマッチングにより導出された前記動きベクトルから算出されるコスト未満でなければ、前記テンプレートマッチングにより前記動きベクトルを導出する
上記(5)に記載の画像処理装置。
(7)
前記予測部は、前記動きベクトルに基づいて前記ブロックの予測画像を生成する
上記(1)から(6)までのいずれかに記載の画像処理装置。
(8)
参照画像を用いて符号化対象のブロックから予測画像を生成する処理を行う際に、前記参照画像を用いたブロックマッチングにより前記ブロックの動きベクトルを導出するにあたって、互いに異なる時刻の前記参照画像に基づくバイラテラルマッチングが使えるか否かの判定を行う
ステップを含む画像処理方法。
参照画像を用いて符号化対象のブロックから予測画像を生成する処理を行う際に、前記参照画像を用いたブロックマッチングにより前記ブロックの動きベクトルを導出するにあたって、互いに異なる時刻の前記参照画像に基づくバイラテラルマッチングが使えるか否かの判定を行う予測部を備える
画像処理装置。
(2)
前記予測部は、前記符号化対象のブロックが参照する前記参照画像が1枚だけなのか、または、前記参照画像が2枚あるのかという参照関係に基づいて、前記バイラテラルマッチングが使えるか否かの判定を行う
上記(1)に記載の画像処理装置。
(3)
前記予測部は、前記参照画像についてピクチャの出力順を示すピクチャオーダカウントに従って、前記参照関係を確認する
上記(2)に記載の画像処理装置。
(4)
前記予測部は、前記符号化対象のブロックが参照する前記参照画像が1枚だけである場合、前記バイラテラルマッチングが使えないと判定し、前記ブロックを含む画像と前記参照画像とに基づくテンプレートマッチングにより前記動きベクトルを導出する
上記(1)から(3)までのいずれかに記載の画像処理装置。
(5)
前記予測部は、前記符号化対象のブロックが参照する前記参照画像が2枚ある場合、前記バイラテラルマッチングが使えると判定し、前記バイラテラルマッチングにより導出された前記動きベクトルから算出されるコストが、前記テンプレートマッチングにより導出された前記動きベクトルから算出されるコスト未満であれば、前記バイラテラルマッチングにより前記動きベクトルを導出する
上記(4)に記載の画像処理装置。
(6)
前記予測部は、前記バイラテラルマッチングが使えると判定した場合であっても、前記バイラテラルマッチングにより導出された前記動きベクトルから算出されるコストが、前記テンプレートマッチングにより導出された前記動きベクトルから算出されるコスト未満でなければ、前記テンプレートマッチングにより前記動きベクトルを導出する
上記(5)に記載の画像処理装置。
(7)
前記予測部は、前記動きベクトルに基づいて前記ブロックの予測画像を生成する
上記(1)から(6)までのいずれかに記載の画像処理装置。
(8)
参照画像を用いて符号化対象のブロックから予測画像を生成する処理を行う際に、前記参照画像を用いたブロックマッチングにより前記ブロックの動きベクトルを導出するにあたって、互いに異なる時刻の前記参照画像に基づくバイラテラルマッチングが使えるか否かの判定を行う
ステップを含む画像処理方法。
11 画像符号化装置, 21 制御部, 30 予測部, 51 候補取得部, 52 バイラテラルマッチング処理部, 53 サブブロック候補取得部, 54 バイラテラルマッチング処理部, 91 候補取得部, 92 テンプレートマッチング処理部, 93 サブブロック候補取得部, 94 テンプレートマッチング処理部, 201 画像復号装置, 211 復号部, 216 予測部
Claims (8)
- 参照画像を用いて符号化対象のブロックから予測画像を生成する処理を行う際に、前記参照画像を用いたブロックマッチングにより前記ブロックの動きベクトルを導出するにあたって、互いに異なる時刻の前記参照画像に基づくバイラテラルマッチングが使えるか否かの判定を行う予測部を備える
画像処理装置。 - 前記予測部は、前記符号化対象のブロックが参照する前記参照画像が1枚だけなのか、または、前記参照画像が2枚あるのかという参照関係に基づいて、前記バイラテラルマッチングが使えるか否かの判定を行う
請求項1に記載の画像処理装置。 - 前記予測部は、前記参照画像についてピクチャの出力順を示すピクチャオーダカウントに従って、前記参照関係を確認する
請求項2に記載の画像処理装置。 - 前記予測部は、前記符号化対象のブロックが参照する前記参照画像が1枚だけである場合、前記バイラテラルマッチングが使えないと判定し、前記ブロックを含む画像と前記参照画像とに基づくテンプレートマッチングにより前記動きベクトルを導出する
請求項2に記載の画像処理装置。 - 前記予測部は、前記符号化対象のブロックが参照する前記参照画像が2枚ある場合、前記バイラテラルマッチングが使えると判定し、前記バイラテラルマッチングにより導出された前記動きベクトルから算出されるコストが、前記テンプレートマッチングにより導出された前記動きベクトルから算出されるコスト未満であれば、前記バイラテラルマッチングを用いることを決定する
請求項4に記載の画像処理装置。 - 前記予測部は、前記バイラテラルマッチングが使えると判定した場合であっても、前記バイラテラルマッチングにより導出された前記動きベクトルから算出されるコストが、前記テンプレートマッチングにより導出された前記動きベクトルから算出されるコスト未満でなければ、前記テンプレートマッチングにより前記動きベクトルを導出する
請求項5に記載の画像処理装置。 - 前記予測部は、前記動きベクトルに基づいて前記ブロックの予測画像を生成する
請求項1に記載の画像処理装置。 - 参照画像を用いて符号化対象のブロックから予測画像を生成する処理を行う際に、前記参照画像を用いたブロックマッチングにより前記ブロックの動きベクトルを導出するにあたって、互いに異なる時刻の前記参照画像に基づくバイラテラルマッチングが使えるか否かの判定を行う
ステップを含む画像処理方法。
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017045769 | 2017-03-10 | ||
| JP2017045769 | 2017-03-10 | ||
| PCT/JP2018/006635 WO2018163857A1 (ja) | 2017-03-10 | 2018-02-23 | 画像処理装置および方法 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPWO2018163857A1 true JPWO2018163857A1 (ja) | 2020-01-09 |
Family
ID=63447653
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2019504470A Pending JPWO2018163857A1 (ja) | 2017-03-10 | 2018-02-23 | 画像処理装置および方法 |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US20200007885A1 (ja) |
| EP (1) | EP3595312A4 (ja) |
| JP (1) | JPWO2018163857A1 (ja) |
| CN (1) | CN110383840A (ja) |
| WO (1) | WO2018163857A1 (ja) |
Families Citing this family (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP4598027A2 (en) * | 2018-09-21 | 2025-08-06 | Sharp Kabushiki Kaisha | Systems and methods for signaling reference pictures in video coding |
| CN112913239B (zh) * | 2018-10-22 | 2025-07-08 | 北京字节跳动网络技术有限公司 | 基于参考图片的解码器侧运动矢量推导 |
| CN113742288B (zh) * | 2020-05-29 | 2024-09-24 | 伊姆西Ip控股有限责任公司 | 用于数据索引的方法、电子设备和计算机程序产品 |
| CN120323022A (zh) * | 2022-10-05 | 2025-07-15 | 联发科技股份有限公司 | 视频编解码中的帧间预测 |
Family Cites Families (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9426414B2 (en) * | 2007-12-10 | 2016-08-23 | Qualcomm Incorporated | Reference selection for video interpolation or extrapolation |
| US11330284B2 (en) * | 2015-03-27 | 2022-05-10 | Qualcomm Incorporated | Deriving motion information for sub-blocks in video coding |
| US10511835B2 (en) * | 2015-09-02 | 2019-12-17 | Mediatek Inc. | Method and apparatus of decoder side motion derivation for video coding |
| US10491917B2 (en) * | 2017-03-22 | 2019-11-26 | Qualcomm Incorporated | Decoder-side motion vector derivation |
-
2018
- 2018-02-23 US US16/482,469 patent/US20200007885A1/en not_active Abandoned
- 2018-02-23 EP EP18763157.7A patent/EP3595312A4/en not_active Withdrawn
- 2018-02-23 CN CN201880015702.3A patent/CN110383840A/zh active Pending
- 2018-02-23 JP JP2019504470A patent/JPWO2018163857A1/ja active Pending
- 2018-02-23 WO PCT/JP2018/006635 patent/WO2018163857A1/ja not_active Ceased
Also Published As
| Publication number | Publication date |
|---|---|
| WO2018163857A1 (ja) | 2018-09-13 |
| EP3595312A4 (en) | 2020-02-19 |
| US20200007885A1 (en) | 2020-01-02 |
| EP3595312A1 (en) | 2020-01-15 |
| CN110383840A (zh) | 2019-10-25 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10841609B1 (en) | Modification of motion vector with adaptive motion vector resolution | |
| US12278985B2 (en) | Syntax reuse for affine mode with adaptive motion vector resolution | |
| JP7104188B2 (ja) | Dmvrのためのブロックサイズ制限 | |
| JP7556090B2 (ja) | デコーダ側精緻化ツールのサイズ選択アプリケーション | |
| US20220070489A1 (en) | Rounding in pairwise average candidate calculations | |
| US11431965B2 (en) | Affine mode in video coding and decoding | |
| US11330289B2 (en) | Context for coding affine mode adaptive motion vector resolution | |
| US11368711B2 (en) | Applicability of prediction refinement with optical flow process | |
| CN110786012B (zh) | 用于图像运动补偿的方法和装置 | |
| WO2019192491A1 (en) | Video processing methods and apparatuses for sub-block motion compensation in video coding systems | |
| US12212769B2 (en) | Method for local illumination compensation | |
| JPWO2018163857A1 (ja) | 画像処理装置および方法 | |
| US20210227207A1 (en) | Generation and usage of combined affine merge candidate | |
| WO2018163858A1 (ja) | 画像処理装置および方法 | |
| WO2020156525A1 (en) | Multiple syntax elements for adaptive motion vector resolution | |
| WO2020063598A1 (en) | A video encoder, a video decoder and corresponding methods | |
| WO2020057524A1 (en) | Method for skipping refinement based on patch similarity in bilinear interpolation based decoder-side motion vector refinement | |
| US20210168396A1 (en) | Image processing device and method | |
| US20250247526A1 (en) | Combined intra and inter prediction mode | |
| US20250324082A1 (en) | Template Match Prediction Merge List Clustering | |
| US20250294178A1 (en) | Decoder-side motion vector refinement with affine model | |
| WO2024141071A9 (en) | Method, apparatus, and medium for video processing |