[go: up one dir, main page]

KR20070074453A - Method for encoding and decoding video signal - Google Patents

Method for encoding and decoding video signal Download PDF

Info

Publication number
KR20070074453A
KR20070074453A KR1020060111897A KR20060111897A KR20070074453A KR 20070074453 A KR20070074453 A KR 20070074453A KR 1020060111897 A KR1020060111897 A KR 1020060111897A KR 20060111897 A KR20060111897 A KR 20060111897A KR 20070074453 A KR20070074453 A KR 20070074453A
Authority
KR
South Korea
Prior art keywords
picture
layer
encoding
base layer
deblocking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
KR1020060111897A
Other languages
Korean (ko)
Inventor
박승욱
전병문
박지호
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to EP07700920.7A priority Critical patent/EP1972155A4/en
Priority to JP2008550226A priority patent/JP4991757B2/en
Priority to PCT/KR2007/000143 priority patent/WO2007081135A1/en
Priority to PCT/KR2007/000142 priority patent/WO2007100187A1/en
Priority to KR1020087017199A priority patent/KR20090016544A/en
Priority to JP2008550230A priority patent/JP4991761B2/en
Priority to JP2008550231A priority patent/JP4991762B2/en
Priority to PCT/KR2007/000148 priority patent/WO2007081140A1/en
Priority to US12/087,471 priority patent/US8401091B2/en
Priority to JP2008550232A priority patent/JP4991763B2/en
Priority to KR1020097011954A priority patent/KR101055741B1/en
Priority to CN2007800056109A priority patent/CN101385349B/en
Priority to PCT/KR2007/000146 priority patent/WO2007081138A1/en
Priority to CN2007800053238A priority patent/CN101385348B/en
Priority to EP07700917.3A priority patent/EP1972154A4/en
Priority to JP2008550224A priority patent/JP5106419B2/en
Priority to PCT/KR2007/000144 priority patent/WO2007081136A1/en
Priority to EP07700918.1A priority patent/EP1977608B1/en
Priority to US12/087,518 priority patent/US8451899B2/en
Priority to CN200780005672XA priority patent/CN101385352B/en
Priority to KR1020087017201A priority patent/KR100904442B1/en
Priority to CA2636571A priority patent/CA2636571C/en
Priority to CN201210585882.3A priority patent/CN103096078B/en
Priority to CN2007800056467A priority patent/CN101385351B/en
Priority to AU2007205337A priority patent/AU2007205337B2/en
Priority to KR1020087017203A priority patent/KR20080092372A/en
Priority to EP07700921.5A priority patent/EP1977610B1/en
Priority to US12/087,526 priority patent/US8457201B2/en
Priority to CN2007800057614A priority patent/CN101385354B/en
Priority to KR1020087017198A priority patent/KR100917829B1/en
Priority to US12/087,488 priority patent/US8494060B2/en
Priority to CN2007800056166A priority patent/CN101385350B/en
Priority to US12/087,466 priority patent/US8264968B2/en
Priority to PCT/KR2007/000141 priority patent/WO2007081134A1/en
Priority to HK09106198.8A priority patent/HK1129013B/en
Priority to EP07700914.0A priority patent/EP1972152A4/en
Priority to US12/087,525 priority patent/US8687688B2/en
Priority to CN2007800057544A priority patent/CN101385353B/en
Priority to JP2008550229A priority patent/JP4991760B2/en
Priority to PCT/KR2007/000147 priority patent/WO2007081139A1/en
Priority to EP07700915.7A priority patent/EP1977607A4/en
Priority to EP07700913.2A priority patent/EP1980114A4/en
Priority to KR1020087017195A priority patent/KR100914712B1/en
Priority to US12/087,515 priority patent/US8345755B2/en
Priority to HK09106200.4A priority patent/HK1128571B/en
Priority to PCT/KR2007/000145 priority patent/WO2007081137A1/en
Priority to PCT/KR2007/000140 priority patent/WO2007081133A1/en
Priority to EP07700916.5A priority patent/EP1972153A4/en
Priority to JP2008550225A priority patent/JP4991756B2/en
Priority to US12/087,464 priority patent/US8494042B2/en
Priority to KR1020087017204A priority patent/KR100917206B1/en
Priority to KR1020097021246A priority patent/KR101055742B1/en
Priority to KR1020087017196A priority patent/KR100904441B1/en
Priority to JP2008550227A priority patent/JP4991758B2/en
Priority to KR1020087017202A priority patent/KR100904443B1/en
Priority to HK09106197.9A priority patent/HK1128843B/en
Priority to EP07700919.9A priority patent/EP1977609A4/en
Priority to CN2007800057826A priority patent/CN101385355B/en
Priority to US12/087,523 priority patent/US8792554B2/en
Priority to JP2008550228A priority patent/JP4991759B2/en
Priority to KR1020087017197A priority patent/KR100914713B1/en
Publication of KR20070074453A publication Critical patent/KR20070074453A/en
Priority to US12/659,389 priority patent/US8619872B2/en
Priority to US14/178,751 priority patent/US9497453B2/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/53Multi-resolution motion estimation; Hierarchical motion estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/16Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter for a given display mode, e.g. for interlaced or progressive display mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/88Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving rearrangement of data among different coding units, e.g. shuffling, interleaving, scrambling or permutation of pixel data or permutation of transform coefficient data among different blocks

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명은 영상 신호를 인코딩 하고 디코딩 하는 방법에 관한 것이다. 본 발명에 따른 일 실시예에서, 베이스 레이어와 인핸스드 레이어의 픽처 포맷이 서로 다른 경우, 베이스 레이어의 픽처는, 2개의 필드 픽처로 분리되고 업샘플링 필터와 디블로킹 필터가 적용되고 다시 하나의 픽처로 결합된 후, 인터레이어 텍스처 예측을 통한 인핸스드 레이어의 인코딩에 이용될 수 있다. 또는 베이스 레이어의 픽처는, 2개의 필드 픽처로 분리되지 않고, 바로 업샘플링 필터와 디블로킹 필터가 적용된 후, 인터레이어 텍스처 예측을 통한 인핸스드 레이어의 인코딩에 이용될 수도 있다. 따라서, 픽처 포맷이 다른 베이스 레이어를 이용하는 인터레이어 텍스처 예측에서 베이스 레이어의 픽처에 대한 디블록킹 필터링 동작을 효과적으로 수행할 수 있고, 또한 이에 따라 코딩 효율을 향상시킬 수 있다.The present invention relates to a method for encoding and decoding a video signal. In one embodiment according to the present invention, when the picture formats of the base layer and the enhanced layer are different from each other, the picture of the base layer is divided into two field pictures, an upsampling filter and a deblocking filter are applied, and again, one picture. After being combined with, it can be used for encoding the enhanced layer through interlayer texture prediction. Alternatively, the picture of the base layer may not be separated into two field pictures, but may be used for encoding the enhanced layer through interlayer texture prediction after the upsampling filter and the deblocking filter are applied. Accordingly, in the interlayer texture prediction using the base layer having a different picture format, the deblocking filtering operation on the picture of the base layer can be effectively performed, and accordingly, the coding efficiency can be improved.

Description

영상 신호의 인코딩 및 디코딩 방법 { Method for encoding and decoding video signal }Method for encoding and decoding video signal

도 1은 AVC의 인코딩 알고리즘을 개략적으로 표현한 것이고,1 is a schematic representation of the encoding algorithm of AVC,

도 2는 디블로킹 필터가 영상 블록의 수직 또는 수평 가장자리에 적용되는 예를 도시한 것이고,2 illustrates an example in which a deblocking filter is applied to vertical or horizontal edges of an image block.

도 3은, 베이스 레이어의 픽처는 인터레이스 픽처이고 인핸스드 레이어의 픽처는 프로그레시브 픽처인 경우, 인터레이어 텍스처 예측을 통해 인핸스드 레이어를 인코딩 할 때 디블로킹 필터를 적용하는 본 발명의 실시예들을 도시한 것이고,3 illustrates embodiments of the present invention in which a deblocking filter is applied when encoding an enhanced layer through interlayer texture prediction when a picture of a base layer is an interlaced picture and a picture of an enhanced layer is a progressive picture. Will,

도 4는, 베이스 레이어의 픽처는 프로그레시브 픽처이고 인핸스드 레이어의 픽처는 인터레이스 픽처인 경우, 인터레이어 텍스처 예측을 통해 인핸스드 레이어를 인코딩 할 때 디블로킹 필터를 적용하는 본 발명의 실시예들을 도시한 것이고,4 illustrates embodiments of the present invention in which a deblocking filter is applied when encoding an enhanced layer through interlayer texture prediction when a picture of a base layer is a progressive picture and a picture of an enhanced layer is an interlaced picture. Will,

도 5는 본 발명에 따른 영상 신호의 인코딩 방법이 적용되는 영상 신호 인코딩 장치의 구성을 도시한 것이고,5 is a block diagram of a video signal encoding apparatus to which a video signal encoding method according to the present invention is applied.

도 6은 도 5의 장치에 의해 인코딩 된 비트 스트림을 디코딩 하는 장치의 구성을 도시한 것이다.FIG. 6 illustrates a configuration of an apparatus for decoding a bit stream encoded by the apparatus of FIG. 5.

<도면의 주요부분에 대한 부호의 설명><Description of the symbols for the main parts of the drawings>

100 : EL 인코더 110 : 텍스처 인코더100: EL encoder 110: texture encoder

120 : 모션 코딩부 130 : 먹서120: motion coding unit 130: eat

200 : 디먹서 210 : 텍스처 디코더200: Demuxer 210: Texture Decoder

220 : 모션 디코딩부 230 : EL 디코더220: motion decoding unit 230: EL decoder

240 : BL 디코더240: BL decoder

본 발명은 영상 신호를 인코딩 하고 디코딩 하는 방법에 관한 것이다.The present invention relates to a method for encoding and decoding a video signal.

스케일러블 영상 코덱(SVC : Scalable Video Codec) 방식은 영상 신호를 인코딩 함에 있어, 최고 화질로 인코딩 하되, 그 결과로 생성된 픽처 시퀀스의 부분 시퀀스(시퀀스 전체에서 간헐적으로 선택된 프레임의 시퀀스)를 디코딩 하여 사용해도 어느 정도 화질의 영상 표현이 가능하도록 하는 방식이다.The scalable video codec (SVC) method encodes a video signal, and encodes at the highest quality, but decodes a partial sequence of the resultant picture sequence (a sequence of intermittently selected frames in the entire sequence). It is a method to allow a certain level of image expression even if used.

SVC는 AVC(Advanced Video Codec : 'H.264'라고도 함)로부터 확장된 코덱으로, 도 1은 AVC의 인코딩 알고리즘을 개략적으로 표현한 것이다. AVC 디코딩은, 모션 예측 과정을 제외하고는, 도 1의 인코딩 과정의 역순으로 진행된다.SVC is a codec extended from AVC (Advanced Video Codec: also referred to as 'H.264'), and FIG. 1 schematically illustrates an encoding algorithm of AVC. AVC decoding proceeds in the reverse order of the encoding process of FIG. 1, except for the motion prediction process.

입력되는 영상 신호는, 공간적(spatial) 및/또는 시간적(temporal)으로 영상의 움직임(motion)이 예측되고(motion prediction) 보상되어(motion compensation), 이를 기초로 오차(residual) 데이터를 갖는 영상 블록으로 생성된다. 생성된 영상 블록의 오차 데이터는 DCT(Discrete Cosine Transform) 또는 웨이브렛(Wavelet)과 같은 2-D 변환 방법에 의해 계수로 변환되고, 변환 계수는 임의의 양자화 스텝으로 양자화된다.The input image signal is an image block having spatial and / or temporal motion prediction and motion compensation of the image, and having residual data based thereon. Is generated. The error data of the generated image block is transformed into coefficients by a 2-D transform method such as a discrete cosine transform (DCT) or a wavelet, and the transform coefficients are quantized in an arbitrary quantization step.

양자화 과정에서 발생하는 손실을 고려하지 않고 모션을 예측하는 경우, 디코더에서는 인코딩 된 영상 데이터와 동일한 영상 신호를 복원할 수 없다. 따라 서, 이를 고려하여, 양자화된 변환 계수를 역양자화와 역변환하여 모션 보상을 하고, 이를 기초로 모션 예측 동작을 수행한다.In case of predicting motion without considering the loss occurring in the quantization process, the decoder cannot restore the same video signal as the encoded video data. Accordingly, in consideration of this, motion compensation is performed by inverse quantization of the quantized transform coefficients and inverse transform, and a motion prediction operation is performed based on this.

변환 동작은 모션 예측 동작에 의해 생성된 데이터 사이의 상관 관계를 줄이기(decorrelate) 위하여 수행되는데, 역변환이 가능한 변환이 적용된다. 또한, 인코더 및 디코더의 하드웨어 설계와 곱셈 연산의 부담(load)을 줄이기 위하여, 정수 변환(integer transform), 16 비트 변환, 및 8x8 대신 4x4 블록 크기의 변환 등이 사용되고 있다. 16x16의 레지듀얼 매크로블록은 16개의 4x4 블록으로 나뉘고, 각 블록이 4x4 정수 변환된다.The transform operation is performed to decorrelate the data generated by the motion prediction operation. A transform capable of inverse transform is applied. In addition, to reduce the hardware design of the encoder and decoder and the load of multiplication operations, integer transforms, 16-bit transforms, and 4x4 block size transforms instead of 8x8 are used. The 16x16 residual macroblock is divided into 16 4x4 blocks, and each block is 4x4 integer converted.

양자화된 변환 계수는, 지그재그(zigzag) 또는 변형된 지그재그와 같은 순서로 스캔 된 후, 가변 길이 코딩(VLC : Variable Length Coding) 또는 산술 코딩(arithmetic coding)과 같은 엔트로피(entropy) 코딩 방법에 의해, 모션 벡터, 헤더 정보, 및 부가적인 정보 등과 함께, 전송하거나 저장하기 용이한 압축된 비트 스트림으로 코딩 된다.The quantized transform coefficients are scanned in the same order as zigzag or modified zigzag, and then by entropy coding methods such as variable length coding (VLC) or arithmetic coding, It is coded into a compressed bit stream that is easy to transmit or store, along with motion vectors, header information, and additional information.

스케일러블 방식으로 인코딩 된 픽처 시퀀스는 그 부분 시퀀스만을 수신하여 처리함으로써도 어느 정도 화질의 영상 표현이 가능하지만, 비트 레이트(bit rate)가 낮아지는 경우 화질 저하가 크게 나타난다. 이를 해소하기 위해서, 낮은 전송률을 위한 별도의 보조 픽처 시퀀스, 예를 들어 화면이 작거나 및/또는 초당 프레임 수 등이 낮은 픽처 시퀀스를 제공할 수도 있다.A picture sequence encoded in a scalable manner can be represented to a certain degree of image quality by receiving and processing only a partial sequence. However, when a bit rate is lowered, image quality deterioration is large. In order to solve this, a separate auxiliary picture sequence for a low data rate may be provided, for example, a picture sequence having a small picture and / or a low frame rate per second.

보조 픽처 시퀀스를 베이스 레이어(base layer)로, 주 픽처 시퀀스를 인핸스드(enhanced) 레이어 또는 인핸스먼트(enhancement) 레이어라고 부른다. 베이스 레이어와 인핸스드 레이어는 동일한 영상 신호원을 인코딩 한 것으로, 두 레이어의 영상 신호에는 잉여 정보(리던던시(redundancy))가 존재한다.The auxiliary picture sequence is called a base layer, and the main picture sequence is called an enhanced layer or an enhancement layer. The base layer and the enhanced layer encode the same video signal source, and redundant information (redundancy) exists in the video signals of the two layers.

따라서, 베이스 레이어가 제공되는 경우에는 베이스 레이어의 모션(motion) 정보 및/또는 텍스처(texture) 정보를 이용하여 인핸스드 레이어의 영상 신호를 예측함으로써 코딩 효율을 높이는데, 이를 레이어 간 예측 또는 인터레이어 예측 방법(Inter-layer prediction method)이라 한다.Therefore, when a base layer is provided, coding efficiency is increased by predicting an image signal of an enhanced layer by using motion information and / or texture information of the base layer, and inter-layer prediction or interlayer is performed. This is called an inter-layer prediction method.

영상 블록을 인코딩 할 때, 영상의 움직임이 시간적으로(이웃 픽처로부터) 예측되어 이를 기초로 하는 경우를 인터 모드(inter mode)라 하고, 그렇지 않은 경우 해당 픽처 내의 다른 픽셀을 이용하는 경우를 인트라 모드(intra mode) 또는 내부 모드라 한다. 또한, 인핸스드 레이어의 영상 블록이 베이스 레이어의 동시간의 프레임 내의 대응되는 위치에 놓인 블록을 기준으로 예측되는 경우를 인트라 베이스 모드(intra Base, intraBL, 또는 intra interlayer mode)라 한다.When encoding a video block, the case in which the motion of the image is predicted and based on time (from a neighboring picture) is called inter mode. Otherwise, the case of using another pixel in the picture is referred to as intra mode. intra mode) or internal mode. In addition, a case in which an image block of an enhanced layer is predicted based on a block placed at a corresponding position in a frame of a base layer at the same time is called an intra base mode (intra base, intraBL, or intra interlayer mode).

한편, 이러한 모션 보상 예측 및 변환은 영상 블록, 예를 들어 16x16 크기의 매크로블록 또는 4x4 크기의 서브 블록 단위로 수행되기 때문에, 영상 블록의 경계에서 블록화 현상(blocking artifact)이 발생하여 영상을 왜곡한다.On the other hand, since the motion compensation prediction and transformation are performed in units of image blocks, for example, 16x16 macroblocks or 4x4 subblocks, blocking artifacts occur at the boundary of the image block, thereby distorting the image. .

이러한 블록화 현상을 감소시키기 위하여, 모션 예측 동작이 수행된 이후에 디블로킹 필터링이 적용되는데, 디블로킹 필터는 블록의 가장자리를 부드럽게 하여 디코딩 된 프레임의 화질을 향상시킨다.In order to reduce the blocking effect, deblocking filtering is applied after the motion prediction operation is performed. The deblocking filter smoothes the edges of the block to improve the quality of the decoded frame.

디블로킹 필터링은, 도 2에 도시한 바와 같이, 영상 블록의 수직 또는 수평 가장자리에 적용된다. 디블로킹 필터링 동작은 경계의 양쪽에 대해 3개의 픽셀(샘 플)까지 영향을 미친다. 도 2는 인접한 영상 블록 p와 q에 있는 수직 또는 수평 경계 양쪽의 4개의 샘플(p0, p1, p2, p3 그리고 q0, q1, q2, q3)을 나타낸다.Deblocking filtering is applied to the vertical or horizontal edges of the image block, as shown in FIG. The deblocking filtering operation affects up to three pixels (samples) on both sides of the boundary. 2 shows four samples (p0, p1, p2, p3 and q0, q1, q2, q3) on both vertical or horizontal boundaries in adjacent image blocks p and q.

블록 왜곡 현상을 줄이기 위한 디블로킹 필터링의 적용 여부는 영상 블록의 경계에서의 세기와 경계 주위의 픽셀의 변화(gradient)에 의해 좌우되고, 디블로킹 필터의 강도는, 양자화 파라미터(parameter), 내부 모드, 인터 모드, 블록의 크기 등을 가리키는 영상 블록의 타입, 모션 벡터, 디블로킹 필터링 되기 전의 픽셀 값 등에 의해 결정된다.Whether or not deblocking filtering is applied to reduce block distortion is dependent on the intensity at the boundary of the image block and the gradient of pixels around the boundary, and the intensity of the deblocking filter is determined by the quantization parameter and the internal mode. , The type of the image block indicating the inter mode, the size of the block, the motion vector, the pixel value before deblocking filtering, and the like.

일반적으로, 인트라 모드로 인코딩 된 블록에 대해서는 큰 값(3 또는 4)의 경계 세기 파라미터(boundary strength parameter, 간단하게 bs라 함)가 선택되고, 인트라 모드가 아닌 블록에 대해서는 작은 값(0 ~2)의 bs가 선택된다.In general, a large value (3 or 4) of the boundary strength parameter (bs for short) is selected for blocks encoded in intra mode, and a small value (0 to 2 for non-intra mode blocks). Bs is selected.

또한, intraBL 모드에서 디블로킹 필터는 업샘플링(up-sampling) 또는 인터폴레이션(interpolation) 된 베이스 레이어의 픽처(프레임)에 적용될 수 있다.In the intraBL mode, the deblocking filter may be applied to a picture (frame) of an up-sampled or interpolated base layer.

한편, H.264와 호환되는 베이스 레이어를 레이어 간 예측 방법으로 이용하는 스케일러블 비디오 코덱(SVC)에는 필드(Field) 픽처에 대한 코딩 방법이 현재까지 정의되어 있지 않다.Meanwhile, in the scalable video codec (SVC) using a H.264 compatible base layer as an inter-layer prediction method, a coding method for a field picture is not defined until now.

베이스 레이어와 인핸스드 레이어(또는 현재 레이어)는 각각 프레임(Frame) 픽처 포맷 또는 필드 픽처 포맷 중 어느 하나가 될 수 있는데, 현재 SVC에는 레이어 간 예측 방법에 의해 인코딩 되는 두 레이어가 모두 프레임 픽처 포맷인 경우에 대한 코딩 과정만이 정의되어 있다.The base layer and the enhanced layer (or current layer) may each be either a frame picture format or a field picture format. In the current SVC, both layers encoded by inter-layer prediction methods are frame picture formats. Only the coding process for the case is defined.

레이어 간 예측 방법에 의해 인코딩 되는 두 레이어가 모두 필드 픽처 포맷 인 경우에는, 두 레이어가 모두 프레임 픽처 포맷으로 간주하여 프레임 픽처 포맷인 경우에 대한 코딩 과정으로부터 코딩 과정이 쉽게 유도될 수 있다.If both layers encoded by the inter-layer prediction method are both field picture formats, the coding process can be easily derived from the coding process for the case where both layers are frame picture formats.

하지만, 레이어 간 예측과 관련된 두 레이어의 픽처 포맷이 서로 다른 경우, 예를 들어 프레임 픽처 포맷의 인핸스드 레이어와 필드 픽처 포맷의 베이스 레이어 또는 그 반대의 경우, 레이어 간 예측 방법을 이용하는 코딩 과정에 대해 아직까지 정의되고 있지 않다. 또한, 픽처 포맷이 다른 베이스 레이어를 이용하는 인터레이어 텍스처 예측에서 디블록킹 필터링과 관련하여 아직 정의되고 있지 않다.However, when the picture formats of two layers related to inter-layer prediction are different, for example, an enhanced layer of a frame picture format and a base layer of a field picture format or vice versa, a coding process using an inter-layer prediction method It is not defined yet. In addition, the picture format is not yet defined with respect to deblocking filtering in interlayer texture prediction using different base layers.

본 발명은 이러한 문제점을 해결하기 위해 창작된 것으로서, 본 발명의 목적은, 픽처 포맷이 다른 베이스 레이어를 이용하는 인터레이어 텍스처 예측을 통해 인핸스드 레이어를 인코딩 또는 디코딩 할 때 베이스 레이어의 픽처를 디블록킹 하는 방법을 제공하는데 있다.The present invention was created to solve this problem, and an object of the present invention is to deblock a picture of a base layer when encoding or decoding an enhanced layer through interlayer texture prediction using a base layer having a different picture format. To provide a method.

상기한 목적을 달성하기 위해 본 발명의 일 실시예에 따른 영상 신호를 인코딩 하는 방법은, 영상 신호를 인코딩 하여 생성된 제 1 레이어의 픽처를 분리하여 디블로킹 필터링 하는 단계; 및 상기 디블로킹 필터링 되는 제 1 레이어의 픽처를 이용하여 상기 영상 신호를 인코딩 하여 제 2 레이어의 비트 스트림을 생성하는 단계를 포함하여 이루어지고, 여기서, 상기 제 2 레이어의 픽처와 제 2 레이어의 픽 처는 포맷이 서로 다른 것을 특징으로 한다.In order to achieve the above object, a method of encoding a video signal according to an embodiment of the present invention includes the steps of: separating and deblocking filtering a picture of a first layer generated by encoding the video signal; And generating a bit stream of a second layer by encoding the video signal by using the picture of the first layer to be deblocked and filtered, wherein the picture of the second layer and the picture of the second layer are generated. The features are characterized by different formats.

또한, 본 발명의 다른 실시예에 따른 인코딩 된 영상 비트 스트림을 디코딩 하는 방법은, 동일한 영상 신호가 인코딩 되어 비트 스트림이 생성된 제 1 레이어의 픽처를 분리하여 디블로킹 필터링 하는 단계; 및 상기 디블로킹 필터링 되는 제 1 레이어의 픽처를 이용하여 제 2 레이어의 비트 스트림을 디코딩 하는 단계를 포함하여 이루어지고, 여기서, 상기 제 2 레이어의 픽처와 제 2 레이어의 픽처는 포맷이 서로 다른 것을 특징으로 한다.Further, a method of decoding an encoded video bit stream according to another embodiment of the present invention includes the steps of: separating and deblocking filtering a picture of a first layer in which the same video signal is encoded to generate a bit stream; And decoding the bit stream of the second layer by using the picture of the first layer to be deblocked filtered, wherein the picture of the second layer and the picture of the second layer have different formats. It features.

일 실시예에서, 상기 제 1 레이어의 픽처는 인터레이스 픽처와 프로그레시브 픽처 중에서 어느 하나이고, 상기 제 2 레이어의 픽처는 나머지 하나인 것을 특징으로 한다.In one embodiment, the picture of the first layer is any one of an interlaced picture and a progressive picture, and the picture of the second layer is the other one.

또한, 일 실시예에서, 상기 1 레이어의 픽처는 짝수 라인과 홀수 라인으로 각각 추출되는 2개의 필드 픽처로 분리될 수 있다. 또한, 상기 필터링 하는 단계는, 상기 제 1 레이어의 픽처를 탑 필드 픽처와 버텀 필드 픽처로 분리하는 단계; 상기 분리되는 2개의 필드 픽처에 디블로킹 필터를 적용하는 단계; 및 상기 디블로킹 필터링 되는 2개의 픽처를 결합하는 단계를 포함하여 이루어질 수 있고, 디블로킹 필터를 적용하는 단계 앞에 상기 분리되는 2개의 필드 픽처를 제 1 레이어와 제 2 레이어의 해상도의 비로 업샘플링 하는 단계를 더 포함하여 이루어질 수 있다.In addition, in one embodiment, the picture of one layer may be divided into two field pictures extracted as even and odd lines, respectively. The filtering may include dividing a picture of the first layer into a top field picture and a bottom field picture; Applying a deblocking filter to the two separate field pictures; And combining the two pictures that are deblocking filtered, and upsampling the two separate field pictures to a ratio of a resolution of a first layer and a second layer before applying the deblocking filter. It may further comprise a step.

본 발명의 다른 실시예에 따른 영상 신호를 인코딩 하는 방법은, 영상 신호를 인코딩 하여 생성된 제 1 레이어의 픽처를 디블로킹 필터링 하는 단계; 및 상기 디블로킹 필터링 되는 제 1 레이어의 픽처를 이용하여 상기 영상 신호를 인코딩 하 여 제 2 레이어의 비트 스트림을 생성하는 단계를 포함하여 이루어지고, 여기서, 상기 제 2 레이어의 픽처와 제 2 레이어의 픽처는 포맷이 서로 다른 것을 특징으로 한다.According to another embodiment of the present invention, a method of encoding a video signal includes: deblocking filtering a picture of a first layer generated by encoding the video signal; And generating a bit stream of a second layer by encoding the video signal by using the picture of the first layer to be deblocked and filtered, wherein the picture of the second layer and the picture of the second layer The picture is characterized by different formats.

본 발명의 또 다른 실시예에 따른 인코딩 된 영상 비트 스트림을 디코딩 하는 방법은, 동일한 영상 신호가 인코딩 되어 비트 스트림이 생성된 제 1 레이어의 픽처를 디블로킹 필터링 하는 단계; 및 상기 디블로킹 필터링 되는 제 1 레이어의 픽처를 이용하여 제 2 레이어의 비트 스트림을 디코딩 하는 단계를 포함하여 이루어지고, 여기서, 상기 제 2 레이어의 픽처와 제 2 레이어의 픽처는 포맷이 서로 다른 것을 특징으로 한다.According to another embodiment of the present invention, a method of decoding an encoded video bit stream includes: deblocking and filtering a picture of a first layer in which a same video signal is encoded to generate a bit stream; And decoding the bit stream of the second layer by using the picture of the first layer to be deblocked filtered, wherein the picture of the second layer and the picture of the second layer have different formats. It features.

일 실시예에서, 상기 필터링 하는 단계는, 상기 제 1 레이어의 픽처를 제 1 레이어와 제 2 레이어의 해상도의 비로 업샘플링 하는 단계; 및 상기 업샘플링 되는 픽처에 디블로킹 필터를 적용하는 단계를 포함하여 이루어질 수 있다.In one embodiment, the filtering step comprises: upsampling a picture of the first layer to a ratio of resolutions of a first layer and a second layer; And applying a deblocking filter to the upsampled picture.

이하, 본 발명의 바람직한 실시예에 대해 첨부 도면을 참조하여 상세히 설명한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

비디오 영상은 순차 주사(progressive scan) 방식으로 스캔 되어 프로그레시브 비디오 시퀀스 상태에서 인코딩 될 수 있다. 또한, 비디오 영상은 비월 주사(interlace scan) 방식으로 스캔 되어 인터레이스 비디오 시퀀스 상태에서 인코딩 될 수도 있다.The video image can be scanned in progressive scan and encoded in progressive video sequence. In addition, the video image may be scanned by an interlace scan method and encoded in an interlaced video sequence.

동일한 영상 소오스에 대해 서로 다른 방식으로 스캔 되는 비디오 시퀀스, 다시 말해 다른 픽처 포맷의 영상 신호가 다른 프레임 레이트와 다른 해상도로 인코딩 될 수도 있다. 예를 들어, 영화 필름이, 인터레이스 방식의 TV 방송을 위해 비월 주사 방식으로 스캔 되어 상대적으로 낮은 해상도로 인코딩 될 수도 있고, 또는 프로그레시브 방식의 HD-TV 방송을 위해 순차 주사 방식으로 스캔 되어 높은 해상도로 인코딩 될 수도 있다.Video sequences scanned in different ways for the same image source, that is, image signals of different picture formats may be encoded at different frame rates and at different resolutions. For example, a motion picture film may be scanned with interlaced scanning for interlaced TV broadcasting and encoded at a relatively low resolution, or scanned with sequential scanning for progressive HD-TV broadcasting at high resolution. It can also be encoded.

따라서, 동일한 영상 소오스가 인코딩 된 베이스 레이어를 이용하여 레이어 간 예측 방법에 의해 인핸스드 레이어를 인코딩 할 때, 베이스 레이어 인코딩의 기초가 되는 영상 신호(비디오 영상을 스캔 하여 형성되는 픽처 시퀀스)와 인핸스드 레이어 인코딩의 기초가 되는 영상 신호의 픽처 포맷이 하나는 프로그레시브 픽처이고 다른 하나는 인터레이스 픽처로 서로 다를 수 있다.Therefore, when encoding the enhanced layer by the inter-layer prediction method using the base layer encoded with the same image source, the image signal (picture sequence formed by scanning the video image) which is the basis of base layer encoding is enhanced. The picture format of the video signal that is the basis of the layer encoding may be different from each other as a progressive picture and the other as an interlaced picture.

첫 번째 경우는, 도 3에서 도시한 바와 같이, 인핸스드 레이어의 픽처는 프로그레시브 픽처이고, 베이스 레이어는 인터레이스 픽처를 기초로 인코딩 되어 있는 예이다.In the first case, as shown in FIG. 3, an enhanced layer picture is a progressive picture, and a base layer is encoded based on an interlaced picture.

두 번째 경우는, 도 4에 도시한 바와 같이, 인핸스드 레이어의 픽처는 인터레이스 픽처이고, 베이스 레이어는 프로그레시브 픽처를 기초로 인코딩 되어 있는 예이다.In the second case, as shown in FIG. 4, the picture of the enhanced layer is an interlaced picture, and the base layer is encoded based on the progressive picture.

베이스 레이어의 텍스처를 이용하는 인터레이어 텍스처 예측에서, 베이스 레이어 픽처는, 먼저 베이스 레이어와 인핸스드 레이어의 해상도의 비(화면 크기의 비)에 따라 업샘플링 된 후에, 블록화 현상을 줄이기 위한 디블록킹 필터가 적용된다.In interlayer texture prediction using textures of the base layer, the base layer picture is first upsampled according to the ratio of the resolution of the base layer to the enhanced layer (ratio of screen sizes), and then a deblocking filter to reduce the blocking phenomenon is provided. Apply.

본 발명의 첫 번째 실시예는, 다른 픽처 포맷으로 인코딩 되는 베이스 레이어를 이용하여 인핸스드 레이어를 생성할 때, 베이스 레이어의 픽처를 even 라인의 필드 픽처와 odd 라인의 필드 픽처로 나누고, 이를 별도로 업샘플링 하고 디블록킹 필터링 하고, 두 필드 픽처를 하나의 픽처로 결합하여, 이를 기초로 인터레이어 텍스처 예측 동작을 수행한다.According to the first embodiment of the present invention, when generating an enhanced layer using a base layer encoded in a different picture format, the picture of the base layer is divided into a field picture of an even line and a field picture of an odd line. Sampling and deblocking filtering are performed, and the two field pictures are combined into one picture, and based on this, an interlayer texture prediction operation is performed.

본 발명의 첫 번째 실시예는 3 단계로 이루어진다.The first embodiment of the invention consists of three steps.

첫 번째 단계인 분리 단계(separation process)에서는, 베이스 레이어의 픽처가 even 라인으로 구성되는 top field 픽처와 odd 라인으로 구성되는 bottom field 픽처로 분리된다. 이때, 베이스 레이어의 픽처는 인코딩 된 베이스 레이어의 데이터 스트림으로부터 모션 보상/예측(motion compensation/prediction)을 통해 복원되는(reconstructed) 영상 픽처일 수 있다.In the first step, the separation process, the base layer picture is separated into a top field picture consisting of even lines and a bottom field picture consisting of odd lines. In this case, the picture of the base layer may be an image picture reconstructed through motion compensation / prediction from the data stream of the encoded base layer.

만약, 인핸스드 레이어와 베이스 레이어의 해상도가 다른 경우, 상기 분리되는 각 필드 픽처는 인핸스드 레이어와 베이스 레이어의 해상도의 비율에 따라 업샘플링 된다.If the resolution of the enhanced layer and the base layer is different, each of the separated field pictures is upsampled according to the ratio of the resolution of the enhanced layer and the base layer.

두 번째 단계인 디블로킹 단계(de-blocking process)에서는, 상기 분리 단계에서 분리되어 업샘플링 되는 각 필드 픽처가 디블로킹 필터에 의해 디블로킹 되는데, 이때 적용되는 디블로킹 필터는 종래의 디블로킹 필터가 사용될 수 있다.In a second step, the de-blocking process, each field picture separated and upsampled in the separation step is deblocked by a deblocking filter. The deblocking filter applied here is a conventional deblocking filter. Can be used.

세 번째 단계인 결합 단계(joining process)에서는, 디블로킹 되는 top field 픽처와 bottom field 픽처가 교대로 인터레이싱 되어 하나의 픽처로 결합된 다.In the third step, the joining process, the deblocked top field picture and the bottom field picture are alternately interlaced and combined into one picture.

이후, 이를 기초로 인핸스드 레이어의 텍스처에 대한 예측 동작이 수행된다.Thereafter, a prediction operation on the texture of the enhanced layer is performed based on this.

본 발명의 첫 번째 실시예는 도 3과 도 4의 경우에 모두 적용될 수 있다.The first embodiment of the present invention can be applied to both the case of FIG. 3 and FIG.

본 발명의 두 번째 실시예는, 다른 픽처 포맷으로 인코딩 되는 베이스 레이어를 이용하여 인핸스드 레이어를 생성할 때, 베이스 레이어의 픽처를, 2개의 필드 픽처로 나누지 않고, 바로 업샘플링 하고 디블록킹 필터링 하여, 이를 기초로 인터레이어 텍스처 예측 동작을 수행한다.According to the second embodiment of the present invention, when generating an enhanced layer using a base layer encoded in another picture format, the base layer picture is directly sampled and deblocked filtered without dividing the picture of the base layer into two field pictures. Based on this, the interlayer texture prediction operation is performed.

상기 두 번째 실시예에서는, 인터레이어 텍스처 예측에 의해 인코딩 하고자 하는 인핸스드 레이어의 픽처에 대응되는 베이스 레이어의 픽처가 프로그레시브 픽처인지 인터레이스 픽처인지 관계 없이, 또한 베이스 레이어의 픽처가 top field 픽처와 bottom field 픽처로 분리되지 않고, 바로 업샘플링 동작이 수행되고 디블록킹 필터가 적용된다. 이후, 이를 기초로 인핸스드 레이어의 텍스처에 대한 예측 동작이 수행된다.In the second embodiment, regardless of whether the picture of the base layer corresponding to the picture of the enhanced layer to be encoded by interlayer texture prediction is a progressive picture or an interlaced picture, the picture of the base layer is a top field picture and a bottom field. The upsampling operation is performed immediately and the deblocking filter is applied without being separated into pictures. Thereafter, a prediction operation on the texture of the enhanced layer is performed based on this.

첫 번째 실시예와 마찬가지로, 상기 두 번째 실시예도 도 3과 도 4의 경우에 모두 적용될 수 있다.Like the first embodiment, the second embodiment can be applied to both the case of FIGS. 3 and 4.

영상 신호를 인코딩 할 때, 첫 번째 실시예와 두 번째 실시예를 모두 적용한 후 코딩 효율이 높은 것을 선택하여 이에 따라 인핸스드 레이어를 생성할 수 있다. When encoding a video signal, after applying both the first embodiment and the second embodiment, the coding efficiency may be selected to generate an enhanced layer accordingly.

도 5는 본 발명에 따른 영상 신호의 인코딩 방법이 적용되는 영상 신호 인코딩 장치의 구성을 도시한 것이다.5 is a block diagram of a video signal encoding apparatus to which a video signal encoding method according to the present invention is applied.

도 5의 영상 신호 인코딩 장치는, 입력되는 영상 신호를 모션 추정/보상을 통해 예측하거나 또는 입력되는 베이스 레이어(BL)의 비트 스트림을 기초로 레이어 간 예측을 수행하여, 상기 영상 신호를 매크로블록 단위로 인코딩 하고 적절한 관리 정보를 생성하는 인핸스드 레이어(EL) 인코더(100), 상기 인코딩 된 각 매크로블록의 이미지 데이터를 압축된 비트 열로 변환하는 텍스처 코딩부(110), 상기 EL 인코더(100)에 의해 얻어지는 모션 벡터, 레퍼런스 인덱스, 파티셔닝 등의 모션 정보를 지정된 방식에 의해 압축된 비트 열로 코딩 하는 모션 코딩부(120), 및 상기 텍스처 코딩부(110)의 출력 데이터, 상기 입력되는 베이스 레이어의 비트 스트림 및 상기 모션 코딩부(120)의 출력 데이터를 기 지정된 포맷으로 인캡슐(encapsulate) 한 다음 기 지정된 전송 포맷으로 상호 먹싱 하여 출력하는 먹서(130)를 포함하여 구성된다.The video signal encoding apparatus of FIG. 5 predicts an input video signal through motion estimation / compensation or performs inter-layer prediction based on a bit stream of an input base layer BL, thereby converting the video signal into macroblock units. An enhanced layer (EL) encoder (100) for encoding the data and generating appropriate management information, a texture coding unit (110) for converting the image data of each encoded macroblock into a compressed bit stream, and the EL encoder (100). Motion coder 120 for coding the motion information obtained by the motion vector, reference index, partitioning, etc. into a bit stream compressed by a specified method, and output data of the texture coding unit 110, and bits of the input base layer. Encapsulates the stream and the output data of the motion coding unit 120 in a predetermined format and then uploads them in a predetermined transmission format. Muxing and is configured to include a meokseo 130 for outputting.

상기 영상 신호는, 상기 인코딩 장치와는 별개의 베이스 레이어(BL) 인코더에 의해, 지정된 방식, 예를 들어 MPEG 1, 2, 또는 4, 또는 H.261, H.264 방식으로 인코딩 되어 필요에 따라 작은 화면, 예를 들어 원래 크기의 25%인 픽처들의 시퀀스로 생성될 수 있다. 또한, BL 인코더에서 생성되는 베이스 레이어 비트 스트림은 상기 인코딩 장치에 입력되어, 상기 인핸스드 레이어의 레이어 간 예측에 이용될 수 있다.The video signal is encoded by a base layer (BL) encoder separate from the encoding device in a designated manner, for example, MPEG 1, 2, or 4, or H.261, H.264. It can be created as a small screen, for example a sequence of pictures that are 25% of the original size. In addition, the base layer bit stream generated by the BL encoder may be input to the encoding apparatus and used for inter-layer prediction of the enhanced layer.

상기 EL 인코더(100)는, 상기 베이스 레이어의 비트 스트림을 이용하여 레이어 간 예측을 통해 인핸스드 레이어를 생성할 수 있는데, 베이스 레이어의 텍스처를 이용할 때에는 베이스 레이어의 픽처에 대해 디블로킹 필터를 적용한다.The EL encoder 100 may generate an enhanced layer through inter-layer prediction using the bit stream of the base layer. When the texture of the base layer is used, the EL encoder 100 applies a deblocking filter to a picture of the base layer. .

그리고, 베이스 레이어와 인핸스드 레이어의 픽처 포맷이 다른 경우, 상기 EL 인코더(100)는, 본 발명의 첫 번째 실시예에 따라, 입력되는 베이스 레이어의 비트 스트림으로부터 픽처를 복원하고, 복원되는 픽처를 2개의 필드 픽처로 분리하고, 분리되는 각 픽처를 인핸스드 레이어와 베이스 레이어의 해상도 비율로 업샘플링 하고, 업샘플링 되는 각 픽처에 디블로킹 필터를 적용하고, 디블로킹 필터링 된 각 픽처를 결합한 후, 이를 기초로 하는 인터레이어 텍스처 예측을 통해 인핸스드 레이어를 생성한다.When the picture formats of the base layer and the enhanced layer are different, the EL encoder 100 reconstructs the picture from the bit stream of the input base layer according to the first embodiment of the present invention, and restores the picture to be reconstructed. After splitting into two field pictures, upsampling each separated picture at the resolution ratio of the enhanced layer and the base layer, applying a deblocking filter to each upsampled picture, and combining each deblocking filtered picture, Based on this, an enhanced layer is generated through interlayer texture prediction.

또는, 베이스 레이어와 인핸스드 레이어의 픽처 포맷이 다른 경우, 상기 EL 인코더(100)는, 본 발명의 두 번째 실시예에 따라, 입력되는 베이스 레이어의 비트 스트림으로부터 픽처를 복원하고, 복원되는 픽처를 인핸스드 레이어와 베이스 레이어의 해상도 비율로 업샘플링 하고, 업샘플링 되는 픽처에 디블로킹 필터를 적용한 후, 이를 기초로 하는 인터레이어 텍스처 예측을 통해 인핸스드 레이어를 생성한다.Alternatively, when the picture formats of the base layer and the enhanced layer are different, the EL encoder 100 reconstructs the picture from the bit stream of the input base layer according to the second embodiment of the present invention, and restores the picture to be reconstructed. After upsampling at the resolution ratio of the enhanced layer and the base layer, and applying a deblocking filter to the upsampled picture, an enhanced layer is generated through interlayer texture prediction based on the upsampled picture.

인코딩 된 데이터 스트림은 유선 또는 무선으로 디코딩 장치에 전송되거나 기록 매체를 매개로 하여 전달되며, 디코딩 장치는 이후 설명하는 방법에 따라 원래의 영상 신호를 복원하게 된다.The encoded data stream is wired or wirelessly transmitted to the decoding apparatus or transmitted via a recording medium, and the decoding apparatus restores the original video signal according to the method described later.

도 6은 도 5의 장치에 의해 인코딩 된 비트 스트림을 디코딩 하는 장치의 블록도이다.6 is a block diagram of an apparatus for decoding a bit stream encoded by the apparatus of FIG. 5.

도 6의 디코딩 장치는, 수신되는 비트 스트림에서 압축된 모션 정보 스트림과 압축된 텍스처 정보 스트림을 분리하는 디먹서(200), 압축된 텍스처 정보 스트 림을 원래의 비압축 상태로 복원하는 텍스처 디코딩부(210), 압축된 모션 정보 스트림을 원래의 비압축 상태로 복원하는 모션 디코딩부(220), 압축 해제된 텍스처 정보와 모션 정보를 모션 보상/추정을 통해 원래의 영상 신호로 역변환하는 인핸스드 레이어(EL) 디코더(230), 및 베이스 레이어 스트림을 정해진 방식, 예를 들어 MCTF, MPEG-4, 또는 H.264 방식에 의해 디코딩 하는 베이스 레이어(BL) 디코더(240)를 포함하여 구성된다.The decoding apparatus of FIG. 6 includes a demux 200 for separating the compressed motion information stream and the compressed texture information stream from the received bit stream, and a texture decoding unit for restoring the compressed texture information stream to the original uncompressed state. (210), a motion decoding unit 220 for restoring the compressed motion information stream to the original uncompressed state, an enhanced layer for inversely converting the decompressed texture information and motion information to the original video signal through motion compensation / estimation (EL) decoder 230, and a base layer (BL) decoder 240 for decoding the base layer stream by a predetermined method, for example, MCTF, MPEG-4, or H.264.

베이스 레이어와 인핸스드 레이어의 픽처 포맷이 다른 경우, 상기 EL 디코더(230)는, 본 발명의 첫 번째 실시예에 따라, 상기 BL 디코더(240)를 통해 베이스 레이어의 비트 스트림으로부터 픽처를 복원하고, 복원되는 픽처를 2개의 필드 픽처로 분리하고, 분리되는 각 픽처를 인핸스드 레이어와 베이스 레이어의 해상도 비율로 업샘플링 하고, 업샘플링 되는 각 픽처에 디블로킹 필터를 적용하고, 디블로킹 필터링 된 각 픽처를 결합한 후, 이를 기초로 하는 인터레이어 텍스처 예측을 통해 인핸스드 레이어를 디코딩 한다.When the picture format of the base layer and the enhanced layer is different, the EL decoder 230 reconstructs a picture from the bit stream of the base layer through the BL decoder 240 according to the first embodiment of the present invention. Separate the reconstructed picture into two field pictures, upsample each separated picture at the resolution ratio of the enhanced and base layer, apply a deblocking filter to each upsampled picture, and each deblocked filtered picture After combining, the enhanced layer is decoded through interlayer texture prediction based on this.

또는, 베이스 레이어와 인핸스드 레이어의 픽처 포맷이 다른 경우, 상기 EL 디코더(230)는, 본 발명의 두 번째 실시예에 따라, 상기 BL 디코더(240)를 통해 베이스 레이어의 비트 스트림으로부터 픽처를 복원하고, 복원되는 픽처를 인핸스드 레이어와 베이스 레이어의 해상도 비율로 업샘플링 하고, 업샘플링 되는 픽처에 디블로킹 필터를 적용한 후, 이를 기초로 하는 인터레이어 텍스처 예측을 통해 인핸스드 레이어를 디코딩 한다.Alternatively, when the picture format of the base layer and the enhanced layer are different, the EL decoder 230 reconstructs a picture from the bit stream of the base layer through the BL decoder 240 according to the second embodiment of the present invention. The reconstructed picture is upsampled at a resolution ratio between the enhanced layer and the base layer, a deblocking filter is applied to the upsampled picture, and the enhanced layer is decoded through interlayer texture prediction based on the resampled picture.

전술한 디코딩 장치는 이동 통신 단말기 등에 실장되거나 또는 기록 매체를 재생하는 장치에 실장될 수 있다.The above-described decoding apparatus may be mounted in a mobile communication terminal or the like or in an apparatus for reproducing a recording medium.

이상, 전술한 본 발명의 바람직한 실시예는 예시의 목적을 위해 개시된 것으로, 당업자라면 이하 첨부된 특허청구범위에 개시된 본 발명의 기술적 사상과 그 기술적 범위 내에서 또 다른 다양한 실시예들을 개량, 변경, 대체 또는 부가 등이 가능할 것이다.As described above, preferred embodiments of the present invention have been disclosed for the purpose of illustration, and those skilled in the art can improve, change, and further various embodiments within the technical spirit and the technical scope of the present invention disclosed in the appended claims. Replacement or addition may be possible.

따라서, 픽처 포맷이 다른 베이스 레이어를 이용하는 인터레이어 텍스처 예측에서 베이스 레이어의 픽처에 대한 디블록킹 필터링 동작을 효과적으로 수행할 수 있고, 또한 이에 따라 코딩 효율을 향상시킬 수 있다.Accordingly, in the interlayer texture prediction using the base layer having a different picture format, the deblocking filtering operation on the picture of the base layer can be effectively performed, and accordingly, the coding efficiency can be improved.

Claims (16)

영상 신호를 인코딩 하여 생성된 제 1 레이어의 픽처를 분리하여 디블로킹 필터링 하는 단계; 및Separating and deblocking filtering the picture of the first layer generated by encoding the image signal; And 상기 디블로킹 필터링 되는 제 1 레이어의 픽처를 이용하여 상기 영상 신호를 인코딩 하여 제 2 레이어의 비트 스트림을 생성하는 단계를 포함하여 이루어지고,And generating a bit stream of a second layer by encoding the video signal by using the picture of the first layer to be deblocked and filtered. 여기서, 상기 제 2 레이어의 픽처와 제 2 레이어의 픽처는 포맷이 서로 다른 것을 특징으로 하는 영상 신호를 인코딩 하는 방법.The picture encoding method of claim 2, wherein the picture of the second layer and the picture of the second layer have different formats. 제 1항에 있어서,The method of claim 1, 상기 제 1 레이어의 픽처는 인터레이스 픽처와 프로그레시브 픽처 중에서 어느 하나이고, 상기 제 2 레이어의 픽처는 나머지 하나인 것을 특징으로 하는 영상 신호를 인코딩 하는 방법.The picture of the first layer is any one of an interlaced picture and a progressive picture, and the picture of the second layer is the other one. 제 1항에 있어서,The method of claim 1, 상기 1 레이어의 픽처는, 짝수 라인과 홀수 라인으로 각각 추출되는 2개의 필드 픽처로 분리되는 것을 특징으로 하는 영상 신호를 인코딩 하는 방법.And the picture of the one layer is divided into two field pictures which are extracted as even lines and odd lines, respectively. 제 3항에 있어서,The method of claim 3, wherein 상기 필터링 하는 단계는,The filtering step, 상기 제 1 레이어의 픽처를 탑 필드 픽처와 버텀 필드 픽처로 분리하는 단계;Dividing the picture of the first layer into a top field picture and a bottom field picture; 상기 분리되는 2개의 필드 픽처에 디블로킹 필터를 적용하는 단계; 및Applying a deblocking filter to the two separate field pictures; And 상기 디블로킹 필터링 되는 2개의 픽처를 결합하는 단계를 포함하여 이루어지는 것을 특징으로 하는 영상 신호를 인코딩 하는 방법.And combining the two pictures to be deblocked and filtered. 제 4항에 있어서,The method of claim 4, wherein 상기 필터링 하는 단계는,The filtering step, 디블로킹 필터를 적용하는 단계 앞에, 상기 분리되는 2개의 필드 픽처를 제 1 레이어와 제 2 레이어의 해상도의 비로 업샘플링 하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 영상 신호를 인코딩 하는 방법.And prior to applying the deblocking filter, upsampling the two separate field pictures by a ratio of the resolution of the first layer and the second layer. 영상 신호를 인코딩 하여 생성된 제 1 레이어의 픽처를 디블로킹 필터링 하는 단계; 및Deblocking and filtering the picture of the first layer generated by encoding the image signal; And 상기 디블로킹 필터링 되는 제 1 레이어의 픽처를 이용하여 상기 영상 신호를 인코딩 하여 제 2 레이어의 비트 스트림을 생성하는 단계를 포함하여 이루어지고,And generating a bit stream of a second layer by encoding the video signal by using the picture of the first layer to be deblocked and filtered. 여기서, 상기 제 2 레이어의 픽처와 제 2 레이어의 픽처는 포맷이 서로 다른 것을 특징으로 하는 영상 신호를 인코딩 하는 방법.The picture encoding method of claim 2, wherein the picture of the second layer and the picture of the second layer have different formats. 제 6항에 있어서,The method of claim 6, 상기 제 1 레이어의 픽처는 인터레이스 픽처와 프로그레시브 픽처 중에서 어느 하나이고, 상기 제 2 레이어의 픽처는 나머지 하나인 것을 특징으로 하는 영상 신호를 인코딩 하는 방법.The picture of the first layer is any one of an interlaced picture and a progressive picture, and the picture of the second layer is the other one. 제 6항에 있어서,The method of claim 6, 상기 필터링 하는 단계는,The filtering step, 상기 제 1 레이어의 픽처를 제 1 레이어와 제 2 레이어의 해상도의 비로 업샘플링 하는 단계; 및Upsampling a picture of the first layer to a ratio of resolutions of a first layer and a second layer; And 상기 업샘플링 되는 픽처에 디블로킹 필터를 적용하는 단계를 포함하여 이루어지는 것을 특징으로 하는 영상 신호를 인코딩 하는 방법.And applying a deblocking filter to the upsampled picture. 동일한 영상 신호가 인코딩 되어 비트 스트림이 생성된 제 1 레이어의 픽처를 분리하여 디블로킹 필터링 하는 단계; 및Separating and deblocking filtering the picture of the first layer in which the same video signal is encoded to generate a bit stream; And 상기 디블로킹 필터링 되는 제 1 레이어의 픽처를 이용하여 제 2 레이어의 비트 스트림을 디코딩 하는 단계를 포함하여 이루어지고,And decoding the bit stream of the second layer by using the picture of the first layer to be deblocked and filtered. 여기서, 상기 제 2 레이어의 픽처와 제 2 레이어의 픽처는 포맷이 서로 다른 것을 특징으로 하는 인코딩 된 영상 비트 스트림을 디코딩 하는 방법.The picture decoding method of claim 2, wherein the picture of the second layer and the picture of the second layer have different formats. 제 9항에 있어서,The method of claim 9, 상기 제 1 레이어의 픽처는 인터레이스 픽처와 프로그레시브 픽처 중에서 어느 하나이고, 상기 제 2 레이어의 픽처는 나머지 하나인 것을 특징으로 하는 인코딩 된 영상 비트 스트림을 디코딩 하는 방법.The picture of the first layer is any one of an interlaced picture and a progressive picture, and the picture of the second layer is the other one. 제 9항에 있어서,The method of claim 9, 상기 1 레이어의 픽처는, 짝수 라인과 홀수 라인으로 각각 추출되는 2개의 필드 픽처로 분리되는 것을 특징으로 하는 인코딩 된 영상 비트 스트림을 디코딩 하는 방법.And the picture of the one layer is divided into two field pictures, each extracted into an even line and an odd line. 제 11항에 있어서,The method of claim 11, 상기 필터링 하는 단계는,The filtering step, 상기 제 1 레이어의 픽처를 탑 필드 픽처와 버텀 필드 픽처로 분리하는 단계;Dividing the picture of the first layer into a top field picture and a bottom field picture; 상기 분리되는 2개의 필드 픽처에 디블로킹 필터를 적용하는 단계; 및Applying a deblocking filter to the two separate field pictures; And 상기 디블로킹 필터링 되는 2개의 픽처를 결합하는 단계를 포함하여 이루어지는 것을 특징으로 하는 인코딩 된 영상 비트 스트림을 디코딩 하는 방법.Combining the two pictures that are deblocking filtered. 제 12항에 있어서,The method of claim 12, 상기 필터링 하는 단계는,The filtering step, 디블로킹 필터를 적용하는 단계 앞에, 상기 분리되는 2개의 필드 픽처를 제 1 레이어와 제 2 레이어의 해상도의 비로 업샘플링 하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 인코딩 된 영상 비트 스트림을 디코딩 하는 방법.And prior to applying the deblocking filter, upsampling the two separate field pictures to a ratio of the resolutions of the first and second layers. . 동일한 영상 신호가 인코딩 되어 비트 스트림이 생성된 제 1 레이어의 픽처를 디블로킹 필터링 하는 단계; 및Deblocking and filtering the picture of the first layer in which the same video signal is encoded to generate a bit stream; And 상기 디블로킹 필터링 되는 제 1 레이어의 픽처를 이용하여 제 2 레이어의 비트 스트림을 디코딩 하는 단계를 포함하여 이루어지고,And decoding the bit stream of the second layer by using the picture of the first layer to be deblocked and filtered. 여기서, 상기 제 2 레이어의 픽처와 제 2 레이어의 픽처는 포맷이 서로 다른 것을 특징으로 하는 인코딩 된 영상 비트 스트림을 디코딩 하는 방법.The picture decoding method of claim 2, wherein the picture of the second layer and the picture of the second layer have different formats. 제 14항에 있어서,The method of claim 14, 상기 제 1 레이어의 픽처는 인터레이스 픽처와 프로그레시브 픽처 중에서 어느 하나이고, 상기 제 2 레이어의 픽처는 나머지 하나인 것을 특징으로 하는 인코딩 된 영상 비트 스트림을 디코딩 하는 방법.The picture of the first layer is any one of an interlaced picture and a progressive picture, and the picture of the second layer is the other one. 제 14항에 있어서,The method of claim 14, 상기 필터링 하는 단계는,The filtering step, 상기 제 1 레이어의 픽처를 제 1 레이어와 제 2 레이어의 해상도의 비로 업샘플링 하는 단계; 및Upsampling a picture of the first layer to a ratio of resolutions of a first layer and a second layer; And 상기 업샘플링 되는 픽처에 디블로킹 필터를 적용하는 단계를 포함하여 이루어지는 것을 특징으로 하는 인코딩 된 영상 비트 스트림을 디코딩 하는 방법.And applying a deblocking filter to the upsampled picture.
KR1020060111897A 2006-01-09 2006-11-13 Method for encoding and decoding video signal Pending KR20070074453A (en)

Priority Applications (63)

Application Number Priority Date Filing Date Title
EP07700920.7A EP1972155A4 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
JP2008550226A JP4991757B2 (en) 2006-01-09 2007-01-09 Video signal encoding / decoding method
PCT/KR2007/000143 WO2007081135A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
PCT/KR2007/000142 WO2007100187A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020087017199A KR20090016544A (en) 2006-01-09 2007-01-09 Inter-layer prediction method of video signal
JP2008550230A JP4991761B2 (en) 2006-01-09 2007-01-09 Video signal encoding / decoding method
JP2008550231A JP4991762B2 (en) 2006-01-09 2007-01-09 Video signal encoding / decoding method and apparatus
PCT/KR2007/000148 WO2007081140A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
US12/087,471 US8401091B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
JP2008550232A JP4991763B2 (en) 2006-01-09 2007-01-09 Video signal encoding / decoding method
KR1020097011954A KR101055741B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
CN2007800056109A CN101385349B (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
PCT/KR2007/000146 WO2007081138A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
CN2007800053238A CN101385348B (en) 2006-01-09 2007-01-09 Inter-Layer Prediction Method for Video Signal
EP07700917.3A EP1972154A4 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
JP2008550224A JP5106419B2 (en) 2006-01-09 2007-01-09 Video signal encoding / decoding method and apparatus
PCT/KR2007/000144 WO2007081136A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
EP07700918.1A EP1977608B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
US12/087,518 US8451899B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
CN200780005672XA CN101385352B (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020087017201A KR100904442B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
CA2636571A CA2636571C (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
CN201210585882.3A CN103096078B (en) 2006-01-09 2007-01-09 For inter-layer prediction method and the device of vision signal
CN2007800056467A CN101385351B (en) 2006-01-09 2007-01-09 Inter-Layer Prediction Method for Video Signal
AU2007205337A AU2007205337B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020087017203A KR20080092372A (en) 2006-01-09 2007-01-09 Inter-layer prediction method of video signal
EP07700921.5A EP1977610B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
US12/087,526 US8457201B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
CN2007800057614A CN101385354B (en) 2006-01-09 2007-01-09 Inter-Layer Prediction Method for Video Signal
KR1020087017198A KR100917829B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
US12/087,488 US8494060B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
CN2007800056166A CN101385350B (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
US12/087,466 US8264968B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
PCT/KR2007/000141 WO2007081134A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
HK09106198.8A HK1129013B (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
EP07700914.0A EP1972152A4 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
US12/087,525 US8687688B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
CN2007800057544A CN101385353B (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
JP2008550229A JP4991760B2 (en) 2006-01-09 2007-01-09 Interlayer prediction method for video signals
PCT/KR2007/000147 WO2007081139A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
EP07700915.7A EP1977607A4 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
EP07700913.2A EP1980114A4 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020087017195A KR100914712B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
US12/087,515 US8345755B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
HK09106200.4A HK1128571B (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
PCT/KR2007/000145 WO2007081137A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
PCT/KR2007/000140 WO2007081133A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
EP07700916.5A EP1972153A4 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
JP2008550225A JP4991756B2 (en) 2006-01-09 2007-01-09 Video signal encoding / decoding method
US12/087,464 US8494042B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020087017204A KR100917206B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020097021246A KR101055742B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020087017196A KR100904441B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method of video signal
JP2008550227A JP4991758B2 (en) 2006-01-09 2007-01-09 Video signal encoding / decoding method
KR1020087017202A KR100904443B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method of video signal
HK09106197.9A HK1128843B (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
EP07700919.9A EP1977609A4 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
CN2007800057826A CN101385355B (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
US12/087,523 US8792554B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
JP2008550228A JP4991759B2 (en) 2006-01-09 2007-01-09 Video signal encoding / decoding method
KR1020087017197A KR100914713B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
US12/659,389 US8619872B2 (en) 2006-01-09 2010-03-08 Inter-layer prediction method for video signal
US14/178,751 US9497453B2 (en) 2006-01-09 2014-02-12 Inter-layer prediction method for video signal

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US75700906P 2006-01-09 2006-01-09
US60/757,009 2006-01-09

Publications (1)

Publication Number Publication Date
KR20070074453A true KR20070074453A (en) 2007-07-12

Family

ID=38508610

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020060111897A Pending KR20070074453A (en) 2006-01-09 2006-11-13 Method for encoding and decoding video signal
KR1020060111894A Pending KR20070074451A (en) 2006-01-09 2006-11-13 How to use video signal of base layer for inter-layer prediction
KR1020060111895A Pending KR20070074452A (en) 2006-01-09 2006-11-13 Inter-layer prediction method when encoding / decoding video signal

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020060111894A Pending KR20070074451A (en) 2006-01-09 2006-11-13 How to use video signal of base layer for inter-layer prediction
KR1020060111895A Pending KR20070074452A (en) 2006-01-09 2006-11-13 Inter-layer prediction method when encoding / decoding video signal

Country Status (2)

Country Link
KR (3) KR20070074453A (en)
CN (9) CN101385351B (en)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8494042B2 (en) 2006-01-09 2013-07-23 Lg Electronics Inc. Inter-layer prediction method for video signal
DK3703369T3 (en) 2010-04-13 2024-10-21 Ge Video Compression Llc Fusion of trial areas
CN105915918B (en) * 2010-04-13 2019-09-06 Ge视频压缩有限责任公司 Method and apparatus across planar prediction
DK2559005T3 (en) 2010-04-13 2015-11-23 Ge Video Compression Llc Inheritance at sample array multitræsunderinddeling
ES2746182T3 (en) * 2010-04-13 2020-03-05 Ge Video Compression Llc Prediction between planes
RS64606B1 (en) 2010-04-13 2023-10-31 Ge Video Compression Llc Video coding using multi-tree sub-divisions of images
AU2012208842B2 (en) * 2011-01-19 2014-08-07 Hfi Innovation Inc. Method and apparatus for parsing error robustness of temporal Motion Vector Prediction
LT3793200T (en) 2012-04-13 2023-02-27 Ge Video Compression, Llc VIDEO ENCODING WITH LOW LATENCY
CN115442623B (en) 2012-06-29 2024-08-23 Ge视频压缩有限责任公司 Method for decoding video data stream, storage medium, encoder, decoder
KR20150054752A (en) * 2012-09-09 2015-05-20 엘지전자 주식회사 Image decoding method and apparatus using same
IN2015DN02130A (en) * 2012-09-27 2015-08-14 Dolby Lab Licensing Corp
US10375405B2 (en) * 2012-10-05 2019-08-06 Qualcomm Incorporated Motion field upsampling for scalable coding based on high efficiency video coding
KR20140121315A (en) 2013-04-04 2014-10-15 한국전자통신연구원 Method and apparatus for image encoding and decoding based on multi-layer using reference picture list
WO2014163418A1 (en) * 2013-04-04 2014-10-09 한국전자통신연구원 Image encoding/decoding method and device
US9756335B2 (en) * 2013-07-02 2017-09-05 Qualcomm Incorporated Optimizations on inter-layer prediction signalling for multi-layer video coding
KR20150009424A (en) 2013-07-15 2015-01-26 한국전자통신연구원 Method and apparatus for image encoding and decoding using inter-layer prediction based on temporal sub-layer information

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9022326D0 (en) * 1990-10-15 1990-11-28 British Telecomm Signal coding
AU5632394A (en) * 1993-03-05 1994-09-08 Sony Corporation Apparatus and method for reproducing a prediction-encoded video signal
EP0731614B1 (en) * 1995-03-10 2002-02-06 Kabushiki Kaisha Toshiba Video coding/decoding apparatus
US6173013B1 (en) * 1996-11-08 2001-01-09 Sony Corporation Method and apparatus for encoding enhancement and base layer image signals using a predicted image signal
JP2001160971A (en) * 1996-11-12 2001-06-12 Matsushita Electric Ind Co Ltd Digital image encoding method and digital image encoding device, digital image decoding method and digital image decoding device, and data storage medium
JP3301375B2 (en) 1997-01-24 2002-07-15 ソニー株式会社 Image signal encoding apparatus and method, image signal decoding apparatus and method
JPH10271509A (en) * 1997-03-26 1998-10-09 Sharp Corp Image encoding device and image decoding device
US6332002B1 (en) * 1997-11-01 2001-12-18 Lg Electronics Inc. Motion prediction apparatus and method
KR100281462B1 (en) * 1998-03-30 2001-02-01 전주범 Method for encoding motion vector of binary shape signals in interlaced shape coding technique
US20020118742A1 (en) * 2001-02-26 2002-08-29 Philips Electronics North America Corporation. Prediction structures for enhancement layer in fine granular scalability video coding
US7940845B2 (en) * 2002-04-19 2011-05-10 Panasonic Corporation Motion vector calculating method
KR20040070490A (en) * 2003-02-03 2004-08-11 삼성전자주식회사 Method and apparatus for encoding/decoding video signal in interlaced video
CN1204753C (en) * 2003-05-19 2005-06-01 北京工业大学 Interframe predicting method based on adjacent pixel prediction
JP2005123732A (en) * 2003-10-14 2005-05-12 Matsushita Electric Ind Co Ltd Deblock filter processing apparatus and deblock filter processing method
EP1585061A1 (en) * 2004-04-07 2005-10-12 Deutsche Thomson-Brandt Gmbh Block adaptive predictive coding
CN1268136C (en) * 2004-07-02 2006-08-02 上海广电(集团)有限公司中央研究院 Frame field adaptive coding method based on image slice structure

Also Published As

Publication number Publication date
CN101385348A (en) 2009-03-11
CN101385351B (en) 2011-10-05
CN101385350A (en) 2009-03-11
CN101385353A (en) 2009-03-11
CN101385354A (en) 2009-03-11
CN101385349B (en) 2013-07-10
CN101385355A (en) 2009-03-11
CN101385352B (en) 2013-02-13
CN101385350B (en) 2010-12-22
CN101385348B (en) 2011-01-12
CN101385355B (en) 2011-08-31
CN101385349A (en) 2009-03-11
CN101385352A (en) 2009-03-11
CN101385354B (en) 2010-12-08
KR20070074452A (en) 2007-07-12
KR20070074451A (en) 2007-07-12
CN101385353B (en) 2010-12-22
CN101416522A (en) 2009-04-22
CN101385351A (en) 2009-03-11

Similar Documents

Publication Publication Date Title
KR102698497B1 (en) Video encoding apparatus for performing intra-prediction based on directionality of neighboring block, video decoding apparatus and video decoding method for performing the same
KR20070074453A (en) Method for encoding and decoding video signal
KR101253156B1 (en) Method for encoding/decoding video signal
KR101769937B1 (en) Apparatus and method for image coding and decoding
JP4991699B2 (en) Scalable encoding and decoding methods for video signals
KR101003435B1 (en) How to decode video blocks
KR100772883B1 (en) Deblocking filtering method considering intra BL mode, and video encoder/decoder based on multi-layer using the method
KR100679035B1 (en) Deblock filtering method considering intra bit mode, and multi-layer video encoder / decoder using the method
HK1214440A1 (en) Filter selection for video pre-processing in video applications
CN104919804A (en) Frame packing and depacking of higher resolution chroma sampling formats
KR20060119736A (en) Video signal encoding method
KR102160242B1 (en) Image decoding method and apparatus using same
US20120257702A1 (en) Order of deblocking
KR102763042B1 (en) Device and method for intra-prediction
CN102215390A (en) Processing method and device for image coding and decoding
EP2005760B1 (en) Method of predicting motion and texture data
KR20110087871A (en) Method and device for image interpolation with quarter pixel resolution using intra mode
KR102111437B1 (en) Method and apparatus for image interpolation having quarter pixel accuracy using intra prediction modes
JP4153774B2 (en) Video encoding method, decoding method thereof, and apparatus thereof
KR20230170448A (en) A method and an apparatus for processing a video signal
KR20200040192A (en) Method and Apparatus for Encoding and Decoding Quantized Transform Coefficients
HK1124193B (en) Method for scalably encoding and decoding video signal

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20061113

PG1501 Laying open of application