KR20250148446A - Method and appratus for video encoding and decoding based on combined reference vector - Google Patents
Method and appratus for video encoding and decoding based on combined reference vectorInfo
- Publication number
- KR20250148446A KR20250148446A KR1020250041355A KR20250041355A KR20250148446A KR 20250148446 A KR20250148446 A KR 20250148446A KR 1020250041355 A KR1020250041355 A KR 1020250041355A KR 20250041355 A KR20250041355 A KR 20250041355A KR 20250148446 A KR20250148446 A KR 20250148446A
- Authority
- KR
- South Korea
- Prior art keywords
- vector
- block
- reference vector
- information
- list
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
Abstract
본 발명은 디지털 동영상(digital video)의 부호화(encoding) 및 복호화(decoding) 분야에 관한 것으로, 디지털 동영상 부호화 및 복호화를 위한 방법, 그러한 데이터를 기록하기 위한 방법, 및 그러한 방법을 실현하는 구성 요소, 장치, 및 시스템 등에 관한 것이다. 본 발명은 상술한 비디오 부호화 및 복호화 영역에 사용될 수 있는 개선된 결합 벡터 기반의 비디오 부호화 및 복호화를 위한 방법 및 장치를 제공한다.The present invention relates to the field of digital video encoding and decoding, and more particularly, to a method for encoding and decoding digital video, a method for recording such data, and components, devices, and systems for implementing such a method. The present invention provides a method and device for improved combined vector-based video encoding and decoding that can be used in the aforementioned video encoding and decoding field.
Description
본 발명은 디지털 동영상(digital video)의 부호화(encoding) 및 복호화(decoding) 분야에 관한 것으로, 디지털 동영상 부호화 및 복호화를 위한 방법, 그러한 데이터를 기록하기 위한 방법, 및 그러한 방법을 실현하는 구성 요소, 장치, 및 시스템 등에 관한 것이다.The present invention relates to the field of encoding and decoding of digital video, and relates to a method for encoding and decoding digital video, a method for recording such data, and components, devices, and systems for realizing such a method.
본 발명은 MPEG-2, MPEG-4 Video, H.263, H.264/AVC, H.265/HEVC, H.266/VVC, VC-1, AV1, QuickTime, VP-9, VP-10, Motion JPEG과 같은 규격명으로 알려진 디지털 동영상 압축 기술 규격 중 적어도 하나와 동일한 기술분야이거나, 그 규격의 내재 효율을 향상하는 데 대한 기술분야이거나, 또는 그 규격을 개량 또는 대체하는 데 대한 기술분야에 해당할 수 있다.The present invention may be in the same technical field as at least one of the digital video compression technology standards known by the names of standards such as MPEG-2, MPEG-4 Video, H.263, H.264/AVC, H.265/HEVC, H.266/VVC, VC-1, AV1, QuickTime, VP-9, VP-10, and Motion JPEG, or may be in the technical field for improving the inherent efficiency of the standards, or may be in the technical field for improving or replacing the standards.
디지털 동영상의 부호화 및 복호화는 다양한 디지털 동영상 응용분야에서 널리 활용되고 있다. 예를 들어, 디지털 텔레비전 방송, 통신 네트워크를 통한 영상의 전송, 화상 통화/화상 대화/화상 채팅, VCD(video compact disc)/DVD(digital versatile disc)/Blu-Ray를 포함하는 광학매체를 이용한 동영상 콘텐츠의 기록 및 제공, 동영상 콘텐츠의 제작, 편집, 수집, 및 배급 절차의 일체, 및 개인적 목적, 상업적 목적, 산업적 목적, 및 보안경비의 목적 등을 포함하는 다양한 이유로 실시되는 동영상 촬영 및 기록 행위를 위한 동영상 촬영 장치 및 캠코더와 같은 장치는, 모두 동영상 부호화 및 복호화 기술에 의존적이다.Digital video encoding and decoding are widely used in various digital video applications. For example, digital television broadcasting, video transmission over communication networks, video calls/video conversations/video chats, recording and providing video content using optical media including video compact discs (VCDs), digital versatile discs (DVDs), and Blu-Rays, all processes for producing, editing, collecting, and distributing video content, and devices such as video recording devices and camcorders for various purposes, including personal, commercial, industrial, and security purposes, all depend on video encoding and decoding technologies.
따라서 디지털 동영상 부호화기 및 복호화기로 칭해질 수 있는 구현물들은, 디지털 텔레비전, 디지털 방송 시스템, 무선 방송 시스템들, 노트북/데스크탑/태블릿 형태의 컴퓨터, 전자책 단말기, 디지털 카메라, 디지털 녹화 장치, 디지털 멀티미디어 재생 장치, 비디오 게임 장치/단말/콘솔, 멀티미디어 재생기능을 가준 휴대전화(스마트폰을 포함한다), 화상 회의를 위한 기재들, 및 그 밖의 디지털 동영상의 생성, 기록, 및 제공에 관련된 광범위한 장치의 일부분을 구성할 수 있다.Accordingly, implementations that may be referred to as digital video encoders and decoders may form part of a wide range of devices related to the generation, recording, and provision of digital video, including digital televisions, digital broadcasting systems, wireless broadcasting systems, computers in the form of notebooks/desktops/tablets, e-book readers, digital cameras, digital recording devices, digital multimedia playback devices, video game devices/terminals/consoles, mobile phones (including smartphones) with multimedia playback capabilities, equipment for video conferencing, and other devices.
상기와 같은 디지털 동영상 부호화기 및 복호화기들은 통상의 기술자에게 이해되어 널리 사용되는 디지털 동영상 압축 규격에 의하여 구현될 수 있다. 상기 디지털 동영상 압축 규격에는 MPEG-2, MPEG-4 Video, H.263, H.264/AVC, H.265/HEVC, H.266/VVC, VC-1, AV1, QuickTime, VP-9, VP-10, Motion JPEG과 같은 규격명으로 알려진 압축 규격 중 적어도 하나가 포함될 수 있다.The above digital video encoders and decoders can be implemented by a digital video compression standard that is widely used and understood by those skilled in the art. The digital video compression standard may include at least one of compression standards known by a standard name such as MPEG-2, MPEG-4 Video, H.263, H.264/AVC, H.265/HEVC, H.266/VVC, VC-1, AV1, QuickTime, VP-9, VP-10, and Motion JPEG.
동영상 부호화기 및 복호화기는 상기 규격을 준수하면서, 또는 상기 규격을 개량하거나 변형함으로써, 디지털 동영상 정보를 더욱 효율적으로 부호화 또는 복호화하도록 구현될 수 있다. 상기 규격의 변형 시도는 또한 새로운 규격의 도출로 이어질 수 있다. 널리 알려진 사례들 중에는 ISO, IEC, ITU-T의 공동 국제 표준화 집단인 JVET(joint video experts team)에 의하여 개발되고 있는 종래 H.266/VVC 규격의 개량 및 대체 시도인 이른바 개량압축모델(enhanced compression model; ECM)이 존재한다.Video encoders and decoders can be implemented to more efficiently encode or decode digital video information while complying with the above standards, or by improving or modifying the above standards. Attempts to modify the above standards can also lead to the development of new standards. A well-known example is the so-called enhanced compression model (ECM), an attempt to improve and replace the existing H.266/VVC standard, currently being developed by the Joint Video Experts Team (JVET), a joint international standardization group of ISO, IEC, and ITU-T.
디지털 비디오는 압축되지 않은 상태에서 그 내용을 묘사하기 위해 소요되는 정보량이 상당한 것으로 알려져 있다. 따라서, 이러한 정보를 원본 그대로의 형태로 기록하거나 또는 전송하는 행위는 비효율적일 수 있다. 따라서, 디지털 비디오는 기록 또는 전송에 앞서 다양한 방법으로 압축된다. 상기 압축의 방법에는 손실 부호화의 방법과 무손실 부호화의 방법이 있다. 손실 부호화의 경우 화질을 일부 희생하여 높은 압축 성능을 달성하고, 무손실 부호화의 경우 화질의 열화를 방지하기 위하여 압축 성능을 일부 희생한다. 어느 방식의 부호화이든, 제한된 메모리 기록 용량 및 통신 전송 대역폭의 범주 내에서 높은 화질을 가지는 디지털 비디오를 이용하고자 하는 수요에 대응하기 위하여, 화질의 희생을 최소화하면서 높은 압축률을 획득하고자 하는 기술의 구현이 요구되고 있다.Digital video is known to require a significant amount of information to describe its content in its uncompressed state. Therefore, recording or transmitting this information in its original form can be inefficient. Therefore, digital video is compressed using various methods prior to recording or transmission. These compression methods include lossy and lossless encoding. Lossy encoding sacrifices some image quality to achieve high compression performance, while lossless encoding sacrifices some compression performance to prevent image quality degradation. Regardless of the encoding method, there is a need to implement a technology that achieves a high compression ratio while minimizing image quality degradation to meet the growing demand for high-quality digital video within the constraints of limited memory storage capacity and communication transmission bandwidth.
상기와 같이 압축을 위한 부호화 과정에는 다양한 연산이 소요되는데, 예를 들어 디지털 동영상의 공간적 분할, 색상 채널에서의 분할 및/또는 가공, 공간적 잔차(redundancy)의 제거, 시간적 잔차의 제거, 동영상 내에서의 움직임 벡터(motion vector)의 추적, 차분 영상(differential image)의 부호화, 양자화(quantization), 계수 스캔(coefficient scan), 연속 길이 부호화(run-length coding), 엔트로피 부호화(entropy coding), 및 루프 필터(loop filter)를 포함하는 일련의 과정들이 소요될 수 있다. 이러한 부호화 연산은 대체로 컴퓨팅 자원을 소모하며 완수에 일정 시간을 요한다. 마찬가지로, 상기 부호화 연산에 대한 복호화 연산 또한, 일정한 컴퓨팅 자원과 일정 시간을 요하게 된다. 상기 자원 소모와 시간의 소요가 디지털 동영상의 제작, 기록, 공급, 및 감상에 방해가 되지 않도록 하는 것이 동영상 부호화 및 복호화 기술의 주요 목적이 되고 있다.As described above, the encoding process for compression requires various operations, such as spatial segmentation of digital video, segmentation and/or processing in color channels, removal of spatial redundancy, removal of temporal redundancy, tracking of motion vectors within the video, encoding of differential images, quantization, coefficient scan, run-length coding, entropy coding, and loop filtering. These encoding operations generally consume computing resources and take a certain amount of time to complete. Similarly, the decoding operation for the encoding operation also requires certain computing resources and a certain amount of time. The main goal of video encoding and decoding technology is to ensure that the above resource consumption and time consumption do not interfere with the production, recording, distribution, and viewing of digital videos.
따라서 본 발명은 상기와 같은 비디오 부호화 및 복호화 분야의 기술적 과제에 있어서 부호화 효율의 개선, 복호화 효율의 개선, 동영상 화질의 개선, 연산량의 절감, 소프트웨어 규모의 축소, 하드웨어 규모의 축소, 및 그 밖에 부호화 및 복호화에 관련된 성능의 개선 중 적어도 하나 이상에 기여할 수 있는 새로운 기술을 제공한다.Accordingly, the present invention provides a new technology that can contribute to at least one of the following: improvement of encoding efficiency, improvement of decoding efficiency, improvement of video quality, reduction of computational amount, reduction of software size, reduction of hardware size, and improvement of other performances related to encoding and decoding in the technical tasks in the field of video encoding and decoding.
본 발명은 상술한 비디오 부호화 및 복호화 영역에 사용될 수 있는 개선된 결합 벡터 기반의 비디오 부호화 및 복호화를 위한 방법 및 장치를 제공한다.The present invention provides a method and apparatus for improved combined vector-based video encoding and decoding that can be used in the video encoding and decoding area described above.
상술한 기술적 과제를 해결하기 위한 본 발명의 일 실시예에 따른 영상 복호화 방법은, 비트열로부터 현재 블록에 대한 정보를 획득하는 단계, 상기 현재 블록에 대한 정보에 기초하여 제1 참조 벡터를 획득하는 단계, 상기 제1 참조 벡터에 기반하여 제1 블록 영역에 대한 정보를 획득하는 단계, 상기 제1 블록 영역에 대한 정보에 기초하여 제2 참조 벡터를 획득하는 단계, 상기 제1 참조 벡터와 상기 제2 참조 벡터에 기반하여 결합 벡터를 획득하는 단계, 상기 결합 벡터를 이용하여 상기 현재 블록에 대한 예측 블록을 생성하는 단계를 포함할 수 있다.According to an embodiment of the present invention for solving the above-described technical problem, a video decoding method may include a step of obtaining information about a current block from a bit string, a step of obtaining a first reference vector based on the information about the current block, a step of obtaining information about a first block region based on the first reference vector, a step of obtaining a second reference vector based on the information about the first block region, a step of obtaining a combined vector based on the first reference vector and the second reference vector, and a step of generating a prediction block for the current block using the combined vector.
상기 방법은, 상기 제1 참조 벡터는 블록 벡터이고, 상기 제2 참조 벡터는 움직임 벡터인 것을 특징으로 할 수 있다.The above method may be characterized in that the first reference vector is a block vector and the second reference vector is a motion vector.
상기 방법은, 상기 결합 벡터에 기반하여 머지 리스트에 스케일링된 벡터를 추가하는 단계를 더 포함할 수 있다.The method may further include a step of adding a scaled vector to the merge list based on the combined vector.
상기 결합 벡터는 시간적 거리를 고려하여 스케일링되는 것을 특징으로 할 수 있다.The above combination vector may be characterized in that it is scaled taking temporal distance into account.
상기 방법은, 상기 제1 참조 벡터, 상기 제2 참조 벡터, 및 상기 결합 벡터 중 적어도 하나는 템플릿 매칭을 통해 보정되는 것을 특징으로 할 수 있다.The method may be characterized in that at least one of the first reference vector, the second reference vector, and the combined vector is corrected through template matching.
상기 방법은, 상기 현재 블록이 복수의 분할 블록으로 구성된 경우, 상기 분할 블록 각각에 대해 독립적으로 결합 벡터를 적용하는 단계를 더 포함할 수 있다.The above method may further include a step of independently applying a combination vector to each of the divided blocks when the current block is composed of a plurality of divided blocks.
상기 방법은, 상기 현재 블록에 대한 정보에 기초하여 블록 벡터 리스트 또는 움직임 벡터 리스트 중 적어도 하나를 생성하는 단계, 및 상기 블록 벡터 리스트 및 상기 움직임 벡터 리스트 중 적어도 하나에 기반하여 상기 제1 참조 벡터를 획득하는 단계를 더 포함할 수 있다.The method may further include a step of generating at least one of a block vector list or a motion vector list based on information about the current block, and a step of obtaining the first reference vector based on at least one of the block vector list and the motion vector list.
상기 방법은, 상기 블록 벡터 리스트 또는 상기 움직임 벡터 리스트 중 적어도 하나의 사용 여부를 나타내는 정보를 상기 비트열로부터 획득하는 단계를 더 포함할 수 있다.The method may further include a step of obtaining information indicating whether at least one of the block vector list or the motion vector list is used from the bit string.
상기 방법은, 상기 제1 블록 영역에 복수의 참조 벡터가 존재하는 경우, 상기 복수의 참조 벡터에 기반하는 연산에 의하여 상기 제2 참조 벡터를 획득하는 단계를 더 포함할 수 있다.The method may further include a step of obtaining the second reference vector by an operation based on the plurality of reference vectors when a plurality of reference vectors exist in the first block area.
상기 결합 벡터를 이용하여 상기 현재 블록에 대한 예측 블록을 생성하는 단계는, 상기 결합 벡터를 현재 화면에 대한 블록 벡터로 사용하여 화면 내 예측을 수행하는 단계를 포함할 수 있다.The step of generating a prediction block for the current block using the above combination vector may include a step of performing intra-screen prediction using the above combination vector as a block vector for the current screen.
상술한 기술적 과제를 해결하기 위한 본 발명의 일 실시예에 따른 영상 부호화 방법은, 현재 블록에 대한 제1 참조 벡터를 획득하는 단계, 상기 제1 참조 벡터에 기반하여 제1 블록 영역에 대한 정보를 획득하는 단계, 상기 제1 블록 영역에 대한 정보에 기초하여 제2 참조 벡터를 획득하는 단계, 상기 제1 참조 벡터와 상기 제2 참조 벡터에 기반하여 결합 벡터를 획득하는 단계, 상기 결합 벡터를 이용하여 상기 현재 블록에 대한 예측 블록을 생성하는 단계, 상기 예측 블록에 기반하여 상기 현재 블록에 대한 예측 부호화를 수행하는 단계, 및 상기 제1 참조 벡터에 대한 정보 및 상기 결합 벡터의 획득에 관한 정보를 비트열의 일부로서 출력하는 단계를 포함할 수 있다.According to an embodiment of the present invention for solving the above-described technical problem, a video encoding method may include the steps of: obtaining a first reference vector for a current block; obtaining information on a first block region based on the first reference vector; obtaining a second reference vector based on the information on the first block region; obtaining a combined vector based on the first reference vector and the second reference vector; generating a prediction block for the current block using the combined vector; performing prediction encoding on the current block based on the prediction block; and outputting information on the first reference vector and information on obtaining the combined vector as part of a bit string.
상기 방법은, 상기 제1 참조 벡터는 블록 벡터이고, 상기 제2 참조 벡터는 움직임 벡터인 것을 특징으로 할 수 있다.The above method may be characterized in that the first reference vector is a block vector and the second reference vector is a motion vector.
상기 방법은, 상기 결합 벡터에 기반하여 머지 리스트에 스케일링된 벡터를 추가하는 단계를 더 포함할 수 있다.The method may further include a step of adding a scaled vector to the merge list based on the combined vector.
상기 결합 벡터는 시간적 거리를 고려하여 스케일링되는 것을 특징으로 할 수 있다.The above combination vector may be characterized in that it is scaled taking temporal distance into account.
상기 방법은, 상기 제1 참조 벡터, 상기 제2 참조 벡터, 및 상기 결합 벡터 중 적어도 하나는 템플릿 매칭을 통해 보정되는 것을 특징으로 할 수 있다.The method may be characterized in that at least one of the first reference vector, the second reference vector, and the combined vector is corrected through template matching.
상기 방법은, 상기 현재 블록이 복수의 분할 블록으로 구성된 경우, 상기 분할 블록 각각에 대해 독립적으로 결합 벡터를 적용하는 단계를 더 포함할 수 있다.The above method may further include a step of independently applying a combination vector to each of the divided blocks when the current block is composed of a plurality of divided blocks.
상기 방법은, 상기 현재 블록에 대한 정보에 기초하여 블록 벡터 리스트 또는 움직임 벡터 리스트 중 적어도 하나를 생성하는 단계, 및 상기 블록 벡터 리스트 및 상기 움직임 벡터 리스트 중 적어도 하나에 기반하여 상기 제1 참조 벡터를 획득하는 단계를 더 포함할 수 있다.The method may further include a step of generating at least one of a block vector list or a motion vector list based on information about the current block, and a step of obtaining the first reference vector based on at least one of the block vector list and the motion vector list.
상기 방법은, 상기 블록 벡터 리스트 또는 상기 움직임 벡터 리스트 중 적어도 하나의 사용 여부를 나타내는 정보를 상기 비트열에 포함시키는 단계를 더 포함할 수 있다.The method may further include a step of including information indicating whether at least one of the block vector list or the motion vector list is used in the bit string.
상기 결합 벡터를 이용하여 상기 현재 블록에 대한 예측 블록을 생성하는 단계는, 상기 결합 벡터를 현재 화면에 대한 블록 벡터로 사용하여 화면 내 예측을 수행하는 단계를 포함할 수 있다.The step of generating a prediction block for the current block using the above combination vector may include a step of performing intra-screen prediction using the above combination vector as a block vector for the current screen.
상술한 기술적 과제를 해결하기 위한 본 발명의 일 실시예에 따른 영상 복호화 장치는, 비트열을 입력받는 수신부, 상기 비트열로부터 현재 블록에 대한 정보를 획득하는 파서부, 상기 현재 블록에 대한 정보에 기초하여 제1 참조 벡터를 획득하고, 상기 제1 참조 벡터에 기반하여 제1 블록 영역에 대한 정보를 획득하며, 상기 제1 블록 영역에 대한 정보에 기초하여 제2 참조 벡터를 획득하고, 상기 제1 참조 벡터와 상기 제2 참조 벡터에 기반하여 결합 벡터를 획득하는 예측부, 및 상기 결합 벡터를 이용하여 상기 현재 블록에 대한 예측 블록을 생성하는 예측 복호화부를 포함할 수 있다.According to an embodiment of the present invention for solving the above-described technical problem, a video decoding device may include a receiving unit for receiving a bit stream, a parser unit for obtaining information on a current block from the bit stream, a prediction unit for obtaining a first reference vector based on the information on the current block, obtaining information on a first block region based on the first reference vector, obtaining a second reference vector based on the information on the first block region, and obtaining a combined vector based on the first reference vector and the second reference vector, and a prediction decoding unit for generating a predicted block for the current block using the combined vector.
본 발명에 따르면, 비디오 부호화 및 복호화에 있어서 부호화 효율의 개선, 복호화 효율의 개선, 동영상 화질의 개선, 연산량의 절감, 소프트웨어 규모의 축소, 하드웨어 규모의 축소, 및 그 밖에 부호화 및 복호화에 관련된 성능의 개선 중 적어도 하나 이상의 효과가 도출될 수 있다.According to the present invention, at least one effect of improving encoding efficiency, improving decoding efficiency, improving video quality, reducing computational load, reducing software size, reducing hardware size, and improving other performances related to encoding and decoding can be derived in video encoding and decoding.
도 1은 본 발명의 일 실시예에 따른 비디오 통신 시스템의 개념도,
도 2는 본 발명의 일 실시예에 따른 실시간 비디오 스트리밍 환경에서의 부호화기 및 복호화기 배치에 대한 개념도,
도 3은 본 발명의 일 실시예에 따른 비디오 복호화기의 기능부 단위 개념도,
도 4는 본 발명의 일 실시예에 따른 비디오 부호화기의 기능부 단위 개념도,
도 5는 본 발명의 일 실시예에 의한 프레임 유형의 개념도,
도 6은 본 발명의 다른 실시예에 따른 비디오 부호화기의 구조를 나타내는 개념도,
도 7은 본 발명의 일 실시예에 따른 결합 벡터 예측 기술을 나타내는 개념도,
도 8은 본 발명의 일 실시예에 따른 결합 벡터의 예시도,
도 9는 본 발명의 일 실시예에 따른 결합 벡터의 예시도,
도 10은 본 발명의 일 실시예에 따른 복수 개의 움직임 벡터의 예시도,
도 11은 본 발명의 일 실시예에 따른 결합 벡터 유추로부터 획득된 블록 벡터의 예시도,
도 12는 본 발명의 일 실시예에 따른 결합 벡터 유추로부터 획득된 블록 벡터의 예측 블록 생성에 대한 예시도,
도 13은 본 발명의 일 실시예에 따른 블록 벡터 리스트와 움직임 벡터 리스트를 모두 사용하는 경우의 예시도,
도 14는 본 발명의 일 실시예에 따른 블록 벡터 형태의 결합 벡터의 보정에 대한 예시도, 그리고
도 15는 본 발명의 일 실시예에 따른 분할 블록의 처리에 대한 예시도이다. Figure 1 is a conceptual diagram of a video communication system according to one embodiment of the present invention;
FIG. 2 is a conceptual diagram of the arrangement of an encoder and decoder in a real-time video streaming environment according to one embodiment of the present invention.
Figure 3 is a functional unit conceptual diagram of a video decoder according to one embodiment of the present invention;
Figure 4 is a functional unit conceptual diagram of a video encoder according to one embodiment of the present invention;
Figure 5 is a conceptual diagram of a frame type according to one embodiment of the present invention;
FIG. 6 is a conceptual diagram showing the structure of a video encoder according to another embodiment of the present invention;
Figure 7 is a conceptual diagram illustrating a combined vector prediction technique according to one embodiment of the present invention;
Figure 8 is an example of a combination vector according to one embodiment of the present invention;
Figure 9 is an example of a combination vector according to one embodiment of the present invention;
FIG. 10 is an example diagram of a plurality of motion vectors according to one embodiment of the present invention;
FIG. 11 is an example diagram of a block vector obtained from combined vector inference according to one embodiment of the present invention;
FIG. 12 is an exemplary diagram for generating a prediction block of a block vector obtained from a combined vector inference according to one embodiment of the present invention;
FIG. 13 is an example diagram of a case in which both a block vector list and a motion vector list are used according to one embodiment of the present invention.
FIG. 14 is an example diagram for correction of a combined vector in the form of a block vector according to one embodiment of the present invention, and
FIG. 15 is an exemplary diagram for processing a split block according to one embodiment of the present invention.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.The present invention is susceptible to various modifications and embodiments. Specific embodiments are illustrated and described in detail in the drawings. However, this is not intended to limit the present invention to specific embodiments, but rather to encompass all modifications, equivalents, and alternatives falling within the spirit and technical scope of the present invention.
제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. "및/또는"이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함하며, 또한, 달리 지시되지 않는 한 비배타적이다. 본 명세서에 항목을 열거하는 경우 그것은 본 명세서상 발명의 사상과 가능한 실시 방법들을 용이하게 설명하기 위한 예시적 서술에 그치며, 따라서, 본 발명의 실시예 범위를 한정하는 의도를 가지지 아니한다.Although terms such as “first,” “second,” etc. may be used to describe various components, these components should not be limited by these terms. These terms are used solely to distinguish one component from another. For example, without departing from the scope of the present invention, the first component could be referred to as the second component, and similarly, the second component could also be referred to as the first component. The term “and/or” includes any combination of multiple related listed items or any of multiple related listed items, and is non-exclusive unless otherwise indicated. The listing of items in this specification is merely an exemplary description to easily explain the spirit and possible implementation methods of the invention herein, and therefore is not intended to limit the scope of embodiments of the present invention.
본 명세서에서 "A 또는 B(A or B)"는 "오직 A", "오직 B" 또는 "A와 B 모두"를 의미할 수 있다. 달리 표현하면, 본 명세서에서 "A 또는 B(A or B)"는 "A 및/또는 B(A and/or B)"으로 해석될 수 있다. 예를 들어, 본 명세서에서 "A, B 또는 C(A, B or C)"는 "오직 A", "오직 B", "오직 C", 또는 "A, B 및 C의 임의의 모든 조합(any combination of A, B and C)"를 의미할 수 있다.As used herein, "A or B" can mean "only A," "only B," or "both A and B." In other words, as used herein, "A or B" can be interpreted as "A and/or B." For example, as used herein, "A, B or C" can mean "only A," "only B," "only C," or "any combination of A, B and C."
본 명세서에서 사용되는 슬래쉬(/)나 쉼표(comma)는 "및/또는(and/or)"을 의미할 수 있다. 예를 들어, "A/B"는 "A 및/또는 B"를 의미할 수 있다. 이에 따라 "A/B"는 "오직 A", "오직 B", 또는 "A와 B 모두"를 의미할 수 있다. 예를 들어, "A, B, C"는 "A, B 또는 C"를 의미할 수 있다.As used herein, a slash (/) or a comma can mean "and/or." For example, "A/B" can mean "A and/or B." Accordingly, "A/B" can mean "only A," "only B," or "both A and B." For example, "A, B, C" can mean "A, B, or C."
본 명세서에서 "적어도 하나의 A 및 B(at least one of A and B)"는, "오직 A", "오직 B" 또는 "A와 B 모두"를 의미할 수 있다. 또한, 본 명세서에서 "적어도 하나의 A 또는 B(at least one of A or B)"나 "적어도 하나의 A 및/또는 B(at least one of A and/or B)"라는 표현은 "적어도 하나의 A 및 B(at least one of A and B)"와 동일하게 해석될 수 있다. In this specification, "at least one of A and B" may mean "only A", "only B" or "both A and B". Additionally, in this specification, the expressions "at least one of A or B" or "at least one of A and/or B" may be interpreted identically to "at least one of A and B".
또한, 본 명세서에서 "적어도 하나의 A, B 및 C(at least one of A, B and C)"는, "오직 A", "오직 B", "오직 C", 또는 "A, B 및 C의 임의의 모든 조합(any combination of A, B and C)"를 의미할 수 있다. 또한, "적어도 하나의 A, B 또는 C(at least one of A, B or C)"나 "적어도 하나의 A, B 및/또는 C(at least one of A, B and/or C)"는 "적어도 하나의 A, B 및 C(at least one of A, B and C)"를 의미할 수 있다.Additionally, in this specification, “at least one of A, B and C” can mean “only A,” “only B,” “only C,” or “any combination of A, B and C.” Additionally, “at least one of A, B or C” or “at least one of A, B and/or C” can mean “at least one of A, B and C.”
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being "connected" or "connected" to another component, it should be understood that it may be directly connected or connected to that other component, but that there may be other components intervening. Conversely, when a component is referred to as being "directly connected" or "connected" to another component, it should be understood that there are no other components intervening.
본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is merely used to describe specific embodiments and is not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly indicates otherwise. In this specification, it should be understood that the terms "comprises" or "has" indicate the presence of a feature, number, step, operation, component, part, or combination thereof described in the specification, but do not exclude in advance the possibility of the presence or addition of one or more other features, numbers, steps, operations, components, parts, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 이용하고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by those of ordinary skill in the art to which this invention pertains. Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with their meaning in the context of the relevant technology, and shall not be interpreted in an idealized or overly formal sense unless explicitly defined herein.
본 명세서에서 발명을 설명함에 있어, 실시예들은 설명된 기능 또는 기능들을 수행하는 단위 블록들의 측면에서 설명되거나 예시될 수 있다. 상기 블록들이란 본 명세서에서 하나 또는 복수의 장치, 유닛, 모듈, 부 등으로 표현될 수 있다. 상기 블록들은 하나 또는 복수의 논리 게이트, 집적 회로, 프로세서, 컨트롤러, 메모리, 전자 부품 또는 이에 한정되지 않는 정보처리 하드웨어의 구현 방법에 의하여 하드웨어적으로 실시될 수도 있다. 또는, 상기 블록들은 응용 소프트웨어, 운영 체제 소프트웨어, 펌웨어, 또는 이에 한정되지 않는 정보처리 소프트웨어의 구현 방법에 의하여 소프트웨어적으로 실시될 수도 있다. 하나의 블록은 동일한 기능을 수행하는 복수의 블록들로 분리되어 실시될 수도 있으며, 반대로 복수의 블록들의 기능을 동시에 수행하기 위한 하나의 블록이 실시될 수도 있다. 상기 블록들은 또한 임의의 기준에 의하여 물리적으로 분리되거나 결합되어 실시될 수 있다. 상기 블록들은 통신 네트워크, 인터넷, 클라우드 서비스, 또는 이에 한정되지 않는 통신 방법에 의해 물리적 위치가 특정되지 않고 서로 이격되어 있는 환경에서 동작하도록 실시될 수도 있다. 상기의 모든 실시 방법은 동일한 기술적 사상을 구현하기 위하여 정보통신 기술 분야에 익숙한 통상의 기술자가 취할 수 있는 다양한 실시예의 영역이므로, 여하의 상세한 구현 방법은 모두 본 명세서상 발명의 기술적 사상 영역에 포함되는 것으로 해석되어야 한다.In describing the invention herein, embodiments may be described or illustrated in terms of unit blocks that perform the described function or functions. The blocks may be expressed herein as one or more devices, units, modules, parts, etc. The blocks may be implemented in hardware by one or more logic gates, integrated circuits, processors, controllers, memories, electronic components, or information processing hardware implementation methods, but not limited thereto. Alternatively, the blocks may be implemented in software by application software, operating system software, firmware, or information processing software implementation methods, but not limited thereto. A single block may be implemented by being separated into multiple blocks that perform the same function, or conversely, a single block may be implemented to perform the functions of multiple blocks simultaneously. The blocks may also be implemented by being physically separated or combined according to any criteria. The blocks may be implemented to operate in an environment where their physical locations are not specified and are separated from each other by a communication network, the Internet, a cloud service, or a communication method, but not limited thereto. All of the above implementation methods are within the scope of various embodiments that can be taken by a person skilled in the field of information and communication technology to implement the same technical idea, and therefore, any detailed implementation method should be interpreted as being included within the scope of the technical idea of the invention in this specification.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다. 또한 복수의 실시예들은 서로 배타적이 아니며, 일부 실시예들이 새로운 실시예들을 형성하기 위해 하나 이상의 다른 실시예들과 조합될 수 있음을 전제로 한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the attached drawings. To facilitate a comprehensive understanding of the present invention, the same reference numerals will be used for identical components in the drawings, and redundant descriptions of identical components will be omitted. Furthermore, the multiple embodiments are not mutually exclusive, and it is assumed that some embodiments may be combined with one or more other embodiments to form new embodiments.
디지털 동영상 코덱digital video codec
도 1은 본 발명의 일 실시예에 따른 비디오 통신 시스템의 개념도이다. 상기 비디오 통신 시스템(100)은 네트워크(105)를 통해 서로 연결되는 적어도 둘 이상의 단말(110, 120)을 포함하여 구성될 수 있다.Figure 1 is a conceptual diagram of a video communication system according to one embodiment of the present invention. The video communication system (100) may be configured to include at least two terminals (110, 120) connected to each other via a network (105).
본 발명의 일 실시예에 있어서, 상기 도 1은 단방향 비디오 통신 네트워크를 구성하는 데 대한 블록도를 의미할 수 있다. 상기 단말 중 제1 단말(110)은 네트워크(105)를 통해 비디오 데이터를 송신(111)하기 위하여 상기 비디오 데이터를 부호화할 수 있다. 상기 단말 중 제2 단말(120)은 네트워크를 통해 상기 부호화된 비디오 데이터를 수신(121)하고, 이를 복호화하여 표시하도록 구성될 수 있다.In one embodiment of the present invention, the above-described FIG. 1 may refer to a block diagram for configuring a unidirectional video communication network. A first terminal (110) among the terminals may encode video data in order to transmit (111) the video data via a network (105). A second terminal (120) among the terminals may be configured to receive (121) the encoded video data via a network and decode and display the same.
본 발명의 다른 일 실시예에 있어서, 상기 도 1은 양방향 비디오 통신 네트워크를 구성하는 데 대한 블록도를 의미할 수 있다. 상기 양방향 비디오 통신을 위해, 상기 각각의 단말기(110, 120)는 네트워크를 경유하는 다른 각각의 단말기에 대한 비디오 송신(112, 122)을 위하여 스스로 획득한 비디오 데이터를 부호화하도록 구성될 수 있다. 각각의 단말은 또한 다른 단말에 의해 네트워크를 통해 송신된 비디오 데이터를 수신(113, 123)하여 복호화할 수 있고, 상기 복호화된 비디오 데이터를 표시하도록 구성될 수 있다.In another embodiment of the present invention, the above-described FIG. 1 may refer to a block diagram for configuring a two-way video communication network. For the two-way video communication, each terminal (110, 120) may be configured to encode video data acquired by itself for video transmission (112, 122) to each other terminal via the network. Each terminal may also be configured to receive (113, 123) video data transmitted by another terminal via the network, decode the same, and display the decoded video data.
도 1에 나타나는 상기 각 단말(110, 120)은, 실시예에 따라서, 서버 컴퓨터, 개인용 컴퓨터, 휴대용 컴퓨터, 및 스마트폰과 같은 장치로 예시될 수 있으나, 이에 한정되지는 아니한다. 본 발명은 단방향 또는 양방향 비디오 통신 네트워크를 조성하기 위한 모든 환경에 적용되는 것으로써, 상기 네트워크(105)는 상기 단말기들(110, 120) 간에 부호화된 비디오 데이터를 운반하기 위한 여하의 수단으로 조성될 수 있다고 보아야 한다.The terminals (110, 120) shown in Fig. 1 may be exemplified as devices such as server computers, personal computers, portable computers, and smartphones, depending on the embodiment, but are not limited thereto. The present invention is applicable to all environments for establishing a one-way or two-way video communication network, and it should be understood that the network (105) may be established by any means for transporting encoded video data between the terminals (110, 120).
본 발명의 일 실시예에서, 상기 네트워크(105)는 유선 또는 무선의 통신 네트워크를 의미할 수 있다. 이 때 실시예에 따라서, 상기 네트워크는 임의의 통신 규격으로 정보를 소통하도록 구성될 수 있고, 상기 통신 규격에는 패킷 기반 통신이 포함될 수 있다. 상기 패킷 통신이란, 예를 들어, 이른바 TCP 또는 UDP로 알려진 패킷을 포함하는 의미로 이해될 수 있다.In one embodiment of the present invention, the network (105) may refer to a wired or wireless communication network. Depending on the embodiment, the network may be configured to communicate information using any communication standard, which may include packet-based communication. The packet communication may be understood to include packets, for example, known as TCP or UDP.
그러나 본 발명의 다른 실시예에서는, 상기 네트워크(105)는 기록매체를 이용한 정보 전달의 과정을 포함하는 의미로 이해될 수도 있다. 이러한 경우 상기 네트워크의 구성은 비단 통신 매체에 한정되지 아니하며, 하드 디스크, 솔리드 스테이트 디스크(SSD), 플래시 메모리, CD(compact disc), DVD(digital versatile disc), 블루레이(Blu-ray) 디스크, 및 그 밖의 기계적, 전자적, 또는 광학적 기록매체에 일시적으로 저장되어 물리적으로 운반되는 과정을 포함하는 것으로 이해되어야 할 것이다.However, in another embodiment of the present invention, the network (105) may be understood to include a process of information transmission using a recording medium. In this case, the configuration of the network is not limited to a communication medium, and should be understood to include a process of temporarily storing and physically transporting information on a hard disk, a solid state disk (SSD), a flash memory, a compact disc (CD), a digital versatile disc (DVD), a Blu-ray disc, and other mechanical, electronic, or optical recording media.
그 밖에 어떠한 정보 통신 또는 운반의 수단이 적용되더라도, 비디오 데이터를 부호화한 상태로 전달하여 복호화하도록 지원하는 구조에 있는 한 본 발명의 실시예 범주에 속한다고 볼 수 있다. 따라서 상기 열거된 일부 예시들 외에도 종래에 알려져 있거나 또는 새로이 제공될 수 있는 모든 정보 통신 또는 운반의 수단이 본 발명의 응용 범위에 속할 수 있다.Any other means of information communication or transport, regardless of the method employed, can be considered within the scope of the present invention as long as it has a structure that supports the transmission and decoding of video data in an encoded state. Therefore, in addition to the examples listed above, any means of information communication or transport, whether known in the past or newly available, can fall within the scope of application of the present invention.
도 2는 본 발명의 일 실시예에 따른 실시간 비디오 스트리밍 환경에서의 부호화기 및 복호화기 배치에 대한 개념도이다. 도 2가 예시하는 스트리밍 시스템(200)은, 예를 들어, 디지털 방송, 화상 전화, 화상 회의를 포함하는 비디오 데이터 통신 네트워크에 적용된다고 볼 수 있다. 단, 상기 스트리밍 시스템과 동일 또는 유사한 기술적 구조가, 상술한 바와 같이, 기록매체를 경유하는 정보 운반이 수반되는 경우에도 동일하게 적용될 수 있다고 보아야 할 것이다.FIG. 2 is a conceptual diagram illustrating the arrangement of an encoder and decoder in a real-time video streaming environment according to one embodiment of the present invention. The streaming system (200) illustrated in FIG. 2 can be applied to video data communication networks, including, for example, digital broadcasting, video telephony, and video conferencing. However, it should be noted that technical structures identical or similar to the streaming system can be equally applied even when information is transmitted via a recording medium, as described above.
본 발명의 일 실시예에 따르면, 상기 스트리밍 시스템은 비디오 스트림을 생성하는 비디오 소스(210)를 포함할 수 있다. 상기 비디오 소스는, 압축되지 않은 원본(raw) 비디오를 취득하는, 예를 들어 디지털 카메라나 그 밖의 기재로 구성될 수 있는 디지털 비디오 취득 수단(212)을 포함할 수 있다. 상기 원본 비디오 스트림(215)은 막대한 용량을 지닐 수 있으며, 따라서 상기 비디오 소스에 결합 또는 연결되어 있는 비디오 부호화기(217)에 의하여 압축 처리될 수 있다.According to one embodiment of the present invention, the streaming system may include a video source (210) that generates a video stream. The video source may include a digital video acquisition means (212), which may be, for example, a digital camera or other device, for acquiring uncompressed raw video. The raw video stream (215) may have a large capacity and may therefore be compressed by a video encoder (217) coupled or connected to the video source.
상기 부호화기(217)는 본 발명의 일 실시예에 따른 영상 부호화 방법 및/또는 그 실시방법을 구현하기 위하여 조성된 하드웨어, 소프트웨어, 또는 상기 양자의 조합을 포함하는 수단으로 구성될 수 있다.The above encoder (217) may be configured as a means including hardware, software, or a combination of the two, configured to implement an image encoding method and/or an implementation method thereof according to one embodiment of the present invention.
상기 부호화기(217)를 경유하여, 상기 원본 비디오 스트림에 비하여 용량이 줄어든 부호화된 비트열(bitstream)(219)이 출력될 수 있다. 상기 비트열(219)은 예를 들어 스트리밍 서버(220)로 호칭될 수 있는 중계 장치에 의하여 실시간으로 통신 상에 제공될 수 있으며, 그리고/또는 사후적인 사용을 위하여 상기 스트리밍 서버(220)의 기록매체(225)에 저장될 수 있다.Through the encoder (217), an encoded bitstream (219) having a reduced capacity compared to the original video stream can be output. The bitstream (219) can be provided in real time via a relay device, which may be referred to as a streaming server (220), and/or can be stored in a recording medium (225) of the streaming server (220) for subsequent use.
상기 스트리밍 시스템(200)에는 상기 스트리밍 서버(220)에 접속하여 상기 인코딩된 비트열(229)을 실시간으로 수신하거나 또는 사후적으로 획득하고자 하는 적어도 하나의 스트리밍 클라이언트(230, 240)가 포함될 수 있다. 상기 스트리밍 클라이언트는 상기 부호화된 비트열(229)(상기 스트리밍 서버가 수신한 비트열(219)의 사본으로도 간주할 수 있다)을 획득하여, 상기 비트열(229)을 복호화하고, 그 결과인 비디오 데이터를 디스플레이(235) 또는 그 외의 시각적, 청각적, 기타 감각적 표시수단에 의하여 표시할 수 있는 형태의 비디오 데이터로 출력하는 비디오 복호화기(232)를 포함할 수 있다. The streaming system (200) may include at least one streaming client (230, 240) that connects to the streaming server (220) to receive the encoded bit string (229) in real time or obtain it later. The streaming client may include a video decoder (232) that obtains the encoded bit string (229) (which may also be considered as a copy of the bit string (219) received by the streaming server), decodes the bit string (229), and outputs the resulting video data as video data in a form that can be displayed by a display (235) or other visual, auditory, or other sensory display means.
상술하는 바와 같이 비디오 데이터를 부호화하고 복호화하기 위한 기능을 통칭하여 부호화-복호화계통(coder-and-decoder), 즉 비디오 코덱(codec)으로 부른다.As described above, the functions for encoding and decoding video data are collectively called a coder-and-decoder, or video codec.
도 3은 본 발명의 일 실시예에 따른 비디오 복호화기의 기능부 단위 개념도이다. 도 3에 나타나는 바와 같이, 수신부(310)는 복호화기(305)에 의해 복호화될 적어도 하나의 부호화된 비디오 데이터를 수신할 수 있다. 본 발명의 일 실시예에 있어서, 상기 부호화된 비디오 데이터는 매 수신마다 독립적일 수 있으며, 상기 각각의 독립적인 비디오 데이터의 복호화 절차는 다른 비디오 데이터의 복호화 절차로부터 독립적일 수 있다. 상기 부호화된 비디오 데이터는 이를 저장하는 장치에 대한 하드웨어적 또는 소프트웨어적 연결(315)을 통해 상기 수신부(310)로 수신될 수 있으며, 상술한 바와 같이 상기 저장하는 장치는 통신 네트워크의 상대측에 위치하는 일종의 스트리밍 서버이거나, 또는 물리적인 기록매체를 의미할 수도 있으며, 이에 한정되지 아니한다.FIG. 3 is a conceptual diagram of a functional unit of a video decoder according to an embodiment of the present invention. As shown in FIG. 3, a receiving unit (310) can receive at least one encoded video data to be decoded by a decoder (305). In an embodiment of the present invention, the encoded video data may be independent for each reception, and the decoding procedure of each independent video data may be independent from the decoding procedure of other video data. The encoded video data may be received by the receiving unit (310) through a hardware or software connection (315) to a device storing the same, and as described above, the storing device may be a type of streaming server located at the other end of a communication network, or may mean a physical recording medium, but is not limited thereto.
상기 수신부(310)는 상기 부호화된 비디오 데이터를 그에 동반하는 다른 데이터, 예를 들면 부호화된 오디오 데이터나 그 밖의 보조 데이터들과 함께 수신할 수 있고, 상기 각각의 데이터는 상기 비디오 데이터와 분리되어 상기 비디오 복호화기 외의 적절한 처리 기능부(312)에 제공될 수 있다.The above-described receiving unit (310) can receive the encoded video data together with other data accompanying it, such as encoded audio data or other auxiliary data, and each of the data can be separated from the video data and provided to an appropriate processing function unit (312) other than the video decoder.
통신 네트워크를 통해 상기 비디오 데이터를 제공받는 경우, 네트워크 환경에 따른 지연 및 끊김을 최소화하기 위하여, 상기 수신부(310)와 상기 복호화기(305) 사이에는 버퍼 메모리(320)가 결합될 수 있다. 상기 버퍼 메모리(320)는 상기 수신된 비디오 데이터를 일시적으로 저장하여 상기 복호화기(305)의 입력단에 해당하는 파서(parser)(330)에 안정적으로 공급하는 기능을 하는 컴퓨터 판독 가능한 기록매체를 의미할 수 있다. 단, 통신 네트워크의 대역폭이 충분하거나, 물리적으로 이격되지 않은 로컬 위치의 기록매체로부터 비디오 데이터를 읽어들이고 있거나, 그 밖에 통신 지연의 가능성이 예측되지 않는 환경에서라면, 상기 버퍼 메모리는 불필요할 수 있다.When the video data is provided through a communication network, a buffer memory (320) may be coupled between the receiving unit (310) and the decoder (305) to minimize delay and disconnection according to the network environment. The buffer memory (320) may refer to a computer-readable recording medium that temporarily stores the received video data and stably supplies it to a parser (330) corresponding to the input terminal of the decoder (305). However, if the bandwidth of the communication network is sufficient, if video data is read from a recording medium in a local location that is not physically separated, or if the possibility of communication delay is not predicted in other environments, the buffer memory may be unnecessary.
비디오 복호화기(305)는 상기 부호화된 비디오 데이터를 해석하기 위해 그 입력단으로서 상기 파서(330)를 포함할 수 있다. 상기 파서는 상기 부호화된 비디오 데이터에 비트열의 형태로 저장된 다수의 정보를 소정 규칙에 의하여 분리(파싱; parsing)하고, 필요에 따라서는 엔트로피 부호화(entropy coding)된 비디오 데이터를 엔트로피 복호화(entropy decoding)(335)하는 기능을 수행함으로써, 비디오 부호화 정보의 단락들인 심볼(symbol)들(338)을 재구성하는 기능을 수행할 수 있다. 상기 심볼(338)은 상기 복호화기(305)의 동작을 제어하기 위한 일체의 정보를 포함할 수 있으며, 그리고/또는 상기 복호화기(305)에 부속되어 동작할 수 있는 장치, 이를테면 디스플레이와 같은 표시 장치의 제어를 위한 정보를 더 포함할 수 있다. 상기 표시 장치의 제어를 위한 제어 정보는 보조적 강화 정보(supplementary enhancement information; SEI) 또는 비디오 가용성 정보(video usability information; VUI)로 칭해지는 형식의 정보를 포함할 수 있다.The video decoder (305) may include the parser (330) as its input terminal to interpret the encoded video data. The parser may perform a function of separating (parsing) a plurality of pieces of information stored in the form of a bit string in the encoded video data according to a predetermined rule, and, if necessary, performing an entropy decoding (335) of entropy-coded video data, thereby performing a function of reconstructing symbols (338), which are paragraphs of video encoding information. The symbols (338) may include all information for controlling the operation of the decoder (305), and/or may further include information for controlling a device that is attached to and operable with the decoder (305), such as a display device. Control information for controlling the above display device may include information in a format called supplementary enhancement information (SEI) or video usability information (VUI).
상술한 바와 같이 상기 파서(330)는 상기 부호화된 비디오 데이터의 엔트로피 복호화(335)를 수행하도록 구성될 수 있다. 상기 부호화된 비디오 데이터의 엔트로피 부호화 방법은 상기 부호화의 규격에 따라 상이할 수 있으며, 이에 대응하여 복호화가 이루어질 수 있다. 상기 엔트로피 부호화 규격의 대표적인 예를 들면, 가변 길이 부호화(variable length coding), 허프만 부호화(huffman coding), 산술 부호화(arithmetic coding)를 포함할 수 있으며, 상기 각각의 부호화 방법은 규격에 따라서 맥락 적응적(context-adaptive) 또는 맥락 민감성(context-sensitive) 방법일 수 있으며, 그 밖에 통상의 기술자에게 널리 알려진 원리들에 의한 것일 수 있다. As described above, the parser (330) may be configured to perform entropy decoding (335) of the encoded video data. The entropy encoding method of the encoded video data may vary depending on the encoding standard, and decoding may be performed accordingly. Representative examples of the entropy encoding standard may include variable length coding, Huffman coding, and arithmetic coding, and each of the encoding methods may be a context-adaptive or context-sensitive method depending on the standard, and may also be based on principles widely known to those skilled in the art.
상기 파서(330)는 상기 부호화된 비디오 데이터로부터 적어도 하나의 픽쳐(picture)를 추출하도록 구성될 수 있다. 상기 픽쳐의 정의는 상기 부호화의 규격에 따라 상이할 수 있으며, 규격에 따라서 이하 열거하는 예시 중 하나가, 또는 다수가 동시에 중첩적으로 해당할 수 있다. 상기 픽쳐는 예를 들어, 픽쳐 그룹(group of pictures; GOPs), 픽쳐(pictures)/프레임(frames), 타일(tiles), 슬라이스(slices), 매크로블록(macroblocks), 블록(blocks), 서브블록(subblocks), 변환단위(transform units; TUs), 예측단위(prediction units; PUs)와 같은 부호화/복호화 단위로 그룹화되거나, 정의되거나, 및/또는 분할될 수 있다.The parser (330) may be configured to extract at least one picture from the encoded video data. The definition of the picture may vary depending on the encoding standard, and depending on the standard, one or more of the examples listed below may correspond simultaneously and overlappingly. The picture may be grouped, defined, and/or divided into encoding/decoding units such as, for example, groups of pictures (GOPs), pictures/frames, tiles, slices, macroblocks, blocks, subblocks, transform units (TUs), and prediction units (PUs).
상기 파서(330)는 상기 부호화된 비디오 데이터로부터 변환 계수(tranform coefficients), 양자화 파라미터(quantization parameters; QPs), 및/또는 움직임 벡터(motion vectors)와 같은 부호화 정보를 추출하도록 구성될 수 있다. 상기 파서(330)는 상기 버퍼 메모리로부터 수신된 비디오 데이터에 대하여 엔트로피 복호화(335) 및 파싱 동작을 수행하고, 상기 부호화 정보를 나타내는 심볼(338)들을 선택적으로 복호화하도록 구성될 수 있다. 또한, 상기 파서(330)는 특정 심볼(338)을 복호화기(305) 내부의 특정 복호화 기능부, 예를 들면 역양자화(inverse quantization) 및 역변환부(inverse transform)(340), 화면 내 예측(intra prediction)부(350), 화면 간 예측(inter prediction)부(355), 또는 루프 필터(loop filter)부(360) 등에 선택적으로 공급하도록 구성될 수 있다. 이러한 정보 공급의 제어는 상기 부호화된 비디오에 포함되어 있는 정보 순열에 의하여 결정될 수 있으며, 부호화 규격에 따라 상이할 수 있는 바 본 발명의 실시예 범위 내에서 한정되지는 않는 바, 본 개념도에서는 상세히 기재되지 아니한다.The parser (330) may be configured to extract encoding information, such as transform coefficients, quantization parameters (QPs), and/or motion vectors, from the encoded video data. The parser (330) may be configured to perform entropy decoding (335) and parsing operations on the video data received from the buffer memory, and to selectively decode symbols (338) representing the encoding information. In addition, the parser (330) may be configured to selectively supply a specific symbol (338) to a specific decoding function unit within the decoder (305), such as an inverse quantization and inverse transform unit (340), an intra prediction unit (350), an inter prediction unit (355), or a loop filter unit (360). Control of such information supply can be determined by the information sequence contained in the encoded video, and may vary depending on the encoding standard, and is not limited within the scope of the embodiments of the present invention, and is not described in detail in this conceptual diagram.
상기 복호화기(305)는 상기 파서(330)로부터 상기 부호화 정보를 제공받아 처리하는 다수의 개념적 기능부로 구성될 수 있다. 이러한 개념적 기능부는 구현상의 필요에 따라 서로 결합되거나 또는 더욱 세분될 수 있음이 자명하다. 예를 들어, 구현의 용이함을 위하여 더욱 분리될 수 있고, 동작의 효율성을 위하여 하나로 통합될 수 있다. 어떠한 경우에든, 각각의 기능부는 상호 밀접한 상호작용을 수행하도록 구성될 수 있다. 단, 이러한 통합 또는 분리의 가능성에도 불구하고, 본 발명의 실시예로서 적용되는 비디오 데이터의 복호화 절차를 나타내기 위하여 후술하는 바와 같은 개념적 기능부의 조합으로서 설명하기로 한다.The decoder (305) may be comprised of a number of conceptual functional units that receive and process the encoded information provided by the parser (330). It should be readily apparent that these conceptual functional units may be combined or further subdivided, depending on implementation needs. For example, they may be further separated for ease of implementation, or integrated into one for operational efficiency. In any case, each functional unit may be configured to perform close interaction with each other. However, despite the possibility of such integration or separation, the following description will be given as a combination of conceptual functional units to illustrate the video data decoding procedure applied as an embodiment of the present invention.
상기 복호화기는 역양자화 및 역변환부(340)를 포함할 수 있다. 상기 역양자화 및 역변환부(340)는 상기 파서(330)로부터 수치 변환(transform)에 사용할 방법, 블록의 크기, 양자화된 정보를 복구하기 위한 양자화 계수, 및 상기 양자화 계수를 단순화하여 나타내는 양자화 행렬의 구분 정보 등을 포함하는 부호화 정보를 수신하도록 구성될 수 있으며, 상기 부호화 정보를 처리한 결과로서 병합부(aggregator)(370)에 입력될 수 있는 블록 값(341)들을 출력하도록 구성될 수 있다.The decoder may include an inverse quantization and inverse transformation unit (340). The inverse quantization and inverse transformation unit (340) may be configured to receive encoding information including a method to be used for numerical transformation (transform), a block size, quantization coefficients for recovering quantized information, and distinction information of a quantization matrix that simplifies and represents the quantized coefficients from the parser (330), and may be configured to output block values (341) that can be input to an aggregator (370) as a result of processing the encoding information.
본 발명의 일 실시예에 있어서, 상기 역양자화 및 역변환부(340)의 출력 값들은 화면 내 예측 부호화된 블록 값을 포함할 수 있다. 상기 화면 내 예측된 블록 값이란, 이전에 복호화된 픽쳐, 가령 이전 프레임으로부터의 예측 정보를 이용하지 아니하나, 현재 복호화 중인 픽쳐, 가령 현재 프레임 내부에서의 예측 정보를 이용하여 복호화될 수 있는 값을 의미할 수 있다.In one embodiment of the present invention, the output values of the inverse quantization and inverse transformation unit (340) may include a predicted encoded block value within the screen. The predicted block value within the screen may mean a value that can be decoded using prediction information within the picture currently being decoded, for example, the current frame, but without using prediction information from a previously decoded picture, for example, a previous frame.
상기 현재 픽쳐 내부에서의 예측 정보는 화면 내 예측부(350)에 의하여 제공될 수 있다. 본 발명의 실시예에 따라서, 상기 화면 내 예측부(350)는, 현재 복호화 중으로써 부분적으로 복호화가 완료된 픽쳐로부터 도출된, 공간적으로 인접한 영역의 픽쳐 정보를 이용하여 복호화 중인 블록과 동일한 형태의 블록 값을 예측 정보로서 생성한다. 상기 픽쳐 정보는 현재 픽쳐에 대한 버퍼, 이른바 라인 버퍼(line buffer)(380)로부터 제공(381)될 수 있다. 상기 병합부(370)는, 실시예에 따라서, 상기 화면 내 예측부(350)가 생성한 예측 정보(351)를 상기 역양자화 및 역변환부(340)가 제공한 블록 값(341)들과 병합하도록 구성될 수 있다.The prediction information within the current picture may be provided by the intra-screen prediction unit (350). According to an embodiment of the present invention, the intra-screen prediction unit (350) generates a block value of the same form as the block being decoded as the prediction information by using picture information of a spatially adjacent area derived from a picture currently being decoded and of which decoding has been partially completed. The picture information may be provided (381) from a buffer for the current picture, a so-called line buffer (380). The merging unit (370), according to an embodiment, may be configured to merge the prediction information (351) generated by the intra-screen prediction unit (350) with the block values (341) provided by the inverse quantization and inverse transformation unit (340).
다른 일 실시예에 있어서, 상기 역양자화 및 역변환부(340)의 출력 값들은 화면 간 예측 부호화된 블록 값으로, 경우에 따라서는, 움직임 보상(motion compensation)이 이루어진 블록 값을 포함할 수 있다. 이러한 경우, 화면 간 예측부(355)가 참조 픽쳐 버퍼(reference picture buffer)(385)로부터 움직임 기반의 예측에 사용되는 샘플 정보(386)를 추출하여 사용할 수 있다. 상기 출력 값으로써의 블록 값에 포함된 심볼(338)들에 기반하여 상기 샘플 정보에 대한 움직임 보상을 수행하여 도출된 정보(356)는 상기 병합부(370)에 의해 상기 역양자화 및 역변환부(340)가 제공한 블록 값(341)들과 병합하도록 구성될 수 있다. 이 경우, 상기 블록 값(341)들은 이른바 차분(differntial) 또는 잔차(residual) 값으로 호칭될 수 있다.In another embodiment, the output values of the inverse quantization and inverse transformation unit (340) may include block values that have undergone inter-screen prediction encoding, and in some cases, block values that have undergone motion compensation. In this case, the inter-screen prediction unit (355) may extract and use sample information (386) used for motion-based prediction from a reference picture buffer (385). The information (356) derived by performing motion compensation on the sample information based on the symbols (338) included in the block values as the output values may be configured to be merged with the block values (341) provided by the inverse quantization and inverse transformation unit (340) by the merger unit (370). In this case, the block values (341) may be referred to as so-called differential or residual values.
상기 화면 간 예측부(355)가 상기 샘플 정보를 상기 참조 픽쳐로부터 추출하기 위해 사용하는 메모리 내에서의 위치 정보는, 예를 들어 X, Y, 및 그 밖에 참조 픽쳐의 특정 지점을 나타내기 위한 심볼(338)의 조합으로 구성되어 상기 화면 간 예측부(355)에 제공되는 움직임 벡터(motion vector)에 의하여 결정될 수 있다. 상기 화면 간 예측부(355)는 또한, 이른바 '서브샘플링(subsampling)' 가능한 움직임 벡터가 제공된 경우, 상기 샘플 값들을 보간(interpolation)하여 사용할 수 있는 기능을 포함할 수 있으며, 또한, 상기 움직임 벡터의 값을 예측하여 보강하는 기능을 더 포함할 수도 있다.The position information within the memory used by the inter-screen prediction unit (355) to extract the sample information from the reference picture may be determined by a motion vector provided to the inter-screen prediction unit (355) and composed of a combination of symbols (338) for indicating, for example, X, Y, and other specific points of the reference picture. The inter-screen prediction unit (355) may also include a function for interpolating and using the sample values when a so-called 'subsampling'-capable motion vector is provided, and may further include a function for predicting and reinforcing the value of the motion vector.
상기 병합부(370)의 출력 값(371)들은 루프 필터부(360)에 제공되어 다양한 루프 필터링 방법에 의하여 처리될 수 있다. 상기 루프 필터부(360)는 상기 병합부(370)의 블록 단위 출력(371) 뿐 아니라, 상기 파서(330)로부터 제공되는 심볼(338)을 입력받아 그 동작의 제어가 이루어지도록 구성될 수도 있다. 상기 루프 필터부(360)의 출력은 출력 연결(390)을 통해 상기 표시 장치와 같은 외부 표시 수단에 출력될 수 있으나, 사후의 화면 내 또는 화면 간 예측 부호화 블록 값을 해석하기 위한 예측에 사용하기 위하여 라인 버퍼(380)에 저장(361)되고, 또한 이를 거쳐 참조 픽쳐 버퍼(385)에 저장될 수 있다.The output values (371) of the above merging unit (370) may be provided to the loop filter unit (360) and processed by various loop filtering methods. The loop filter unit (360) may be configured to receive not only the block unit output (371) of the merging unit (370) but also the symbol (338) provided from the parser (330) to control its operation. The output of the loop filter unit (360) may be output to an external display means such as the display device through an output connection (390), but may be stored (361) in a line buffer (380) for use in prediction for interpreting a post-screen or inter-screen prediction encoding block value, and may also be stored in a reference picture buffer (385) through this.
특정한 픽쳐들, 가령 프레임들은, 그 복호화가 완료되고 나면, 사후의 복호화 과정에서 예측 복호화를 수행하기 위한 참조 픽쳐로서 활용될 수 있다. 하나의 픽쳐(또는 프레임)는, 라인 버퍼(380)에 단계적으로 축적되며 복호화가 진행될 수 있으며, 하나의 프레임이 복호화 완료되는 경우, 상기 라인 버퍼(380)의 내용은 상기 참조 픽쳐 버퍼(385)로 이전(383)되고, 새로운 라인 버퍼(380)가 새로운 프레임의 복호화를 위하여 할당될 수 있다.Certain pictures, such as frames, after their decoding is completed, can be utilized as reference pictures for performing predictive decoding in a subsequent decoding process. A picture (or frame) can be gradually accumulated in a line buffer (380) and decoded. When the decoding of a frame is completed, the contents of the line buffer (380) are transferred (383) to the reference picture buffer (385), and a new line buffer (380) can be allocated for decoding the new frame.
상기 비디오 복호화기(305)는, 다양한 국제 표준 규격 또는 상용 규격에 의해 문서화될 수 있는 미리 결정된 비디오 압축 기술에 따라 복호화 동작을 수행하도록 구성될 수 있다. 상기 규격이란 예를 들어, 국제전기통신연합 표준화분과(ITU-T)가 규정한 국제표준권고안(recommendation)인 H.264, H.265, H.266 등을 포함할 수 있다. 통상의 기술자는 상기 각각의 권고안이 국제표준화기구(ISO) 및 국제전기기술회의(IEC)에 의하여 공동으로 규정된 국제표준과 등가임을 이해할 것이다. 부호화된 비디오 데이터는, 비디오 압축 규격 문서 및 표준 문서에서, 그리고 구체적으로는 그러한 문서 내부에서 지정하는 프로파일(profile) 및 레벨(level)에 의하여 정의되고 또한 요구되는 바에 따라서, 해당 규격이 정의하고 있는 특정한 비트열 구문(bitstream syntax)을 준수할 수 있다. 상기 프로파일과 레벨의 준수를 위해서는 그 밖에도 부호화된 비디오 데이터의 복잡성이 일정 수준으로 제한될 수 있다. 예를 들어, 어떠한 프로파일 또는 레벨은 최대 픽쳐 크기, 최대 복호화 속도, 및 최대 참조 픽쳐 규모를 제한하도록 구성될 수 있다. 상기 제한 사항들은 또한, 일부 실시예들에 있어서는, 가상적 기준 복호화기(hypotherical reference decoder; HRD) 및 부호화된 비디오 데이터에 포함되어 있는 상기 HRD 버퍼 관리에 대한 메타데이터 신호를 통하여 추가적으로 제한될 수도 있다.The above video decoder (305) may be configured to perform a decoding operation according to a predetermined video compression technique that may be documented by various international standards or commercial standards. The standards may include, for example, international standard recommendations such as H.264, H.265, and H.266 defined by the International Telecommunication Union Standardization Sub-Division (ITU-T). Those skilled in the art will understand that each of the above recommendations is equivalent to an international standard jointly defined by the International Organization for Standardization (ISO) and the International Electrotechnical Commission (IEC). The encoded video data may comply with a specific bitstream syntax defined by the relevant standards, as defined and required by the video compression standard documents and standard documents, and specifically by the profiles and levels specified within such documents. In addition, the complexity of the encoded video data may be limited to a certain level to comply with the profiles and levels. For example, a profile or level may be configured to limit a maximum picture size, a maximum decoding speed, and a maximum reference picture size. These limitations may, in some embodiments, also be further limited by metadata signals for a hypothetical reference decoder (HRD) and HRD buffer management included in the encoded video data.
본 발명의 일 실시예에 따르면, 상기 수신부(310)는 상기 인코딩된 비디오와 함께 추가적인 중복 데이터를 수신할 수 있다. 상기 추가적인 데이터는 상기 부호화된 비디오 데이터의 일부로서 간주될 수 있다. 상기 추가적인 데이터는 데이터를 적절히 복호화하기 위해서, 또는 부호화 전 영상에 근접하는 영상을 보다 정확하게 재구성하기 위해서, 상기 복호화기(305)에 의하여 사용될 수 있는 정보를 포함할 수 있다. 상기 추가적인 데이터는 예를 들어, 시간, 공간, 또는 신호 대 잡음 비(SNR) 향상을 위한 계층들, 중복 슬라이스들, 중복 픽쳐들, 및 순방향 오류 정정 코드들과 같은 형태로 제공될 수 있다.According to one embodiment of the present invention, the receiver (310) may receive additional redundant data along with the encoded video. The additional data may be considered as part of the encoded video data. The additional data may include information that may be used by the decoder (305) to properly decode the data or to more accurately reconstruct an image that approximates the original image. The additional data may be provided in the form of, for example, layers for temporal, spatial, or signal-to-noise ratio (SNR) enhancement, redundant slices, redundant pictures, and forward error correction codes.
도 4는 본 발명의 일 실시예에 따른 비디오 부호화기의 기능부 단위 개념도이다. 상기 부호화기(405)는 비디오 소스(401)로부터 원본 비디오 정보(402)를 수신하여 부호화를 실시하도록 구성될 수 있다.Figure 4 is a functional unit conceptual diagram of a video encoder according to one embodiment of the present invention. The encoder (405) may be configured to receive original video information (402) from a video source (401) and perform encoding.
상기 원본 비디오 정보(402)는 임의의 적합한 비트 심도(bit depth)를 가질 수 있으며, 예를 들어 8비트, 10비트, 12비트 등을 가질 수 있다. 또한, 상기 원본 비디오 정보(402)는 임의의 적합한 색공간을 가질 수 있으며, 예를 들어, R/G/B, Y/U/V, Y/Cb/Cr 등을 가질 수 있다. 또한, 상기 원본 비디오 정보(402)는 상기 색공간에 대응하는 임의의 적합한 샘플링 구조를 가질 수 있으며, 예를 들어 Y/Cb/Cr 4:2:0, Y/Cb/Cr 4:4:4와 같은 형태를 가질 수 있다. 이러한 소정의 형식을 가진 원본 비디오 정보(402)는 디지털 비디오 스트림의 형태로 상기 부호화기에 제공될 수 있다.The original video information (402) may have any suitable bit depth, for example, 8 bits, 10 bits, 12 bits, etc. In addition, the original video information (402) may have any suitable color space, for example, R/G/B, Y/U/V, Y/Cb/Cr, etc. In addition, the original video information (402) may have any suitable sampling structure corresponding to the color space, for example, Y/Cb/Cr 4:2:0, Y/Cb/Cr 4:4:4, etc. The original video information (402) having such a predetermined format may be provided to the encoder in the form of a digital video stream.
단방향 비디오 통신 네트워크에 있어서, 상기 원본 비디오 정보(402)는, 사전에 준비되어 있는 비디오 원본을 저장해 둔 기록매체로부터 획득될 수 있다. 양방향 비디오 통신 네트워크에 있어서, 상기 원본 비디오 정보(402)는 상기 양방향 비디오 통신에 포함되는 적어도 하나의 비디오 송출 스트림을 생성하는 영상 취득 장치, 예를 들어 카메라와 같은 장치로부터 획득될 수 있다.In a one-way video communication network, the original video information (402) can be obtained from a recording medium storing a previously prepared video source. In a two-way video communication network, the original video information (402) can be obtained from an image acquisition device, such as a camera, that generates at least one video transmission stream included in the two-way video communication.
상기 원본 비디오 정보(402)를 포함하는 비디오 데이터는, 시간 순서에 따라 재생함으로써 움직임을 모사하도록 구성되는 복수의 픽쳐로서 구성될 수 있다. 상기 픽쳐는 픽쳐 이외에도 프레임(frame)과 같은 개념으로도 표현될 수 있다. 상기 픽쳐는 사용 중인 샘플링 구조, 색공간 등의 유형에 따라 하나 이상의 샘플(sample)을 포함할 수 있다. 통상의 기술자는 상기 샘플과 디지털 영상에서의 픽셀(pixel) 및/또는 화소가 밀접한 관련을 가지는 용어임을 이해할 수 있을 것이다. 이하 이 같은 샘플을 중심으로 하여 부호화기의 동작을 설명한다.The video data including the above original video information (402) may be configured as a plurality of pictures configured to simulate motion by playing them in chronological order. The picture may also be expressed as a concept such as a frame in addition to a picture. The picture may include one or more samples depending on the type of sampling structure, color space, etc. being used. Those skilled in the art will understand that the sample and the pixel and/or pixel in a digital image are closely related terms. The operation of the encoder will be described below with reference to such samples.
본 발명의 일 실시예에 따르면, 부호화기(405)는 상기 원본 비디오 정보(402)를 구성하는 픽쳐(및/또는 그것이 그룹화되거나 분할된 정보)들을 실시간으로 (또는 실시방법에 따라 필요로 되는 다른 시간적 요구조건에 의하여) 부호화된 비디오 정보의 형태로 부호화 및 압축하도록 구성될 수 있다.According to one embodiment of the present invention, the encoder (405) may be configured to encode and compress pictures (and/or grouped or segmented information) constituting the original video information (402) in real time (or according to other temporal requirements required according to the implementation method) into the form of encoded video information.
상기 부호화기(405)에 있어, 제어부(450)는 적절한 부호화 속도를 제어하도록 구성되는 기능부일 수 있다. 상기 제어부(450)는 이하 설명되는 바와 같이 다른 기능부들을 제어하고 하기 기능부들에 기능적으로 결합되도록 구성될 수 있다. 상기 제어부(450)에 의해 설정되는 파라미터들은 비트 전송율(bitrate) 제어에 관련된 파라미터, 예를 들면 픽쳐의 스킵(skip), 양자화기(quantizer), 화질 최적화 기법의 적용을 위한 변수값 등을 포함할 수 있으며, 또한 픽쳐의 크기, 픽쳐 그룹(group of pictures; GOP)의 구조, 움직임 벡터의 최대 검색 범위와 같은 값을 포함할 수 있다. 통상의 기술자는 상기 제어부(450)가 가질 수 있는 다양한 다른 기능들에 대하여 이해할 수 있을 것이며, 그러한 다른 기능들은 개별적 시스템 설계에 최적화된 비디오 부호화기의 설계에 따라 부가 또는 제거될 수 있는 것들이다.In the encoder (405), the control unit (450) may be a functional unit configured to control an appropriate encoding speed. The control unit (450) may be configured to control other functional units and be functionally coupled to the following functional units as described below. The parameters set by the control unit (450) may include parameters related to bitrate control, such as picture skip, quantizer, and variable values for applying image quality optimization techniques, and may also include values such as picture size, group of pictures (GOP) structure, and maximum search range of motion vectors. A person skilled in the art will be able to understand various other functions that the control unit (450) may have, and such other functions may be added or removed according to the design of a video encoder optimized for individual system design.
본 발명의 실시예에 따라서, 상기 부호화기(405)는 통상의 기술자에게 잘 알려진 "코딩 루프(coding loop)"와 같은 구조로 동작하도록 구성될 수 있다. 예시적으로 단순화하여 설명하면, 상기 코딩 루프는, 부호화될 픽쳐를 입력받고 종래에 부호화한 적어도 하나의 참조 픽쳐에 기반하여 심벌(symbol)들을 생성하는 것을 담당하는 내부 부호화기(이른바 "소스 코더(source coder)")(410), 및 상기 내부 부호화기에 접속되도록 구성되는 내부 복호화기(local decoder)(420)로 구성될 수 있다. 상기 내부 복호화기(420)는 상기 내부 부호화기(410)의 출력을 제공받음으로써, 상기 부호화기(405)로부터 부호화된 비디오 정보를 전달받게 될 실제 원격지에 있는 복호화기(490)가 생성하게 될 샘플 데이터를 재현하기 위한 동작을 수행하도록 구성될 수 있다. According to an embodiment of the present invention, the encoder (405) may be configured to operate in a structure such as a "coding loop" well known to those skilled in the art. To simplify the description by way of example, the coding loop may be configured with an internal encoder (so-called "source coder") (410) which is responsible for receiving a picture to be encoded and generating symbols based on at least one reference picture that has been encoded in the past, and a local decoder (420) configured to be connected to the internal encoder. The local decoder (420) may be configured to perform an operation to reproduce sample data to be generated by a decoder (490) located at an actual remote location that will receive encoded video information from the encoder (405) by receiving an output of the internal encoder (410).
상기 내부 복호화기(420)에 의하여 재구성된 샘플 데이터로 구성된 비디오 데이터는 상기 부호화기(405)의 참조 픽쳐 버퍼에 입력되도록 구성될 수 있다. 상술한 바와 같이 상기 내부 복호화기(420)는 상기 부호화기(405)가 출력하여 원격지의 복호화기에서 복호화될 결과물을 재현하도록 구현되었으므로, 상기 참조 픽쳐 버퍼에 기록되는 비디오 데이터 또한 원격지의 복호화기가 가지는 참조 픽쳐 버퍼의 정보와 비트 단위로 동일할 수 있다. 즉, 상기 부호화기(405)에 포함될 수 있는 예측 기능부는 추후 복호화기가 복호화 과정에서 참조하게 될 이전 프레임의 샘플 값들과 동일한 값들을 상기 부호화기(405)의 참조 픽쳐 버퍼로부터 읽어들일 수 있다.Video data composed of sample data reconstructed by the internal decoder (420) may be configured to be input to the reference picture buffer of the encoder (405). As described above, the internal decoder (420) is implemented to reproduce the result output by the encoder (405) and to be decoded by a remote decoder, so the video data recorded in the reference picture buffer may also be identical in bit unit to the information of the reference picture buffer of the remote decoder. That is, the prediction function unit that may be included in the encoder (405) may read the same values as the sample values of the previous frame that the decoder will later refer to in the decoding process from the reference picture buffer of the encoder (405).
상술하는 바와 같이 부호화기(405) 측의 내부 복호화기(420)에 의하여 부호화기(405)와 복호화기(490) 간 참조 픽쳐 버퍼의 일치를 달성하는 원리는 통상의 기술자에게 널리 알려진 바에 따르며, 또한 그러한 환경이 보장되지 아니하는 환경(예를 들어, 통신 장애로 인한 정보 유실 등)에 대응하는 방법 또한 통상의 기술자에게 공지된 바를 따를 수 있다.As described above, the principle of achieving matching of the reference picture buffers between the encoder (405) and the decoder (490) by means of the internal decoder (420) on the encoder (405) side is well known to those skilled in the art, and a method of responding to an environment in which such an environment is not guaranteed (e.g., information loss due to communication failure, etc.) can also follow what is known to those skilled in the art.
상기 내부 복호화기(420)의 동작 방법의 일 실시예는 앞서 도 3을 참조하여 상세히 설명하였다. 상기 도 3의 복호화기는 상술한 "원격지"의 복호화기(490)로 간주될 수 있는 것이다. 상기 내부 복호화기(420)는 파서(330)나 엔트로피 복호화(335)와 같은 무손실 부호화 및 복호화 구간은 제외하고 구현될 수 있는데, 이는 상기 내부 부호화기(405)가 원격지에 있는 복호화기의 동작을 단순히 재현하기 위하여 구현되는 것이므로, 심볼을 압축 후 재복원하는 과정을 요하지 않고 심볼을 바로 복호화하여도 무방하기 때문이다. 따라서 도 3에 나타나는 것과 같은 파서 및 엔트로피 복호화기를 포함하여 이에 선행하는 기능부들은 구비되지 아니하거나 적어도 부분적으로만 구현되더라도 무방할 수 있다.An embodiment of the operation method of the internal decoder (420) has been described in detail above with reference to FIG. 3. The decoder of FIG. 3 may be regarded as the aforementioned "remote" decoder (490). The internal decoder (420) may be implemented excluding lossless encoding and decoding sections such as the parser (330) or entropy decoding (335). This is because the internal encoder (405) is implemented to simply reproduce the operation of a decoder located at a remote location, and thus may directly decode symbols without requiring a process of compressing and then decompressing symbols. Accordingly, the functional units preceding the parser and entropy decoder as shown in FIG. 3 may not be provided or may be implemented at least partially.
상술하는 바와 같이, 본 발명의 바람직한 실시방법에 따르면, 복호화기에 존재하는 (파서 및 엔트로피 복호화기를 제외할 수 있는) 임의의 복호화기 기능부는 자연히 대응하는 부호화기(405)에서 실질적으로 동일한 기능부로서 존재할 수 있다.As described above, according to a preferred embodiment of the present invention, any decoder function (excluding a parser and an entropy decoder) present in the decoder can naturally exist as a substantially identical function in the corresponding encoder (405).
상기 부호화기(405)에 포함될 수 있는 부호화 기능부의 동작은 상기 복호화기 기능부의 역동작으로 간주할 수 있다. 따라서 대체로는 상기 복호화기 기능부의 동작을 반대로 수행하는 것으로써 그 실시예를 해설할 수 있다. 예를 들어, 역양자화 및 역변환부에 대응하는 양자화(quantization) 및 변환(transform) 기능부가 제공될 수 있으며, 화면 간 예측부에 대응하는 화면 간 예측 부호화부가 제공될 수 있는 것과 같다. 이에 더하여, 일부 추가적으로 설명을 부가하기로 한다.The operation of the encoding function unit that may be included in the above encoder (405) can be considered as the reverse operation of the decoder function unit. Therefore, the embodiment can be explained by performing the operation of the decoder function unit in reverse. For example, a quantization and transform function unit corresponding to the inverse quantization and inverse transform unit may be provided, and an inter-screen prediction encoding unit corresponding to the inter-screen prediction unit may be provided. In addition, some additional explanations will be added.
상기 내부 부호화기(410)는 적어도 하나의 참조 픽쳐 정보, 예를 들어 참조 프레임으로 지정된 비디오 데이터로부터 적어도 하나의 시간적으로 이전 순서에 부호화된 픽쳐(또는 프레임)들을 참조 픽쳐 버퍼(430)로부터 참조하여 동작하는 예측 부호화부(440)에 의해 실행되는 예측 부호화 방법에 의해, 입력된 픽쳐 정보, 가령 입력 프레임에 대한 부호화를 수행하도록 구성될 수 있다. 이러한 경우, 상기 부호화기(405)는 상기 입력 픽쳐를 구성하는 샘플들의 블록들과 상기 참조 픽쳐를 구성하는 샘플들의 블록들 간에 차분(differential)을 부호화하도록 구성될 수 있다.The internal encoder (410) may be configured to perform encoding on input picture information, for example, an input frame, by a prediction encoding method executed by a prediction encoding unit (440) that operates by referencing at least one reference picture information, for example, at least one temporally previous encoded picture (or frame) from a reference picture buffer (430) from video data designated as a reference frame. In this case, the encoder (405) may be configured to encode a differential between blocks of samples constituting the input picture and blocks of samples constituting the reference picture.
상기 내부 복호화기(420)는 상기 내부 부호화기(410)에 의해 생성된 심볼들로부터 상기 참조 픽쳐로서 지정될 수 있는 비디오 데이터를 복호화할 수 있다. 상술한 바와 같이 이러한 비디오 데이터는 원격지의 복호화기가 수행하는 복호화 동작과 동일하므로, 상기 참고 픽쳐로 사용되는 비디오 데이터는 손실 압축을 경과하여 일부 손상이 발생한 형태로 상기 부호화기(405)에 제공될 수 있으며, 이러한 동작은 복호화기와의 동작 일치를 위하여 의도된 것일 수 있다.The internal decoder (420) can decode video data that can be designated as the reference picture from symbols generated by the internal encoder (410). As described above, since the video data is identical to the decoding operation performed by the remote decoder, the video data used as the reference picture may be provided to the encoder (405) in a form that has undergone lossy compression and has been partially damaged, and this operation may be intended to ensure operational consistency with the decoder.
예측 부호화부(440)는 상기 부호화기(405) 내부에서 예측 검색 동작을 수행하도록 구성될 수 있다. 상기 예측 검색 동작은 상기 복호화기의 설명에서 설명하였던 화면 간 예측 또는 화면 내 예측에 대응하는 동작을 의미할 수 있다. 입력되어 새로이 부호화가 예정된 픽쳐 정보에 대하여, 상기 예측부는 새로운 픽쳐 정보에 적합한 예측 참조 정보로 기능할 수 있는 참조 픽쳐의 지점을 나타내는 정보인 움직임 벡터, 블록 형상, 및 이를 포함할 수 있는 메타데이터, 및 실제 참조될 샘플 블록의 획득하기 위하여 상기 참조 픽쳐 버퍼(430)에 접속하여 정보를 인출할 수 있다. 상기 예측 부호화부(440)는 적절한 예측 참조 정보를 획득하기 위하여 이른바 "샘플 블록 대 픽셀 블록(sample block by pixel block)의 기준에 의하여 동작할 수 있다. 본 발명의 일 실시예에 따라서, 상기 예측 부호화부(440)에 의하여 획득된 검색 결과들에 기반하여 결정되는 바와 같이, 상기 입력 픽쳐에 대해서는 상기 참조 픽쳐 버퍼(430)에 저장된 적어도 하나의 참조 픽쳐 정보를 지목하는 적어도 하나의 예측 참조 정보가 지정될 수 있다.The prediction encoding unit (440) may be configured to perform a prediction search operation within the encoder (405). The prediction search operation may refer to an operation corresponding to the inter-screen prediction or intra-screen prediction described in the description of the decoder. For picture information that is input and scheduled to be newly encoded, the prediction unit may access the reference picture buffer (430) to retrieve information such as a motion vector, a block shape, and metadata that may include the same, which are information indicating a point of a reference picture that can function as prediction reference information suitable for the new picture information, and a sample block to be actually referenced. The above prediction encoding unit (440) may operate on the basis of the so-called "sample block by pixel block" criteria in order to obtain appropriate prediction reference information. According to one embodiment of the present invention, at least one prediction reference information designating at least one reference picture information stored in the reference picture buffer (430) may be designated for the input picture, as determined based on the search results obtained by the prediction encoding unit (440).
본 발명의 일 실시예에 있어, 상기 제어부(450)는, 비디오 데이터를 부호화하기 위하여 사용되는 파라미터들의 설정을 포함하여, 내부 부호화기(410)의 부호화 동작 전반을 관리하도록 구성될 수 있다.In one embodiment of the present invention, the control unit (450) may be configured to manage the overall encoding operation of the internal encoder (410), including setting parameters used to encode video data.
상술한 모든 기능부의 출력들은 최종적으로 출력되기 위하여 엔트로피 부호화(460)의 대상이 될 수 있다. 상기 엔트로피 부호화(460)는 상기 다양한 기능부에 의하여 생성된 심볼들을 앞서 서술한 것과 같은 다양한 엔트로피 코딩 기법, 예를 들어 가변 길이 부호화(variable length coding), 허프만 부호화(huffman coding), 산술 부호화(arithmetic coding)를 포함할 수 있으며, 상기 각각의 부호화 방법은 규격에 따라서 맥락 적응적(context-adaptive) 또는 맥락 민감성(context-sensitive) 방법일 수 있으며, 그 밖에 통상의 기술자에게 널리 알려진 원리들에 의한 것일 수 있다. 이러한 엔트로피 부호화(460)는 통상적으로 무손실 압축을 달성할 수 있으며, 이에 따라 상기 기능부들이 생성한 적어도 하나의 심볼을 부호화된 비디오 데이터로 변환하도록 구성될 수 있다.All outputs of the above-described functional units may be subjected to entropy encoding (460) in order to be finally output. The entropy encoding (460) may include various entropy coding techniques, such as variable length coding, Huffman coding, and arithmetic coding, for the symbols generated by the various functional units as described above, and each encoding method may be a context-adaptive or context-sensitive method according to the standard, or may be based on principles widely known to those skilled in the art. Such entropy encoding (460) can typically achieve lossless compression, and thus can be configured to convert at least one symbol generated by the functional units into encoded video data.
상기 제어부(450)는 상기 부호화기(405)의 동작을 제어함에 있어, 부호화 구간 동안 특정 픽쳐가 부호화되는 유형을 각각의 픽쳐(또는 프레임)에 적용할 수 있다. 상기 유형에 따라서 상기 픽쳐가 부호화되는 방식에 영향이 있을 수 있다. 상기 유형은, 실시예에 따라서는, 다음와 같은 "프레임 유형"으로 구분되는 것을 포함할 수 있다.The above control unit (450) may, when controlling the operation of the encoder (405), apply to each picture (or frame) the type of encoding in which a specific picture is encoded during the encoding period. Depending on the type, the method by which the picture is encoded may be affected. Depending on the embodiment, the type may include what is categorized as the following "frame type."
도 5는 본 발명의 일 실시예에 의한 프레임 유형의 개념도이다. 이하 도 5를 함께 참조하여 설명한다.Fig. 5 is a conceptual diagram of a frame type according to one embodiment of the present invention. The following description will be made with reference to Fig. 5.
화면 내 예측(intra, "I") 픽쳐(510)는, 예측 부호화로 비디오 데이터 내의 다른 픽쳐 정보를 참조하지 않고 스스로의 정보만으로 부호화되고 또한 복호화될 수 있는 픽쳐를 의미할 수 있다. 상기 "I" 픽쳐는, 비디오 부호화 규격에 따라서 키 프레임(key frame), 독립/즉각적 디코더 갱신(independent/instantaneous decoder refersh; IDR) 프레임, 청정 임의접속(clean random-access; CRA) 프레임과 같은 명칭으로 지목될 수 있으며, 상기와 같이 다양한 명칭으로 지목되는 "I" 픽쳐는 각각의 규격이 허용하는 바에 따라 다양한 변형 및 응용 방법을 가지며 서로 부분적으로 상이할 수 있다. 상기 열거한 것 이외에 "I" 픽쳐를 구현하는 다양한 응용 방법은 통상의 기술자에게 이미 알려져 있거나 또는 새로이 제공될 수 있는 다양한 방법에 의할 수 있다.An intra-picture ("I") picture (510) may refer to a picture that can be encoded and decoded using only its own information without referring to other picture information in video data through predictive encoding. The "I" picture may be designated by names such as a key frame, an independent/instantaneous decoder referh (IDR) frame, and a clean random-access (CRA) frame, depending on the video encoding standard, and the "I" pictures designated by the various names as described above may have various modifications and application methods as permitted by each standard and may be partially different from each other. In addition to those listed above, various application methods for implementing the "I" picture may be by various methods that are already known to those skilled in the art or may be newly provided.
화면 간 예측(prediction, "P") 픽쳐(520)는, 상기 픽쳐를 구성하는 블록의 샘플 값들을 예측하기 위하여 적어도 하나의 참조 픽쳐를 지목하는 적어도 하나의 예측 정보 및/또는 움직임 벡터에 기반하여 화면 내 또는 인터 예측을 통해 부호화되고 또한 복호화될 수 있는 픽쳐를 의미할 수 있다. 상기 "P" 픽쳐는, 비디오 부호화 규격에 따라서 하나의 참조 프레임만을 참조하도록 구성되거나, 또는 하나 이상의 참조 프레임을 참조하도록 구성될 수 있다. 하나 이상의 참조 프레임을 참조하는 경우, 단일 블록의 재구성을 위해 복수의 참조 픽쳐로부터 유래하는 샘플 정보 및/또는 연관된 메타데이터를 사용할 수 있다. 그러나 공통적인 경우에 있어, "P" 픽쳐로 지정된 픽쳐는 시간적으로 선행하는 픽쳐에 한정하여 참조를 실행하는 픽쳐로 이해될 수 있다.An inter-prediction (“P”) picture (520) may refer to a picture that can be encoded and decoded through intra- or inter-prediction based on at least one prediction information and/or a motion vector that designates at least one reference picture to predict sample values of a block constituting the picture. The “P” picture may be configured to refer to only one reference frame, or may be configured to refer to one or more reference frames, according to a video encoding standard. When referring to more than one reference frame, sample information and/or associated metadata derived from multiple reference pictures may be used to reconstruct a single block. However, in common cases, a picture designated as a “P” picture may be understood as a picture that performs reference only to a temporally preceding picture.
양방향 예측(bidirectional prediction, "B") 픽쳐(530)는 상기 픽쳐를 구성하는 블록의 샘플 값들을 예측하기 위하여 적어도 둘 이상의 참조 픽쳐를 지목하는 적어도 하나의 예측 정보 및/또는 움직임 벡터에 기반하여 화면 내 또는 인터 예측을 통해 부호화되고 또한 복호화될 수 있는 픽쳐를 의미할 수 있다. 공통적인 경우에 있어, 상기 "B" 픽쳐로 지정된 픽쳐는, 상기 "P" 픽쳐로 지정된 픽쳐와 구별되며, 시간적으로 선행하는 픽쳐에 한정하지 아니하고 참조를 실행하는 픽쳐로 이해될 수 있다.A bidirectional prediction ("B") picture (530) may refer to a picture that can be encoded and decoded through intra-screen or inter-prediction based on at least one piece of prediction information and/or a motion vector that designates at least two reference pictures in order to predict sample values of blocks constituting the picture. In a common case, a picture designated as the "B" picture is distinguished from a picture designated as the "P" picture, and may be understood as a picture that performs a reference without being limited to a temporally preceding picture.
비디오 데이터는 부호화 및 복호화의 과정에 있어서 복수의 샘플 블록에 의하여 공간적으로 구분되고, 상기 블록 단위로 부호화가 진행될 수 있다. 상기 블록 단위는 예를 들어, 널리 알려진 것과 같이, 가로/세로 화소의 단위로 4×4, 8×8, 4×8, 또는 16×16과 같은 크기를 포함하지만, 이에 한정되지 않는다. 상기 블록은 상기 블록이 포함되는 각각의 픽쳐에 대하여 지정되는 유형이 허용 및/또는 제한하는 바에 따라 임의의 다른 (이미 부호화가 완료된) 블록들을 참조하여 예측 부호화 방법에 의하여 부호화될 수 있다. 예를 들어, "I" 픽쳐(510)의 블록들은 예측 부호화 방법을 사용하지 않거나, 또는 같은 부분 픽쳐 내부에서 이미 부호화가 완료된 블록들을 참조하여 부호화될 수 있다. 즉, 이른바 화면 내 예측 방법만이 사용될 수 있다. 그에 비하여, "P" 픽쳐(520)의 경우 적어도 하나의 이전 시간 단위에 부호화된 참조 픽쳐를 더 참조할 수 있으며, 따라서 화면 내 예측과 함께 인터 예측 또한 부호화에 사용될 수 있다. "B" 픽쳐(530)의 경우 부호화 순서에 있어서 이전에 부호화되었을 뿐 시간 단위로서는 후행하는 참조 픽쳐 가운데에서도 참조를 실행할 수 있다. 단, "P" 픽쳐 또는 "B" 픽쳐의 내부에서도 예측 부호화에 의존하지 않고 부호화되는 블록들이 존재할 수 있음은 널리 알려져 있다.Video data may be spatially divided into a plurality of sample blocks during the encoding and decoding process, and encoding may be performed in units of the blocks. The block units may include, but are not limited to, sizes such as 4x4, 8x8, 4x8, or 16x16 in units of horizontal/vertical pixels, as is widely known. The block may be encoded using a predictive encoding method with reference to any other (already encoded) blocks, as permitted and/or restricted by the type specified for each picture in which the block is included. For example, the blocks of the "I" picture (510) may be encoded without using a predictive encoding method, or with reference to blocks that have already been encoded within the same partial picture. That is, only the so-called intra-picture prediction method may be used. In contrast, the "P" picture (520) may further reference a reference picture encoded in at least one previous time unit, and thus, inter-prediction as well as intra-picture prediction may be used for encoding. In the case of a "B" picture (530), reference can be made not only to a previously encoded picture in the encoding order but also to a later reference picture in terms of time unit. However, it is widely known that there may be blocks within a "P" picture or a "B" picture that are encoded without relying on predictive encoding.
상기 비디오 부호화기(405)는, 다양한 국제 표준 규격 또는 상용 규격에 의해 문서화될 수 있는 미리 결정된 비디오 압축 기술에 따라 부호화 동작을 수행하도록 구성될 수 있다. 상기 규격의 예는 상기 복호화기에서 서술한 것을 모두 포함할 수 있다. The above video encoder (405) may be configured to perform encoding operations according to a predetermined video compression technique that may be documented by various international standards or commercial standards. Examples of the above standards may include all of those described in the above decoder.
본 발명의 일 실시예에 따르면, 송신부(470)는, 상기 부호화된 비디오 데이터를 저장하는 장치에 대하여 하드웨어적 또는 소프트웨어적 연결(495)을 통해 상기 비디오 데이터를 (궁극적으로 원격지의 복호화기(490)에) 제공/송신하기 위하여 상기 엔트로피 부호화에 의하여 생성된 부호화된 비디오 데이터를 버퍼링할 수 있다. 실시예에 따라서, 상기 송신부(470)는 비디오 부호화기(405)로부터 부호화된 비디오 데이터를 제공/송신함에 있어서, 상기 부호화된 비디오 데이터에 동반되는 다른 데이터, 예를 들면 부호화된 오디오 데이터나 그 밖의 보조 데이터들을 별도의 공급원(480)으로부터 제공받아 병합할 수 있다.According to one embodiment of the present invention, the transmitter (470) may buffer the encoded video data generated by the entropy encoding in order to provide/transmit the video data (ultimately to a remote decoder (490)) to a device storing the encoded video data via a hardware or software connection (495). According to an embodiment, when providing/transmitting the encoded video data from the video encoder (405), the transmitter (470) may receive and merge other data accompanying the encoded video data, for example, encoded audio data or other auxiliary data, from a separate source (480).
본 발명의 일 실시예에 따르면, 상기 송신부(470)는 상기 부호화된 비디오와 함께 추가적인 데이터를 더 송신하도록 구성될 수 있다. 상기 추가적인 데이터는 상기 부호화된 비디오 데이터의 일부로서 간주될 수 있다. 상기 추가적인 데이터는 데이터를 적절히 복호화하기 위해서, 또는 부호화 전 영상에 근접하는 영상을 보다 정확하게 재구성하기 위해서, 복호화기에 의하여 사용될 수 있는 정보를 포함할 수 있다. 상기 추가적인 데이터의 예는 앞서 복호화기의 수신부(310)와 관련하여 나타낸 예시를 모두 포함할 수 있다.According to one embodiment of the present invention, the transmitter (470) may be configured to transmit additional data along with the encoded video. The additional data may be considered part of the encoded video data. The additional data may include information that can be used by a decoder to properly decode the data or to more accurately reconstruct an image that approximates the original image. Examples of the additional data may include all of the examples previously presented with respect to the receiver (310) of the decoder.
본 발명은 상술한 바와 같이 통상의 기술자에게 이해되어 널리 사용되는 디지털 동영상 압축 규격에 의하여 구현될 수 있다. 상기 디지털 동영상 압축 규격에는 MPEG-2, MPEG-4 Video, H.263, H.264/AVC, H.265/HEVC, H.266/VVC, VC-1, AV1, QuickTime, VP-9, VP-10, Motion JPEG과 같은 규격명으로 알려진 압축 규격 중 적어도 하나가 포함될 수 있다.The present invention can be implemented by a digital video compression standard that is widely used and understood by those skilled in the art as described above. The digital video compression standard may include at least one of compression standards known by the standard name such as MPEG-2, MPEG-4 Video, H.263, H.264/AVC, H.265/HEVC, H.266/VVC, VC-1, AV1, QuickTime, VP-9, VP-10, and Motion JPEG.
도 6은 본 발명의 다른 실시예에 따른 비디오 부호화기의 구조를 나타내는 개념도이다. 도 6에 도시되어 있는 것은 ITU-T H.266 및 ISO/IEC 23090-3과 같은 표준부호로, 그리고 MPEG-I Part 3이라는 호칭이나 다용도 비디오 부호화(versatile video coding; VVC)라는 통칭으로 널리 알려져 있는 비디오 부호화기의 대략적 구조일 수 있다.Fig. 6 is a conceptual diagram illustrating the structure of a video encoder according to another embodiment of the present invention. What is depicted in Fig. 6 may be a rough structure of a video encoder widely known as a standard code such as ITU-T H.266 and ISO/IEC 23090-3, and also known as MPEG-I Part 3 or versatile video coding (VVC).
도 6에 따르면, 비디오 부호화기(605)는 압축 및 부호화가 되지 않은 원본 비디오 데이터(601)를 입력으로 받아 부호화된 비트열(602)을 출력하도록 구성될 수 있다. 상기 비디오 데이터(601)는 화면 내 예측 부호화되는 경우 직접 조도신호 매핑부(luma mapping)(610a)에 공급되거나, 또는 움직임 벡터 추출을 포함하는 인터 예측부(620)를 경유하여 조도신호 매핑부(610b)에 공급될 수 있다. 상기 화면 내 예측 부호화되는 경우, 상기 매핑된 조도신호는 단독으로, 또는 화면 내 예측부(625)를 경유한 화면 내 예측 부호화 신호 또는 상기 인터 예측부(620)를 경유하여 조도신호 매핑부(610b)에서 출력된 인터 예측 부호화 신호 중 적어도 하나를 선택(608)하여, 출력 병합기(606)에 공급될 수 있다. 상기 출력 병합기의 결과물은 색차신호 축소부(chroma scaling)(615)에 인가될 수 있다. (상기 조도신호 매핑부(610)의 동작과 상기 색차신호 축소(615)의 동작을 통칭하여 luma mapping/chroma scalaing(LMCS) 과정으로 통칭하기도 한다.) 축소된 색차신호는 변환부(transform)(630)에 제공될 수 있으며, 상기 변환부(630)에서는 특히 색차 신호에 대하여 적응적 변환을 실시(adaptive color transform)할 수 있다. 상기 변환의 결과 도출되는 계수는 양자화부(640)에 인가되어 양자화된다. 이로서 손실압축이 이루어지고, 상기 손실압축의 결과물은 무손실 압축 방법인 복수가설기반 맥락적응적 산술부호화부(multi-hypothesis CABAC)(650)를 거쳐 비트열(602)로 출력될 수 있다.According to FIG. 6, a video encoder (605) may be configured to receive uncompressed and unencoded original video data (601) as input and output an encoded bit stream (602). The video data (601) may be directly supplied to a luma mapping unit (610a) when intra-screen prediction encoding is performed, or may be supplied to a luma mapping unit (610b) via an inter-prediction unit (620) including motion vector extraction. In the case of intra-screen prediction encoding, the mapped luma signal may be supplied to an output merger (606) by selecting (608) at least one of an intra-screen prediction encoding signal via the intra-screen prediction unit (625) or an inter-prediction encoding signal output from the luma mapping unit (610b) via the inter-prediction unit (620). The result of the above output merger can be applied to a chroma scaling unit (615). (The operation of the luminance signal mapping unit (610) and the operation of the chroma scaling unit (615) are collectively referred to as a luma mapping/chroma scalaing (LMCS) process.) The reduced chroma signal can be provided to a transform unit (630), and the transform unit (630) can perform an adaptive color transform, particularly on the chroma signal. The coefficients derived as a result of the transform are applied to a quantization unit (640) and quantized. As a result, lossy compression is achieved, and the result of the lossy compression can be output as a bit string (602) through a multi-hypothesis CABAC (650), which is a lossless compression method.
한편, 상기 손실압축의 결과물은 코딩 루프를 생성하기 위하여 역양자화(inverse quantization)(645), 역변환(inverse transform)(635), 및 조도신호 확대(617) 과정을 거쳐 실질적으로 복호화 절차에 진입할 수 있다. 상기 조도신호 확대의 결과물은 앞서 생성된 화면 내 예측 부호화 신호 또는 인터 예측 부호화 신호 중 적어도 하나를 선택(608)한 결과와 함께 내부 병합기(607)에 공급될 수 있다. 상기 내부 병합기의 결과물은 조도신호 역 매핑(inverse luma mapping)(618)을 거친 후, 복호화기에서의 화질 개선 과정을 재현하기 위한 디블로킹 필터(deblocking filter)(660), 샘플 적응적 오프셋(sample adaptive offset, SAO)(670), 적응적 루프 필터(adaptive loop filter; ALF)와 같은 처리를 거칠 수 있다. 상기와 같이 복호화기에서의 동작을 재현한 결과물은 참조 픽쳐 버퍼(690)로 인가되어 상기 인터 예측부(620)에 의한 예측 부호화에 재활용될 수 있게 된다.Meanwhile, the result of the lossy compression may actually enter the decoding process by going through the processes of inverse quantization (645), inverse transform (635), and luminance signal expansion (617) to generate a coding loop. The result of the luminance signal expansion may be supplied to the internal merger (607) together with the result of selecting (608) at least one of the previously generated intra-screen prediction encoding signal or inter-prediction encoding signal. The result of the internal merger may go through inverse luma mapping (618), and then may go through processing such as a deblocking filter (660), sample adaptive offset (SAO) (670), and an adaptive loop filter (ALF) to reproduce the image quality improvement process in the decoder. The result of reproducing the operation in the decoder as described above is applied to the reference picture buffer (690) and can be reused for prediction encoding by the inter prediction unit (620).
본 발명은 또한, 국제 표준화 전문가단체인 연합표준화전문가그룹(joint video experts team; JVET)에서 개발하고 있는 차세대 비디오 코덱의 구현인 개량압축모델(enhanced compression model; ECM)에 의하여 또는 그에 병합되어 이용될 수 있다. 상기 개량압축모델은 개량된 화면 내 예측 부호화 방법, 개량된 인터 예측 부호화 방법, 개량된 변환 및 변환 계수 부호화 방법, 개량된 적응적 루프 필터링 방법, 양측성(bilateral) 필터링 방법, 화질 개선을 위한 새로운 샘플 적응적 오프셋(SAO) 방법, 확장된 엔트로피 코딩 방법, 및 개선된 순차적 복호화기 갱신(gradual decoding refresh; GDR) 기술을 포함할 수 있다.The present invention can also be utilized by or in combination with an enhanced compression model (ECM), which is an implementation of a next-generation video codec currently being developed by the Joint Video Experts Team (JVET), an international standardization expert organization. The enhanced compression model can include an improved intra-picture prediction coding method, an improved inter-prediction coding method, an improved transform and transform coefficient coding method, an improved adaptive loop filtering method, a bilateral filtering method, a new sample adaptive offset (SAO) method for improving picture quality, an extended entropy coding method, and an improved gradual decoding refresh (GDR) technique.
본 발명의 구성Composition of the present invention
도 7은 본 발명의 일 실시예에 따른 결합 벡터 예측 기술을 나타내는 개념도이다. 도 7에 도시된 바와 같이, 본 발명의 일 실시예에 따른 결합 벡터(760)는 현재 프레임(710) 내에서 현재 블록(711) 및/또는 그 주변 블록의 움직임 벡터(motion vector; MV)(751)로부터 시작하여, 이전 프레임(720)에서 상기 벡터(751)가 지목하는 블록 영역(721)을 도출하고, 상기 영역(721)으로부터 획득되는 블록 벡터(block vector; BV)(752)에 의하여 상기 벡터(752)가 지목하는 블록 영역(722)를 도출하고, 상기 영역(722)에서 획득되는 움직임 벡터(753)를 도출하도록 연속되어, 최종 예측을 위한 결합 벡터(760)를 도출하도록 구성될 수 있다. 상기 복원 영역(715)은 현재 부호화/복호화 중인 현재 블록(711)과 같은 슬라이스, 프레임 등에 속하고 이미 부호화/복호화가 완료되어 복원된 영역을 의미할 수 있다. 예측 블록(730)은 상기 결합 벡터(760)에 의하여 획득될 수 있는 참조 블록으로서, 예측 블록으로 사용되거나 그 생성에 사용되는 블록을 의미할 수 있다. Fig. 7 is a conceptual diagram illustrating a combined vector prediction technique according to one embodiment of the present invention. As illustrated in Fig. 7, a combined vector (760) according to one embodiment of the present invention may be configured to derive a combined vector (760) for final prediction by starting from a motion vector (MV) (751) of a current block (711) and/or its surrounding blocks within a current frame (710), deriving a block area (721) indicated by the vector (751) in a previous frame (720), deriving a block area (722) indicated by the vector (752) using a block vector (BV) (752) obtained from the area (721), and deriving a motion vector (753) obtained from the area (722). The above restoration area (715) may refer to an area that belongs to the same slice, frame, etc. as the current block (711) currently being encoded/decoded and has already been restored after encoding/decoding has been completed. The prediction block (730) may refer to a reference block that can be obtained by the combined vector (760) and may refer to a block used as a prediction block or used in its generation.
도 7에 도시된 결합 벡터(760)의 연속적 도출은 본 발명의 일 실시예를 통한 예시에 해당하며, 본 발명의 기술적 사상이 허용하는 바에 따르면, 상기 결합 벡터는 움직임 벡터와 블록 벡터를 포함하는 임의의 유형의 참조 벡터가 임의의 순서로 복수 회 연속적으로 획득된 결과를 의미할 수 있다. 본 발명의 일 실시예에 따르면, 상기 결합 벡터의 연속이 블록 벡터(BV)에서 시작하여 움직임 벡터(MV)로 연속될 수 있다. 본 발명의 다른 일 실시예에 따르면, 상기 결합 벡터의 연속이 움직임 벡터(MV)에서 시작하여 블록 벡터(BV)로 연속될 수 있다. 본 발명의 다른 일 실시예에 따르면, 상기 결합 벡터의 도출이 복수의 블록 벡터(BV)에 의하여 연속될 수 있다. 본 발명의 또다른 일 실시예에 따르면, 상기 결합 벡터의 도출이 복수의 움직임 벡터(MV)에 의하여 연속될 수 있다. 본 발명의 일 실시예에 따르면, 상기 결합 벡터의 도출이 상기 현재 블록(711)의 상기 복원 영역(715) 내 주변 블록이 가지는 블록 벡터 또는 움직임 벡터에 기반하도록 이루어질 수 있다.The continuous derivation of the combined vector (760) illustrated in FIG. 7 corresponds to an example through an embodiment of the present invention, and as permitted by the technical idea of the present invention, the combined vector may mean a result of any type of reference vector including a motion vector and a block vector being continuously acquired multiple times in any order. According to an embodiment of the present invention, the continuation of the combined vector may start from a block vector (BV) and continue to a motion vector (MV). According to another embodiment of the present invention, the continuation of the combined vector may start from a motion vector (MV) and continue to a block vector (BV). According to another embodiment of the present invention, the derivation of the combined vector may be continued by a plurality of block vectors (BV). According to yet another embodiment of the present invention, the derivation of the combined vector may be continued by a plurality of motion vectors (MV). According to an embodiment of the present invention, the derivation of the combined vector may be performed based on a block vector or a motion vector of a neighboring block in the reconstructed area (715) of the current block (711).
종래기술에 따른 결합 벡터 예측 기술에는 다음과 같은 문제가 존재할 수 있다. 종래의 일 실시방법에 따르면, 결합 벡터 유추 시 움직임 벡터로 시작하는 유추 방법만을 사용하고 있다. 또한, 결합 벡터를 구성하기 위하여 움직임 벡터 혹은 블록 벡터의 효율적인 저장 방법이 필요할 수 있다. 또한, 복수 개의 결합 벡터들이 존재하는 경우, 그 중 적어도 하나를 효율적으로 선택하여 사용하도록 지원하는 방법이 필요할 수 있다. 또한, 복잡도를 낮추기 위한 결합 벡터 사용 제한이 필요할 수 있다. 또한, 움직임 탐색 과정에서 결합 벡터의 참조 영상(reference picture) 인덱스에 대한 부호화/복호화 처리 방법이 필요할 수 있다. 또한, 결합 벡터 유추 단계에서 얻은 블록 벡터를 화면 내 예측에서 재사용할 수 있는 방법이 필요할 수도 있다.The following problems may exist in the conventional combined vector prediction technology. According to one conventional implementation method, only an inference method starting with a motion vector is used when inferring a combined vector. In addition, an efficient method for storing motion vectors or block vectors may be required to construct a combined vector. In addition, when multiple combined vectors exist, a method for supporting efficient selection and use of at least one of them may be required. In addition, restrictions on the use of combined vectors may be required to reduce complexity. In addition, a method for encoding/decoding the reference picture index of the combined vector during the motion search process may be required. In addition, a method for reusing the block vector obtained in the combined vector inference step in within-screen prediction may be required.
도 8은 본 발명의 일 실시예에 따른 결합 벡터의 예시도이다. 도 8에 도시된 바와 같이, 본 발명의 결합 벡터는 현재 프레임(810) 내에서 현재 블록(811) 및/또는 그 주변 블록의 블록 벡터(851)로부터 시작하여, 상기 현재 프레임(810)의 복원 영역(815) 내에서 상기 벡터(851)가 지목하는 블록 영역(812)을 도출하고, 상기 영역(812)으로부터 획득되는 움직임 벡터(852)에 의하여 이전 프레임(820)에서 상기 벡터(852)가 지목하는 블록 영역(821)을 도출하고, 상기 영역(821)로부터 획득되는 움직임 벡터(853)를 도출하도록 연속되어, 최종 예측 블록(830)에 대응하는 결합 벡터(860)를 도출하도록 구성될 수 있다. 이는 도 7에 도시된 구성과 대비하여, 결합 벡터의 연속이 블록 벡터에서 시작하여 움직임 벡터로 연속되는 예시를 나타낸다.FIG. 8 is an exemplary diagram of a combined vector according to an embodiment of the present invention. As illustrated in FIG. 8, the combined vector of the present invention may be configured to start from a block vector (851) of a current block (811) and/or its surrounding blocks within a current frame (810), derive a block region (812) pointed to by the vector (851) within a reconstructed region (815) of the current frame (810), derive a block region (821) pointed to by the vector (852) in a previous frame (820) using a motion vector (852) obtained from the region (812), and derive a motion vector (853) obtained from the region (821), thereby deriving a combined vector (860) corresponding to a final prediction block (830). This represents an example in which, in contrast to the configuration illustrated in FIG. 7, the continuation of the combined vector starts from a block vector and continues to a motion vector.
본 발명의 일 실시예에 따르면, 상기 결합 벡터를 머지 모드를 포함하는 리스트 기반의 참조 벡터 결정에 기반하는 예측 모드에 적용하는 경우, 상기 결합 벡터를 유추하여 참조 벡터 후조 리스트(예를 들어, 블록 벡터 리스트, 움직임 벡터 리스트, 머지 리스트, 및/또는 어파인(affine) 리스트를 포함할 수 있다)에 추가하는 경우, 주변 블록들로부터 구성된 블록 벡터 리스트 내 블록 벡터로 먼저 시작하여 결합 벡터를 유추할 수 있다. 또는, 적어도 하나의 다른 유형을 가진 참조 벡터 리스트를 각각 사용하도록 구성될 수 있다. 예를 들어, 움직임 벡터가 저장된 움직임 벡터 리스트와 블록 벡터 리스트를 각각 사용하도록 구성될 수 있다. 또는, 상술된 예시를 포함하며 또한 상술된 예시에 한정되지 아니하는 참조 벡터 후보 리스트 구성 방법이 적응적으로 결정하여 사용할 수 있다. 본 발명의 일 실시예에 따르면, 상기 결합 벡터는 다양한 참조 벡터 및 참조 벡터 후보 리스트 간에 교차적으로 사용될 수 있으며, 예를 들어 움직임 벡터로부터 유추한 결합 벡터가 블록 벡터로 사용되거나 또는 그 후보 리스트에 추가될 수 있고, 마찬가지로 블록 벡터로부터 유추한 결합 벡터가 움직임 벡터로 사용되거나 또는 그 후보 리스트에 추가될 수 있으며, 그 밖에 다양한 경우에서 결합 벡터가 다양한 유형의 참조 벡터 간에 교차적으로 유추 및 사용될 수 있도록 구성될 수 있다.According to one embodiment of the present invention, when applying the combined vector to a prediction mode based on list-based reference vector determination including a merge mode, when inferring the combined vector and adding it to a reference vector suffix list (which may include, for example, a block vector list, a motion vector list, a merge list, and/or an affine list), the combined vector may be inferred starting from a block vector in a block vector list constructed from surrounding blocks. Alternatively, reference vector lists having at least one different type may be configured to be used respectively. For example, a motion vector list and a block vector list in which motion vectors are stored may be configured to be used respectively. Alternatively, a reference vector candidate list construction method including but not limited to the examples described above may be adaptively determined and used. According to one embodiment of the present invention, the combined vector can be used cross-wise between various reference vectors and reference vector candidate lists, for example, a combined vector inferred from a motion vector can be used as a block vector or added to the candidate list, and similarly, a combined vector inferred from a block vector can be used as a motion vector or added to the candidate list, and in other cases, the combined vector can be configured to be cross-inferred and used cross-wise between various types of reference vectors.
본 발명의 일 실시예에 따르면, 고급 움직임 벡터 예측(Advanced Motion Vector Prediction; AMVP) 방식을 확장하여 결합 벡터를 사용하는 방법이 적용될 수 있다. 상기 AMVP는 움직임 벡터를 효율적으로 부호화하기 위해 주변 블록들의 움직임 벡터를 이용하는 기법으로 이해될 수 있으며, 본 발명에서는 이 AMVP 구조에 결합 벡터의 개념을 도입하도록 구성될 수 있다. 또한, 본 발명의 일 실시예에 따르면, 시간적 움직임 벡터 예측(Temporal Motion Vector Prediction; TMVP)에서 벡터에 대한 스케일링(Scaling) 요소가 적용되는 방식과 유사하게, 결합 벡터에도 참조 프레임 간의 시간적 거리에 따른 스케일링을 적용할 수 있다. 이때 TMVP의 참조 대상 자체가 결합 벡터일 수 있으며, 따라서 TMVP에도 본 발명에 의한 결합 벡터가 공히 적용될 수 있는 것으로서 이해되어야 한다.According to one embodiment of the present invention, a method of using a combined vector can be applied by extending the Advanced Motion Vector Prediction (AMVP) method. The AMVP can be understood as a technique that uses the motion vectors of surrounding blocks to efficiently encode a motion vector, and the present invention can be configured to introduce the concept of a combined vector to the AMVP structure. In addition, according to one embodiment of the present invention, similar to the method of applying a scaling factor to a vector in Temporal Motion Vector Prediction (TMVP), scaling according to the temporal distance between reference frames can also be applied to the combined vector. In this case, the reference target of TMVP itself can be the combined vector, and therefore, it should be understood that the combined vector according to the present invention can be applied to both TMVP and the like.
본 발명의 일 실시예에 따르면, 시간적 블록의 벡터(TMVP)를 기반으로 결합 벡터를 유추하는 방법이 제공될 수 있다. 구체적으로, 현재 블록과 공간적으로 일치하되 시간적으로 인접하는 대응 블록, 즉 동위치 블록(co-located block)을 대상으로, 상기 동위치 블록에 저장된 움직임 벡터 또는 블록 벡터를 제1 참조 벡터로 사용하여 본 발명에 따른 결합 벡터 유추를 시작할 수 있다. 상기 동위치 블록이란, 현재 프레임과 시간적으로 연관된 참조 프레임 내에서 현재 블록과 동일하거나 유사한 위치에 있는 블록을 의미할 수 있다. 상기 TMVP 기반 결합 벡터 유추 시, 참조 프레임 간의 시간적 거리를 고려하여 벡터를 스케일링할 수 있다. 예를 들어, 현재 프레임과 참조 프레임 간의 POC(picture order count) 차이에 기반하여 스케일링 계수를 계산하고, 이를 상기 벡터의 스케일링에 적용할 수 있다. 또한, TMVP 자체가 다른 결합 벡터의 일부로 활용될 수 있으며, 이 경우 TMVP-BV, TMVP-MV, 또는 TMVP-BV-MV와 같은 다양한 순서 및 조합에 따라서 결합 벡터를 유추할 수 있다.According to one embodiment of the present invention, a method for inferring a combined vector based on a vector of a temporal block (TMVP) may be provided. Specifically, a co-located block, which is spatially identical to a current block but temporally adjacent, may be targeted, and a motion vector or block vector stored in the co-located block may be used as a first reference vector to initiate combined vector inference according to the present invention. The co-located block may refer to a block in the same or similar position as the current block within a reference frame temporally associated with the current frame. When inferring combined vector based on TMVP, the vector may be scaled by considering the temporal distance between the reference frames. For example, a scaling factor may be calculated based on the difference in picture order count (POC) between the current frame and the reference frame, and this may be applied to scaling the vector. In addition, TMVP itself may be utilized as a part of another combined vector, in which case the combined vector may be inferred according to various orders and combinations, such as TMVP-BV, TMVP-MV, or TMVP-BV-MV.
도 9는 본 발명의 일 실시예에 따른 결합 벡터의 예시도이다. 본 발명의 일 실시예에 따르면, 결합 벡터를 유추하여 머지 리스트 혹은 움직임 벡터 리스트에 추가하는 경우, 블록 벡터 리스트에 기반하여 유추된 결합 벡터(결합 벡터 1)(961)와 움직임 벡터 리스트에 기반하여 유추된 결합 벡터(결합 벡터 2)(962) 모두 또는 적어도 하나를 사용할 수 있다. 각각의 결합 벡터(961, 962)는 현재 블록(911)으로부터 각각이 지목하는 블록 영역(912, 921)을 시작점으로 하는 적어도 1회의 벡터 연속 도출에 의하여 최종적으로 참조 블록(931, 932)에 도달하는 벡터를 의미할 수 있다. 일 실시예에 있어서, 상기 양자 모두를 사용하였다면, 이를 구분하는 혹은 각각을 명시하는 플래그 혹은 인덱스 등의 정보를 전송할 필요가 발생할 수 있다. 따라서, 상응하는 부호화기는 블록 벡터 리스트 혹은 움직임 벡터 리스트 사용여부에 대한 정보를 전송하도록 구성될 수 있다. 상기 정보 전송을 위한 비트열 구문이 비트열 내에 명시적으로 포함될 수 있으며, 상응하는 복호화기는 상기 비트열 구문을 읽어들여 정확한 벡터 리스트를 사용하도록 구성될 수 있다. 예를 들어, 1비트 플래그를 사용하여 블록 벡터 리스트 또는 움직임 벡터 리스트 중 어느 것이 사용되었는지를 표시할 수 있다. 또는, 리스트 인덱스를 사용하여 여러 가능한 리스트 중 하나를 지정할 수도 있다. 이러한 정보는 슬라이스 헤더, 시퀀스 파라미터 세트(SPS), 픽처 파라미터 세트(PPS) 또는 적응적 파라미터 세트(APS) 등 다양한 비트열 구문 계층에서 전송될 수 있다.FIG. 9 is an exemplary diagram of a combined vector according to one embodiment of the present invention. According to one embodiment of the present invention, when a combined vector is inferred and added to a merge list or a motion vector list, both or at least one of a combined vector (combined vector 1) (961) inferred based on a block vector list and a combined vector (combined vector 2) (962) inferred based on a motion vector list may be used. Each combined vector (961, 962) may mean a vector that ultimately reaches a reference block (931, 932) through at least one vector continuation derivation starting from the block area (912, 921) that each of them points to from the current block (911). In one embodiment, if both of the above are used, it may be necessary to transmit information such as a flag or index that distinguishes them or specifies each of them. Accordingly, a corresponding encoder may be configured to transmit information on whether a block vector list or a motion vector list is used. The bitstream syntax for transmitting the above information can be explicitly included in the bitstream, and a corresponding decoder can be configured to read the bitstream syntax and use the correct vector list. For example, a 1-bit flag can be used to indicate whether a block vector list or a motion vector list is used. Alternatively, a list index can be used to specify one of several possible lists. This information can be transmitted in various bitstream syntax layers, such as a slice header, a sequence parameter set (SPS), a picture parameter set (PPS), or an adaptive parameter set (APS).
본 발명의 일 실시예에 따르면, 상기 움직임 벡터 리스트 및/또는 상기 블록 벡터 리스트는 현재 블록에 공간적으로 인접한 블록들 및/또는 시간적 인접한 블록의 움직임 벡터 및/또는 블록 벡터로 구성될 수 있다. 상기 공간적으로 인접한 블록은, 현재 블록의 좌측, 상단, 우측 상단, 좌측 상단, 좌측 하단 등과 같이 현재 블록과 공간적으로 인접한 블록들을 의미할 수 있으며, 이미 부호화/복호화가 완료된 블록들 중에서 선택될 수 있다. 상기 시간적으로 인접한 블록은 현재 블록과 공간적으로 동일한 위치 또는 그 주변에 위치하는 다른 시간(프레임)의 블록을 의미할 수 있으며, 현재 프레임의 참조 프레임 중 적어도 하나로부터 선택될 수 있다. 상기 공간적 인접 블록과 시간적 블록으로부터 획득된 참조 벡터들은 상기 결합 벡터 유추를 위하여 활용될 수 있다..According to one embodiment of the present invention, the motion vector list and/or the block vector list may be composed of motion vectors and/or block vectors of blocks spatially adjacent to the current block and/or temporally adjacent blocks. The spatially adjacent blocks may refer to blocks spatially adjacent to the current block, such as to the left, top, top right, top left, bottom left, etc. of the current block, and may be selected from blocks that have already been encoded/decoded. The temporally adjacent blocks may refer to blocks of another time (frame) located at the same spatial location as or around the current block, and may be selected from at least one of the reference frames of the current frame. The reference vectors obtained from the spatially adjacent blocks and temporal blocks may be utilized for the combined vector inference.
본 발명의 일 실시예에 따르면, 상기 결합 벡터를 위하여 움직임 벡터 혹은 블록 벡터 혹은 결합 벡터를 저장하는 경우, 4×4, 8×8, 16×16, 32×32, 64×64 등 현재 블록을 임의의 블록 크기로 나누어 저장할 수 있고, 또는, 현재 슬라이스 혹은 프레임 혹은 임의의 단위만큼 분할하여 부호화한 후 다시 임의의 블록 크기로 나누어 저장할 수 있다. 예를 들어, 현재 프레임을 부호화하는 동안 블록 벡터를 4×4 블록마다 저장하고, 부호화한 후 16×16 블록마다 저장할 수 있다. 또한, 여러 개의 움직임 벡터 혹은 블록 벡터들을 한 개의 블록으로 저장할 때 시 그 중 대표 벡터를 계산한 후 저장할 수 있다. 상기 저장되는 벡터의 해상도 및/또는 저장 단위는 화면 내 예측용 혹은 화면 간 예측용 프레임에 따라 다르게 설정하여 저장할 수 있고, 또는, 현재 슬라이스 혹은 프레임 혹은 임의의 단위만큼 압축 후 임의의 벡터 해상도로 다시 저장할 수 있다.According to one embodiment of the present invention, when storing a motion vector or a block vector or a combined vector for the combined vector, the current block may be divided into an arbitrary block size such as 4×4, 8×8, 16×16, 32×32, 64×64 and stored, or the current slice or frame or an arbitrary unit may be divided and encoded, and then divided again into an arbitrary block size and stored. For example, while encoding the current frame, the block vector may be stored for every 4×4 block, and after encoding, it may be stored for every 16×16 block. In addition, when storing multiple motion vectors or block vectors as one block, a representative vector among them may be calculated and then stored. The resolution and/or storage unit of the stored vector may be set differently according to a frame for intra-screen prediction or inter-screen prediction and stored, or the current slice or frame or an arbitrary unit may be compressed and then stored again at an arbitrary vector resolution.
본 발명의 일 실시예에 따르면, 상기 저장된 움직임 벡터 혹은 블록 벡터 혹은 결합 벡터를 후속하는 부호화 및 복호화 과정에서 사용하는 경우, 저장된 벡터의 해상도를 고려한 후 이를 스케일링(scaling)하여 사용할 수 있다. 예를 들어, 저장된 벡터의 해상도가 상대적으로 높다면 쉬프트(shift) 연산자를 이용하여 낮출 수 있다. 다른 예를 들어, 저장된 벡터의 해상도가 상대적으로 낮다면 쉬프트 연산자를 이용하여 높일 수 있다.According to one embodiment of the present invention, when using the stored motion vector, block vector, or combined vector in subsequent encoding and decoding processes, the resolution of the stored vector may be taken into account and then scaled for use. For example, if the resolution of the stored vector is relatively high, it may be lowered using a shift operator. For another example, if the resolution of the stored vector is relatively low, it may be increased using a shift operator.
도 10은 본 발명의 일 실시예에 따른 복수 개의 움직임 벡터의 예시도이다. 본 발명의 일 실시예에 따르면, 블록 벡터 혹은 움직임 벡터가 가리키는 블록 영역 내에 복수 개의 움직임 벡터 및/또는 블록 벡터가 존재하는 경우, 상기 복수 개의 벡터들을 통합적으로 고려하여 결합 벡터를 유추할 수 있다. 도 10을 참조하면, 도 10에서는 현재 프레임(1010) 내의 현재 블록(1011)로부터 블록 벡터(1051)에 의하여 블록 영역(1012)이 지목되고, 해당 영역(1012) 내에 복수 개의 움직임 벡터(1052)가 존재하는 경우가 예시되어 있다. 일 실시예에 따르면, 상기 블록 영역(1012)의 중앙과 네 모서리의 벡터들에 대하여 가중치 평균을 통해 획득한 벡터를 사용하여 결합 벡터를 유추할 수 있다. 다른 일 실시예에 따르면, 임의의 수만큼의 벡터에 대해 임의의 계산식을 통해 얻은 결과 벡터를 사용하여 결합 벡터를 유추할 수 있다. 예를 들어, 중앙값(median) 필터를 적용하거나, 움직임의 크기에 따른 가중치를 적용할 수 있다. 다른 일 실시예에 따르면, 벡터가 가리키는 화소에서 가장 가까운 영역에 저장된 벡터만을 사용하여 결합 벡터를 유추할 수 있다. 또다른 일 실시예에 따르면, 유추된 각각의 결합 벡터를 모두 사용하거나 혹은 결합 벡터를 가중치 평균한 벡터를 사용할 수 있다. 일 실시예에 있어서, 상기 복수 개의 벡터들을 통합적으로 고려함에 있어서는 적어도 하나의 움직임 벡터와 적어도 하나의 블록 벡터가 함께 연산되도록 구성되어도 무방하다.FIG. 10 is an exemplary diagram of a plurality of motion vectors according to one embodiment of the present invention. According to one embodiment of the present invention, when a plurality of motion vectors and/or block vectors exist within a block vector or a block area indicated by a motion vector, a combined vector can be inferred by comprehensively considering the plurality of vectors. Referring to FIG. 10, FIG. 10 illustrates a case where a block area (1012) is pointed out by a block vector (1051) from a current block (1011) within a current frame (1010), and a plurality of motion vectors (1052) exist within the area (1012). According to one embodiment, a combined vector can be inferred using a vector obtained through a weighted average of vectors at the center and four corners of the block area (1012). According to another embodiment, a combined vector can be inferred using a result vector obtained through an arbitrary calculation formula for an arbitrary number of vectors. For example, a median filter can be applied, or a weighting according to the magnitude of the motion can be applied. In another embodiment, the combined vector may be inferred using only the vectors stored in the region closest to the pixel pointed to by the vector. In another embodiment, all of the inferred combined vectors may be used, or a vector obtained by weighting the combined vectors may be used. In one embodiment, when considering the plurality of vectors in an integrated manner, at least one motion vector and at least one block vector may be calculated together.
본 발명의 일 실시예에 따르면, 블록의 가로 혹은 세로 크기(화소 단위일 수 있다), 혹은 면적(화소 단위일 수 있다), 혹은 블록 내 화소 샘플 수, 혹은 주변 블록 정보 등을 고려하여, 결합 벡터 사용여부를 결정할 수 있다. 예를 들어, 가로가 A보다 크고, 세로가 B보다 클 때만, 결합 벡터를 사용할 수 있다. 또는, 예를 들어, 가로가 A보다 작고, 세로가 B보다 작을 때만, 결합 벡터를 사용할 수 있다. 또는, 예를 들어, 블록 내의 화소 샘플 수가 C보다 크거나 작을 때만, 결합 벡터를 사용할 수 있다. 또는, 예를 들어, 블록 면적이 D보다 크거나 작을 때만, 결합 벡터를 사용할 수 있다. 본 발명의 일 실시예에 따르면, 상기 블록의 크기, 면적, 샘플 수, 또는 주변 블록 정보에 기반한 결합 벡터의 사용 제한은, 예측 모드의 유형에 따라 선택으로 및/또는 다양한 기준으로 적용될 수 있다. 일례를 들어, 어파일(affine) 예측 모드의 경우 상기 블록의 가로 또는 세로 크기가 8 이상인 경우에 한하여 결합 벡터가 사용되도록 구성될 수 있다. 물론, 본 발명의 실시 가능 범위는 상술한 예시에 의해 제한되지 아니한다.According to one embodiment of the present invention, whether to use a combined vector can be determined by considering the horizontal or vertical size (which may be in pixel units) of a block, the area (which may be in pixel units), the number of pixel samples within a block, or information about surrounding blocks. For example, a combined vector can be used only when the horizontal size is greater than A and the vertical size is greater than B. Or, for example, a combined vector can be used only when the horizontal size is less than A and the vertical size is less than B. Or, for example, a combined vector can be used only when the number of pixel samples within a block is greater than or less than C. Or, for example, a combined vector can be used only when the block area is greater than or less than D. According to one embodiment of the present invention, the restriction on the use of a combined vector based on the size, area, number of samples, or information about surrounding blocks of the block can be applied selectively and/or based on various criteria depending on the type of prediction mode. For example, in the case of an affine prediction mode, a combined vector can be configured to be used only when the horizontal or vertical size of the block is 8 or more. Of course, the scope of implementation of the present invention is not limited by the examples described above.
본 발명의 일 실시예에 따르면, 블록의 가로 혹은 세로 크기, 혹은 면적, 혹은 블록 내 화소 샘플 수, 혹은 주변 블록 정보 등을 고려하여, 결합 벡터의 해상도를 제한하거나, 또는, 결합 벡터의 양방향 예측을 제한할 수 있다. 예를 들어, 가로가 A보다 작고, 세로가 B보다 작을 때, 정수 화소 단위의 결합 벡터만 사용하도록 구성될 수 있다. 또는, 예를 들어, 가로가 A보다 작고, 세로가 B보다 작을 때, 단방향 단위의 결합 벡터만 사용하도록 구성될 수 있다. 또는, 예를 들어, 가로가 A보다 크고, 세로가 B보다 클 때, 양방향 및 단방향 단위의 결합 벡터 사용하도록 구성될 수 있다. 또는, 예를 들어, 블록 내 화소 샘플 수가 C보다 크거나 작을 때, 정수 화소 단위의 결합 벡터만 사용하도록 구성될 수 있다. 또는, 예를 들어, 블록 내 화소 샘플 수가 C보다 크거나 작을 때, 정수화수 및 부화소 단위의 결합 벡터를 사용하도록 구성될 수 있다. 또는, 예를 들어, 블록의 면적이 D보다 크거나 작을 때, 정수 화소 단위의 결합 벡터만 사용하도록 구성될 수 있다.According to one embodiment of the present invention, the resolution of the combined vector may be limited, or bidirectional prediction of the combined vector may be limited, considering the horizontal or vertical size of the block, the area, the number of pixel samples within the block, or information about the surrounding blocks. For example, when the width is smaller than A and the height is smaller than B, only the combined vector in integer pixel units may be configured to be used. Or, for example, when the width is smaller than A and the height is smaller than B, only the combined vector in unidirectional units may be configured to be used. Or, for example, when the width is larger than A and the height is larger than B, the combined vector in bidirectional and unidirectional units may be configured to be used. Or, for example, when the number of pixel samples within the block is greater than or less than C, only the combined vector in integer pixel units may be configured to be used. Or, for example, when the number of pixel samples within the block is greater than or less than C, the combined vector in integer and subpixel units may be configured to be used. Or, for example, when the area of the block is greater than or less than D, only the combined vector in integer pixel units may be configured to be used.
본 발명의 일 실시예에 따르면, 결합 벡터로 움직임 탐색 수행 시 결합 벡터의 참조 영상 인덱스가 움직임 탐색 대상 참조 영상과 다르면, 해당 블록에 대해서는 결합 벡터를 미사용할 수 있다. 또는, 움직임 벡터나 블록 벡터가 가리키는 블록 내 일치하는 참조 영상의 움직임 벡터로 결합 벡터를 유추할 수 있다. 또는, 결합 벡터를 움직임 탐색 대상 참조 영상으로 스케일링할 수 있다. 또는, 결합 벡터의 참조 영상과 움직임 탐색 대상 참조영상의 거리를 고려하여 결합 벡터를 스케일링할 수 있다.According to one embodiment of the present invention, when performing motion search using a combined vector, if the reference image index of the combined vector is different from the reference image to be motion searched, the combined vector may not be used for the corresponding block. Alternatively, the combined vector may be inferred from the motion vector of the matching reference image within the block pointed to by the motion vector or block vector. Alternatively, the combined vector may be scaled to the reference image to be motion searched. Alternatively, the combined vector may be scaled by considering the distance between the reference image of the combined vector and the reference image to be motion searched.
본 발명의 일 실시예에 따르면, 상기 결합 벡터를 움직임 탐색 대상 참조영상으로 스케일링하는 과정은 머지 리스트에 스케일링된 벡터를 추가하는 구성으로 구현될 수 있다. 이는 AMVP나 TMVP에서의 벡터 스케일링과 유사하게, 참조 프레임 간의 시간적 거리를 고려하여 벡터의 도달점을 조정하는 방법을 의미할 수 있다.도 11은 본 발명의 일 실시예에 따른 결합 벡터 유추로부터 획득된 블록 벡터의 예시도이다. 도 11에 도시된 바와 같이, 본 발명의 일 실시예에 따르면, 결합 벡터 유추 단계에서 얻은 블록 벡터를 블록 벡터 리스트에 추가하는 경우, 현재 프레임(1110) 내의 현재 블록(1111) 및/또는 복원 영역(1115)에 속하는 상기 현재 블록(1111)의 주변 블록들로부터 구성된 움직임 벡터 리스트 내 움직임 벡터(1151)로 먼저 시작하여 유추할 수 있다. 상기 움직임 벡터(1151)는 해당 움직임 벡터가 가리키는 블록 영역(1121)으로 연결되며, 이 블록 영역(1121)으로부터 블록 벡터(1152)가 유추될 수 있다. 상기 블록 벡터(1152)는, 또는 그에 기반하여 연속적으로 유추된 벡터는, 이후 현재 블록(1111)을 기준으로 하는 화면 내 또는 화면 간 예측에 사용될 수 있다. 즉, 일 실시예에 따르면, 움직임 벡터 리스트 내 움직임 벡터(1151)가 가리키는 블록(1152)의 블록 벡터(1152)를 사용할 수 있다. 또다른 일 실시예에 따르면, 움직임 벡터가 가리키는 블록에 블록 벡터가 없다면, 블록 내 또는 그에 인접하는 다른 위치에서 블록 벡터를 확인할 수 있다. 상술한 실시방법은 본 명세서에 나타나는 그 밖의 다양한 실시방법들과 교차, 중복, 및 결합하여 사용될 수 있는 것으로 이해되어야 한다.According to one embodiment of the present invention, the process of scaling the combined vector into a reference image to be motion searched may be implemented by adding the scaled vector to the merge list. This may mean a method of adjusting the arrival point of the vector by considering the temporal distance between reference frames, similar to vector scaling in AMVP or TMVP. FIG. 11 is an exemplary diagram of a block vector obtained from combined vector inference according to one embodiment of the present invention. As illustrated in FIG. 11, according to one embodiment of the present invention, when adding a block vector obtained in the combined vector inference step to a block vector list, the inference may be made first starting with a motion vector (1151) in a motion vector list constructed from the current block (1111) in the current frame (1110) and/or neighboring blocks of the current block (1111) belonging to the restoration area (1115). The motion vector (1151) is connected to a block area (1121) to which the motion vector points, and a block vector (1152) may be inferred from the block area (1121). The above block vector (1152), or a vector continuously inferred based thereon, can be used for intra-screen or inter-screen prediction based on the current block (1111). That is, according to one embodiment, the block vector (1152) of the block (1152) pointed to by the motion vector (1151) in the motion vector list can be used. According to another embodiment, if there is no block vector in the block pointed to by the motion vector, the block vector can be identified at another location within the block or adjacent thereto. It should be understood that the above-described implementation method can be used in a manner of crossing, overlapping, and combining with various other implementation methods disclosed herein.
도 12는 본 발명의 일 실시예에 따른 결합 벡터 유추로부터 획득된 블록 벡터의 예측 블록 생성에 대한 예시도이다. 도 12에 도시된 바와 같이, 본 발명의 일 실시예에 따르면, 결합 벡터 유추 단계에서 얻은 블록 벡터를 블록 벡터 리스트에 추가하는 경우, 상기 추가된 벡터를 화면 내 예측에 활용할 수 있다. 예를 들어, 현재 프레임(1210)의 현재 블록(1211)을 기준으로 움직임 벡터(1251)에 의해 획득된 블록 영역(1221)에 블록 벡터(1252)가 존재하는 경우, 이러한 블록 벡터(1252)를 현재 프레임(1210)에서의 화면 내 예측을 위한 블록 벡터(1253) 또는 그 후보로서 인용하여 사용할 수 있다. 상기 화면 내 예측은, 템플릿 매칭(IntraTMP) 모드, 화면 내 블록 복제(intra block copy; IBC) 모드를 포함하며, 그 밖의 블록 벡터에 기반하는 화면 내 예측 방법에서 사용하여 예측 블록(1230)을 생성할 수 있다. 본 발명의 일 실시예에 따르면, 상기 도출된 블록 벡터는 상기 현재 블록(1211)을 기준으로 하는 템플릿 매칭을 통해 보정될 수 있다. 또는, 블록 벡터가 가리키는 블록의 블록 벡터에 기반하여 다시 유추되는 벡터를 재귀적으로 탐색할 수 있으며, 즉 상기 결합 벡터는 계속적으로 N차 탐색한 결과에 기반하여 획득될 수 있다.FIG. 12 is an exemplary diagram for generating a prediction block of a block vector obtained from a combined vector inference according to an embodiment of the present invention. As illustrated in FIG. 12, according to an embodiment of the present invention, when a block vector obtained in the combined vector inference step is added to a block vector list, the added vector can be utilized for intra-screen prediction. For example, when a block vector (1252) exists in a block area (1221) obtained by a motion vector (1251) based on a current block (1211) of a current frame (1210), such block vector (1252) can be cited and used as a block vector (1253) or a candidate thereof for intra-screen prediction in the current frame (1210). The intra-screen prediction includes a template matching (IntraTMP) mode, an intra-block copy (IBC) mode, and can be used in other intra-screen prediction methods based on block vectors to generate a prediction block (1230). According to one embodiment of the present invention, the derived block vector may be corrected through template matching based on the current block (1211). Alternatively, a vector inferred again based on the block vector of the block pointed to by the block vector may be recursively searched, i.e., the combined vector may be obtained based on the results of continuous N-th search.
도 13은 본 발명의 일 실시예에 따른 블록 벡터 리스트와 움직임 벡터 리스트를 모두 사용하는 경우의 예시도이다. 도 13을 참조하면, 블록 벡터 리스트에 기반하여 유추된 결합 벡터(결합 벡터1)(1361)와 움직임 벡터 리스트에 기반하여 유추된 결합 벡터(결합 벡터2)(1362)를 모두 사용하는 방법이 예시되어 있다. 일례를 들어, 현재 프레임(1310)에서 현재 블록(1311)에 대해 예측을 수행할 때, 다양한 방식으로 결합 벡터를 유추할 수 있다. 일 방식은 현재 블록(1311) 및/또는 그 주변의 블록 벡터(1351)를 통해 지목되는 복원 영역(1315) 내의 블록 영역(1312)에서 시작하여 결합 벡터 1(1361) 및 예측 블록 1(1331)을 유추하는 것일 수 있다. 또다른 일 방식은 현재 블록(1311) 및/또는 그 주변의 움직임 벡터(1332)를 통해 지목되는 이전 프레임(1320)의 블록 영역(1321)에 접근한 후, 상기 블록 영역이 나타내는 블록 벡터(1352)를 기초로 하여 현재 프레임(1310)내를 지목하는 결합 벡터 2(1362) 및 예측 블록 2(1332)를 유추하는 것일 수 있다.FIG. 13 is an exemplary diagram illustrating a case in which both a block vector list and a motion vector list are used according to one embodiment of the present invention. Referring to FIG. 13, a method of using both a combined vector (combined vector 1) (1361) inferred based on a block vector list and a combined vector (combined vector 2) (1362) inferred based on a motion vector list is illustrated. For example, when performing prediction on a current block (1311) in a current frame (1310), the combined vector can be inferred in various ways. One way may be to start from a block area (1312) within a reconstructed area (1315) pointed to by the current block (1311) and/or its surrounding block vectors (1351) and infer combined vector 1 (1361) and predicted block 1 (1331). Another way to do this could be to access a block region (1321) of a previous frame (1320) pointed to by the current block (1311) and/or its surrounding motion vector (1332), and then infer a combined vector 2 (1362) pointing to the current frame (1310) and predicted block 2 (1332) based on the block vector (1352) indicated by the block region.
본 발명의 일 실시예에 따르면, 결합 벡터 유추 단계에서 얻은 블록 벡터를 블록 벡터 리스트에 추가하는 경우, 블록 벡터 리스트(결합 벡터 1) 및 움직임 벡터 리스트(결합 벡터 2)를 모두 사용하였다면, 상응하는 부호화기는 비트열 구문 등을 통하여 이를 구분하는 혹은 각각을 명시하는 플래그 혹은 인덱스 등의 정보를 전송할 수 있다. 또는, 블록 벡터 리스트 혹은 움직임 벡터 리스트 사용 여부에 대한 정보를 전송할 수 있다. 상응하는 복호화기는 상기 정보에 기반하여 정확한 예측 복호화를 수행하도록 구성될 수 있다.According to one embodiment of the present invention, when adding a block vector obtained in a combined vector inference step to a block vector list, if both a block vector list (combined vector 1) and a motion vector list (combined vector 2) are used, the corresponding encoder can transmit information such as a flag or index that distinguishes them or specifies each of them through a bit string syntax or the like. Alternatively, information on whether a block vector list or a motion vector list is used can be transmitted. The corresponding decoder can be configured to perform accurate predictive decoding based on the above information.
도 14는 본 발명의 일 실시예에 따른 블록 벡터 형태의 결합 벡터의 보정에 대한 예시도이다. 도 14에 도시된 바와 같이, 본 발명의 일 실시예에 따르면, 결합 벡터 유추 단계에서 얻은 움직임 벡터, 블록 벡터, 혹은 결합 벡터를 템플릿 매칭을 통해 보정할 수 있다. 상기 보정된 결합 벡터는 화면 내 또는 화면 간 예측을 위해 최종적으로 사용되거나, 및/또는 이후 다음 블록의 부호화/복호화를 위해 저장될 수 있다.FIG. 14 is an exemplary diagram illustrating the correction of a combined vector in the form of a block vector according to one embodiment of the present invention. As illustrated in FIG. 14, according to one embodiment of the present invention, a motion vector, a block vector, or a combined vector obtained in the combined vector inference step can be corrected through template matching. The corrected combined vector can be ultimately used for intra-screen or inter-screen prediction, and/or stored for encoding/decoding of the next block.
도 14를 참조하면, 현재 블록(1411)에 있어서 본 명세서에 기재된 것을 포함하는 임의의 방법에 의하여 움직임 벡터, 블록 벡터, 혹은 결합 벡터에 해당하는 참조 벡터(1451)가 도출된 경우, 상기 참조 벡터(1451)를 상기 현재 블록(1411)의 템플릿(1412)에 기초하여 보정(1452)할 수 있다.Referring to FIG. 14, when a reference vector (1451) corresponding to a motion vector, a block vector, or a combination vector is derived by any method including those described in the present specification in the current block (1411), the reference vector (1451) can be corrected (1452) based on a template (1412) of the current block (1411).
본 발명의 일 실시예에 따르면, 상기 템플릿 매칭은 상기 현재 블록(1411) 주변의 이미 복원된 샘플(1415)들 중 일부를 템플릿(1412)으로 사용하여, 상기 참조 벡터(1451)가 지목하는 지점 주변에 위치하는 다른 템플릿들(예를 들어, 템플릿(1414))과 비교함으로써, 가장 유사한 블록 영역(1413)의 위치를 찾는 방법을 의미할 수 있다. 이 과정에서 초기 참조 벡터(1451)는 탐색의 시작점을 정의하는 용도로 사용되고, 지정된 탐색 범위 내에서 현재 블록(1411)의 템플릿(1412)과 가장 잘 일치하는 템플릿(1414)에 상응하는 블록 영역(1413)의 위치를 찾아 벡터를 보정(1452)하도록 구성될 수 있다. 이 때, 상기 템플릿 매칭의 주변 탐색 범위는 정수 화소 혹은 부화소 단위로 설정할 수 있다. 예를 들어, 상기 참조 벡터(1451)를 중심으로 상하좌우 1화소만큼의, 혹은 1 이하 부화소 단위의 탐색 범위를 사용할 수 있다.According to one embodiment of the present invention, the template matching may refer to a method of finding the location of the most similar block area (1413) by using some of the already restored samples (1415) around the current block (1411) as templates (1412) and comparing them with other templates (e.g., templates (1414)) located around the point indicated by the reference vector (1451). In this process, the initial reference vector (1451) is used to define a starting point of the search, and may be configured to find the location of the block area (1413) corresponding to the template (1414) that best matches the template (1412) of the current block (1411) within a specified search range, and correct (1452) the vector. At this time, the surrounding search range of the template matching may be set in units of integer pixels or sub-pixels. For example, a search range of 1 pixel in each of the upper, lower, left, and right directions centered on the reference vector (1451), or in units of 1 or less sub-pixels, may be used.
본 발명의 일 실시예에 따르면, 결합 벡터 유추의 각 단계마다 보정이 적용될 수 있다. 구체적으로, 제1 참조 벡터를 획득한 후 템플릿 매칭을 통해 이를 보정하고, 보정된 제1 참조 벡터를 사용하여 제1 블록 영역을 획득할 수 있다. 이어서 제1 블록 영역으로부터 획득한 제2 참조 벡터에 대해서도 템플릿 매칭을 통한 보정을 적용할 수 있다. 상기 각 보정 단계에서의 템플릿 매칭은 앞서 도 14에서 설명한 바와 같이 현재 블록 주변의 템플릿을 기준으로 최적의 매칭 위치를 찾는 방식으로 수행될 수 있으며, 보정 범위는 정수 화소 또는 부화소 단위로 설정될 수 있다. 또한, 본 발명의 일 실시예에 따르면, 상기 각 보정 단계에서의 보정 방법, 가령 템플릿 매칭 방법 및/또는 보정 범위는, 각기 다르게 지정될 수 있으며, 상기 각기 다른 보정 방법은 부호화기와 복호화기가 규격을 통하여 공유하거나, 부호화된 비트열을 통하여 명시적으로 신호하거나, 또는 복호화의 양상에 따라 암시적으로 도출하도록 구성될 수 있다.According to one embodiment of the present invention, correction may be applied at each step of combined vector inference. Specifically, after obtaining a first reference vector, it may be corrected through template matching, and a first block area may be obtained using the corrected first reference vector. Subsequently, correction through template matching may also be applied to a second reference vector obtained from the first block area. Template matching in each of the above correction steps may be performed by finding an optimal matching position based on templates surrounding the current block, as described above with reference to FIG. 14, and the correction range may be set in integer pixel or sub-pixel units. Furthermore, according to one embodiment of the present invention, correction methods in each of the above correction steps, such as the template matching method and/or correction range, may be designated differently, and the different correction methods may be configured to be shared by the encoder and decoder through a standard, explicitly signaled through an encoded bit stream, or implicitly derived depending on the decoding aspect.
도 15는 본 발명의 일 실시예에 따른 분할 블록의 처리에 대한 예시도이다. 본 발명의 일 실시예에 따르면, 결합 벡터 유추 단계에서 얻은 움직임 벡터 혹은 블록 벡터, 혹은 결합 벡터를 사각형이 아닌 분할 블록 및/또는 그에 기반하는 예측에 사용하는 경우, 분할 블록 내 위치에 대해서만 비교 및 계산을 수행할 수 있다. 또는, 분할 블록 내 위치에 저장된 움직임 벡터 혹은 블록 벡터를 확인할 수 있다. 또는, 분할 블록 경계위치 움직임 벡터 혹은 블록 벡터는 임의의 벡터 혹은 가중치 평균된 벡터로 저장할 수 있다. 상기 사각형이 아닌 분할 블록은, 예를 들어, 기하학적 분할 모드(geometric partitioning mode; GPM)에 의하여 사선 분할될 분할 불록을 포함할 수 있으며, 또한 이러한 예시에 한정되지 아니한다.Fig. 15 is an exemplary diagram for processing a partition block according to one embodiment of the present invention. According to one embodiment of the present invention, when a motion vector or block vector, or a combination vector obtained in a combination vector inference step is used for a non-rectangular partition block and/or prediction based thereon, comparison and calculation may be performed only for positions within the partition block. Alternatively, a motion vector or block vector stored at a position within the partition block may be checked. Alternatively, the motion vector or block vector at the boundary position of the partition block may be stored as an arbitrary vector or a weighted average vector. The non-rectangular partition block may include, for example, a partition block to be diagonally partitioned by a geometric partitioning mode (GPM), but is not limited to this example.
도 15를 참조하면, 현재 블록(1511)이 기하학적 분할 모드에 따른 경계선(1517)에 의하여 좌측 분할 블록(1511-1)과 우측 분할 블록(1511-2)으로 분할되어 있는 경우가 예시되어 있다. 본 발명의 일 실시예에 따르면, 결합 벡터 유추 단계에서 획득된 움직임 벡터, 블록 벡터, 혹은 결합 벡터 등의 참조 벡터를 상기 분할 블록 기반의 예측 부호화/복호화에 사용하는 경우, 상기 좌측 분할 블록(1511-1)과 우측 분할 블록(1511-2) 각각에 대해 독립적으로 벡터 처리를 수행할 수 있다. 예를 들어, 좌측 분할 블록(1511-1)에 대해서는 좌측 분할 블록 대응 참조 벡터(1551-1)가 적용되어 제1 참조 영역(1512-1)를 지목하도록 구성될 수 있으며, 우측 분할 블록(1511-2)에 대해서는 우측 분할 블록 대응 참조 벡터(1551-2)가 별도로 적용되어 제2 참조 영역(1512-2)를 지목하도록 구성될 수 있다. 본 발명의 일 실시예에 따르면, 각 분할 블록 내 위치에 대해서만 비교 및 계산을 수행할 수 있으며, 예를 들어 제1 참조 영역(1512-1)의 좌측 영역(1541)과 제2 참조 영역(1512-2)의 우측 영역(1542)만이 각각 현재 블록(1511)의 예측 부호화/복호화에 사용되도록 구성될 수 있다. Referring to FIG. 15, there is illustrated an example in which a current block (1511) is divided into a left divided block (1511-1) and a right divided block (1511-2) by a boundary line (1517) according to a geometrical division mode. According to one embodiment of the present invention, when a reference vector such as a motion vector, a block vector, or a combined vector obtained in a combined vector inference step is used for prediction encoding/decoding based on the divided blocks, vector processing can be performed independently for each of the left divided block (1511-1) and the right divided block (1511-2). For example, for the left split block (1511-1), the left split block corresponding reference vector (1551-1) may be applied and configured to designate the first reference area (1512-1), and for the right split block (1511-2), the right split block corresponding reference vector (1551-2) may be separately applied and configured to designate the second reference area (1512-2). According to one embodiment of the present invention, comparison and calculation may be performed only for positions within each split block, and for example, only the left area (1541) of the first reference area (1512-1) and the right area (1542) of the second reference area (1512-2) may be configured to be used for prediction encoding/decoding of the current block (1511), respectively.
본 발명의 일 실시예에 따르면, 결합 벡터는 다양한 예측 모드에서 활용될 수 있다. 예를 들어, 병합(머지, Merge) 모드에서는 결합 벡터가 머지 리스트에 추가되어 현재 블록의 움직임 정보로 선택될 수 있다. 고급 움직임 벡터 예측(AMVP) 모드에서는 결합 벡터가 AMVP 리스트에 추가되어 현재 블록의 움직임 벡터 예측자로 사용될 수 있으며, 또한 결합 벡터의 참조 영상과 움직임 탐색 대상 참조 영상이 동일한 경우에 효과적으로 활용될 수 있다.According to one embodiment of the present invention, the combined vector can be utilized in various prediction modes. For example, in Merge mode, the combined vector can be added to the merge list and selected as the motion information of the current block. In Advanced Motion Vector Prediction (AMVP) mode, the combined vector can be added to the AMVP list and used as the motion vector predictor of the current block. In addition, the combined vector can be effectively utilized when the reference image of the combined vector and the reference image for motion search are the same.
본 발명의 일 실시예에 따르면, 상기 AMVP 모드에서 AMVP 리스트를 구성하는 과정 있어서, 움직임 탐색 대상 참조 영상의 인덱스와 결합 벡터의 참조 영상 인덱스를 비교하여 결합 벡터의 추가 여부 및 방법을 결정할 수 있다. 구체적으로, AMVP 리스트는 왼쪽 블록, 상단 블록 등 주변 블록들의 움직임 벡터를 순차적으로 검사하여 구성될 수 있으며, 이 과정에서 각 블록의 참조 영상 인덱스가 현재 움직임 탐색 대상 참조 영상의 인덱스와 일치하는지 확인할 수 있다. 마찬가지로, 결합 벡터에 대해서도 참조 영상 인덱스를 검사하여, 결합 벡터의 참조 영상 인덱스가 현재 움직임 탐색 대상 참조 영상의 인덱스와 동일한 경우 해당 결합 벡터를 AMVP 리스트에 추가하도록 구성될 수 있다. 만약 적합한 움직임 벡터가 없는 경우에는 영(0) 벡터가 AMVP 리스트에 저장되도록 구성될 수 있다.According to one embodiment of the present invention, in the process of constructing an AMVP list in the AMVP mode, the index of a reference image to be motion searched and the reference image index of a combined vector may be compared to determine whether and how to add a combined vector. Specifically, the AMVP list may be constructed by sequentially examining motion vectors of surrounding blocks such as a left block and an upper block, and in this process, it may be confirmed whether the reference image index of each block matches the index of the reference image to be current motion searched. Similarly, for the combined vector, the reference image index may be examined, and if the reference image index of the combined vector is identical to the index of the reference image to be current motion searched, the combined vector may be configured to be added to the AMVP list. If there is no suitable motion vector, the zero (0) vector may be configured to be stored in the AMVP list.
일 실시예에 따르면, 상술한 AMVP 모드에 관련된 결합 벡터의 추가 과정은 하기 표 1과 같은 의사 코드(pseudo-code)로 나타낼 수 있다.According to one embodiment, the additional process of the combination vector related to the above-described AMVP mode can be expressed by a pseudo-code as shown in Table 1 below.
else if(ref_idx_me==ref_idx_of_blk_b) amvp_list[i] = mv_blk_b;
…
else if(ref_idx_me==ref_idx_of_cmvp) amvp_list[i] = mv_cmvp;
…
else amvp_list[i] = 0;if(ref_idx_me==ref_idx_of_blk_a) amvp_list[i] = mv_blk_a;
else if(ref_idx_me==ref_idx_of_blk_b) amvp_list[i] = mv_blk_b;
…
else if(ref_idx_me==ref_idx_of_cmvp) amvp_list[i] = mv_cmvp;
…
else amvp_list[i] = 0;
표 1의 의사코드에 있어서, ref_idx_me는 현재 블록의 움직임 탐색 대상 참조 영상 인덱스를, ref_idx_of_blk_a와 ref_idx_of_blk_b는 각각 왼쪽 블록과 상단 블록의 참조 영상 인덱스를, ref_idx_of_cmvp는 결합 벡터의 참조 영상 인덱스를 나타낸다. 그리고 mv_blk_a, mv_blk_b, mv_cmvp는 각각 왼쪽 블록의 움직임 벡터, 상단 블록의 움직임 벡터, 결합 벡터를 의미한다. 또한, 표 1의 의사코드에서 생략(…)된 부분에는 다른 주변 블록들로부터 유래하는 임의의 참조 벡터를 상기 AMVP 리스트에 추가하는 내용을 포함하여 임의의 다른 조건문 및/또는 처리과정이 병합될 수 있다.In the pseudocode of Table 1, ref_idx_me represents the reference image index for motion search of the current block, ref_idx_of_blk_a and ref_idx_of_blk_b represent the reference image indices of the left block and the upper block, respectively, and ref_idx_of_cmvp represents the reference image index of the combined vector. In addition, mv_blk_a, mv_blk_b, and mv_cmvp represent the motion vector of the left block, the motion vector of the upper block, and the combined vector, respectively. In addition, any other conditional statements and/or processing steps, including the content of adding any reference vector derived from other surrounding blocks to the AMVP list, may be incorporated into the omitted (…) portion of the pseudocode of Table 1.
본 발명의 일 실시예에 따르면, 결합 벡터의 참조 영상 인덱스가 현재 움직임 탐색 대상 참조 영상의 인덱스와 다른 경우에는, 결합 벡터를 움직임 탐색 대상 참조 영상에 맞게 스케일링한 후 AMVP 리스트에 추가하는 방식으로 확장될 수 있다. 이때 스케일링은 참조 영상 간의 시간적 거리를 고려하여 수행될 수 있다._According to one embodiment of the present invention, if the reference image index of the combined vector is different from the index of the reference image to be currently motion searched, the combined vector can be expanded by scaling it to match the reference image to be motion searched and then adding it to the AMVP list. At this time, the scaling can be performed by considering the temporal distance between the reference images.
본 발명의 다양한 일 실시예에 따르면, 어파인(affine) 모드에서는 결합 벡터가 블록 내 복수의 제어점 위치에서의 움직임을 나타내는 데 사용될 수 있으며, 이를 통해 블록의 회전, 확대, 축소 등 복잡한 움직임을 효율적으로 표현할 수 있다. 일 실시예에 있어서, 상기 어파인 모드에서는 현재 블록의 가로 크기와 세로 크기가 모두 8 이상인 경우에만 결합 벡터를 적용하도록 제한할 수 있다. 기하학적 분할 모드에서는 앞서 도 15에서 설명한 바와 같이 분할된 각 영역에 독립적으로 결합 벡터가 적용될 수 있다. 인트라 블록 카피(Intra Block Copy, IBC) 모드에서는 결합 벡터를 현재 화면 내의 블록 벡터로 활용하여 화면 내 예측을 수행할 수 있다. 이처럼 다양한 예측 모드에서 결합 벡터를 활용함으로써, 복잡한 영상의 움직임 표현 정확도를 높이고 부호화 효율을 향상시킬 수 있다. 또한, 본 발명에 따른 결합 벡터는 화면 내 예측과 화면 간 예측을 불문하고 움직임 벡터, 블록 벡터, 및 그 밖의 참조 벡터를 적어도 하나 사용하도록 구성되는 다양한 예측 모드에 공히 적용될 수 있는 것이다.According to various embodiments of the present invention, in affine mode, a combined vector can be used to represent motion at multiple control point locations within a block, thereby efficiently expressing complex motions such as rotation, enlargement, and reduction of the block. In one embodiment, in the affine mode, the combined vector can be restricted to be applied only when both the horizontal and vertical dimensions of the current block are 8 or greater. In the geometric segmentation mode, the combined vector can be independently applied to each segmented area, as described above with reference to FIG. 15. In the intra block copy (IBC) mode, the combined vector can be utilized as a block vector within the current screen to perform intra-screen prediction. By utilizing the combined vector in various prediction modes in this way, the motion expression accuracy of complex images can be increased and the encoding efficiency can be improved. In addition, the combined vector according to the present invention can be applied to various prediction modes configured to use at least one motion vector, block vector, and other reference vector, regardless of intra-screen prediction or inter-screen prediction.
또한, 본 발명의 일 실시예에 따르면, 본 명세서에서 언급되는 머지 리스트, 블록 벡터 리스트, 움직임 벡터 리스트 등의 용어는, 특정 예측 모드에 한정되는 표현이 아니라 포괄적으로 호환 가능한 용어로 이해되어야 한다. 예를 들어, 상기 리스트들은 부호화/복호화 과정에서 현재 블록의 예측을 위한 참조 벡터 후보들을 포함하는 임의의 방법에 따른 후보 벡터의 리스트 및/또는 머지 리스트를 의미할 수 있으며, 특정 예측 모드에 한정되지 않는다. 예를 들어, 머지 모드에서의 머지 리스트, 고급 움직임 벡터 예측(AMVP) 모드에서의 AMVP 리스트, 어파인 모드에서의 어파인 머지 리스트, 인트라 블록 카피 모드에서의 블록 벡터 리스트 등 다양한 예측 모드에서 사용되는 후보 리스트들과 상호 교차적으로 호환되어 적용될 수 있다. 따라서, 본 발명에서 제안하는 결합 벡터는 이러한 다양한 유형의 후보 리스트 및 예측 모드에서 공통적으로 및/또는 교차적으로 적용 가능한 기술적 구성으로 이해되어야 한다.In addition, according to one embodiment of the present invention, the terms merge list, block vector list, motion vector list, etc. mentioned in this specification should be understood as comprehensively compatible terms, rather than expressions limited to a specific prediction mode. For example, the above lists may mean a list of candidate vectors and/or a merge list according to any method including reference vector candidates for predicting the current block in the encoding/decoding process, and are not limited to a specific prediction mode. For example, the merge list in the merge mode, the AMVP list in the advanced motion vector prediction (AMVP) mode, the affine merge list in the affine mode, the block vector list in the intra block copy mode, etc., can be interchangeably applied with candidate lists used in various prediction modes. Therefore, the combined vector proposed in the present invention should be understood as a technical configuration that is commonly and/or interchangeably applicable to these various types of candidate lists and prediction modes.
부호화기 및 복호화기Encoder and decoder
본 발명에 따른 방법은 부호화기와 복호화기에서 동일하게 적용될 수 있는 것임이 자명하다. 추가적으로, 도 4에서 내부 복호화기(420) 및 이를 포함하는 코딩 루프를 통해 예시한 바와 같이, 이러한 복호화 과정은 부호화기 내부에서도 복호화기의 상태를 예측하기 위하여 동일하게 구현될 수 있는 것에 해당한다.It is self-evident that the method according to the present invention can be applied equally to both encoders and decoders. Additionally, as illustrated in FIG. 4 through the internal decoder (420) and the coding loop including it, this decoding process can be implemented identically within the encoder to predict the state of the decoder.
상술된 본 발명에 의한 부호화 방법은 장치로서의 부호화기를 통해 구현될 수 있다. 상기 장치로서의 부호화기는 앞서 도 1 내지 6을 통해 예시한 종래의 부호화기 구조를 유지하거나 그로부터 소정의 변화를 적용한 형태로서 구현될 수 있으나, 그 구현의 형태가 반드시 예시된 바에 한정되지는 아니하고, 비디오 부호화기로서 기능할 수 있는 어떠한 형태의 부호화기 구조를 취하더라도 본 발명의 기술적 사상을 구현하는 한 본 발명에 의하여 성립한 부호화기라고 보아야 할 것이다.The encoding method according to the present invention described above can be implemented through an encoder as a device. The encoder as a device can be implemented in a form that maintains the conventional encoder structure exemplified through FIGS. 1 to 6 above or applies a predetermined change thereto. However, the form of implementation is not necessarily limited to that exemplified, and any form of encoder structure that can function as a video encoder should be considered an encoder established by the present invention as long as it implements the technical idea of the present invention.
또한, 상술된 본 발명에 의한 부호화 결과물의 복호화 방법은 장치로서의 복호화기를 통해 구현될 수 있다. 상기 장치로서의 복호화기는 앞서 도 1 내지 6을 통해 예시한 종래의 복호화기 구조를 유지하거나 그로부터 소정의 변화를 적용한 형태로서 구현될 수 있으나, 그 구현의 형태가 반드시 예시된 바에 한정되지는 아니하고, 비디오 복호화기로서 기능할 수 있는 어떠한 형태의 복호화기 구조를 취하더라도 본 발명의 기술적 사상을 구현하는 한 본 발명에 의하여 성립한 복호화기라고 보아야 할 것이다.In addition, the method for decoding the encoding result according to the present invention described above can be implemented through a decoder as a device. The decoder as a device can be implemented in a form that maintains the conventional decoder structure exemplified through FIGS. 1 to 6 above or applies a predetermined change thereto. However, the form of implementation is not necessarily limited to that exemplified, and any form of decoder structure that can function as a video decoder should be considered a decoder established according to the present invention as long as it implements the technical idea of the present invention.
통상의 기술자는 상술한 방법 및 장치에 의하여 부호화된 비트열을 상기 부호화의 방법과 대칭적인 및/또는 역순의 방법을 적용함으로써 복호화할 수 있음을 쉽게 이해할 수 있을 것이다. 일 실시예에 있어서, 상기 부호화된 비트열로부터 복호화를 위한 정보를 읽어들임에 있어서는, 상기 부호화된 비트열에 포함된 적어도 하나의 가변 길이 부호화(variable length coding)된 구문이 해석될 수 있으며, 또한 일 실시예에 있어서, 상기 가변 길이 부호화는 엔트로피 부호화(entropy coding) 방법에 의하여 이루어질 수 있다. 이러한 복호화 절차 구현의 기술적 상세 및 응용 방법은 상술한 부호화 절차로부터 용이하게 이해할 수 있을 것이다.A person skilled in the art will readily understand that a bit string encoded by the above-described method and device can be decoded by applying a method symmetrical and/or reverse to the encoding method. In one embodiment, when reading information for decoding from the encoded bit string, at least one variable length coded phrase included in the encoded bit string can be interpreted, and furthermore, in one embodiment, the variable length coding can be performed by an entropy coding method. The technical details and application method of implementing such a decoding procedure can be readily understood from the above-described encoding procedure.
본 명세서에 기재된, 상기 부호화기 및/또는 복호화기에 포함될 수 있는 상기 프로세서는, 프로세서, 컨트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 의미할 수 있다. The processor that may be included in the encoder and/or decoder described herein may mean one or more general purpose computers or special purpose computers, such as a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), a programmable logic unit (PLU), a microprocessor, or any other device capable of executing instructions and responding.
이해의 편의를 위하여 상기 프로세서가 단수로 표현되는 경우라 할지라도, 해당 기술분야에서 통상의 지식을 가진 자는, 상기 프로세서가 복수 개의 처리요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 본 발명의 일 실시예에 따른 장치는 상기 프로세서로서 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 상기 프로세서는 병렬 프로세서(parallel processor)나 멀티-코어 프로세서(multi-core processor)와 같이, 다양한 처리 구성(processing configuration)에 의하여 구현될 수 있다.Even if the processor is expressed singularly for ease of understanding, those skilled in the art will appreciate that the processor may include multiple processing elements and/or multiple types of processing elements. For example, a device according to one embodiment of the present invention may include multiple processors or one processor and one controller as the processor. Furthermore, the processor may be implemented using various processing configurations, such as a parallel processor or a multi-core processor.
상기 프로세서는, 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어(software)를 수행하도록 구성될 수 있다. 또한, 상기 프로세서는 상기 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다.The processor may be configured to execute an operating system (OS) and one or more software programs running on the operating system. Furthermore, the processor may access, store, manipulate, process, and generate data in response to the execution of the software.
상기 소프트웨어는, 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함하 수 있으며, 원하는 대로 동작하도록 상기 프로세서를 제어할 수 있으며, 독립적으로 또는 결합적으로(collectively) 상기 프로세서에 명령을 내리도록 구성될 수 있다. 상기 소프트웨어는, 상기 프로세서에 의하여 해석되거나 상기 프로세서에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 상기 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다.The software may include a computer program, code, instructions, or a combination of one or more of these, and may be configured to control the processor to perform a desired operation and to issue commands to the processor, either independently or collectively. The software may be permanently or temporarily embodied in any type of machine, component, physical device, virtual equipment, computer storage medium or device, or transmitted signal wave, for interpretation by the processor or for providing commands or data to the processor. The software may also be distributed over networked computer systems, and stored or executed in a distributed manner.
상기 소프트웨어는 또한, 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 상기 메모리에 기록되거나 저장될 수 있다. 상기 메모리는 컴퓨터 판독 가능 기록 매체일 수 있으며, 상기 컴퓨터 판독 가능 기록 매체에는 프로그램 명령, 데이터 파일, 데이터 구조 등이 단독으로 또는 조합되어 기록될 수도 있다. 상기 메모리에 저장되는 프로그램 명령은 본 발명의 실시예를 위하여 특별히 설계되고 구성된 명령 체계에 기반하거나, 또는 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 명령 체계, 예를 들어 어셈블리어(Assembly), C, C++, Java, Python 언어 등으로 예시되는 명령 체계를 따를 수도 있다. 상기 명령 체계 및 그에 의한 프로그램 명령은 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 본 발명의 일 실시예에 따른 장치 및/또는 상기 프로세서에 의해서 실행될 수 있는 고급 언어 코드를 포함하는 것으로 이해되어야 한다.The software may also be implemented in the form of program commands that can be executed through various computer means and recorded or stored in the memory. The memory may be a computer-readable recording medium, and program commands, data files, data structures, etc. may be recorded singly or in combination in the computer-readable recording medium. The program commands stored in the memory may be based on a command system specifically designed and configured for the embodiment of the present invention, or may follow a command system known and available to those skilled in the art of computer software, such as a command system exemplified by the assembly language, C, C++, Java, Python, etc. It should be understood that the command system and the program commands therefrom include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by the device and/or the processor according to an embodiment of the present invention using an interpreter or the like.
본 명세서에 기재된 상기 메모리를 포함하여 본 발명의 일 실시예에 따른 장치를 구성하는 컴퓨터 판독 가능 기록 매체는, 프로세서 캐시(Cache), 램(RAM), 플래시 메모리와 같이 상기 프로세서가 동작하는 동안만 유지되는 일시적 또는 휘발성 기록 매체를 포함할 수 있고, 또는 하드 디스크, 플로피 디스크, 및 자기 테이프와 같은 자기체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 또는 정적 상태 메모리(solid state memory)와 같이 상대적으로 비휘발성적이거나 장기 기록이 가능한 기록 매체를 포함할 수 있고, 또는 하드웨어 상에 배치된 롬(ROM)과 같은 읽기 전용의 기록 매체를 포함할 수 있으며, 나아가 회로배선에 의한 하드-와이어드(hard-wired) 구조에 의하여 일련의 프로그램 명령과 등가의 동작을 수행하도록 구성된 하드웨어 그 자체 또한, 본 발명의 실시예를 구현하는 상기 동작을 수행하기 위한 각 단계가 상기 하드웨어 부품의 연결과 배치에 의하여 기록되어 있다고 볼 수 있으므로, 그 연결 및 배치방법이 곧 상기 메모리와 등가인 것으로 볼 수 있음은 통상의 기술자에게 자명하다.The computer-readable recording medium constituting the device according to one embodiment of the present invention, including the memory described in this specification, may include a temporary or volatile recording medium that is maintained only while the processor is operating, such as a processor cache, a RAM, a flash memory, or a relatively non-volatile or long-term recording medium, such as a magnetic media such as a hard disk, a floppy disk, and a magnetic tape, an optical media such as a CD-ROM, a DVD, a magneto-optical media such as a floptical disk, or a solid state memory, or may include a read-only recording medium, such as a ROM arranged on hardware, and further, the hardware itself configured to perform an operation equivalent to a series of program commands by a hard-wired structure by circuit wiring, and each step for performing the operation for implementing the embodiment of the present invention can be viewed as being recorded by the connection and arrangement of the hardware components, and thus the connection and arrangement method is the memory and It is obvious to a person skilled in the art that they can be considered equivalent.
상기 프로세서 및 상기 메모리에 대하여 상술한 실시예는 상호 배타적이지 않으며, 필요에 따라 선택되거나 결합되어 실시될 수 있다. 예를 들어, 하나의 하드웨어 장치는 본 발명 실시예의 동작을 수행하기 위해 하나 이상의 상기 소프트웨어로 구성된 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. 또 다른 예를 들어, 본 명세서에 있어서, 어떠한 기능부에 할당된 동작의 전부 또는 일부는 본 발명의 일 실시예에 따른 장치에(바람직하게는, 상기 메모리의 범주에 속하는 어느 하나의 기록 매체에) 저장된 하나 이상의 상기 소프트웨어에 의하여 구현되어, 상기 프로세서에 의하여 실행되도록 구성될 수 있으며, 이러한 경우, 상기와 같은 기능부는 상기 프로세서에 "포함되는" 기능부로서 칭해질 수 있다.The embodiments described above with respect to the processor and the memory are not mutually exclusive and may be selected or combined and implemented as needed. For example, a single hardware device may be configured to operate as a module composed of one or more of the software to perform the operations of an embodiment of the present invention, and vice versa. As another example, in the present specification, all or part of the operations assigned to a certain functional unit may be implemented by one or more of the software stored in a device according to an embodiment of the present invention (preferably, in any one of the recording media belonging to the category of the memory) and configured to be executed by the processor. In such a case, such a functional unit may be referred to as a functional unit "included" in the processor.
이상 본 발명에 대하여 도면 및 실시예를 참조하여 설명하였으나, 이미 상술한 바와 같이 본 발명의 보호범위가 상기 제시된 도면 또는 실시예에 의해 한정되는 것을 의미하지는 않으며, 해당 기술 분야의 숙련된 당업자는 본 발명 특허의 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the present invention has been described with reference to drawings and embodiments, as already mentioned above, it does not mean that the scope of protection of the present invention is limited to the drawings or embodiments presented above, and it will be understood that a person skilled in the relevant technical field can modify and change the present invention in various ways within a scope that does not depart from the spirit and scope of the present invention described in the claims of the present invention patent.
Claims (20)
비트열로부터 현재 블록에 대한 정보를 획득하는 단계;
상기 현재 블록에 대한 정보에 기초하여 제1 참조 벡터를 획득하는 단계;
상기 제1 참조 벡터에 기반하여 제1 블록 영역에 대한 정보를 획득하는 단계;
상기 제1 블록 영역에 대한 정보에 기초하여 제2 참조 벡터를 획득하는 단계;
상기 제1 참조 벡터와 상기 제2 참조 벡터에 기반하여 결합 벡터를 획득하는 단계;
상기 결합 벡터를 이용하여 상기 현재 블록에 대한 예측 블록을 생성하는 단계;를 포함하는, 영상 복호화 방법.
In the video decryption method,
A step of obtaining information about the current block from a bit string;
A step of obtaining a first reference vector based on information about the current block;
A step of obtaining information about a first block area based on the first reference vector;
A step of obtaining a second reference vector based on information about the first block area;
A step of obtaining a combined vector based on the first reference vector and the second reference vector;
An image decoding method, comprising: a step of generating a prediction block for the current block using the combined vector.
상기 제1 참조 벡터는 블록 벡터이고, 상기 제2 참조 벡터는 움직임 벡터인 것을 특징으로 하는, 영상 복호화 방법.
In the first paragraph,
An image decoding method, characterized in that the first reference vector is a block vector and the second reference vector is a motion vector.
상기 결합 벡터를 기반으로 시간적 거리 및 공간적 거리 중 적어도 하나에 기반하여 스케일링된 벡터를 참조 벡터 후보 리스트에 추가하는 단계;를 더 포함하는, 영상 복호화 방법.
In the first paragraph,
An image decoding method, further comprising: a step of adding a scaled vector based on at least one of a temporal distance and a spatial distance based on the above-mentioned combined vector to a list of reference vector candidates.
상기 결합 벡터는, 어파인 예측 모드를 위해 사용되는 경우, 블록의 가로 및 세로 크기 중 적어도 하나에 기반하여 그 사용 여부가 결정되는 것;을 특징으로 하는, 영상 복호화 방법.
In the first paragraph,
A method for decoding an image, characterized in that, when the above-mentioned combined vector is used for an affine prediction mode, whether or not to use it is determined based on at least one of the horizontal and vertical sizes of the block.
상기 제1 참조 벡터, 상기 제2 참조 벡터, 및 상기 결합 벡터 중 적어도 하나는 템플릿 매칭을 통해 보정되는 것을 특징으로 하는, 영상 복호화 방법.
In the first paragraph,
An image decoding method, characterized in that at least one of the first reference vector, the second reference vector, and the combined vector is corrected through template matching.
상기 현재 블록이 복수의 분할 블록으로 구성된 경우, 상기 분할 블록 각각에 대해 독립적으로 결합 벡터를 적용하는 단계;를 더 포함하는, 영상 복호화 방법.
In the first paragraph,
An image decoding method, further comprising: a step of independently applying a combination vector to each of the divided blocks when the current block is composed of a plurality of divided blocks.
상기 현재 블록에 대한 정보에 기초하여 적어도 하나의 참조 벡터 후보 리스트를 생성하는 단계; 및
상기 참조 벡터 후보 리스트에 기반하여 상기 제1 참조 벡터를 획득하는 단계;를 더 포함하는, 영상 복호화 방법.
In the first paragraph,
generating at least one reference vector candidate list based on information about the current block; and
An image decoding method, further comprising: a step of obtaining the first reference vector based on the list of reference vector candidates.
상기 참조 벡터 후보 리스트는, 블록 벡터 리스트, 움직임 벡터 리스트, 머지 리스트, AMVP 리스트, 및 어파인 리스트 중 적어도 하나에 기반하는 참조 벡터 후보 리스트를 포함하는 것;을 특징으로 하는,영상 복호화 방법.
In paragraph 7,
A video decoding method, characterized in that the reference vector candidate list includes a reference vector candidate list based on at least one of a block vector list, a motion vector list, a merge list, an AMVP list, and an affine list.
상기 제1 블록 영역에 복수의 참조 벡터가 존재하는 경우, 상기 복수의 참조 벡터에 기반하는 연산에 의하여 상기 제2 참조 벡터를 획득하는 단계;를 더 포함하는, 영상 복호화 방법.
In the first paragraph,
An image decoding method further comprising: a step of obtaining the second reference vector by an operation based on the plurality of reference vectors when a plurality of reference vectors exist in the first block area.
상기 결합 벡터를 이용하여 상기 현재 블록에 대한 예측 블록을 생성하는 단계는,
상기 결합 벡터를 현재 화면에 대한 블록 벡터로 사용하여 화면 내 예측을 수행하는 단계;를 포함하는, 영상 복호화 방법.
In the first paragraph,
The step of generating a prediction block for the current block using the above combination vector is as follows:
A method for decoding an image, comprising: performing intra-screen prediction using the above combined vector as a block vector for the current screen.
현재 블록에 대한 제1 참조 벡터를 획득하는 단계;
상기 제1 참조 벡터에 기반하여 제1 블록 영역에 대한 정보를 획득하는 단계;
상기 제1 블록 영역에 대한 정보에 기초하여 제2 참조 벡터를 획득하는 단계;
상기 제1 참조 벡터와 상기 제2 참조 벡터에 기반하여 결합 벡터를 획득하는 단계;
상기 결합 벡터를 이용하여 상기 현재 블록에 대한 예측 블록을 생성하는 단계;
상기 예측 블록에 기반하여 상기 현재 블록에 대한 예측 부호화를 수행하는 단계; 및
상기 제1 참조 벡터에 대한 정보 및 상기 결합 벡터의 획득에 관한 정보를 비트열의 일부로서 출력하는 단계;를 포함하는, 영상 부호화 방법.
In the image encoding method,
A step of obtaining a first reference vector for the current block;
A step of obtaining information about a first block area based on the first reference vector;
A step of obtaining a second reference vector based on information about the first block area;
A step of obtaining a combined vector based on the first reference vector and the second reference vector;
A step of generating a prediction block for the current block using the above combination vector;
A step of performing prediction encoding for the current block based on the prediction block; and
An image encoding method, comprising: a step of outputting information about the first reference vector and information about obtaining the combined vector as part of a bit string.
상기 제1 참조 벡터는 블록 벡터이고, 상기 제2 참조 벡터는 움직임 벡터인 것을 특징으로 하는, 영상 부호화 방법.
In paragraph 11,
A video encoding method, characterized in that the first reference vector is a block vector and the second reference vector is a motion vector.
상기 결합 벡터를 기반으로 시간적 거리 및 공간적 거리 중 적어도 하나에 기반하여 스케일링된 벡터를 참조 벡터 후보 리스트에 추가하는 단계;를 더 포함하는, 영상 부호화 방법.
In paragraph 11,
A method for encoding an image, further comprising: adding a scaled vector based on at least one of a temporal distance and a spatial distance based on the above-mentioned combined vector to a list of reference vector candidates.
상기 결합 벡터는, 어파인 예측 모드를 위해 사용되는 경우, 블록의 가로 및 세로 크기 중 적어도 하나에 기반하여 그 사용 여부가 결정되는 것;을 특징으로 하는, 영상 부호화 방법.
In paragraph 11,
A video encoding method, characterized in that, when the above-mentioned combined vector is used for an affine prediction mode, whether or not to use it is determined based on at least one of the horizontal and vertical sizes of the block.
상기 제1 참조 벡터, 상기 제2 참조 벡터, 및 상기 결합 벡터 중 적어도 하나는 템플릿 매칭을 통해 보정되는 것을 특징으로 하는, 영상 부호화 방법.
In paragraph 11,
An image encoding method, characterized in that at least one of the first reference vector, the second reference vector, and the combined vector is corrected through template matching.
상기 현재 블록이 복수의 분할 블록으로 구성된 경우, 상기 분할 블록 각각에 대해 독립적으로 결합 벡터를 적용하는 단계;를 더 포함하는, 영상 부호화 방법.
In paragraph 11,
An image encoding method, further comprising: a step of independently applying a combination vector to each of the divided blocks when the current block is composed of a plurality of divided blocks.
상기 현재 블록에 대한 정보에 기초하여 적어도 하나의 참조 벡터 후보 리스트를 생성하는 단계; 및 상기 참조 벡터 후보 리스트에 기반하여 상기 제1 참조 벡터를 획득하는 단계;를 더 포함하는, 영상 부호화 방법.
In paragraph 11,
A video encoding method, further comprising: a step of generating at least one reference vector candidate list based on information about the current block; and a step of obtaining the first reference vector based on the reference vector candidate list.
상기 참조 벡터 후보 리스트는, 블록 벡터 리스트, 움직임 벡터 리스트, 머지 리스트, AMVP 리스트, 및 어파인 리스트 중 적어도 하나에 기반하는 참조 벡터 후보 리스트를 포함하는 것;을 특징으로 하는, 영상 부호화 방법.
In paragraph 17,
A video encoding method, characterized in that the reference vector candidate list includes a reference vector candidate list based on at least one of a block vector list, a motion vector list, a merge list, an AMVP list, and an affine list.
상기 결합 벡터를 이용하여 상기 현재 블록에 대한 예측 블록을 생성하는 단계는,
상기 결합 벡터를 현재 화면에 대한 블록 벡터로 사용하여 화면 내 예측을 수행하는 단계;를 포함하는, 영상 부호화 방법.
In paragraph 11,
The step of generating a prediction block for the current block using the above combination vector is as follows:
A method for encoding an image, comprising: performing intra-screen prediction using the above combined vector as a block vector for the current screen.
비트열을 입력받는 수신부;
상기 비트열로부터 현재 블록에 대한 정보를 획득하는 파서부;
상기 현재 블록에 대한 정보에 기초하여 제1 참조 벡터를 획득하고, 상기 제1 참조 벡터에 기반하여 제1 블록 영역에 대한 정보를 획득하며, 상기 제1 블록 영역에 대한 정보에 기초하여 제2 참조 벡터를 획득하고, 상기 제1 참조 벡터와 상기 제2 참조 벡터에 기반하여 결합 벡터를 획득하는 예측부; 및
상기 결합 벡터를 이용하여 상기 현재 블록에 대한 예측 블록을 생성하는 예측 복호화부;를 포함하는, 영상 복호화 장치.
In the video decoding device,
A receiving unit that receives a bit string;
A parser unit that obtains information about the current block from the above bit string;
A prediction unit that obtains a first reference vector based on information about the current block, obtains information about a first block area based on the first reference vector, obtains a second reference vector based on information about the first block area, and obtains a combined vector based on the first reference vector and the second reference vector; and
An image decoding device, comprising a prediction decoding unit that generates a prediction block for the current block using the above combination vector.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/KR2025/004200 WO2025211686A1 (en) | 2024-04-01 | 2025-03-31 | Method and device for video encoding and decoding on basis of combination reference vector |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020240044242 | 2024-04-01 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| KR20250148446A true KR20250148446A (en) | 2025-10-14 |
Family
ID=
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN111955007B (en) | Video decoding method and device | |
| CN111989918B (en) | Video decoding method, device and storage medium | |
| CN113557527B (en) | Video decoding method, video decoder and medium | |
| CN110891180B (en) | Video decoding method and video decoder | |
| CN118945317B (en) | Method and device for performing optical flow prediction correction on affine decoding block | |
| CN113259661A (en) | Method and device for video decoding | |
| US20140105295A1 (en) | Moving image encoding method and apparatus, and moving image decoding method and apparatus | |
| CN112399186B (en) | Video decoding method, device and storage medium | |
| CN115699738B (en) | Video encoding and decoding method apparatus, device and computer readable storage medium | |
| CN111901609A (en) | Method and apparatus for video decoding, computer device and storage medium | |
| CN112135135A (en) | Video decoding method, video decoding device, computer equipment and storage medium | |
| CN112399180B (en) | Video decoding method, device and storage medium | |
| CN113841390A (en) | Method and apparatus for video encoding and decoding | |
| CN113286152A (en) | Video decoding method, video decoding device, computer equipment and storage medium | |
| CN118476225A (en) | Method and apparatus for implicitly indicating motion vector prediction accuracy | |
| CN118285101A (en) | Temporal motion vector predictor candidate search | |
| KR20250148446A (en) | Method and appratus for video encoding and decoding based on combined reference vector | |
| KR20250141066A (en) | Method and appratus for video encoding and decoding based on ehnanced intra prediction scheme | |
| CN116325735B (en) | Method, computer equipment, device and storage medium for reordering reference frames | |
| RU2800681C2 (en) | Coder, decoder and corresponding methods for intra prediction | |
| US20250247522A1 (en) | Merge candidate derivation improvement by using intra template-matching | |
| KR20250056798A (en) | Method for video encoding and decoding based on intra prediction and appartus thereof | |
| RU2778993C2 (en) | Method and equipment for predicting video images | |
| KR20250095552A (en) | Method and appratus for video encoding and decoding based on enhanced geometry-based block partitioning | |
| KR20250015701A (en) | Method and appratus for video encoding and decoding based on ehnanced intra prediction scheme |