[go: up one dir, main page]

KR100192780B1 - Contour encoder - Google Patents

Contour encoder Download PDF

Info

Publication number
KR100192780B1
KR100192780B1 KR1019950010423A KR19950010423A KR100192780B1 KR 100192780 B1 KR100192780 B1 KR 100192780B1 KR 1019950010423 A KR1019950010423 A KR 1019950010423A KR 19950010423 A KR19950010423 A KR 19950010423A KR 100192780 B1 KR100192780 B1 KR 100192780B1
Authority
KR
South Korea
Prior art keywords
spline
ratio
image
feature point
contour
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR1019950010423A
Other languages
Korean (ko)
Other versions
KR960039988A (en
Inventor
윤성욱
Original Assignee
전주범
대우전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전주범, 대우전자주식회사 filed Critical 전주범
Priority to KR1019950010423A priority Critical patent/KR100192780B1/en
Publication of KR960039988A publication Critical patent/KR960039988A/en
Application granted granted Critical
Publication of KR100192780B1 publication Critical patent/KR100192780B1/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

본 발명은 적응 비(B)-스플라인을 이용한 윤곽선 부호기에 관한 것으로, 입력영상을 세그먼테이션하는 세그먼테이션부(41)와; 상기 세그먼트된 영상에 특징점을 추출하는 특징점 추출부(42); 상기 추출된 특징점 구간들에 소정 차수까지 다각형 근사를 적용하여 비(B)-스플라인을 구하는 비(B)-스플라인부(43); 각 특징점 구간별로 상기 적용된 비(B)-스플라인과 입력영상과의 차를 구해 오차를 산출하고, 각 산출된 오차를 비교하여 최소오차를 갖는 비(B)-스플라인을 선택하는 오차 산출/비교부(44); 및 상기 오차 산출/비교부(44)에서 선택된 비(B)-스플라인을 벡터양자화하여 부호화된 윤곽선 정보를 출력하는 벡터양자화부(45:VQ)로 구성되어 고정된 비(B)-스플라인을 적용하는 종래방식에 비해 화질을 개선시킬 수 있다.The present invention relates to a contour encoder using an adaptive ratio (B) -spline, comprising: a segmentation unit 41 for segmenting an input image; A feature point extracting unit 42 for extracting feature points from the segmented image; A ratio (B) -spline portion (43) for obtaining a ratio (B) -spline by applying a polygonal approximation to the extracted feature point intervals up to a predetermined order; Error calculation is performed by calculating the difference between the applied ratio (B) spline and the input image for each feature point section, and selecting the ratio (B) spline having the minimum error by comparing the calculated errors. (44); And a vector quantizer 45 (VQ) for outputting encoded contour information by vector quantizing the ratio (B) -spline selected by the error calculation / comparison unit (44) to apply a fixed ratio (B) -spline. The image quality can be improved as compared with the conventional method.

Description

윤곽선 부호기Contour encoder

제1도는 일반적인 객체기반 부호화기(Object-oriented encoder)를 도시한 블록도.1 is a block diagram illustrating a general object-oriented encoder.

제2도는 영상의 윤곽선을 추출하기 위한 다각형 근사의 예를 도시한 도면.2 is a diagram showing an example of polygonal approximation for extracting the contour of an image.

제3도는 윤곽선의 오차벡터를 도시한 도면.3 is a diagram showing an error vector of an outline.

제4도는 본 발명에 따른 적응 비(B)-스플라인을 이용한 윤곽선 부호기를 도시한 블럭도이다.4 is a block diagram illustrating a contour encoder using an adaptive ratio (B) -spline according to the present invention.

* 도면의 주요부분에 대한 부호의 설명* Explanation of symbols for main parts of the drawings

11 : 이미지 분석부 12 : 파라메터 부호기11 image analysis unit 12 parameter encoder

13 : 파라메터 복호기 14 : 파라메터 메모리13: parameter decoder 14: parameter memory

15 : 이미지 합성기 21 : 원래의 물체영상15: image synthesizer 21: the original object image

22 : 비-스플라인 41 : 세그먼테이션부22: non-spline 41: segmentation unit

42 : 특징점 추출부 43 : 비-스플라인부42: feature point extraction section 43: non-spline section

44 : 오차 산출/비교부 45 : 벡터양자화부44: error calculation / comparison unit 45: vector quantization unit

V1∼V7 : 특징점(vertex)V1 to V7: feature points (vertex)

본 발명은 객체기반 영상 부호기(Object-oriented encoder)에 관한 것으로, 특히 적응 비(B)-스플라인을 이용한 윤곽선 부호기(contout encoder)에 관한 것이다.The present invention relates to an object-oriented encoder, and more particularly to a contour encoder using an adaptive ratio (B) -spline.

일반적으로, 디지탈 영상부호와 기술로는 변환부호화(transform coding)와, 벡터양자화(Vertor quantization), 대역분할부호화(Subband conding), 예측부호화 및 엔트로피 부호화 등이 널리 알려져 있고, 국제 표준화기구에 의해 정지영상 및 동영상의 부호화를 위한 표준을 제정하면서 상기 부호화 기술들을 연구하여 보다 개선된 부호기술을 얻기 위한 노력이 계속되고 있다.In general, digital image coding and technology are widely known as transform coding, vector quantization, subband conding, prediction coding, and entropy coding. Efforts have been made to study the coding techniques while obtaining a standard for encoding video and video to obtain more improved coding techniques.

한편, 영상신호의 수학적 통계 특성을 이용하여 블럭 또는 매크로 블럭 단위로 처리하는 기존의 부호화방법에서는 비트율이 낮아질수록 즉 압축율이 높아질수록 블럭화 현상(blocking artifact), 반점현상(mosquito artifact) 및 경계의 흐름현상(blurring) 등의 문제가 심각해져 시각적으로 거슬리게 된다.On the other hand, in the conventional coding method which processes the unit of block or macro block by using the mathematical statistical characteristics of the video signal, the lower the bit rate, that is, the higher the compression rate, the more blocking artifacts, mosquito artifacts and boundary flows. Problems such as blurring become serious and visually annoying.

따라서, 고압축율을 필요로 하는 시스템에서 화질평가의 주체인 인간시각에 만족할 만한 영상을 재구성하기 위해서는, 사람이 무엇을 보고 어떻게 느끼는가를 연구하는 인간시각시스템(HVS)을 적극적으로 활용하여 영상신호를 부호화하는 것이 바람직하다. 특히, 국제 표준화인 MPEG4의 활동개시로 객체기반(Object-based) 부호화, 모델기반(Model-based) 부호화, 분할기반(Segmentation-based) 부호화 그리고 프랙털 부호화 등과 같은 제2세대 부호화방식이 적극적으로 연구되고 있다.Therefore, in order to reconstruct an image that satisfies the human vision, which is the subject of image quality evaluation, in a system requiring high compression ratio, the human visual system (HVS), which studies what a person sees and feels, actively uses an image signal. It is preferable to encode. In particular, the second-generation coding schemes such as object-based coding, model-based coding, segmentation-based coding, and fractal coding are actively researched as the international standardization of MPEG4 begins. It is becoming.

초저속으로 동영상을 전송하기 위한 상기와 같은 제2세대 부호화기법으로서 객체기반 부호화(Object-oriented coding)는, 기존의 블럭지향 부호화기(Block-oriented hybrid coder)들과는 달리 정방형 블럭의 형태가 아니라 임의의 형태로 된 물체별로 부호화한다. 그리고 움직임정보와 신호정보뿐만 아니라 물체의 모양 정보를 전송하므로써 블럭지향 부호화에 나타날 수 있는 블럭화현상, 반점현상등과 같은 재현된 화질의 열화를 방지할 수 있다. 뿐만아니라 영상분석과정에서 얼굴의 세밀한 부분과 같은 인간시각에 중요한 영역을 다른 영역보다 상대적으로 많은 데이타를 전송해 줌으로써 블럭지향 부호화보다 더욱 높은 화질로 영상을 복원할 수 있다.Object-oriented coding as a second generation coding technique for transmitting a video at ultra low speed, unlike conventional block-oriented hybrid coders, is not in the form of a square block. Encode by object in form. By transmitting not only the motion information and the signal information but also the shape information of the object, it is possible to prevent the deterioration of the reproduced picture quality such as the block phenomenon and the spot phenomenon which may appear in the block-oriented encoding. In addition, in the image analysis process, an image that is important to human vision, such as a detailed part of the face, can be reconstructed with higher image quality than block-oriented coding by transmitting more data than other regions.

특히, 객체지향 부호화는 단지 몇 개의 물체가 현저하고 적당한 속도로 움직이고, 움직이는 물체가 영상의 40∼60%를 차지하며, 배경은 정지된 영상에서 가장 효율적이다. 따라서, 객체지향 부호화 연구는 영상전화기, 영상회의등의 응용분야에서 주로 사용된다.In particular, object-oriented coding allows only a few objects to move at remarkable and moderate speeds, moving objects occupy 40 to 60% of the image, and the background is most efficient in still images. Therefore, object-oriented coding research is mainly used in application fields such as video telephone and video conferencing.

그러나, 물체별로 부호화를 수행하는 객체기반 부호화(Object-oriented coding)에서는 영상의 윤곽선 정보까지 보내야 하므로 효율적인 윤곽선 부호화기법이 필요하다. 윤곽선을 부호화하는 방법중 가장 잘 알려진 것으로 체인 코딩(chain coding)이 있으나, 무손실 부호화인 체인코딩은 데이타 량이 매우 많으므로 초저속 영상부호화에는 적합하지 않다. 따라서 윤곽선을 근사화하여 전송하여야 하며, 윤곽선을 근사화하는 방법중에서 다각형(polygonal) 근사화가 물체별 부호화방법에 가장 적합한 것으로 알려져 있으며, 이러한 다각형 근사화방법은 윤곽선을 다각형으로 근사화하므로 물체모양이 거칠게 표현되며 시각에 부자연스럽다는 단점이 있다. 더구나 종래의 스플라인(spline)을 이용한 윤곽선 부호기는 하나의 B-스플라인 또는 다각형 근사를 고정하여 사용하였기 때문에 화질의 열화가 심하였다.However, in object-oriented coding that performs encoding for each object, the contour information of the image must be sent, so an efficient contour coding method is required. Chain coding is the best known method of encoding an outline. However, chain coding, which is a lossless coding, has a large amount of data and thus is not suitable for ultra low-speed video encoding. Therefore, the contour must be transmitted by approximating the contour. Among the methods of approximating the contour, it is known that the polygon approximation is most suitable for the encoding method for each object. There is a downside to being unnatural. In addition, the conventional outline encoder using a spline has a significant deterioration in image quality because it uses a single B-spline or polygonal approximation.

이에 본 발명은 상기와 같은 종래의 문제점을 해소하기 위하여 안출한 것으로, 영상의 각 특징점(vertex) 사이에 비(B)-스플라인 연결을 1차부터 n차까지 수행한 후 각각의 구해진 비(B)-스플라인과 원 이미지와의 차를 구하여 차가 최소인 차수의 비-스플라인을 해당 특징점에 적용하여 재생된 화질을 개선할 수 있도록 된 적응 비(B)-스플라인을 이용한 윤곽선 부호기를 제공하는 데 그 목적이 있다.Accordingly, the present invention has been made to solve the above-mentioned conventional problems, and after each non-B spline connection is performed from the first to nth order between each feature point (vertex) of the image, each obtained ratio (B) is obtained. To provide a contour encoder using an adaptive non-spline that can obtain the difference between the spline and the original image and improve the reproduced image quality by applying the non-spline with the smallest difference to the corresponding feature points. There is a purpose.

상기와 같은 목적을 달성하기 위한 본 발명의 윤곽선 부호기는 입력영상를 세그먼테이션하는 세그먼테이션부와, 상기 세그먼트된 영상에서 특징점을 추출하는 특징점 추출부, 상기추출된 특징점구간들에 소정 차수까지 다각형 근사를 적용하여 비(B)-스플라인을 구하는 비(B)-스플라인부, 각 특징점 구간별로 상기 적용된 비(B)-스플라인과 입력영상과의 차를 구해 오차를 산출하고, 각 산출된 오차를 비교하여 최소오차를 갖는 비(B)-스플라인을 선택하는 오차 산출/비교부, 및 상기 오차 산출/비교부에서 선택된 비(B)-스플라인을 벡터양자화하여 부화화된 윤곽선 정보를 출력하는 벡터양자화부를 포함하고 있다.The contour encoder of the present invention for achieving the above object is a segmentation unit for segmenting an input image, a feature point extraction unit for extracting a feature point from the segmented image, by applying a polygon approximation to a predetermined order to the extracted feature point intervals A ratio (B) -spline unit for obtaining a ratio (B) -spline, calculates an error by calculating a difference between the applied ratio (B) -spline and an input image for each feature point section, and calculates an error and compares the calculated errors An error calculation / comparison for selecting a ratio (B) -spline having a vector, and a vector quantization unit for outputting hatched contour information by vector quantizing the ratio (B) -spline selected in the error calculation / comparison. .

이와 같이 본 발명에서는 각 특징점 구간별로 오차가 최소인 비(B)-스플라인을 구한 후, 이를 벡터양자화하여 전송하므로써 고정된 비(B)-스플라인을 적용하는 종래방식에 비해 화질을 개선시킬 수 있는 효과가 있다.As described above, the present invention can improve image quality compared to the conventional method of applying a fixed non-B spline by obtaining a non-B spline having a minimum error for each feature point section and transmitting the vector quantized. It works.

이하, 첨부된 도면을 참조하여 본 발명을 자세히 설명하기로 한다.Hereinafter, with reference to the accompanying drawings will be described in detail the present invention.

먼저, 본 발명에 대한 이해를 쉽게하기 위하여 비-스플라인(B-spline)에 대해 간단히 기술한다.First, a brief description of B-spline is provided to facilitate understanding of the present invention.

2차원 공간상의 입력영상에서 물체의 경계선인 윤곽선을 표시함에 있어서, 다각형 근사(polygonal approximation)는 제2도에 도시된 바와 같이 물체의 윤곽선 영상(21)에서 정점(vertex)을 구한 후 상기 정점(vertex)을 기준으로 직선을 그어서(fitting) 윤곽선을 여러 직선으로 표현하는 방법이다. 이때 근사화 정도를 판단하는 기준으로 실제 윤곽선(21)과 근사 폴리곤 사이(22)의 최대거리 dmax(이를 오차라고도 한다)를 사용하며, 이 dmax에 의해서 다각형 근사화의 성능이 좌우된다.In displaying an outline which is a boundary of an object in an input image in two-dimensional space, a polygonal approximation is obtained after obtaining a vertex from the outline image 21 of the object as shown in FIG. It is a method of expressing the outline by several straight lines by fitting a straight line based on the vertex). At this time, the maximum distance d max (also called an error) between the actual contour 21 and the approximate polygon 22 is used as a criterion for determining the degree of approximation, and the performance of the polygon approximation depends on this d max .

즉, 곡선 형태의 윤곽선을 근사화하는데 있어서, 제2도에 도시된 바와 같이 정점(vertex)을 선으로 연결하되 이웃하는 정점을 연결할 수도 있고, 하나 건너 이웃하는 정점을 연결할 수도 있으며, 두개 이상 n개를 건너 이웃하는 정점을 연결할 수도 있다. 이러한 도형에서 다각형 사이로 통과하는 선을 스플라인(spline)이라 하는데, 일반적으로 n개의 이웃하는 윤곽점을 그룹짓고, 그 양끝을 연결하므로써 생기는 보간법적 도형을 컨벡스 헐(convex hull)이라 한다. 그러면, 윤곽선의 곡선은 이 도형안에 존재하게 되는데, n개의 이웃하는 윤곽점을 그룹짓고 그 양끝을 연결하여 얻는 윤곽선 근사를 n차원 B-스플라인(B-spline)이라고 부른다.That is, in approximating a curved outline, as shown in FIG. 2, vertices may be connected by lines, but adjacent vertices may be connected, or neighboring vertices may be connected by one or more, and two or more n may be connected. You can also connect neighboring vertices by crossing. A line passing between polygons in this figure is called a spline. Generally, an interpolation figure formed by grouping n neighboring contour points and connecting both ends thereof is called a convex hull. Then, the curve of the contour exists in this figure. The contour approximation obtained by grouping n neighboring contour points and connecting their ends is called n-dimensional B-spline.

이어서, 본 발명이 적용되는 객체기반 부호화기를 설명한다.Next, an object-based encoder to which the present invention is applied will be described.

본 발명에 적용될 수 있는 객체기반 부호화기는 제1도에 도시된 바와 같이, 입력영상을 소스모델을 참조한 후 분석하여 윤곽선(M: shape, 혹은 contour), 색(S: color), 움직임(A: motion) 파라메터를 추출하는 영상분석부(11)와, 상기 영상분석부(11)에서 추출된 파라메터(M,S,A)들을 수신기 모델을 참조하여 부호화하는 파라메터 부호기(12), 상기 부호화된 파라메터(M,S,A)를 복호하는 파라메터 복호기(13), 상기 복호된 파라메터(M,S,A)를 저장하는 파라메터 메모리(14), 상기 저정된 파라메터(M,S,A)를 입력하여 이전 영상을 합성하는 영상합성기(15)로 구성되어 있다.As shown in FIG. 1, an object-based encoder applicable to the present invention may analyze an input image by referring to a source model and analyze the contour (M: shape, or contour), color (S: color), and motion (A :). motion) an image analyzer 11 for extracting parameters, a parameter encoder 12 for encoding the parameters (M, S, A) extracted by the image analyzer 11 with reference to a receiver model, and the encoded parameters A parameter decoder 13 for decoding (M, S, A), a parameter memory 14 for storing the decoded parameters (M, S, A), and the stored parameters (M, S, A) It consists of an image synthesizer 15 for synthesizing the previous image.

상기와 같이 구성되는 객체지향 부호기(Object-oriented coder)의 기본개념은 움직임이 있는 물체들을 추출하여 각 물체를 나타내는 움직임(A:motion), 윤곽선(M:contour) 그리고 색(S:color) 파라메터로 표현하는 것이다. 시퀀스 영상을 입력으로 받아들인 영상분석(image analysis)에서 각 영상은 움직임이 있는 물체단위로 나누어진다. 각각의 물체 i는 움직임파라메터 Ai, 윤곽파라메터 Mi, 그리고 색파라메터 Si의 실제 파라메터 세트로 표현된다. 이 파라메터들은 사용하는 소스모델(source model)이 2차원이냐, 3차원이냐, 그리고 물체의 성질을 강체(rigid body)로 볼 것이지 아니면 비강체(flexible body)로 볼 것인지에 따라 달라진다. 계산된 파라메터 세트는 파라메터부호기(12)에서 파라메터 부호화되고, 이러한 파라메터 부호화는 가시적인 부호와 오류에 대한 가정을 포함하고 있는 수신기 모델에 의존한다. 부호화된 파라메터들은 수신측으로 보내지며, 파라메터 복호기(13)에서 파라메터 복호화되어 파라메터 메모리(14)에 저장된다. 부호화기와 복호화기의 파라메터 메모리는 같은 파라메터정보를 가짐으로써 부호화기/복호화기에서 동일한 영상을 합성해 낼 수 있다. 디스플레이되는 Ik'는 다음 영상 Ik-1의 부호화/복호화에 사용된다. 전송될 세가지 파라메터(A,M,S)들은 전송 효율을 높이기 위하여 각각 다른 방식으로 부호화될 수 있다. 통상적으로 움직임 파라메터는 DPCM으로, 윤곽선 파라메터는 다각형 표현과 운형(spline)표현의 혼합형태로 부호화된다. 움직임 추정에 의해 예측할 수 없는 물체에 대해서는 움직임 파라메터 대신에 그 물체의 색파라메터를 8비트 PCM으로 보내주기도 한다. 따라서, 세가지 파라메터가 항상 보내지는 것이 아니라 움직임 물체의 특성에 따라 다음 표1에서와 같이 보내진다.The basic concept of the object-oriented coder constructed as described above is to extract the moving objects and represent the motion (A: motion), contour (M: contour) and color (S: color) parameters. To express. In image analysis, which takes a sequence image as an input, each image is divided into moving object units. Each object i is represented by the actual parameter set of the motion parameter Ai, the contour parameter Mi, and the color parameter Si. These parameters depend on whether the source model you are using is two-dimensional or three-dimensional, and whether the properties of the object are to be viewed as rigid or non-rigid bodies. The calculated parameter set is parameter coded in the parameter encoder 12, which parameter coding depends on the receiver model which contains the assumptions about the visible sign and the error. The encoded parameters are sent to the receiving side, and are decoded by the parameter decoder 13 and stored in the parameter memory 14. The parameter memory of the encoder and the decoder can have the same parameter information so that the same image can be synthesized by the encoder / decoder. The displayed I k ′ is used for encoding / decoding of the next image I k-1 . Three parameters A, M, and S to be transmitted may be encoded in different ways to increase transmission efficiency. Typically, motion parameters are coded in DPCM, and contour parameters are encoded in a mixture of polygonal representations and spline representations. For objects that cannot be predicted by motion estimation, the object's color parameters are sent to the 8-bit PCM instead of the motion parameters. Therefore, three parameters are not always sent, but according to the characteristics of the moving object, as shown in Table 1 below.

이러한 객체기반 부호화기술은 일정 크기의 블럭 또는 매크로 블럭 단위로 처리하는 H.261, MPEN-1, MPEG-2등에 비해 물체의 경계가 잘 보존되고 물체 위주의 예측성능이 뛰어난 장점이 있다.This object-based encoding technique has the advantage of better object-preservation and excellent object-oriented prediction performance compared to H.261, MPEN-1, MPEG-2, etc., which process by block or macro block unit of fixed size.

이상에서 설명한 바와 같은 객체지향 부호화기에서 윤곽선 정보를 각 특징점 구간별로 다수 차수의 비-스플라인(B-spline)을 적용하여 부호화하는 발명의 적응 비(B)-스플라인을 이용한 윤곽선 부호기는, 제4도에 도시된 바와 같이 입력영상을 세그먼테이션하는 세그먼테이션부(41)와; 상기 세그먼트된 영상에서 특징점을 추출하는 특징점 추출부(42); 상기 추출된 특징점 구간들에 소정 차수까지 다각형 근사를 적용하여 비(B)-스플라인을 구하는 비(B)-스플라인부(43); 각 특징점 구간별로 상기 적용된 비(B)-스플라인과 입력영상과의 차를 구해 오차를 산출하고, 각 산출된 오차를 비교하여 최소오차를 갖는 비(B)-스플라인을 선택하는 오차 산출/비교부(44); 및 상기 오차 산출/ 비교부(44)에서 선택된 비(B)-스플라인을 벡터양자화하여 부호화된 윤곽선 정보를 출력하는 벡터양자화부(45:VQ)로 구성되어 있다.In the object-oriented encoder as described above, the contour encoder using the adaptive non-spline of the present invention for encoding contour information by applying a plurality of orders of non-splines for each feature point section is shown in FIG. Segmentation unit 41 for segmenting the input image as shown in the; A feature point extractor 42 for extracting feature points from the segmented image; A ratio (B) -spline portion (43) for obtaining a ratio (B) -spline by applying a polygonal approximation to the extracted feature point intervals up to a predetermined order; Error calculation is performed by calculating the difference between the applied ratio (B) spline and the input image for each feature point section, and selecting the ratio (B) spline having the minimum error by comparing the calculated errors. (44); And a vector quantizer 45 (VQ) for outputting encoded contour information by vector quantizing the ratio (B) -spline selected by the error calculator / comparator 44.

이어서, 각 구성 블럭별로 동작을 자세히 설명하기로 한다.Next, the operation of each component block will be described in detail.

본 발명의 세그먼 테이션부(41)는 입력영상신호를 분할하는데, 영상을 분할하는 방법에는 크게 영역기반분할, 경계기반분할 그리고 히스트그램을 이용하는 분할 등이 있다. 영역기반분할의 대표적인 방법으로 분할-합병(split-and-merge)방법은 영상을 작은 단위로 나눈 다음 이웃 화소와의 유사성을 비교하여 동일한 영역으로 판단되면 합하고, 서로 다른 성질의 영역이면 분리하는 과정을 반복하고, 경계선 추적에 의한 방법은 입력영상에서 각 화소의 기울기값 및 방향정보를 이용하여 물체의 경계선을 순차적으로 따라가는 방법이다.The segmentation unit 41 of the present invention divides an input image signal. The segmentation unit 41 includes a region-based segmentation, a boundary-based segmentation, and a segmentation using a histogram. As a representative method of region-based segmentation, the split-and-merge method divides an image into small units and compares the similarities with neighboring pixels, sums them when they are determined to be the same area, and separates them if they are areas of different properties. The method of repeating and tracking the boundary line is a method of sequentially following the boundary line of the object using the slope value and the direction information of each pixel in the input image.

특징점추출부(42)는 세그먼테이션된 영상에서 특징점(vertex)을 추출하는데 제2도에 도시된 영상에서는 7개의 특징점(V1∼V7)이 있는 것을 알 수 있고, 비(B)-스플라인부(43)는 특징점 추출부(42)에서 추출된 특징점 구간들에 일차에서 부터 n차까지의 B-스플라인을 각각 적용하고, 오차 산출/비교부(44)는 제3도에 도시된 바와 같은 비-스플라인의 오차를 각 구간별로 구한 후 서로 비교하여 오차가 최소인 비-스플라인을 선택한다.The feature point extractor 42 extracts a feature point from the segmented image, and it can be seen that there are seven feature points V1 to V7 in the image shown in FIG. ) Apply B-splines from the first to the nth order to the feature point intervals extracted by the feature point extractor 42, and the error calculation / comparator 44 is a non-spline as shown in FIG. After calculating the error of each interval, compare with each other to select the non-spline with the minimum error.

예컨데, 제2도에서와 같이 특징점이 7개(V1∼V7)이고, 제5차까지 비-스플라인(B-spline)을 적용할 경우에 각 구간별(본 발명의 실시 예에서는 6개의 구간)로 비-스플라인이 선택된 예를 테이블로 나타내면 다음 표2와 같다.For example, as shown in FIG. 2, seven feature points (V1 to V7) are used for each section when the non-spline (B-spline) is applied to the fifth order (six sections in the embodiment of the present invention). Table 2 shows an example in which a low non-spline is selected.

상기 표2에서와 같이 제2도의 영상을 비-스플라인 부호화할 경우 제1구간(V1-V2)에서 3차 비(B)-스플라인을 적용하고, 제2구간(V2-V3)에서는 2차 비(B)-스플라인을 적용하고, 마찬가지로 제3구간은 3차, 제4구간은 3차, 제5구간은 1차, 제6구간은 4차 비(B)-스플라인을 적용한다.As shown in Table 2, when non-spline encoding the image of FIG. 2, the third-order ratio (B) -spline is applied in the first section (V1-V2) and the second-order ratio in the second section (V2-V3). The (B) -spline is applied, and similarly, the third section is the third order, the fourth section is the third order, the fifth section is the first order, and the sixth section is the fourth order (B) -spline.

본 발명에 따른 벡터양자화부(45)는 오차 산출/비교부(44)에 의해 최소오차를 갖는 비(B)-스플라인이 선택되면 이를 벡터양자화하여 윤곽선정보를 전송한다. 이러한 베터양자화는 널리 알려진 바와 같이 k-차원 유클리드(Euclidean) 공간 R 로 부터 R 의 유한 부집합 (flinte subset)으로 매핑(mpping)으로서, 유한 집합 Y를 벡터 양자화부의 코드북 또는 코드테이블이라 하고 R 에 속하는 각각의 입력데이타 X에 하나의 인덱스를 부여하는 부호기와 전송의 인덱스를 Y에 속하는 코드벡터로 매핑시켜 주는 디코더에 의해 구현될 수 있다.The vector quantization unit 45 according to the present invention transmits the contour information by vector quantization when the non-B spline having the minimum error is selected by the error calculation / comparison unit 44. Such beter quantization is widely known as the k-dimensional Euclidean space R. From R A mapping to a finite subset of, where finite set Y is called the codebook or codetable of the vector quantizer and It can be implemented by an encoder that gives one index to each input data X belonging to and a decoder that maps the index of transmission to a code vector belonging to Y.

이상에서 살펴본 바와 같이 본 발명에서는 각 특징점 구간별로 오차가 최소인 비(B)-스플라인을 구한 후, 이를 벡터양자화하여 전송하므로써 고정된 비(B)-스플라인을 적용하는 종래방식에 비해 화질을 개선시킬 수 있는 효과가 있다.As described above, the present invention improves image quality compared to the conventional method of applying a fixed non-B spline by obtaining a non-B spline having a minimum error for each feature point section and transmitting the vector quantized. It can be effected.

Claims (1)

입력영상을 세그먼테이션하는 세그먼테이션부(41)와; 상기 세그먼트된 영상에서 특징점을 추출하는 특징점 추출부(42); 상기 추출된 특징점 구간들에 소정 차수까지 다각형 근사를 적용하여 비(B)-스플라인을 구하는 비(B)-스플라인부(43); 각 특징점 구간별로 상기 적용된 비(B)-스플라인과 입력영상과의 차를 구해 오차를 산출하고, 각 산출된 오차를 비교하여 최소오차를 갖는 비(B)-스플라인을 선택하는 오차 산출/비교부(44); 및 상기 오차 산출/비교부(44)에서 선택된 비(B)-스플라인을 벡터양자화하여 부호화된 윤곽선 정보를 출력하는 벡터양자화부(45:VQ)로 구성되는 윤곽선 부호기.A segmentation unit 41 for segmenting the input image; A feature point extractor 42 for extracting feature points from the segmented image; A ratio (B) -spline portion (43) for obtaining a ratio (B) -spline by applying a polygonal approximation to the extracted feature point intervals up to a predetermined order; Error calculation is performed by calculating the difference between the applied ratio (B) spline and the input image for each feature point section, and selecting the ratio (B) spline having the minimum error by comparing the calculated errors. (44); And a vector quantizer (V: VQ) for outputting encoded contour information by vector quantizing a ratio (B) -spline selected by the error calculation / comparison unit (44).
KR1019950010423A 1995-04-29 1995-04-29 Contour encoder Expired - Fee Related KR100192780B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019950010423A KR100192780B1 (en) 1995-04-29 1995-04-29 Contour encoder

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019950010423A KR100192780B1 (en) 1995-04-29 1995-04-29 Contour encoder

Publications (2)

Publication Number Publication Date
KR960039988A KR960039988A (en) 1996-11-25
KR100192780B1 true KR100192780B1 (en) 1999-06-15

Family

ID=19413325

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019950010423A Expired - Fee Related KR100192780B1 (en) 1995-04-29 1995-04-29 Contour encoder

Country Status (1)

Country Link
KR (1) KR100192780B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101588780B1 (en) * 2014-09-02 2016-01-26 재단법인 실감교류인체감응솔루션연구단 Method, appratus and computer-readable recording medium for detecting boundary of object in depth image

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006010610A1 (en) * 2006-03-06 2007-09-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Imprinting watermarks into a model of a line-like or area-like shape

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101588780B1 (en) * 2014-09-02 2016-01-26 재단법인 실감교류인체감응솔루션연구단 Method, appratus and computer-readable recording medium for detecting boundary of object in depth image

Also Published As

Publication number Publication date
KR960039988A (en) 1996-11-25

Similar Documents

Publication Publication Date Title
US5608458A (en) Method and apparatus for a region-based approach to coding a sequence of video images
O'Connell Object-adaptive vertex-based shape coding method
US10547852B2 (en) Shape-adaptive model-based codec for lossy and lossless compression of images
US5946419A (en) Separate shape and texture coding of transparency data for video coding applications
US6879633B2 (en) Method and apparatus for efficient video processing
EP0801504A2 (en) Method for encoding a contour of an object in a video signal by using a contour motion estimation technique
EP1629436B1 (en) Overcomplete basis transform-based motion residual frame coding method and apparatus for video compression
JP2011055536A (en) Method and device for representing motion in sequence of digitized image
Barthel et al. Three-dimensional fractal video coding
KR100314098B1 (en) An interpolation method of binary shape data using an adaptive threshold by neighboring pixel values
US5881183A (en) Method and device for encoding object contour by using centroid
Freitas et al. Lossy point cloud geometry compression via dyadic decomposition
KR100192780B1 (en) Contour encoder
KR19980073964A (en) Contour Matched Motion Vector Estimation Method for Shape Information Coding of Image Signal
Cosman et al. Combining vector quantization and histogram equalization
KR100412176B1 (en) Document segmentation compression, reconstruction system and method
KR100195700B1 (en) Feature point extraction method of contour encoder and its device
Yokoyama et al. Very low bit-rate video coding with object-based motion compensation and orthogonal transform
Chang et al. Quadtree-segmented image compression method using vector quantization and cubic B-spline interpolation
Yang et al. CC-SMC: Chain coding-based segmentation map lossless compression
da Silva et al. A lossless compression approach for mammographic digital images based on the Delaunay triangulation
Torres et al. Segmentation based coding of textures using stochastic vector quantization
Wang et al. Three novel lossless image compression schemes for medical image archiving and telemedicine
Franich et al. Fractal coding in an object-based system
KR100397083B1 (en) Progressive encoding method for binary voxel model using pyramidal decomposition

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

R17-X000 Change to representative recorded

St.27 status event code: A-3-3-R10-R17-oth-X000

R17-X000 Change to representative recorded

St.27 status event code: A-3-3-R10-R17-oth-X000

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 4

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R11-asn-PN2301

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R11-asn-PN2301

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R14-asn-PN2301

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 5

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 6

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 7

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 8

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 9

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 10

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 11

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 12

FPAY Annual fee payment

Payment date: 20110103

Year of fee payment: 13

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 13

LAPS Lapse due to unpaid annual fee
PC1903 Unpaid annual fee

St.27 status event code: A-4-4-U10-U13-oth-PC1903

Not in force date: 20120130

Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

PC1903 Unpaid annual fee

St.27 status event code: N-4-6-H10-H13-oth-PC1903

Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

Not in force date: 20120130

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000