[go: up one dir, main page]

KR101096540B1 - 피치 검색을 위한 방법 및 장치 - Google Patents

피치 검색을 위한 방법 및 장치 Download PDF

Info

Publication number
KR101096540B1
KR101096540B1 KR1020090133568A KR20090133568A KR101096540B1 KR 101096540 B1 KR101096540 B1 KR 101096540B1 KR 1020090133568 A KR1020090133568 A KR 1020090133568A KR 20090133568 A KR20090133568 A KR 20090133568A KR 101096540 B1 KR101096540 B1 KR 101096540B1
Authority
KR
South Korea
Prior art keywords
pitch
signal
target window
characteristic function
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020090133568A
Other languages
English (en)
Other versions
KR20100080457A (ko
Inventor
데준 장
지안펭 수
레이 미아오
펭얀 키
킹 장
리숑 리
푸웨이 마
양 가오
Original Assignee
후아웨이 테크놀러지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 후아웨이 테크놀러지 컴퍼니 리미티드 filed Critical 후아웨이 테크놀러지 컴퍼니 리미티드
Publication of KR20100080457A publication Critical patent/KR20100080457A/ko
Application granted granted Critical
Publication of KR101096540B1 publication Critical patent/KR101096540B1/ko
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/90Pitch determination of speech signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/09Long term prediction, i.e. removing periodical redundancies, e.g. by using adaptive codebook or pitch predictor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/06Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being correlation coefficients

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Complex Calculations (AREA)
  • Measuring Frequencies, Analyzing Spectra (AREA)

Abstract

본 발명은 피치 검사를 위한 방법 및 장치에 관한 것이다. 하나의 방법은 입력 음성 신호로부터 LTP(Long-Term Prediction) 기여 신호(contribution signal)를 제거한 결과인 잔여 신호의 특성 함수값을 획득하는 단계; 및 상기 잔여 신호의 특성 함수값에 따라 피치를 획득하는 단계를 포함한다.

Description

피치 검색을 위한 방법 및 장치{METHOD AND APPARATUS FOR PITCH SEARCH}
본 발명은 음성 코딩 및 디코딩에 관한 것이며, 특히 피치 검색을 위한 방법 및 장치에 관한 것이다.
일반적으로, 음성 및 오디오 신호는 어느 정도 주기적이다. 음성 및 오디오 신호의 장기간 주기성(long-term periodicity)은 LTP(Long Term Prediction; LTP) 방식을 통해 제거될 수 있다. LTP 예측 이전에, 피치(pitch)가 먼저 검색되어야만 한다. 피치 검색에 대한 종래의 방법은 자동상관 기능을 기초로 수행된다. MPEG ALS(Moving Pictures Experts Group Audio Lossless Coding) 장치에서는, 버퍼 상의 이력 데이터(history data)를 여기 신호(excitation signals)로서 사용하여 현재 프레임의 신호를 예측한다. 개방형 루프 피치 분석을 일례로 취하여, 방법에 대해 후술한다.
먼저, 원음 신호를 지각 가중 필터(perceptual weighting filter)에 입력하여 가중된 음성 신호 Sw(n)를 획득한다. 지각 가중 필터 함수의 표현은
Figure 112009081460697-pat00001
이고, 여기서
Figure 112009081460697-pat00002
이고, β1 = 0.68이다. 각각의 서브프레임에 있어서, 서브프레임 길이(L)은 64이고, 가중된 음성 신호 Sw(n)은:
Figure 112009081460697-pat00003
여기서, s(n)은 원음 신호이고; ai는 LP 계수이며;
Figure 112009081460697-pat00004
는 지각 가중 요인이다.
4차 유한 임펄스 응답(FIR) 필터 Hdecim2(z)는 가중된 음성 신호 상에서 다운-샘플링을 수행하여 Swd(n)을 획득하고; 가중된 상관 함수는 다음과 같다:
Figure 112009081460697-pat00005
획득된 피치는 C(d)를 최대화하는 피치 지연 d이고, 여기서 w(d)는 수학식(3)에 나타난 바와 같이, 저-지연 가중 함수 wl(d) 및 이전-프레임 지연 가중 함수 wn(d)를 포함하는 가중 함수이다:
w(d) = wl(d)wn(d)
저-지연 가중 함수 wl(d)의 표현은 다음과 같다:
wl(d) = cw(d)
여기서, cw(d)는 프로그램의 탭 파일(tab file)에 존재하고, 이전-프레임 지연 가중 함수 wn(d)는 이전 프레임의 피치 지연에 의존하며, 이전-프레임 지연 가중 함수 wn(d)의 표현은 다음과 같다:
Figure 112009081460697-pat00006
여기서, Told는 제1의 5 프레임에서 피치 지연의 평균이며, v는 적응 요인(adaptive factor)이다. 개방 루프 피치 이득(g)이 0.6보다 크면, 프레임은 유성음 프레임(voiced frame)으로서 간주되며, 다음 프레임에 대한 "v"는 1에 설정되고, v=0.9v이다. 개방 루프 피치 이득(g)
Figure 112009081460697-pat00007
피치 지연은 C(d)를 최대화하는 것이다. 중간 값 필터는 유성음 프레임에서 갱신된다. 이전 프레임이 유성음 또는 무성음을 포함하는 경우, 가중 함수는 파라미터 "v"에 의해 감쇄된다.
전술한 바와 같이, 종래 기술에서는, 장기간 주기성을 해결하기 위해, 자동상관 함수가 하나의 프레임에서 입력 음성 신호에 대해 계산되어 피치를 얻는다.
본 발명의 일부의 실시예는 전체 프레임에서 입력 음성 신호의 상관 함수값을 계산하지 않고 피치 검색을 위한 방법 및 장치를 제공한다.
피치 검색 방법은,
입력 음성 신호로부터 LTP(Long-Term Prediction) 기여 신호(contribution signal)를 제거한 결과인 잔여 신호의 특성 함수값을 획득하는 단계; 및
상기 잔여 신호의 특성 함수값에 따라 피치를 획득하는 단계
를 포함한다.
다른 피치 검색 방법은,
입력 음성 신호에서 최대값을 갖는 펄스를 검색하는 단계;
상기 펄스의 위치에 따라 상기 입력 음성 신호의 타겟 윈도우를 설정하는 단계;
상기 타겟 윈도우를 슬라이딩시켜 복수의 슬라이딩 윈도우를 획득하고, 각각의 슬라이딩 윈도우 및 상기 타겟 윈도우에서의 상기 입력 음성 신호의 상관 계수를 계산하며, 상기 상관 계수들 중 최대값을 획득하는 단계; 및
상기 최대값에 따라 피치를 획득하는 단계
를 포함한다.
피치 검색 장치는,
잔여 신호의 특성 함수값을 획득하도록 구성된 특성값 획득 모듈로서, 상기 잔여 신호는 입력 음성 신호로부터 LTP 기여 신호를 제거한 결과인, 상기 특성값 획득 모듈; 및
상기 잔여 신호의 특성 함수값에 따라 피치를 획득하도록 구성된 피치 획득 모듈
을 포함한다.
다른 피치 검색 장치는,
상기 입력 음성 신호에서 최대 진폭을 갖는 펄스를 검색하도록 구성된 검색 모듈;
최대 진폭을 갖는 펄스의 위치에 따라 상기 입력 음성 신호에 대한 타겟 윈도우를 설정하도록 구성된 타겟 윈도우 모듈;
타겟 윈도우를 슬라이딩하고 각각의 슬라이딩 윈도우 및 상기 타겟 윈도우에서의 입력 음성 신호의 상관 계수를 계산하며, 상기 상관 계수들 중 최대값을 획득하도록 구성된 계산 모듈; 및
상기 최대값에 따라 피치를 획득하도록 구성된 피치 획득 모듈
을 포함한다.
본 발명의 실시예에서 피치 검색을 위한 방법 및 장치에 따르면, 잔여 신호의 특성 함수값이 획득되고, 피치는 잔연 신호의 특성 함수값에 따라 얻어지며, 전체 프레임에서 입력 음성 신호의 상관 함수값을 계산할 필요가 없다.
이하, 첨부된 도면 및 예시적 실시예를 참조하여 본 발명에 대해 설명한다.
도 1은 본 발명의 일실시예에 따른 피치 검색을 위한 방법에 대한 흐름도이다. 방법은 이하의 단계를 포함한다:
단계 101: 잔여 신호의 특성 함수값을 획득하며, 상기 잔여 신호는 입력 음성 신호로부터의 LTP 기여 신호(contribution signal)를 제거한 결과이다.
단계 102: 잔여 신호의 특성 함수값에 따라 피치를 획득한다.
본 실시예에 따른 방법에서는, 잔여 신호의 특성 함수값을 획득하고, 잔여 신호의 특성 함수값에 따라 피치를 획득하되, 전체 프레임에서 입력 음성의 상관 함수값을 계산하지 않는다.
도 2는 본 발명의 다른 실시예에 따른 피치 검색을 위한 방법에 대한 흐름도이다. 방법은 이하의 단계를 포함한다:
단계 201: 입력 음성 신호를 처리한다.
프로세스는 저대역 필터링 또는 다운-샘플링일 수 있거나, 또는 다운-샘플링 프로세스가 뒤이어지는 저대역 필터링 프로세스일 수 있다. 일실시예에서, 저대역 필터링은 평균값 필터링일 수 있다. PCM(Pulsed Coded Modulation) 신호를 일례로 하면, y(n)은 입력 음성 신호를 나타내고, 입력 음성 신호의 프레임 길이 L은 160이며(즉, 하나의 프레임은 160 샘플을 포함한다); y2(n)은 다운-샘플링된 것을 나타내며, 이하 다운-샘플링된 신호로서 언급한다. 본 실시예에서 2에 의한 다운-샘플링을 일례로 하면, 이하의 식이 적용된다:
Figure 112009081460697-pat00008
여기서, M은 평균 필터의 차수이며, y2(n)의 샘플 범위(sample range)는 [0, 79]이다.
이 단계는 선택 사항이다. 프로세스는 단계 202가 수행되기 전에 생략될 수 있다.
단계 202: 최대 진폭을 갖는 펄스에 대한 입력 음선 신호를 검색한다.
펄스는 전체 프레임 내에서 검색될 수 있거나, 한 프레임의 세트 범위 내에서 검색될 수 있다. 한 프레임의 세트 범위 내에서 펄스에 대해 검색하는 것을 일례로 하면, 프로세스는 이하와 같다:
먼저, 입력 음성 신호 y(n)에 있어서, 그 피치 범위는 프레임 길이에 따라 사전 설정된다. 피치 범위는 프레임 길이를 참조하여 설정되고, 피치는 너무 높지 않아야 한다. 피치가 너무 높으면, 한 프레임의 신호에서의 극소수의 샘플이 LTP 계산에 포함되고, LTP 성능은 저하된다. 예를 들어, 프레임 길이 L이 160과 같다면, y(n)의 피치 범위는 [20, 83]에 설정될 수 있다. 일실시예에 따르면, 2에 의한 다운-샘플링이 단계 202에 적용된다. 다운-샘플링된 신호 y2(n)의 피치 범위는 [10, 41]이며, 즉 [PMIN, PMAX]이고, 여기서 PMIN=10이고, PMAX=41이다. 피치가 최대일 때 피치가 발견될 수 있도록 하기 위해, 검색되는 펄스의 샘플 범위를 [41, 79]로 설정할 수 있다.
그 후, 샘플 범위 [41, 79] 내에서, y2(n)에서의 최대 진폭을 갖는 펄스가 발견된다. p0가 최대 진폭에 대응하는 샘플(41≤p0≤79)인 것으로 가정하면, 이하의 부등식이 적용된다:
Figure 112009081460697-pat00009
본 실시예에서, y2(n)의 진폭은 실수일 수 있으며, y2(n)의 진폭값이 y2(n)의 절대값이고, 비음수(non-negative number)이다.
단계 203: 입력 음성 신호의 최대 진폭을 갖는 펄스 p0의 위치에 대응하는 타겟 윈도우(target window)를 설정한다.
구체적으로, 타겟 윈도우는 펄스 p0의 근방에서 부가되어 신호의 일부를 선택하고, 이 타겟 윈도우는 펄스 p0를 커버한다. 타겟 윈도우의 범위는 [smin, smax]이고, 타겟 윈도우 길이는 len=smax-smin이다. "len"의 길이는 [1, L]이다. 즉, 타겟 윈도우는 프레임의 모든 신호를 커버할 수 있다.
예를 들어, smin=s_max(p0-d,41), smax=s_min(p0+d,79)이며, 여기서 d는 타겟 윈도우의 길이를 제한하는 데 사용된다. 본 실시예에서, d=15이다. s_max(p0-d,41)은 p0-3와 41 사이에서 더 큰 값을 획득하는 것을 말한다. s_min(p0-d,79)은 p0+d와 79 사이에서 더 작은 값을 획득하는 것을 말한다.
단계 204: 사전 설정된 피치 범위에서 각각의 피치에 대응하는 입력 음성 신호의 잔여 신호(즉, 본 실시예에서 다운-샘플링된 신호)를 계산하고, 잔여 신호는 입력 음성 신호에서 LTP 기여 신호를 제거하는 결과이고, LTP 기여 신호 xk(i)는 LTP 여기 신호에 따라 결정되며, 피치 이득은 다음과 같다:
Figure 112009081460697-pat00010
여기서, k는 피치를 나타내고, g는 피치 이득을 나타낸다. g는 고정된 경험값일 수 있거나, 사전 설정된 피치 범위 내의 피치에 따라 적응해서 결정된 값일 수 있다. 즉, 상이한 피치(k)는 동일한 g를 가질 수 있다. 대안으로, 피치 k와 피치 이득 g 사이의 맵핑의 테이블은 사전 설정될 수 있으며, 여기서 g는 k에 따라 변한다.
단계 205: 각각의 피치에 대응하는 잔여 신호의 에너지를 계산한다.
Figure 112009081460697-pat00011
여기서, [k1, k2]는 피치 범위를 나타낸다. 일실시예에서, k1=10; k2=41이고, Ek(i)는 k에 대응하는 잔여 신호의 에너지를 나타낸다.
단계 206: 계산된 잔여 신호 에너지 값 중에서 최소값 E(P)를 선택하고, E(P)는 범위 [k1, k2] 내에서 피치 P에 대응하는 다운-샘플링된 신호 y2(n)의 최소 의 잔여 신호 에너지이다.
단계 207: y(n)에 대한 피치를 획득하고, 이 피치는 2P인데, 왜냐하면 y2(n)은 2에 의한 다운-샘플링을 통해 y(n)으로부터 획득되기 때문이다.
또한, 피치를 이중 피치로 오해하는 것을 피하기 위해, 본 실시예에 따른 방법은 피치 2P를 획득한 후 이하의 프로세스를 더 포함할 수 있다.
음성 신호 도메인에서, 그 획득된 피치에 대응하는 상관 함수를 계산하고, 이중 피치의 상관 함수를 계산한다.
이 단계에서는, 2P nor_cor[2P]의 상관 함수 및 2P의 상관 함수, 즉 nor_cor[P]가 다음 식에 따라 계산된다:
Figure 112009081460697-pat00012
상관 함수의 그 계산된 최대값에 대응하는 피치는 최종 피치로서 간주된다. 즉, nor_cor[2P]의 값은 nor_cor[P]의 값과 비교된다. nor_cor[2P] > nor_cor[P]이면, 2P는 음성 신호의 최종 피치로서 사용된다. nor_cor[2P] ≤ nor_cor[P]이면, P는 음성 신호의 최종 피치로서 사용된다.
본 발명은 타겟 윈도우를 설정하고 하나의 프레임에서 잔여 신호의 에너지를 계산하되, 그 전체 프레임에서 신호들의 상관 함수값들을 계산하지 않으며, 이에 따라, 피치 검색을 크게 간략화할 수 있고, 또한, 본 실시예에서는, 피치의 상관 함수와 이중 피치의 상관 함수를 비교함으로써, 피치를 이중 피치로 오해하는 것을 피하고 피치 검색의 정확성을 보장한다.
도 3은 본 발명의 또 다른 실시예에 따른 피치 검색의 방법에 대한 흐름도이다. 본 실시예는, 제2 실시예에서의 단계 205 및 단계 206이 단계 305 및 단계 306으로 대치되어 있다는 점이 다르며, 후술되는 바와 같이, 본 실시예에서의 잔여 신호의 특성 함수값이 잔여 신호들의 절대값들의 합인 점이 다르다:
단계 305: 피치 범위 내에서 피치들에 대응하는 다운-샘플링된 신호들에 대한 잔여 신호들의 절대값들의 합을 계산한다:
Figure 112009081460697-pat00013
여기서, E(k)는 k에 대응하는 잔연 신호들의 절대값들의 합이다.
단계 306: 잔여 신호들의 절대값들의 계산된 합들에서, 범위 [k1, k2] 내에서 피치 P에 대응하는 다운-샘플링된 신호들의 잔여 신호들의 절대값들 중 최소값 E(P)를 선택한다.
본 실시예는 하나의 프레임에서 신호들의 잔여 신호들의 절대값들의 합을 계산하기 위해 타겟 윈도우를 설정하고, 그 전체 프레임 내의 신호들의 상관 함수값을 계산하지 않으므로, 피치 검색을 크게 간략화할 수 있다.
제2 실시예 및 제3 실시예는, 하나의 프레임 내의 신호들의 이전 부분을 사 용하여 그 프레임 내의 신호들의 최종 부분을 예측하는 시나리오에 적용 가능하다. 본 발명은 이 시나리오에 제한되지 않으며, 이전 프레임의 신호들을 사용하여 현재 프레임의 신호들을 예측하는 시나리오에도 적용 가능하다. 이 시나리오에서는, 전체 프레임의 잔연 신호들의 특성 함수값이 먼저 획득될 수 있고, 그런 다음 그 전체 프레임의 잔여 신호들의 특성 함수값들에 따라 피치를 획득한다.
도 4는 본 발명의 또 다른 실시예에 따른 피치 검색을 위한 방법에 대한 흐름도이다. 방법은 이하의 단계를 포함한다:
단계 401: 상기 입력 음성 신호에서 최대 진폭을 갖는 펄스를 검색한다.
단계 402: 최대 진폭을 갖는 펄스의 위치에 따라 입력 음성 신호에 대한 타겟 윈도우를 설정한다.
단계 403: 타겟 윈도우를 슬라이딩하여 복수의 슬라이딩 윈도우를 획득하고, 각각의 슬라이딩 윈도우 및 상기 타겟 윈도우에서의 입력 음성 신호의 상관 계수를 계산하며, 상관 계수들 중 최대값을 획득한다.
단계 404: 상관 계수들의 최대값에 따라 피치를 획득한다.
본 실시예는 타겟 윈도우를 설정하고, 타겟 윈도우를 슬라이딩하며, 각각의 슬라이딩 윈도우 및 타겟 윈도우에서의 신호들의 상관 계수를 계산하고, 상관 계수들의 최대값을 획득하고, 상관 계수들의 최대값에 따라 피치를 획득하되, 그 전체 프레임 내에서 입력 음성 신호들의 상관 함수값들을 계산하지 않으며, 이에 따라 피치 검색을 크게 간략화할 수 있다.
도 5는 본 발명의 또 다른 실시예에 따른 피치 검색을 위한 방법에 대한 흐 름도이다. 방법은 이하의 단계를 포함한다:
단계 501: 입력 음성 신호를 처리한다.
또한, 프로세스는 저대역 필터링 또는 다운-샘플링일 수 있으며, 또는 다운-샘플링 프로세스가 뒤따르는 저대역 필터링 프로세스일 수 있다. 구체적으로, 저대역 필터링은 평균값 필터링일 수 있다. PCM 신호를 일례로 하면, y(n)은 입력 음성 신호를 나타내고, 입력 음성 신호의 프레임 길이 L은 160이며(즉, 하나의 프레임은 160 샘플을 포함한다); y2(n)은 다운-샘플링된 입력 음성 신호를 나타내며, 이하 다운-샘플링된 신호로서 언급한다. 본 실시예에서 2에 의한 다운-샘플링을 일례로 하면, 이하의 식이 적용된다:
Figure 112009081460697-pat00014
여기서, M은 평균 필터의 차수이고, y2(n)의 샘플 범위(sample range)는 [0, 79]이다.
이 단계는 선택 사항이다. 프로세스는 단계 502가 수행되기 전에 생략될 수 있다.
단계 502: 최대 진폭을 갖는 펄스에 대한 입력 음선 신호를 검색한다.
펄스는 전체 프레임 내에서 검색될 수 있거나, 한 프레임의 세트 범위 내에서 검색될 수 있다. 한 프레임의 세트 범위 내에서 펄스를 검색하는 것을 일례로 하면, 프로세스는 이하와 같다:
먼저, 입력 음성 신호 y(n)에 있어서, 그 피치 범위는 프레임 길이에 따라 사전 설정된다. 피치 범위는 프레임 길이를 참조하여 설정되고, 피치는 너무 높지 않아야 한다. 피치가 너무 높으면, 한 프레임의 신호에서의 극소수의 샘플이 LTP 계산에 포함되고, LTP 성능은 저하된다. 예를 들어, 프레임 길이 L이 160과 같다면, y(n)의 피치 범위는 [20, 83]에 설정될 수 있다. 일실시예에 따르면, 2에 의한 다운-샘플링이 단계 502에 적용된다. 다운-샘플링된 신호 y2(n)의 피치 범위는 [10, 41]이며, 즉 [PMIN, PMAX]이고, 여기서 PMIN=10이고, PMAX=41이다. 피치가 최대일 때 피치가 발견될 수 있도록 하기 위해, 검색되는 펄스의 샘플 범위를 [41, 79]로 설정할 수 있다.
그 후, 샘플 범위 [41, 79] 내에서, y2(n)에서의 최대 진폭을 갖는 펄스가 발견된다. p0가 최대 진폭에 대응하는 샘플(41≤p0≤79)인 것으로 가정하면, 이하의 부등식이 적용된다:
Figure 112009081460697-pat00015
본 실시예에서, y2(n)의 진폭은 실수일 수 있으며, y2(n)의 진폭값이 y2(n)의 절대값이고, 비음수(non-negative number)이다.
단계 503: 입력 음성 신호의 최대 진폭을 갖는 펄스 p0의 위치에 대응하는 입력 음성 신호에 대해 타겟 윈도우(target window)를 설정한다.
구체적으로, 타겟 윈도우는 펄스 p0의 근방에서 부가되어 신호의 일부를 선 택하고, 이 타겟 윈도우는 펄스 p0를 커버한다. 타겟 윈도우의 범위는 [smin, smax]이고, 타겟 윈도우 길이는 len=smax-smin이다. "len"의 길이는 [1, L]이다. 즉, 타겟 윈도우는 프레임의 모든 신호를 커버할 수 있다.
예를 들어, smin=s_max(p0-d,41), smax=s_min(p0+d,79)이며, 여기서 d는 타겟 윈도우의 길이를 제한하는 데 사용된다. 본 실시예에서, d=15이다. s_max(p0-d,41)은 p0-3와 41 사이에서 더 큰 값을 획득하는 것을 말한다. s_min(p0-d,79)은 p0+d와 79 사이에서 더 작은 값을 획득하는 것을 말한다.
단계 504: 타겟 윈도우를 슬라이딩하여 복수의 슬라이딩 윈도우를 획득하고, 각각의 슬라이딩 윈도우 및 타겟 윈도우 내에서 신호들의 상관 계수를 계산한다.
Figure 112009081460697-pat00016
여기서, k는 피치를 나타내고, [k1, k2]는 피치 범위를 나타낸다. 일실시예에서, k1=10; k2=41이고; corr[k]는 k에 대응하는 상관 계수를 나타낸다.
단계 505: 계산된 상관 계수 중에서 최대 상관 계수 corr[P]를 선택하고, corr[P]는 범위 [k1, k2] 내에서 피치 P에 대응하는 다운-샘플링된 신호의 최대 상관 계수이다.
단계 506: y(n)에 대한 피치를 획득하고, 이 피치는 2P인데, 왜냐하면 y2(n)은 2에 의한 다운-샘플링을 통해 y(n)으로부터 획득되기 때문이다.
또한, 피치를 이중 피치로 오해하는 것을 피하기 위해, 본 실시예에 따른 방법은 피치 2P를 획득한 후 이하의 프로세스를 더 포함할 수 있다.
음성 신호 도메인에서, 그 획득된 피치에 대응하는 상관 함수를 계산하고, 그 획득된 피치의 이중 주파수의 상관 함수를 계산한다. 이 단계에서는, 2P nor_cor[2P]의 상관 함수 및 2P의 이중 주파수 (P)의 상관 함수, 즉 nor_cor[P]가 다음 식에 따라 계산된다:
Figure 112009081460697-pat00017
상관 함수의 그 계산된 최대값에 대응하는 피치는 최종 피치로서 사용된다. 즉, nor_cor[2P]의 값은 nor_cor[P]의 값과 비교된다. nor_cor[2P] > nor_cor[P]이면, 2P는 음성 신호의 최종 피치로서 사용된다. nor_cor[2P] ≤ nor_cor[P]이면, P는 음성 신호의 최종 피치로서 사용된다.
본 발명은 타겟 윈도우를 설정하고, 타겟 윈도우를 슬라이딩하며, 각각의 슬라이딩 윈도우 및 타겟 윈도우에서의 신호들의 상관 계수를 계산하며, 그 상관 계수들의 최대값에 따라 피치를 획득하되, 그 전체 프레임에서 신호들의 상관 함수값들을 계산하지 않으며, 이에 따라, 피치 검색을 크게 간략화할 수 있고, 또한, 본 실시예에서는, 피치의 상관 함수와 이중 피치의 상관 함수를 비교함으로써, 피치를 이중 피치로 오해하는 것을 피하고 피치 검색의 정확성을 보장한다.
도 6은 본 발명의 일실시예에 따른 피치 검색을 위한 장치에 대한 개략도를 도시한다. 장치는 잔여 신호의 특성 함수값을 획득하도록 구성된 특성값 획득 모듈(11)을 포함하고, 상기 잔여 신호는 입력 음성 신호로부터 LTP 기여 신호를 제거하는 결과이며, 장치는 또한 잔여 신호의 특성 함수값에 따라 피치를 획득하도록 구성된 피치 획득 모듈(12)을 포함한다.
구체적으로, 특성값 획득 모듈(11)은 전체 프레임의 잔여 신호들의 특성 함수값들을 계산할 수 있다. 특성 함수값 획득 모듈(11)은 타겟 윈도우 유닛(13) 및 특성값 획득 모듈(14)을 포함할 수 있다. 타겟 윈도우 유닛(13)은 입력 음성 신호들에 대한 타겟 윈도우를 설정하고, 특성값 획득 유닛(14)은 타겟 윈도우에서의 잔여 신호들의 특성값들을 획득한다.
또한, 본 실시예에 따른 장치는 검색 모듈(15)을 포함한다. 검색 모듈(15)은 상기 입력 음성 신호에서 최대 진폭을 갖는 펄스를 검색한다. 타겟 윈도우 유닛(13)은 입력 음성 신호에서 최대 진폭을 갖는 펄스의 위치에 따라 타겟 윈도우를 설정한다.
본 실시예에 따른 장치는 사전 처리 모듈(preprocessing module)(16)을 더 포함할 수 있다. 사전 처리 모듈(16)은 입력 음성 신호를 사전 처리한다. 구체적으로, 사전 처리 모듈(16)은 저대역 필터링 또는 다운-샘플링 처리를 수행하고, 그 사전 처리된 입력 음성 신호를 타겟 윈도우 유닛(13) 및 특성값 획득 유닛(14)에 전송한다.
특성값 획득 유닛(11)은 제1 계산 유닛 및 제2 계산 유닛을 더 포함할 수 있 다. 제1 계산 유닛은 사전 설정된 피치 범위 내에서 각각의 피치에 대응하는 잔여 신호를 계산한다. 제2 계산 유닛은 각각의 피치에 대응하는 잔여 신호의 특성 함수값을 계산하고, 특성 함수값의 최소값을 획득한다. 피치 획득 모듈(12)은 특성 함수값의 최소값에 대응하는 피치를 그 획득된 피치로서 사용한다.
본 실시예는 하나의 프레임에서의 신호의 잔여 신호의 특성 함수값을 계산하기 위해 타겟 윈도우를 설정하되, 전체 프레임에서의 신호의 상관 함수값을 계산하지 않으며, 이에 따라 피치 검색이 크게 간략화된다.
도 7은 본 발명의 다른 실시예에 따른 피치 검색을 위한 장치의 개략도를 도시한다. 장치는 검색 모듈(210, 타겟 윈도우 모듈(22), 계산 모듈(23), 및 피치 획득 모듈(240을 포함한다. 검색 모듈(21)은 상기 입력 음성 신호에서 최대 진폭을 갖는 펄스를 검색한다. 타겟 윈도우 모듈(22)은 최대 진폭을 갖는 펄스의 위치에 따라 입력 음성 신호에 대한 타겟 윈도우를 설정한다. 타겟 윈도우가 슬라이딩할 때, 계산 모듈(23)은 각각의 슬라이딩 윈도우 및 타겟 윈도우에서의 입력 음성 신호의 상관 계수를 계산하고 상관 계수의 최대값을 획득한다. 피치 획득 모듈(24)은 상관 계수의 최대값에 따라 피치를 획득한다.
일실시예에 따른 장치는 사전 처리 모듈(25)을 더 포함할 수 있다. 사전 처리 모듈(25)은 입력 신호를 사전 처리한다. 구체적으로, 사전 처리 모듈(25)은 저대역 필터링 또는 다운-샘플링 처리를 수행하고, 사전 처리된 입력 신호를 검색 모듈(21), 타겟 윈도우 모듈(22) 및 계산 모듈(23)에 전송한다.
본 실시예는 타겟 윈도우를 설정하고, 타겟 윈도우를 슬라이딩하고, 각각의 슬라이딩 윈도우 및 타겟 윈도우에서의 신호의 상관 계수를 계산하며, 상관 계수의 최대값을 획득하고, 그 상관 계수의 최대값에 따라 피치를 계산하되, 전체 프레임에서의 입력 음성 신호의 상관 함수값을 계산하지 않으며, 이에 따라 피치 검색은 크게 간략화된다.
전술한 방법의 실시예의 단계들 중 전부 또는 일부는 프로그램에 의해 명령되는 하드웨어에 의해 구현될 수 있다는 것을 당업자는 이해할 것이다. 프로그램은 컴퓨터가 판독 가능한 저장 매체에 저장될 수 있다. 실행될 때, 프로그램은 전술한 방법의 실시예의 단계들을 수행한다. 저장 매체는, 예를 들어 리드 온리 메모리(ROM), 랜덤 액세스 메모리(RAM), 자기 디스크, 또는 컴팩트 디스크와 같이, 프로그램 코드를 저장하는 데 적절한 어떠한 매체도 될 수 있다.
몇 개의 예시적 실시예를 통해 본 발명을 설명하였으나, 본 발명은 이러한 실시예에 제한되지 않는다. 본 발명의 정신 및 범주를 벗어남이 없이 당업자가 본 발명에 대한 변형 및 수정을 수행할 수 있다는 것은 자명하다. 본 발명은 이하의 청구의 범위 또는 그 등가물에 의해 정해진 보호 범위 내에 있는 변형 및 수정을 망라하도록 의도된다.
도 1은 본 발명의 일실시예에 따른 피치 검색을 위한 방법에 대한 흐름도이다.
도 2는 본 발명의 다른 실시예에 따른 피치 검색을 위한 방법에 대한 흐름도이다.
도 3은 본 발명의 또 다른 실시예에 따른 피치 검색을 위한 방법에 대한 흐름도이다.
도 4는 본 발명의 또 다른 실시예에 따른 피치 검색을 위한 방법에 대한 흐름도이다.
도 5는 본 발명의 또 다른 실시예에 따른 피치 검색을 위한 방법에 대한 흐름도이다.
도 6은 본 발명의 일실시예에 따른 피치 검색을 위한 장치에 대한 개략도이다.
도 7은 본 발명의 다른 실시예에 따른 피치를 검색하기 위한 장치에 대한 개략도이다.

Claims (16)

  1. 피치 검색 방법에 있어서,
    잔여 신호들의 특성 함수값들을 획득하는 단계로, 사전 설정된 피치 범위 내의 각각의 피치에 대응하며 입력 음성 신호로부터 LTP(Long-Term Prediction) 기여 신호(contribution signal)를 제거한 결과인 상기 잔여 신호들을 계산하는 단계; 및 사전 설정된 피치 범위 내의 각각의 피치에 대응하는 상기 잔여 신호들의 특성 함수값들을 계산하는 단계를 포함하는 잔여 신호들의 특성 함수값들을 획득하는 단계; 및
    계산된 상기 잔여 신호들의 상기 특성 함수값들 중 최소값을 선택하고 상기 최소값에 대응하는 피치를 상기 피치로서 설정하는 단계
    를 포함하는 피치 검색 방법.
  2. 제1항에 있어서,
    상기 잔여 신호의 특성 함수값을 획득하는 단계는,
    상기 입력 음성 신호에 대한 타겟 윈도우를 설정하는 단계, 및
    상기 타겟 윈도우에 둘러싸인 잔여 신호들의 특성 함수값들을 획득하는 단계
    를 포함하는, 피치 검색 방법.
  3. 제2항에 있어서,
    상기 입력 음성 신호에 대한 타겟 윈도우를 설정하는 단계는,
    상기 입력 음성 신호에서 최대 진폭을 갖는 펄스를 검색하는 단계; 및
    상기 펄스의 위치에 따라 상기 타겟 윈도우를 설정하는 단계
    를 포함하는, 피치 검색 방법.
  4. 제1항에 있어서,
    상기 잔여 신호들의 특성 함수값들을 획득하는 단계는,
    전체 프레임의 상기 잔여 신호들의 특성 함수값들을 계산하는 단계를 더 포함하는, 피치 검색 방법.
  5. 제4항에 있어서,
    상기 잔여 신호들의 특성 함수값들은 상기 잔여 신호 에너지값들 또는 상기 잔여 신호들의 절대값들의 합인, 피치 검색 방법.
  6. 제1항에 있어서,
    상기 잔여 신호의 특성 함수값을 획득하는 단계 이전에,
    상기 입력 음성 신호를 저대역 필터링 또는 다운-샘플링하는 단계를 더 포함하는, 피치 검색 방법.
  7. 제1항에 있어서,
    상기 LTP 기여 신호는 LTP 여기 신호 및 피치 이득에 기초하여 결정되며, 상기 피치 이득은 고정값이거나 또는 상기 사전 설정된 피치 범위 내의 피치에 따라 적응적으로 결정되는 값인, 피치 검색 방법.
  8. 피치 검색 장치에 있어서,
    잔여 신호들의 특성 함수값들을 획득하도록 구성된 특성값 획득 모듈(11)로서, 상기 잔여 신호들은 입력 음성 신호로부터 LTP 기여 신호를 제거한 결과이고, 사전 설정된 피치 범위 내의 각각의 피치에 대응하는 상기 잔여 신호들을 계산하도록 구성된 제1 계산 유닛, 및 각각의 피치에 대응하는 상기 잔여 신호들의 특성 함수값들을 계산하고 상기 특성 함수값들 중 최소값을 획득하도록 구성된 제2 계산 유닛을 포함하는 상기 특성값 획득 모듈(11); 및
    상기 특성 함수값들 중 상기 최소값에 대응하는 피치를 상기 획득된 피치로서 사용하도록 구성된 피치 획득 모듈(12)
    을 포함하는 피치 검색 장치.
  9. 제8항에 있어서,
    상기 특성값 획득 모듈(11)은,
    상기 입력 음성 신호에 대한 타겟 윈도우를 설정하도록 구성된 타겟 윈도우 유닛(13), 및
    상기 타겟 윈도우 내의 잔여 신호의 특성값을 획득하도록 구성된 특성값 획득 유닛(14)
    을 포함하는, 피치 검색 장치.
  10. 제9항에 있어서,
    상기 입력 음성 신호에서 최대 진폭을 갖는 펄스를 검색하도록 구성된 검색 모듈(15)을 더 포함하며,
    상기 타겟 윈도우 유닛(13)은 또한, 상기 입력 음성 신호 내에서 최대 진폭을 갖는 펄스의 위치에 따라 상기 타겟 윈도우를 설정하도록 구성된, 피치 검색 장치.
  11. 제9항에 있어서,
    상기 특성값 획득 모듈(11)은,
    전체 프레임의 상기 잔여 신호들의 특성 함수값들을 계산하도록 구성된,
    피치 검색 장치.
  12. 제9항에 있어서,
    입력 음성 신호에 대해 저대역 필터링 또는 다운-샘플링 처리를 수행하도록 구성된 사전 처리 모듈(16)을 더 포함하는, 피치 검색 장치.
  13. 컴퓨터로 판독가능한 저장 매체로서,
    컴퓨터 프로세서에 의해 실행되는 때에 상기 컴퓨터 프로세서가 제1항 내지 제7항 중 어느 한 항에 따르는 단계들을 실행하도록 하는 컴퓨터 프로그램 코드를 포함하는 컴퓨터로 판독가능한 저장 매체.
  14. 삭제
  15. 삭제
  16. 삭제
KR1020090133568A 2008-12-30 2009-12-30 피치 검색을 위한 방법 및 장치 Active KR101096540B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN2008102470311A CN101599272B (zh) 2008-12-30 2008-12-30 基音搜索方法及装置
CN200810247031.1 2008-12-30

Publications (2)

Publication Number Publication Date
KR20100080457A KR20100080457A (ko) 2010-07-08
KR101096540B1 true KR101096540B1 (ko) 2011-12-20

Family

ID=41420686

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090133568A Active KR101096540B1 (ko) 2008-12-30 2009-12-30 피치 검색을 위한 방법 및 장치

Country Status (6)

Country Link
US (1) US20100169084A1 (ko)
EP (2) EP2420999A3 (ko)
JP (2) JP5506032B2 (ko)
KR (1) KR101096540B1 (ko)
CN (1) CN101599272B (ko)
AT (1) ATE533146T1 (ko)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4871894B2 (ja) * 2007-03-02 2012-02-08 パナソニック株式会社 符号化装置、復号装置、符号化方法および復号方法
US9208799B2 (en) * 2010-11-10 2015-12-08 Koninklijke Philips N.V. Method and device for estimating a pattern in a signal
EP3301677B1 (en) 2011-12-21 2019-08-28 Huawei Technologies Co., Ltd. Very short pitch detection and coding
CN103426441B (zh) 2012-05-18 2016-03-02 华为技术有限公司 检测基音周期的正确性的方法和装置
CN106415718B (zh) * 2014-01-24 2019-10-25 日本电信电话株式会社 线性预测分析装置、方法以及记录介质
EP3462448B1 (en) * 2014-01-24 2020-04-22 Nippon Telegraph and Telephone Corporation Linear predictive analysis apparatus, method, program and recording medium
CN105513604B (zh) * 2016-01-05 2022-11-18 浙江诺尔康神经电子科技股份有限公司 一种基频轮廓提取的人工耳蜗言语处理方法和系统
CN113129913B (zh) * 2019-12-31 2024-05-03 华为技术有限公司 音频信号的编解码方法和编解码装置

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58140798A (ja) * 1982-02-15 1983-08-20 株式会社日立製作所 音声ピツチ抽出方法
JPS622300A (ja) * 1985-06-27 1987-01-08 松下電器産業株式会社 音声ピツチ抽出装置
JPH0679237B2 (ja) * 1985-07-05 1994-10-05 シャープ株式会社 音声ピツチ周波数抽出装置
US5307441A (en) * 1989-11-29 1994-04-26 Comsat Corporation Wear-toll quality 4.8 kbps speech codec
US5233660A (en) * 1991-09-10 1993-08-03 At&T Bell Laboratories Method and apparatus for low-delay celp speech coding and decoding
US5327520A (en) * 1992-06-04 1994-07-05 At&T Bell Laboratories Method of use of voice message coder/decoder
IT1270438B (it) * 1993-06-10 1997-05-05 Sip Procedimento e dispositivo per la determinazione del periodo del tono fondamentale e la classificazione del segnale vocale in codificatori numerici della voce
JP3500690B2 (ja) * 1994-03-28 2004-02-23 ソニー株式会社 オーディオピッチ抽出装置及びオーディオ処理装置
JP3468862B2 (ja) * 1994-09-02 2003-11-17 株式会社東芝 音声符号化装置
JPH08263099A (ja) * 1995-03-23 1996-10-11 Toshiba Corp 符号化装置
DE69628103T2 (de) * 1995-09-14 2004-04-01 Kabushiki Kaisha Toshiba, Kawasaki Verfahren und Filter zur Hervorbebung von Formanten
US5867814A (en) * 1995-11-17 1999-02-02 National Semiconductor Corporation Speech coder that utilizes correlation maximization to achieve fast excitation coding, and associated coding method
JPH09258796A (ja) * 1996-03-25 1997-10-03 Toshiba Corp 音声合成方法
JPH10105195A (ja) * 1996-09-27 1998-04-24 Sony Corp ピッチ検出方法、音声信号符号化方法および装置
JP3575967B2 (ja) * 1996-12-02 2004-10-13 沖電気工業株式会社 音声通信システムおよび音声通信方法
US6470309B1 (en) * 1998-05-08 2002-10-22 Texas Instruments Incorporated Subframe-based correlation
CA2252170A1 (en) * 1998-10-27 2000-04-27 Bruno Bessette A method and device for high quality coding of wideband speech and audio signals
US6453287B1 (en) * 1999-02-04 2002-09-17 Georgia-Tech Research Corporation Apparatus and quality enhancement algorithm for mixed excitation linear predictive (MELP) and other speech coders
JP4505899B2 (ja) * 1999-10-26 2010-07-21 ソニー株式会社 再生速度変換装置及び方法
GB2357683A (en) * 1999-12-24 2001-06-27 Nokia Mobile Phones Ltd Voiced/unvoiced determination for speech coding
US7171355B1 (en) * 2000-10-25 2007-01-30 Broadcom Corporation Method and apparatus for one-stage and two-stage noise feedback coding of speech and audio signals
US6889187B2 (en) * 2000-12-28 2005-05-03 Nortel Networks Limited Method and apparatus for improved voice activity detection in a packet voice network
US6766289B2 (en) * 2001-06-04 2004-07-20 Qualcomm Incorporated Fast code-vector searching
US20040002856A1 (en) * 2002-03-08 2004-01-01 Udaya Bhaskar Multi-rate frequency domain interpolative speech CODEC system
CA2388439A1 (en) * 2002-05-31 2003-11-30 Voiceage Corporation A method and device for efficient frame erasure concealment in linear predictive based speech codecs
CA2392640A1 (en) * 2002-07-05 2004-01-05 Voiceage Corporation A method and device for efficient in-based dim-and-burst signaling and half-rate max operation in variable bit-rate wideband speech coding for cdma wireless systems
JP2006502426A (ja) * 2002-10-11 2006-01-19 ノキア コーポレイション ソース制御された可変ビットレート広帯域音声の符号化方法および装置
EP1604352A4 (en) * 2003-03-15 2007-12-19 Mindspeed Tech Inc SINGLE NOISE DELETION MODEL
EP1513137A1 (en) * 2003-08-22 2005-03-09 MicronasNIT LCC, Novi Sad Institute of Information Technologies Speech processing system and method with multi-pulse excitation
KR100552693B1 (ko) * 2003-10-25 2006-02-20 삼성전자주식회사 피치검출방법 및 장치
CN1998045A (zh) * 2004-07-13 2007-07-11 松下电器产业株式会社 音调频率估计装置以及音调频率估计方法
US7752039B2 (en) * 2004-11-03 2010-07-06 Nokia Corporation Method and device for low bit rate speech coding
KR100744352B1 (ko) * 2005-08-01 2007-07-30 삼성전자주식회사 음성 신호의 하모닉 성분을 이용한 유/무성음 분리 정보를추출하는 방법 및 그 장치
US8612216B2 (en) * 2006-01-31 2013-12-17 Siemens Enterprise Communications Gmbh & Co. Kg Method and arrangements for audio signal encoding
US7925502B2 (en) * 2007-03-01 2011-04-12 Microsoft Corporation Pitch model for noise estimation
CN101030374B (zh) * 2007-03-26 2011-02-16 北京中星微电子有限公司 基音周期提取方法及装置
US8768690B2 (en) * 2008-06-20 2014-07-01 Qualcomm Incorporated Coding scheme selection for low-bit-rate applications

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
H, Chen et al., 'A cpmparison of pitch prediction algorithm in forward and backward adaptive CELP systems', Singapore ICCS/ISITA '92, pp.821~825, November 1992.*

Also Published As

Publication number Publication date
KR20100080457A (ko) 2010-07-08
JP2010156975A (ja) 2010-07-15
CN101599272B (zh) 2011-06-08
US20100169084A1 (en) 2010-07-01
EP2204795B1 (en) 2011-11-09
CN101599272A (zh) 2009-12-09
EP2204795A1 (en) 2010-07-07
JP2013068977A (ja) 2013-04-18
JP5506032B2 (ja) 2014-05-28
JP5904469B2 (ja) 2016-04-13
EP2420999A3 (en) 2013-10-30
ATE533146T1 (de) 2011-11-15
EP2420999A2 (en) 2012-02-22

Similar Documents

Publication Publication Date Title
KR101096540B1 (ko) 피치 검색을 위한 방법 및 장치
EP1338003B1 (en) Gains quantization for a celp speech coder
US9418666B2 (en) Method and apparatus for encoding and decoding audio/speech signal
EP2506253A2 (en) Audio signal processing method and device
KR101999563B1 (ko) 켈프 코덱에 있어서 여기의 적응 및 고정 기여의 이득을 양자화 하기 위한 장치 및 방법
EP0501421B1 (en) Speech coding system
EP1339041B1 (en) Audio decoder and audio decoding method
EP2593937B1 (en) Audio encoder and decoder and methods for encoding and decoding an audio signal
KR101350285B1 (ko) 신호를 부호화 및 복호화하는 방법, 장치 및 시스템
TWI582758B (zh) 藉由使用諧波抑制而從ㄧ第一編碼演算法以及ㄧ第二編碼演算法中選擇其中之一之裝置與方法
EP1395977A2 (en) Processing speech signals
KR20040042903A (ko) 일반화된 분석에 의한 합성 스피치 코딩 방법 및 그방법을 구현하는 코더
EP2296144A1 (en) Method and apparatus for distributing sub-frame
US8831961B2 (en) Preprocessing method, preprocessing apparatus and coding device
US20090055171A1 (en) Buzz reduction for low-complexity frame erasure concealment
EP0713208B1 (en) Pitch lag estimation system
KR20050007853A (ko) 상호부호화기에서 개회로 피치 추정 방법 및 그 장치
JP3146511B2 (ja) 音声符号化方式
KR20020054237A (ko) 유성음 구간에서의 고속 피치 탐색 방법
AU2002302558A1 (en) Processing speech signals
JPH06295199A (ja) 音声符号化装置

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20091230

PA0201 Request for examination
PG1501 Laying open of application
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20110311

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20111122

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20111214

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20111214

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
FPAY Annual fee payment

Payment date: 20141120

Year of fee payment: 4

PR1001 Payment of annual fee

Payment date: 20141120

Start annual number: 4

End annual number: 4

FPAY Annual fee payment

Payment date: 20151118

Year of fee payment: 5

PR1001 Payment of annual fee

Payment date: 20151118

Start annual number: 5

End annual number: 5

FPAY Annual fee payment

Payment date: 20161123

Year of fee payment: 6

PR1001 Payment of annual fee

Payment date: 20161123

Start annual number: 6

End annual number: 6

FPAY Annual fee payment

Payment date: 20171114

Year of fee payment: 7

PR1001 Payment of annual fee

Payment date: 20171114

Start annual number: 7

End annual number: 7

FPAY Annual fee payment

Payment date: 20181121

Year of fee payment: 8

PR1001 Payment of annual fee

Payment date: 20181121

Start annual number: 8

End annual number: 8

PR1001 Payment of annual fee

Payment date: 20201117

Start annual number: 10

End annual number: 10

PR1001 Payment of annual fee

Payment date: 20211118

Start annual number: 11

End annual number: 11

PR1001 Payment of annual fee

Payment date: 20241120

Start annual number: 14

End annual number: 14