JP5426506B2 - 適応量子化方法,適応量子化装置および適応量子化プログラム - Google Patents
適応量子化方法,適応量子化装置および適応量子化プログラム Download PDFInfo
- Publication number
- JP5426506B2 JP5426506B2 JP2010198576A JP2010198576A JP5426506B2 JP 5426506 B2 JP5426506 B2 JP 5426506B2 JP 2010198576 A JP2010198576 A JP 2010198576A JP 2010198576 A JP2010198576 A JP 2010198576A JP 5426506 B2 JP5426506 B2 JP 5426506B2
- Authority
- JP
- Japan
- Prior art keywords
- class
- value
- weighted sum
- boundary
- quantization
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
Description
図1は,本発明の一実施形態に係る装置構成例を示す図である。
図2および図3は,本発明の一実施形態に係る適応量子化処理のフローチャートである。
画素値kの頻度をh[k](k=0,…,K−1)として格納する。例えば,8ビットの輝度信号の場合,kの取り得る範囲は0から255の値となる。このK階調の信号をM階調(M<K)に量子化する場合を考える。
以下,ヒストグラムの区間[Lm −(Δm −1),Lm ]を第m量子化ビンと呼ぶ。
=e(Lm −(Δm −1),Lm )+λ・l(Lm −(Δm −1),Lm ) (8)
M個のパラメータ(Δ0 ,…,ΔM-1 )の取り得る組み合わせは,Mとともに指数関数的に増加するため,この中から最適な組み合わせ(Δ0 * ,…,ΔM-1 * )を総当りで探索するのは,計算量的に困難である。
Σi=0 m ψ(Li −(Δi −1),Li ,λ)
の最小値をSm (Lm )として定義する。つまり,最適なΔm ,…, Δ0 を用いた場合のΣi=0 m ψ(Li −(Δi −1),Li ,λ)に対する最小値である。
さらに,Δm ≧1であることを考慮すると,次式を得る。
次式のように,Δm の最大値をAに制限することで,演算量の削減を図るアプローチも採ることができる。ただし,この場合,解の最適性は保証されない。
ここで,算出したSm (Lm )を格納しておき,Sm+1 (Lm+1 )の計算で用いるものとする。さらに,式(9) の最小値を与えるLm-1 を^Lm-1 (Lm )とおく(なお,^はLの上に付く記号。他も同様)。この^Lm-1 (Lm )(m≦Lm ≦K−(M−m))も,全て格納しておくものとする。
SM-2 (LM-1 −ΔM-1 )+ψ(LM-1 −(ΔM-1 −1),LM-1 ,λ)
の最小値を求めた後,最適解(Δ0 * ,…,ΔM-1 * )は,バックトラック過程を通して,求めることができる。次式に示す通り,式(13)の最小化問題の解をΔM-1 * とおく。
LM-2 * =LM-1 −ΔM-1 * =K−1−ΔM-1 *
と求まる。第M−3ビンの上端の最適値は,LM-2 * に対する最適解として,^LM-3 (LM-2 * )として格納されているので,該当する値を参照し,LM-3 * =^LM-3 (LM-2 * )とする。この結果,第M−2ビンの区間幅は,ΔM-2 * =LM-2 * −LM-3 * と求まる。以下,同様の参照処理を
LM-4 * =^LM-4 (LM-3 * ),…,L1 * =^L1 (L2 * )
として繰り返し,得られた各ビンの上端値を用いて,
ΔM-3 * =LM-3 * −LM-4 * ,…,Δ1 * =L1 * −L0 * ,Δ0 * =L0 * +1
として求める。
以上の適応量子化の基本的な処理手順は,以下のとおりである。
1.入力信号のヒストグラム(クラス数K)を生成する。
2.量子化後のクラス数Mを読み込む。
3.S0 (i)←0(i=0,…,K−M)とする。
4.for m=0,…,M−1 (処理4〜12のループ)
5. for LM =m,…,K−(M−m) (処理5〜12のループ)
6. ただし,m=M−1の場合には,Lm =K−1に限定
7. for Δm =1,…,Lm −(m−1) (処理7〜10のループ)
8. ただし,m=0の場合には,Δm =Lm +1に限定
9. ヒストグラムの区間[Lm −(Δm −1),Lm ]を代表値で近似した場合のRDコストを求める。RDコストは式(8) により求め,そのRDコストをψ(Lm −(Δm −1),Lm ,λ)に格納する。
10. Sm-1 (Lm −Δm )+ψ(Lm −(Δm −1),Lm , λ)の値を計算する。
11. Sm-1 (Lm −Δm )+ψ(Lm −(Δm −1),Lm , λ)(Δm =1,…,Lm −(m−1))の中での最小値をSm (Lm )に格納する。
12. Sm-1 (Lm −Δm )+ψ(Lm −(Δm −1),Lm , λ)(Δm =1,…,Lm −(m−1))を最小化するΔm を用いて,Lm −Δm を^Lm-1 (Lm )に格納する。
13.LM-1 * ←K−1
14.for m=M−1,…,1 (処理14〜16のループ)
15. ^Lm-1 (Lm * )を読み込み,Lm-1 * ←^Lm-1 (Lm * )とする。
16. Δm * ←Lm * −Lm-1 *
17.Δ0 * ←L0 * +1
以上により,区間幅Δm * (m=0,…,M−1)が定まり,クラス境界(量子化境界)が決定される。
未定乗数λの設定法について説明する。2つの未定乗数λl ,λu を準備する。なお,この未定乗数は,以下の条件を満たすように設定されるものとする。量子化ビン数をMとし,未定乗数λu およびλl が与えられた場合,前述した適応量子化アルゴリズムにより生成されるパラメータの情報量和を各々,R(ΔM * (λu ),λu ),R(ΔM * (λl ),λl )とすると,次式を満たす。
未定乗数として,
λ=(λl +λu )/2 (15)
を設定し,同未定乗数を用いて上記[適応量子化アルゴリズム(基本形)]を実行する。そこで生成されるパラメータの情報量和R(ΔM * (λ),λ)を求める。
(i)R0 −ε≦R(ΔM * (λ),λ)≦R0 の場合:
λを未定乗数として設定する。εは十分小さな正の数である。R(ΔM * (λ),λ)=R0 を評価したいのであるが,実数値の場合,等式の評価は計算精度の観点から難しいため,ここで用いるような不等式の評価を用いる。
(ii)R(ΔM * (λ),λ)>R0 の場合:
λl ←λとして,式(15)以降の処理を繰り返す。
λu ←λとして,式(15)以降の処理を繰り返す。
以上の未定乗数の設定アルゴリズムをまとめると,以下のようになる。
1.量子化ビン数Mを読み込む。
2.情報量の上限R0 を読み込む。
3.次式を満たす未定乗数λl , λu を準備する。
4.未定乗数として,λ=(λl +λu )/2を設定する。
5.未定乗数λを用いて,上記[適応量子化アルゴリズム(基本形)]を実行する。
6.前の処理5で生成されるパラメータの情報量和R(ΔM * (λ),λ)を求める。
7.if R0 −ε≦R(ΔM * (λ),λ)≦R0 の場合:
λを未定乗数として設定する。
8.if R(ΔM * (λ),λ)>R0 の場合:
λl ←λとして,処理4へ戻る。
9.if R(ΔM * (λ),λ)<R0 −εの場合:
λu ←λとして,処理4へ戻る。
上記適応量子化の例では,量子化ビン数Mが外部から与えられるものとして説明したが,次に,量子化ビン数を可変とした場合の量子化ビン数Mの設定法について説明する。量子化ビン数Mが取り得る値をBl ≦M≦Bu とし,量子化ビン数M(Bl ≦M≦Bu )の各々について,前述した[未定乗数の設定アルゴリズム]に基づき,最適な未定乗数を求める。量子化ビン数がMの場合に求まる未定乗数をλM * とおく。
for all M≠M*
[量子化ビン数の設定アルゴリズム]
量子化ビン数の設定アルゴリズムは,以下のとおりである。
1.情報量の上限R0 を読み込む。
2.for M=Bl ,…,Bu (処理2−1〜2−2のループ)
2−1.[未定乗数の設定アルゴリズム]を実行し,最適な未定乗数λM * および同未定乗数に対する量子化パラメータΔM * (λM * )を求める。
2−2.前の処理2−1で求めた量子化パラメータΔM * (λM * )を用いた場合の近似誤差和D(ΔM * (λM * ),λM * )を^D[M]に格納する。
3.^D[M](M=Bl ,…,Bu )の中で最小値を返すM* を求め,このM* に対する量子化パラメータΔM* * (λM* * )を出力する。
量子化ビン数Mが取り得る値をBl ≦M≦Bu とし,量子化ビン数M(Bl ≦M≦Bu )が与えられた場合,最適な未定乗数の算出が不要となる量子化ビン数については,同算出処理を省略するアプローチを採る。
max(Bl ,Mlower )≦M≦min(Bu ,Mupper )
を満たすMに限定して,前述した未定乗数の設定のアルゴリズムに基づき,最適な未定乗数を求める。ここで,max()は2つの引数のうち,大きい方の値を返す関数であり,min()は2つの引数のうち,小さい方の値を返す関数である。
for all M≠M*
<Mupper , Mlower の設定に際しての演算量低減法>
Mupper の設定においては,コスト関数をe()として,各量子化ビン数に対する最適コスト値を算出する。これは,式(8) のRDコストにおいて,λ=0と設定した場合に相当する。一方,Mlower の設定においては,コスト関数をl()として,各量子化ビン数に対する最適コスト値を算出する。これは,式(8) のRDコストにおいて,λとしては,λ=+∞と設定した場合に相当する。
1.入力信号のヒストグラム(クラス数K)を生成する。
2.Mlower ←Bl
3.λ=0,M=Bl として,[適応量子化アルゴリズム]の処理を行い,^Lm-1 (Lm )の値をルックアップテーブルT[m,Lm ]に格納し,さらに,Sm (Lm )の値を別のルックアップテーブルΦBl[m, Lm ]に格納する。
4.R(ΔBl * (0),0)≧R0 であれば処理を終了する。そうでなければ,次の処理へ進む。
5.for ^M=Bl +1,…,Bu (処理5〜9のループ)
6. M=^Mとして,ルックアップテーブルT[]およびルックアップテーブルΦ^M-1 []を読み込み,後述する[適応量子化アルゴリズム(M−1ビンの量子化結果利用形)]の処理を実施する。
7. 生成されるパラメータの情報量の和R(ΔM * (0),0)を求める。
8. R(ΔM * (0),0)≧R0 であれば,Mlower ←^M−1として,処理を終了する。そうでなければ,次の処理9へ進む。
9. ルックアップテーブルT[]を更新し,ルックアップテーブルΦ^M []を出力する。
1.入力信号のヒストグラム(クラス数K)を生成する。
2.Mupper ←Bu
3.λ=λ+max,M=Bl として,[適応量子化アルゴリズム]の処理を行い,^Lm-1 (Lm )の値をルックアップテーブルT[m,Lm ]に格納し,さらに,Sm (Lm )の値を別のルックアップテーブルΦBl[m,Lm ]に格納する。ここで,λ+maxは十分大きな値とする。
4.R(ΔBu * (λ+max),λ+max)≧R0 であれば,処理を終了する。この場合,与えられた制約条件を満たす解がないことになる。そうでなければ,次の処理5へ進む。
5.for ^M=Bl +1,…,Bu (処理5〜9のループ)
6. M=^Mとして,ルックアップテーブルT[]およびルックアップテーブルΦ^M-1 []を読み込み,後述する[適応量子化アルゴリズム(M−1ビンの量子化結果利用形)]の処理を実施する。
7. 生成されるパラメータの情報量の和R(ΔM * (λ+max),λ+max)を求める。
8. R(ΔM * (λ+max),λ+max)≧R0 であれば,Mupper ←^M−1として,処理を終了する。そうでなければ,次の処理9へ進む。
9. ルックアップテーブルT[]を更新し,ルックアップテーブルΦ^M []を出力する。
Mupper の設定においては,コスト関数をe()として,各量子化ビン数に対する最適コスト値を算出する。これは,式(8) のRDコストにおいて,λ=0と設定した場合に相当する。一方,Mlower の設定においては,コスト関数をl()として,各量子化ビン数に対する最適コスト値を算出する。これは,式(8) のRDコストにおいて,λとしては,λ=+∞と設定した場合に相当する。
低演算量タイプの量子化ビン数の設定アルゴリズムを,以下に示す。
1.情報量の上限R0 を読み込む。
2.前述した[Mlower の算出アルゴリズム]によりMlower を求める。
3.前述した[Mupper の算出アルゴリズム]によりMupper を求める。
4.for M=max(Bl ,Mlower ),…,min(Bu ,Mupper )
(処理4−1〜4−2の繰り返し)
4−1.M>max(Bl ,Mlower )の場合には,λM-1 * を未定乗数の初期値として入力して,下記に示す[未定乗数の設定アルゴリズム(継承型)]を実行し,最適な未定乗数λM * および同未定乗数に対する量子化パラメータΔM * (λM * )を求める。
4−2.前の処理4−1で求めた量子化パラメータΔM * (λM * )を用いた場合の近似誤差和D(ΔM * (λM * ),λM * )を,^D[M]に格納する。
5.^D[M](M=Bl ,…,Bu )の中で最小値を返すMを求め,このMに対する量子化パラメータΔM* * (λM* * )を出力する。
上記処理4−1で用いる未定乗数の設定アルゴリズム(継承型)の手順は,以下のとおりである。
1.量子化ビン数Mを読み込む。
2.情報量の上限R0 を読み込む。
3.未定乗数λの初期値,および,その上限値λu を読み込む。
4.未定乗数として,λ=(λl +λu )/2を設定する。
5.未定乗数λを用いて後述する[適応量子化アルゴリズム(M−1ビンの量子化結果利用形)]を実行する。
6.処理5で生成されるパラメータの情報量和R(ΔM * (λ),λ)を求める。
7.if R0 −ε≦R(ΔM * (λ),λ)≦R0 の場合:
λu を未定乗数として設定する。
8.未定乗数λu を用いて,後述する[適応量子化アルゴリズム(M−1ビンの量子化結果利用形)]を実行する。
9.処理8で生成されるパラメータの情報量和R(ΔM * (λu ),λu )を求める。
10. if R0 −ε≦R(ΔM * (λu ),λu )≦R0 の場合:
λu を未定乗数として設定する。
11. if R(ΔM * (λu ),λu )>R0 の場合:
λ←2λu として,処理5へ戻る。
12. if R(ΔM * (λu ),λu )<R0 −εの場合:
λl ←λとして,処理4へ戻る。
13. if R0 −ε≦R(ΔM * (λl ),λl )≦R0 の場合:
λl を未定乗数として設定する。
14. if R(ΔM * (λl ),λl )>R0 の場合:
λu ←λとして,処理4へ戻る。
15. if R(ΔM * (λl ),λl )<R0 −εの場合:
λ←λu /2として,処理5へ戻る。
以下の適応量子化アルゴリズムでは,M−1ビンの量子化の結果を用いて,Mビンの量子化を算出する場合の例である。なお,ここで説明を簡単にするために,3≦Mを対象とする。
1.入力信号のヒストグラム(クラス数K)を読み込む。
2.量子化後のクラス数Mを読み込む。
3.for m=0,…,M−3 (処理3〜6のループ)
4. for Lm =m,…,K−(M−m) (処理4〜6のループ)
5. ΦM [m,Lm ]←ΦM-1 [m,Lm ]
6. Lm −Δm を^Lm-1 (Lm )に格納する。
7.for m=M−2,M−1 (処理7〜16のループ)
8. for Lm =m,…,K−(M+1−m) (処理8〜16ループ)
9.ただし,m=M−1の場合には,Lm =K−1に限定
10. for Δm =1,…,Lm −(m−1) (処理10〜16のループ)
11. ヒストグラムの区間[Lm −(Δm −1),Lm ]を代表値で近似した場合のRDコストを求める。RDコストは式(8) により求め,そのRDコストをψ(Lm −(Δm −1),Lm , λ)に格納する。
12. Φm-1 (Lm −Δm )+ψ(Lm −(Δm −1),Lm , λ)の値を計算する。
13. Φm-1 (Lm −Δm )+ψ(Lm −(Δm −1),Lm , λ)(Δm =1,…,Lm −(m−1))の中での最小値をSm (Lm )に格納する。
14. ΦM+1 [m,Lm ]←Φm (Lm )(m=M−1の場合には,省略)
15. Φm-1 (Lm −Δm )+ψ(Lm −(Δm −1),Lm , λ)(Δm =1,…,Lm −(m−1))を最小化するΔm を用いて,Lm −Δm を^Lm-1 (Lm )に格納する。
16. T[m,Lm ]←^Lm-1 (Lm )
17.LM * ←K−1
18.for m=M−1,…,1 (処理18〜21のループ)
19. ^Lm-1 (Lm * )を読み込み,Lm-1 * ←^Lm-1 (Lm * )とする。
20. Δm * ←Lm * −Lm-1 *
21. Δ0 * ←L0 * +1
[ルックアップテーブルを用いた演算量低減法]
上記の処理では,Lm とΔm の組み合わせによっては,RDコストψ(Lm −(Δm −1),Lm , λ)が異なる量子化ビン(mの値が異なるという意味)において必要となる。その度に,RDコストψ(Lm −(Δm −1),Lm , λ)を算出するのは,計算コストの観点から得策ではない。計算結果を格納し,必要に応じて格納結果を呼び出すことで,演算量を低減できる。そこで,ψ(Lm −(Δm −1),Lm , λ)として取り得る値をルックアップテーブル((K−1)×K要素)に格納する。格納処理は,次のような手順になる。
1.for m=0,…,K−2 (処理1〜3のループ)
2. for k=1,…,K−m−1 (処理2〜3のループ)
3. E[m,m+k]←ψ(m,m+k,λ)
なお,前記[量子化ビン数の設定法(基本解法)],[量子化ビン数の設定法(低演算量解法)]において,本ルックアップテーブルを用いる場合,全ての量子化ビン数([量子化ビン数の設定法(基本解法)]の場合,Bl ≦M≦Bu ,[量子化ビン数の設定法(低演算量解法)]の場合,Mlower ≦M≦Mupper )に対して,全ての量子化ビン数で共有可能である。このため,対象とする量子化ビン数が増加しても,ルックアップテーブルを求める処理は増加することはない。
上述のルックアップテーブル((K−1)×K要素)E[m,m+k]へ格納するRDコストψ(Lm −Δm ,Lm-1 ,λ)の計算過程にも重複した計算が存在するため,そうした重複部分を省略することで,演算量の低減を図る。
上記の関係に基づきe(Lm −(Δm −1),Lm ),l(Lm −(Δm −1),Lm )を算出し,両者の加重和であるRDコストをルックアップテーブル((K−1)×K要素)に格納する。格納処理は,以下に説明する[RDコストの算出アルゴリズム(低減法)]のようになる。
1.for k=0,…,K−1 (処理1〜4のループ)
2. q1 [0,k]←0
3. q2 [0,k]←0
4. q3 [0,k]←0
5.T←Σk=0 K-1 h[k]
6.for m=0,…,K−2 (処理6〜14のループ)
7. for k=0,…,K−m−1 (処理7〜14のループ)
8. q1 [m,m+k+1]←q1 (m,m+k)+h[m+k+1]
9. q2 [m,m+k+1]←q2 (m,m+k)+(m+k+1)h[m+k+1]
10. q3 [m,m+k+1]←q3 (m,m+k)+(m+k+1)2 h[m+k+1]
11. c[m,m+k+1]←q2 (m,m+k+1)/q1 (m,m+k+1)
12. e[m,m+k+1]←q3 (m,m+k+1)−2c(m,m+k+1)q2 (m,m+k+1)+c(m,m+k+1)2 q1 (m,m+k+1)
13. l(Lm −(Δm −1),Lm )←−{q1 (Lm −Δm −1),Lm )/T}{log2 q1 (Lm −(Δm −1),Lm )−log2 T}
14. E[m,m+k+1]←e[m,m+k+1]+λ・l(Lm −(Δm −1),Lm )
以上を踏まえ,ルックアップテーブルを参照する方式の場合の低演算量形の適応量子化アルゴリズムは,以下のようになる。
1.入力信号のヒストグラム(クラス数K)を生成する。
2.量子化後のクラス数Mを読み込む。
3.[RDコストの算出アルゴリズム(低減法)]に基づくRDコスト算出,およびルックアップテーブルへの格納。
4.[適応量子化アルゴリズム(基本形)]におけるψ(Lm −(Δm −1),Lm , λ)への格納対象の算出処理をルックアップテーブルE[Lm (Δm −1),Lm , λ]からの読み出し処理に置き換えて,同アルゴリズムの処理3以降の処理を実施。
視覚系は,低輝度の画素値の変化に比べて,高輝度の画素値の変化に鈍感である。そこで,こうした視覚特性を考慮して量子化を行う場合には,以下のように行う。まず,画素値k(k=0,…,K−1)に対する重み係数として,w[k]を設定する。この重み係数は,外部から与えられるものとする。例えば,高輝度(大きなk)の重みを低輝度(小さなk)の重みより小さな値に設定すれば,上記の輝度差に対する視覚特性を量子化処理に組み込むことが可能になる。この重み係数を用いて,画素値kに対する頻度h[k]を,〜h[k]=w[k]×h[k](ただし,〜はhの上に付く記号)として補正し,この補正後のヒストグラム〜h[k]に対して,前述の量子化処理を実施する。
11 入力信号レベル数記憶部
12 量子化後レベル数記憶部
13 未定乗数記憶部
14 ヒストグラム生成部
15 近似誤差算出部
16 情報量算出部
17 RDコスト算出部
18 RDコスト最小値記憶部
19 区間上端最適値記憶部
20 区間上端最適値追跡部
21 量子化処理部
Claims (9)
- クラス数がKの入力信号を,Kより小さいMのクラス数に量子化する適応量子化方法であって,
入力信号についてクラス数Kのヒストグラムを生成するステップと,
与えられたクラス数Mで前記ヒストグラムを近似する際に,第i番目(i=1,2,…,M−1)のクラス境界の各候補に対して,第i番目のクラスにおける入力信号の量子化により発生する近似誤差と符号量とを算出し,第1番目のクラスから第i番目のクラスまでの近似誤差と符号量の加重和を最小化する量子化値に対応するクラス境界情報およびそのときの前記加重和の最小値を算出し,メモリに格納するとともに,次の第i+1番目(ただし,i<M−1)のクラス境界の候補に対して前記加重和の最小値を算出する際に,前記格納した第i番目までのクラスに対する最小値をメモリから読み出して前記加重和の最小値の計算に用い,最初のクラスから当該クラスまでの前記加重和を最小化するクラス境界を求める処理を,i=1からi=M−1までiを1ずつ増やしながら繰り返すステップと,
前記メモリに格納された第1番目から第M−1番目までのクラス境界の候補に対するクラス境界情報および前記加重和の最小値に基づき,クラス境界の全候補に対して近似誤差と符号量の加重和を最小化するクラス境界を選択するステップと,
最終的に選択したクラス境界を用いて入力信号を量子化するステップとを有する
ことを特徴とする適応量子化方法。 - 請求項1記載の適応量子化方法において,
前記近似誤差として,クラス数Mの各クラスの代表値と当該各クラスにおける入力信号の値との誤差の絶対値和または二乗和,あるいは,クラス数Mの各クラスの代表値と当該各クラスにおける入力信号の値に対して視覚感度に基づき重み付けされた値との誤差の絶対値和または二乗和を算出する
ことを特徴とする適応量子化方法。 - 請求項1または請求項2記載の適応量子化方法において,
前記近似誤差と符号量との加重和として取り得る値を予め算出してルックアップテーブルに格納し,前記ルックアップテーブルを参照して,前記クラス境界の候補に対する加重和を得る
ことを特徴とする適応量子化方法。 - クラス数がKの入力信号を,別途,与えられたクラス数の候補から選択されたクラス数に量子化する適応量子化方法であって,
設定された近似誤差と符号量の加重係数を用いて,前記与えられたクラス数の各候補値に対して,請求項1,請求項2または請求項3に記載された適応量子化方法により,量子化代表値およびクラス境界を求め,
かつ,前記加重係数を変化させて前記適応量子化方法を繰り返すことにより,前記加重係数を最適化し,
最適化した加重係数の下で前記適応量子化方法により求めた量子化代表値およびクラス境界を用いた場合の近似誤差を算出し,クラス数の各候補値を用いた場合の近似誤差の中から最小値を求め,
その最小値を実現する量子化代表値およびクラス境界,並びに,その時のクラス数を同定する
ことを特徴とする適応量子化方法。 - 請求項4記載の適応量子化方法において,
前記クラス数をMとして前記近似誤差と符号量の加重係数を変化させた場合の発生符号量の上限値と下限値とから最適化の対象となるクラス数Mの上限値と下限値とを算出し,前記クラス数Mの上限値と下限値との範囲に限定して,前記クラス数の候補値に対する前記量子化代表値およびクラス境界を求める処理を行う
ことを特徴とする適応量子化方法。 - 請求項4または請求項5記載の適応量子化方法において,
前記クラス数の各候補値に対する前記量子化代表値およびクラス境界を求める処理において,クラス数M−1として量子化代表値およびクラス境界を求めた結果を記憶し,クラス数Mの量子化代表値およびクラス境界を求める処理に利用することにより,クラス数M−1とクラス数Mとで重複する演算を省略する
ことを特徴とする適応量子化方法。 - クラス数がKの入力信号を,Kより小さいMのクラス数に量子化する適応量子化装置であって,
入力信号についてクラス数Kのヒストグラムを生成するヒストグラム生成手段と,
与えられたクラス数Mで前記ヒストグラムを近似する際に,i=1からi=M−1までiを1ずつ増やしながら順番に,第i番目のクラス境界の各候補に対して,第i番目のクラスにおける入力信号の量子化により発生する近似誤差を算出する近似誤差算出手段と,
前記クラス境界の各候補に対して,第i番目のクラスにおける入力信号の量子化により発生する符号量を算出する情報量算出手段と,
第1番目のクラスから第i番目のクラスまでの前記近似誤差と前記符号量との加重和を算出し,第i番目のクラス境界の各候補の中で,算出された前記加重和が最小となるクラス境界情報および加重和の最小値を算出する加重和算出手段と,
前記加重和算出手段によって算出された前記加重和が最小となるクラス境界情報および加重和の最小値を,前記第i番目のクラス境界の各候補ごとに記憶する記憶手段と,
前記記憶手段に記憶された第1番目から第M−1番目までのクラス境界の候補に対するクラス境界情報および加重和の最小値に基づき,クラス境界の全候補に対して前記加重和を最小化するクラス境界を選択する最適値追跡手段と,
前記最適値追跡手段によって選択されたクラス境界を用いて入力信号を量子化する量子化処理手段とを備え,
前記加重和算出手段は,第i番目のクラス境界の候補に対して前記加重和の最小値を算出する際に,前記記憶手段に記憶された第i−1番目(ただし,i≧2)までのクラスに対する加重和の最小値を読み出し,前記加重和の最小値の計算に用いることで,最初のクラスから当該クラスまでの加重和を最小化するクラス境界を求める
ことを特徴とする適応量子化装置。 - クラス数がKの入力信号を,別途,与えられたクラス数の候補から選択されたクラス数に量子化する適応量子化装置であって,
入力信号についてクラス数Kのヒストグラムを生成するヒストグラム生成手段と,
設定された近似誤差と符号量の加重係数を用いて,前記与えられたクラス数の各候補値Mに対して,前記ヒストグラムを近似する際に,i=1からi=M−1までiを1ずつ増やしながら順番に,第i番目のクラス境界の各候補に対して,第i番目のクラスにおける入力信号の量子化により発生する近似誤差を算出する近似誤差算出手段と,
前記クラス境界の各候補に対して,第i番目のクラスにおける入力信号の量子化により発生する符号量を算出する情報量算出手段と,
第1番目のクラスから第i番目のクラスまでの前記近似誤差と前記符号量との加重和を算出し,第i番目のクラス境界の各候補の中で,算出された前記加重和が最小となるクラス境界情報および加重和の最小値を算出する加重和算出手段と,
前記加重和算出手段によって算出された前記加重和が最小となるクラス境界情報および加重和の最小値を,前記第i番目のクラス境界の各候補ごとに記憶する記憶手段と,
前記記憶手段に記憶された第1番目から第M−1番目までのクラス境界の候補に対するクラス境界情報および加重和の最小値に基づき,クラス境界の全候補に対して前記加重和を最小化するクラス境界を選択する最適値追跡手段と,
前記最適値追跡手段によって選択されたクラス境界を用いて入力信号を量子化する量子化処理手段とを備え,
前記加重和算出手段は,第i番目のクラス境界の候補に対して前記加重和の最小値を算出する際に,前記記憶手段に記憶された第i−1番目(ただし,i≧2)までのクラスに対する加重和の最小値を読み出し,前記加重和の最小値の計算に用いることで,最初のクラスから当該クラスまでの加重和を最小化するクラス境界を求め,
前記近似誤差算出手段と,前記情報量算出手段と,前記加重和算出手段と,前記記憶手段と,前記最適値追跡手段とにより,前記与えられたクラス数の各候補値Mに対して,前記近似誤差と前記符号量との加重和に用いる加重係数の最適化を行うとともに,最適化した加重係数の下で量子化代表値およびクラス境界を用いた場合の近似誤差を算出し,クラス数の各候補値を用いた場合の近似誤差の中から最小値を求め,その最小値を実現する量子化代表値およびクラス境界,並びに,その時のクラス数を同定する
ことを特徴とする適応量子化装置。 - 請求項1から請求項6までのいずれか1項に記載の適応量子化方法を,コンピュータに実行させるための適応量子化プログラム。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010198576A JP5426506B2 (ja) | 2010-09-06 | 2010-09-06 | 適応量子化方法,適応量子化装置および適応量子化プログラム |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010198576A JP5426506B2 (ja) | 2010-09-06 | 2010-09-06 | 適応量子化方法,適応量子化装置および適応量子化プログラム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2012060210A JP2012060210A (ja) | 2012-03-22 |
| JP5426506B2 true JP5426506B2 (ja) | 2014-02-26 |
Family
ID=46056829
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2010198576A Expired - Fee Related JP5426506B2 (ja) | 2010-09-06 | 2010-09-06 | 適応量子化方法,適応量子化装置および適応量子化プログラム |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP5426506B2 (ja) |
Families Citing this family (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP6197496B2 (ja) | 2013-08-30 | 2017-09-20 | 富士通株式会社 | 量子化装置、量子化方法および量子化プログラム |
| JP6368287B2 (ja) * | 2015-07-24 | 2018-08-01 | 日本電信電話株式会社 | 適応量子化方法、適応量子化装置及び適応量子化プログラム |
| CN113258935B (zh) * | 2021-05-25 | 2022-03-04 | 山东大学 | 一种联邦学习中基于模型权值分布的通信压缩方法 |
| US11468370B1 (en) | 2022-03-07 | 2022-10-11 | Shandong University | Communication compression method based on model weight distribution in federated learning |
Family Cites Families (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO1998038800A1 (en) * | 1997-02-25 | 1998-09-03 | British Broadcasting Corporation | Digital signal compression encoding with improved quantisation |
| EP1513350A1 (en) * | 2003-09-03 | 2005-03-09 | Thomson Licensing S.A. | Process and arrangement for encoding video pictures |
| JP4188878B2 (ja) * | 2004-06-07 | 2008-12-03 | 日本電信電話株式会社 | 動画像符号化方法,動画像符号化装置,動画像符号化プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体 |
| JP2006157881A (ja) * | 2004-11-08 | 2006-06-15 | Toshiba Corp | 可変長符号化装置及びその方法 |
| JP2007017659A (ja) * | 2005-07-07 | 2007-01-25 | Fujitsu Ltd | オーディオ符号化方法及び装置 |
| JP5345977B2 (ja) * | 2010-06-14 | 2013-11-20 | 日本電信電話株式会社 | 適応量子化方法,適応量子化装置および適応量子化プログラム |
-
2010
- 2010-09-06 JP JP2010198576A patent/JP5426506B2/ja not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| JP2012060210A (ja) | 2012-03-22 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN111768002B (zh) | 一种基于弹性有效位的深度神经网络量化方法 | |
| KR20190034985A (ko) | 인공 신경망의 양자화 방법 및 장치 | |
| CN113132723A (zh) | 一种图像压缩方法及装置 | |
| CN112149797B (zh) | 神经网络结构优化方法和装置、电子设备 | |
| JP4634969B2 (ja) | 線形予測モデル次数決定装置、線形予測モデル次数決定方法、そのプログラムおよび記録媒体 | |
| JP5426506B2 (ja) | 適応量子化方法,適応量子化装置および適応量子化プログラム | |
| US10325609B2 (en) | Coding and decoding a sound signal by adapting coefficients transformable to linear predictive coefficients and/or adapting a code book | |
| JP6867528B2 (ja) | 周期性統合包絡系列生成装置、周期性統合包絡系列生成方法、周期性統合包絡系列生成プログラム、記録媒体 | |
| KR20230010854A (ko) | 뉴럴 네트워크 파라미터들의 표현에 대한 향상된 개념 | |
| US11531884B2 (en) | Separate quantization method of forming combination of 4-bit and 8-bit data of neural network | |
| CN102282770B (zh) | 一种参数选择方法、参数选择装置 | |
| JP6595684B2 (ja) | 符号化装置、復号装置、符号化方法、復号方法、符号化プログラム、復号プログラム、記録媒体 | |
| JP5345977B2 (ja) | 適応量子化方法,適応量子化装置および適応量子化プログラム | |
| GB2551387A (en) | Improved encoding and decoding of geometry data in 3D mesh models | |
| CN112348273A (zh) | 一种信息生成的方法、装置和存储介质 | |
| CN116562347A (zh) | 实现softmax函数计算的硬件系统及方法 | |
| CN117391143A (zh) | 确定用于混合精度神经网络计算的位宽的方法以及系统 | |
| KR101461840B1 (ko) | 낮은 복잡도의 타깃 벡터 식별 | |
| JP6538572B2 (ja) | 量子化方法、量子化装置及び量子化プログラム | |
| JP6368287B2 (ja) | 適応量子化方法、適応量子化装置及び適応量子化プログラム | |
| JP2004110300A (ja) | データ予測方法、データ予測装置、コンピュータプログラム、及び記録媒体 | |
| TWI846454B (zh) | 用於深度學習網路的優化方法及運算系統 | |
| JP4214595B2 (ja) | 画像変換装置および方法、並びに記録媒体 | |
| US20220334802A1 (en) | Information processing apparatus, information processing system, and information processing method | |
| JP6441833B2 (ja) | 量子化方法、量子化装置及び量子化プログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120906 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130920 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131008 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131111 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131126 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131128 |
|
| R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 5426506 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
| LAPS | Cancellation because of no payment of annual fees |