JP2004272557A - Area separation processing method, area separation processing program, recording medium storing the same, image processing apparatus, and image forming apparatus having the same - Google Patents
Area separation processing method, area separation processing program, recording medium storing the same, image processing apparatus, and image forming apparatus having the same Download PDFInfo
- Publication number
- JP2004272557A JP2004272557A JP2003061907A JP2003061907A JP2004272557A JP 2004272557 A JP2004272557 A JP 2004272557A JP 2003061907 A JP2003061907 A JP 2003061907A JP 2003061907 A JP2003061907 A JP 2003061907A JP 2004272557 A JP2004272557 A JP 2004272557A
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- edge
- pixels
- block
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Facsimile Image Signal Circuits (AREA)
- Image Analysis (AREA)
Abstract
【課題】領域の分離を精度よく、かつ高速に行うことができる領域分離処理方法、領域分離処理プログラムおよびこれを記録した記録媒体を提供し、また、高画質の画像を生成することができる画像処理装置およびこれを備えた画像形成装置を提供する。
【解決手段】ブロック判定部3の下地検出処理部10によって下地画素を検出する(b1)。水平エッジ成分算出処理部111によって水平エッジ成分を算出し、垂直エッジ成分算出処理部112によって垂直エッジ成分を算出する(b2,3)。エッジ方向分類処理部12によって各画素を非エッジ画素、水平エッジ画素、垂直エッジ画素、斜めエッジ画素に分類する(b4)。方向相関算出処理部13によってエッジ方向の相関性に基づく特徴量を算出する(b5)。そして、判定処理部14によって判定ブロックあるいは判定ブロック内の注目画素を、下地、写真、文字、網点、不定のいずれかの領域に属するのかを判定する(b6)。
【選択図】 図5An object of the present invention is to provide an area separation processing method, an area separation processing program, and a recording medium on which the area separation processing method and the recording medium recording the same can be performed with high accuracy and high speed. Provided is a processing device and an image forming apparatus including the same.
A background pixel is detected by a background detection processing unit of a block determination unit (b1). The horizontal edge component is calculated by the horizontal edge component calculation processing unit 111, and the vertical edge component is calculated by the vertical edge component calculation processing unit 112 (b2, 3). The edge direction classification processing unit 12 classifies each pixel into a non-edge pixel, a horizontal edge pixel, a vertical edge pixel, and a diagonal edge pixel (b4). The feature amount based on the correlation in the edge direction is calculated by the direction correlation calculation processing unit 13 (b5). Then, the determination processing unit 14 determines whether the determination block or the pixel of interest in the determination block belongs to any of the base, photograph, character, halftone, and indefinite regions (b6).
[Selection diagram] FIG.
Description
【0001】
【発明の属する技術分野】
本発明は、デジタル複写機などの画像形成装置において、フィルタ処理や中間調生成処理などの処理を適切に行うために、画像データを下地領域、文字領域、網点領域および写真領域に分離する領域分離処理方法、領域分離処理プログラムおよびこれを記録した記録媒体に関する。さらに本発明は、前記領域分離方法を用いる領域分離処理部を備えた画像処理装置、および当該画像処理装置を備え領域分離された画像データを用いて画像を出力する画像形成装置に関する。
【0002】
【従来の技術】
一般のデジタル複写機などでは高画質な画像を出力するために、入力された画像データに対して、各画素を下地領域、文字領域、網点領域、印画紙写真領域(写真領域)に分離し、各領域の特性に応じたフィルタ処理、ガンマ処理、中間調処理などの画像処理を施している。
【0003】
たとえば、特許文献1には、入力画像データに複数階層のウェーヴレット変換処理を施して、複数の異なる周波数成分を求め、求めた周波数成分に基づいて、領域分離処理を行う画像処理装置が開示されている。
【0004】
ウェーヴレット変換とは周波数変換の一種であり、周波数変換された画像データの冗長性を利用して符合化を行う技術である。また、異なる周波数成分とは、直流成分、主走査方向の交流成分、副走査方向の交流成分、および斜め方向の交流成分をいう。画像データにウェーヴレット変換処理を施すと、画像を低周波成分と高周波成分とに分解でき、ウェーヴレット分解係数を得ることができる。このウェーヴレット分解係数から、色、テクスチャ、形状情報などの様々な情報が得られるので、このウェーヴレット分解係数を画像データの特徴量として利用することができる。
【0005】
特許文献1の画像処理装置では、まず入力画像データを複数の画素データからなるブロックに分割する。そして、ブロック内の画像データにウェーヴレット変換を施して所定の周波数成分を抽出し、この周波数成分に対応する第1の閾値を選択する。抽出した周波数成分を構成する複数の係数の絶対値と選択した第1閾値とをそれぞれ比較する。絶対値が第1の閾値を上回る係数の数を計数し、計数された数と所定の第2の閾値とを比較することにより、ブロックを文字領域、網点領域、連続階調領域に分離する。
【0006】
【特許文献1】
特開平11−220622号公報
(第4−11頁、第1,2,7,19図)
【0007】
【発明が解決しようとする課題】
ウェーヴレット変換を利用して領域分離を行う場合、以前では、ウェーヴレット逆変換を施し、元の画像データに復元してから領域分離を行っていたのに対して、特許文献1に開示された画像形成装置によると、ウェーヴレット変換後の異なる周波数成分に分解された信号に対して、ウェーヴレット逆変換を施すことなく領域分離ができるので、余分な手間と時間を省くことができる。
【0008】
しかしながら、前記の技術は各領域の周波数成分の違いに着目して領域分離を行っているため、周波数分布が似ている領域、たとえば、線数の少ない網点領域と小さな文字から成る文字領域との分離は非常に困難である。
【0009】
また、前記の技術では、領域分離精度を向上させるためには、2階層以上のウェーヴレット変換を施す必要があり、演算量は膨大となり、処理速度の観点からも問題がある。さらに、領域分離するには、複数階層のウェーヴレット変換によって生成された多数の係数信号を処理する必要があり、演算量が膨大となることから、当該領域分離処理を実行する装置の規模は増大し、これに伴い処理コストもかかってしまうという問題がある。
【0010】
本発明の目的は、領域の分離を精度よく、かつ高速に行うことができる領域分離処理方法、領域分離処理プログラムおよびこれを記録した記録媒体を提供することであり、また、高画質の画像を生成することができる画像処理装置およびこれを備えた画像形成装置を提供することである。
【0011】
【課題を解決するための手段】
本発明は、複数の画素から成る画像を表す画像データが入力され、入力された画像データに基づいて、複数の画素から成る画素ブロックまたは画素ブロック内の注目画素が文字領域および網点領域を含む複数の領域のいずれに属するかを判定し、画像データの領域分離を行う領域分離処理方法において、
画像データを所定の画素数からなる画素ブロックに分割する分割ステップと、
画素ブロック内の各画素のエッジ成分を算出する成分算出ステップと、
算出されたエッジ成分に基づいて、各画素が構成するエッジの方向を決定する方向決定ステップと、
決定されたエッジの方向に基づいて、画素ブロック内の各画素のエッジの方向とその近傍画素のエッジの方向との相関性に基づく画素ブロックの特徴量を算出する特徴量算出ステップと、
算出された特徴量に基づいて、前記画素ブロックまたは画素ブロック内の注目画素が前記文字領域あるいは前記網点領域のいずれに属するかを判定する判定ステップとを有することを特徴とする領域分離処理方法である。
【0012】
画素ブロック内の各画素が構成するエッジの方向は、画素ブロックまたは画素ブロック内の注目画素の特徴を表している。エッジの方向が異なる画素が多く含まれる画素ブロックまたは画素ブロック内の注目画素は、網点領域に属し、エッジの方向が同じエッジ画素が多く含まれる画素ブロックまたは画素ブロック内の注目画素は、文字領域に属する。本発明は、これらに着目し、領域分離処理を行う。
【0013】
本発明に従えば、まず分割ステップで、入力された画像データを所定の画素数からなる画素ブロックに分割する。
【0014】
成分算出ステップでは、画素ブロック内の各画素のエッジ成分を算出する。エッジ成分とは、注目画素がエッジを構成する画素かどうかを決定する際に参照される値であり、たとえば注目画素と近傍画素との階調差が用いられる。エッジ成分には、水平エッジ成分および垂直エッジ成分があり、たとえばエッジ成分抽出フィルタなどを用いて各成分を算出する。
【0015】
方向決定ステップでは、算出したエッジ成分に基づいて、各画素が構成するエッジの方向を決定する。水平エッジ成分が垂直エッジ成分より大きければ、エッジの方向は水平方向となり、垂直エッジ成分が水平エッジ成分より大きければ、エッジの方向は垂直方向となる。また、水平エッジ成分と垂直エッジ成分との差が小さければエッジ方向は斜め方向となる。したがって、エッジ方向は、水平エッジ成分と垂直エッジ成分とを比較することで決定される。
【0016】
特徴量算出ステップでは、画素ブロック内の各画素のエッジの方向とその近傍画素のエッジの方向との相関性に基づく画素ブロックの特徴量を算出する。ここで、相関性とは、各画素のエッジの方向と近傍画素のエッジの方向とがどれくらい同じかまたは異なっているか、すなわち、近傍画素のうち同じエッジの方向を持つ近傍画素の割合を示す。
【0017】
前述のように、画素ブロック内の各画素のエッジの方向は、画素ブロックまたは画素ブロック内の注目画素の特徴を表している。近傍画素とは異なるエッジの方向を有する画素が、画素ブロック内に含まれる数を特徴量として算出する。
【0018】
判定ステップでは、算出された特徴量に基づいて画素ブロックまたは画素ブロック内の注目画素が文字領域あるいは網点領域に属するか否かを判定する。たとえば、特徴量が前述のような特徴量である場合、特徴量と所定の閾値とを比較する。特徴量が閾値以上の場合、すなわち、近傍画素とは異なるエッジ方向を有する画素が多く含まれる場合、画素ブロックまたは画素ブロック内の注目画素は網点領域に属すると判定する。特徴量が閾値より小さい場合、すなわち、近傍画素と同じエッジ方向を有する画素が多く含まれる場合、画素ブロックまたは画素ブロック内の注目画素は文字領域に属すると判定する。
【0019】
これにより、エッジの方向という画像の構造的特徴に基づいて領域分離を行うので、空間周波数成分が近似している網点領域と文字領域とを精度良く分離することができる。
【0020】
また本発明は、複数の画素から成る画像を表す画像データが入力され、入力された画像データに基づいて、複数の画素から成る画素ブロックまたは画素ブロック内の注目画素が文字領域、網点領域および写真領域を含む複数の領域のいずれに属するかを判定し、画像データの領域分離を行う領域分離処理方法において、
画像データを所定の画素数からなる画素ブロックに分割する分割ステップと、
画素ブロック内の各画素のエッジ成分を算出する成分算出ステップと、
エッジ成分に基づいて画素ブロック内のエッジ画素を検出し、エッジ画素数を計数するエッジ画素計数ステップと、
エッジ成分に基づいて各エッジ画素が構成するエッジの方向を決定する方向決定ステップと、
決定されたエッジの方向に基づいて、画素ブロック内の各エッジ画素のエッジの方向とその近傍エッジ画素のエッジの方向との相関性に基づく画素ブロックの特徴量を算出する特徴量算出ステップと、
計数されたエッジ画素数に基づいて、前記画素ブロックまたは画素ブロック内の注目画素が写真領域に属するか否かを判定し、算出された特徴量に基づいて、前記画素ブロックまたは画素ブロック内の注目画素が前記文字領域あるいは前記網点領域に属するか否かを判定する判定ステップとを有することを特徴とする領域分離処理方法である。
【0021】
本発明に従えば、まず分割ステップでは、入力された画像データを所定の画素数からなる画素ブロックに分割する。
【0022】
成分算出ステップでは、画素ブロック内の各画素のエッジ成分を算出する。エッジ成分には、水平エッジ成分および垂直エッジ成分があり、たとえばエッジ成分抽出フィルタなどを用いて各成分を算出する。
【0023】
エッジ成分が算出されると、エッジ画素計数ステップでは、エッジ成分に基づいて画素ブロック内のエッジ画素を検出し、エッジ画素数を計数する。エッジ画素は、大きなエッジ成分を有するので、エッジ成分が所定の閾値より大きい画素をエッジ画素として検出する。
【0024】
方向決定ステップでは、算出したエッジ成分に基づいて各エッジ画素が構成するエッジの方向を決定する。水平エッジ成分が垂直エッジ成分より大きければ、エッジの方向は水平方向となり、垂直エッジ成分が水平エッジ成分より大きければ、エッジの方向は垂直方向となる。また、水平エッジ成分と垂直エッジ成分との差が小さければエッジの方向は斜め方向となる。したがって、エッジの方向は、水平エッジ成分と垂直エッジ成分とを比較することで決定する。
【0025】
特徴量算出ステップでは、決定されたエッジの方向に基づいて、画素ブロック内の各エッジ画素のエッジの方向とその近傍画素のエッジ方向との相関性に基づく画素ブロックの特徴量を算出する。前述のように、画素ブロック内のエッジ画素のエッジ方向は、画素ブロックまたは画素ブロック内の注目画素の特徴を表している。近傍のエッジ画素とは異なるエッジ方向を有するエッジ画素が、画素ブロック内に含まれる数を特徴量として算出する。
【0026】
判定ステップでは、たとえば計数されたエッジ画素数と所定の閾値とを比較し、閾値より小さければ画素ブロックまたは画素ブロック内の注目画素が写真領域に属すると判定する。写真領域に属しないと判定されたときは、算出された特徴量に基づいて画素ブロックまたは画素ブロック内の注目画素が文字領域あるいは網点領域に属するか否かを判定する。たとえば、特徴量が前述のような特徴量である場合、特徴量と所定の閾値とを比較する。特徴量が閾値以上の場合、すなわち、近傍のエッジ画素とは異なるエッジ方向を有するエッジ画素が多く含まれる場合、画素ブロックまたは画素ブロック内の注目画素は網点領域に属すると判定する。特徴量が閾値より小さい場合、すなわち、近傍のエッジ画素と同じエッジ方向を有するエッジ画素が多く含まれる場合、画素ブロックまたは画素ブロック内の注目画素は文字領域に属すると判定する。
【0027】
これにより、エッジの方向という画像の構造的特徴に基づいて領域分離を行うので、空間周波数成分が近似している網点領域と文字領域とを精度良く分離することができる。また、写真領域の判定は、検出したエッジ画素数を用いて行うので、容易に写真領域を分離することができる。
【0028】
また本発明は、複数の画素から成る画像を示す画像データが入力され、入力された画像データに基づいて、複数の画素から成る画素ブロックまたは画素ブロック内の注目画素が文字領域、網点領域、写真領域および下地領域を含む複数の領域のいずれに属するかを判定し、画像データの領域分離を行う領域分離処理方法において、
画像データを所定の画素数からなる画素ブロックに分割する分割ステップと、
画素の階調値に基づいて画素ブロック内の下地画素を検出し、下地画素数を計数する下地画素計数ステップと、
画素ブロック内の各画素のエッジ成分を算出する成分算出ステップと、
エッジ成分に基づいて画素ブロック内のエッジ画素を検出し、エッジ画素数を計数するエッジ画素計数ステップと、
エッジ成分に基づいて各エッジ画素が構成するエッジの方向を決定する方向決定ステップと、
決定されたエッジの方向に基づいて、画素ブロック内の各エッジ画素のエッジの方向とその近傍エッジ画素のエッジの方向との相関性に基づく画素ブロックの特徴量を算出する特徴量算出ステップと、
計数された下地画素数に基づいて前記画素ブロックまたは画素ブロック内の注目画素が下地領域に属するか否かを判定し、計数されたエッジ画素数に基づいて前記画素ブロックまたは画素ブロック内の注目画素が写真領域に属するか否かを判定し、算出された特徴量に基づいて前記画素ブロックまたは画素ブロック内の注目画素が前記文字領域あるいは前記網点領域に属するか否かを判定する判定ステップとを有することを特徴とする領域分離処理方法である。
【0029】
本発明に従えば、まず分割ステップでは、入力された画像データを所定の画素数からなる画素ブロックに分割する。
【0030】
下地画素計数ステップでは、画素の階調値に基づいて画素ブロック内の下地画素を検出し、下地画素数を計数する。下地領域は白色であることが多いので、下地画素の階調値は大きい。したがって、階調値が所定の閾値より大きい画素を下地画素として検出する。
【0031】
成分算出ステップでは、画素ブロック内の各画素のエッジ成分を算出する。エッジ成分には、水平エッジ成分および垂直エッジ成分があり、たとえばエッジ成分抽出フィルタなどを用いて各成分を算出する。
【0032】
エッジ成分が算出されると、エッジ画素計数ステップでは、エッジ成分に基づいて画素ブロック内のエッジ画素を検出し、エッジ画素数を計数する。エッジ画素は、大きなエッジ成分を有するので、エッジ成分が所定の閾値より大きい画素をエッジ画素として検出する。
【0033】
方向決定ステップでは、算出したエッジ成分に基づいて各エッジ画素が構成するエッジの方向を決定する。水平エッジ成分が垂直エッジ成分より大きければ、エッジの方向は水平方向となり、垂直エッジ成分が水平エッジ成分より大きければ、エッジの方向は垂直方向となる。また、水平エッジ成分と垂直エッジ成分との差が小さければエッジの方向は斜め方向となる。したがって、エッジの方向は、水平エッジ成分と垂直エッジ成分とを比較することで決定する。
【0034】
特徴量算出ステップでは、画素ブロック内の各エッジ画素のエッジ方向とその近傍画素のエッジ方向との相関性に基づく画素ブロックの特徴量を算出する。前述のように、画素ブロック内のエッジ画素のエッジ方向は、画素ブロックまたは画素ブロック内の注目画素の特徴を表している。近傍のエッジ画素とは異なるエッジ方向を有するエッジ画素が、画素ブロック内に含まれる数を特徴量として算出する。
【0035】
最後に、判定ステップでは、たとえば計数された下地画素数と所定の閾値とを比較し、閾値より大きければ画素ブロックまたは画素ブロック内の注目画素が下地領域に属すると判定する。下地領域に属しないと判定されたときは、たとえば計数されたエッジ画素数と所定の閾値とを比較し、閾値より小さければ画素ブロックまたは画素ブロック内の注目画素が写真領域に属すると判定する。写真領域にも属しないと判定されたときは、算出された特徴量に基づいて画素ブロックまたは画素ブロック内の注目画素が文字領域あるいは網点領域に属するか否かを判定する。たとえば、特徴量が前述のような特徴量である場合、特徴量と所定の閾値とを比較する。特徴量が閾値以上の場合、すなわち、近傍のエッジ画素とは異なるエッジ方向を有するエッジ画素が多く含まれる場合、画素ブロックまたは画素ブロック内の注目画素は網点領域に属すると判定する。特徴量が閾値より小さい場合、すなわち、近傍のエッジ画素と同じエッジ方向を有するエッジ画素が多く含まれる場合、画素ブロックまたは画素ブロック内の注目画素は文字領域に属すると判定する。
【0036】
これにより、エッジの方向という画像の構造的特徴に基づいて領域分離を行うので、空間周波数の成分が近似している網点領域と文字領域とを精度良く分離することができる。また、下地領域の判定は、検出した下地画素数を用いて行うので、容易に下地領域を分離することができる。また、写真領域の判定は、検出したエッジ画素数を用いて行うので、容易に写真領域を分離することができる。
【0037】
また本発明は、前記成分算出ステップは、エッジ成分として水平エッジ成分および垂直エッジ成分を算出し、
前記方向決定ステップは、前記水平エッジ成分と垂直エッジ成分との差分からエッジの方向を決定することを特徴とする。
【0038】
本発明に従えば、エッジ成分として水平エッジ成分および垂直エッジ成分を算出し、これらの差分からエッジの方向を決定する。
【0039】
このように、エッジの方向の決定には、水平エッジ成分と垂直エッジ成分との差分を算出するだけでよいので、たとえば水平エッジ成分と垂直エッジ成分との比の逆正接からエッジの角度を算出する場合と比較して、計算量を削減することができ、精度を下げることなく領域分離処理の高速化を図ることができる。また、領域分離処理を行う回路規模を縮小することができる。
【0040】
また本発明は、前記特徴量算出ステップでは、画素ブロック内の各エッジ画素を注目画素としたとき、注目画素の近傍エッジ画素のうち、注目画素のエッジ方向と同じエッジ方向を有する近傍エッジ画素数を注目画素ごとに計数し、
計数された近傍エッジ画素数が所定の値より少ない注目画素の画素数を、特徴量として算出することを特徴とする。
【0041】
本発明に従えば、特徴量算出ステップでは、まず画素ブロック内のエッジ画素を注目画素とし、この注目画素の近傍エッジ画素のうち、注目画素のエッジ方向と同じエッジ方向を有する近傍エッジ画素数(同方向近傍エッジ画素数)を計数する。注目画素を画素ブロック内の他のエッジ画素に順次変更して、注目画素ごとに同方向近傍エッジ画素数を計数する。注目画素ごとに計数された同方向近傍エッジ画素数を所定の値、たとえば近傍エッジ画素数の1/2と比較し、これより少ない注目画素の画素数を算出する。
【0042】
このように、同方向近傍エッジ画素数に基づいて特徴量を算出するので、画素ブロックの特徴量を容易に算出することができる。
【0043】
また本発明は、前記特徴量算出ステップでは、前記エッジ画素のエッジの方向を、その方向に応じて所定の値に置き換え、
置き換えられた値を用いて、注目画素のエッジ方向と同じエッジ方向を有する近傍エッジ画素数を計数することを特徴とする。
【0044】
本発明に従えば、エッジ画素のエッジの方向を、その方向に応じて所定の値に置き換える。所定の値としては、たとえば任意のベクトルを用いる。エッジの方向が同方向のときは、ベクトルの内積が「1」となり、異方向のときは「0」となるように各ベクトルを設定する。このように設定すれば、同方向近傍エッジ画素を計数する際に、注目画素のエッジ方向を示すベクトルと近傍エッジ画素のエッジ方向を示すベクトルとの内積の和を求めるだけでよく、注目画素のエッジ方向と近傍エッジ画素のエッジ方向とが同じであるか否かを判断する必要がない。
【0045】
このように、判断処理を行わないので、計算量を削減することができ、領域分離処理の高速化を図ることができる。また、領域分離処理を行う回路規模を縮小することができる。
【0046】
また本発明は、上記の領域分離処理方法をコンピュータに実行させるための領域分離処理プログラムである。
【0047】
本発明に従えば、上記の領域分離処理方法をコンピュータに実行させるための領域分離処理プログラムとして提供することができる。
【0048】
また本発明は、上記の領域分離処理方法をコンピュータに実行させるための領域分離処理プログラムを記録したコンピュータ読み取り可能な記録媒体である。
【0049】
本発明に従えば、上記の領域分離処理方法をコンピュータに実行させるための領域分離処理プログラムを記録したコンピュータ読み取り可能な記録媒体として提供することができる。
【0050】
また本発明は、複数の画素から成る画像を表す画像データが入力され、入力された画像データに基づいて、複数の画素から成る画素ブロックまたは画素ブロック内の注目画素が文字領域および網点領域を含む複数の領域のいずれに属するかを判定し、画像データの領域分離を行う領域分離処理部を備える画像処理装置において、
画像データを所定の画素数からなる画素ブロックに分割する分割手段と、
画素ブロック内の各画素のエッジ成分を算出する成分算出手段と、
算出されたエッジ成分に基づいて各画素が構成するエッジの方向を決定する方向決定手段と、
決定されたエッジの方向に基づいて、画素ブロック内の各画素のエッジの方向とその近傍画素のエッジの方向との相関性に基づく画素ブロックの特徴量を算出する特徴量算出手段と、
算出された特徴量に基づいて、前記画素ブロックまたは画素ブロック内の注目画素が前記文字領域あるいは前記網点領域のいずれに属するかを判定する判定手段とを有することを特徴とする画像処理装置である。
【0051】
本発明に従えば、まず分割手段が、入力された画像データを所定の画素数からなる画素ブロックに分割する。
【0052】
成分算出手段は、画素ブロック内の各画素のエッジ成分を算出する。エッジ成分には、水平エッジ成分および垂直エッジ成分があり、たとえばエッジ成分抽出フィルタなどを用いて各成分を算出する。
【0053】
算出されたエッジ成分に基づいて、方向決定手段が、各画素が構成するエッジの方向を決定する。水平エッジ成分が垂直エッジ成分より大きければ、エッジの方向は水平方向となり、垂直エッジ成分が水平エッジ成分より大きければ、エッジの方向は垂直方向となる。また、水平エッジ成分と垂直エッジ成分との差が小さければエッジの方向は斜め方向となる。したがって、エッジの方向は、水平エッジ成分と垂直エッジ成分とを比較することで決定する。
【0054】
特徴量算出手段は、決定されたエッジの方向に基づいて、画素ブロック内の各画素のエッジ方向とその近傍画素のエッジ方向との相関性に基づく画素ブロックの特徴量を算出する。前述のように、画素ブロック内のエッジ画素のエッジ方向は、画素ブロックまたは画素ブロック内の注目画素の特徴を表している。近傍のエッジ画素とは異なるエッジ方向を有するエッジ画素が、画素ブロック内に含まれる数を特徴量として算出する。
【0055】
算出された特徴量に基づいて、判定手段が、画素ブロックまたは画素ブロック内の注目画素が文字領域あるいは網点領域に属するか否かを判定する。たとえば、特徴量が前述のような特徴量である場合、特徴量と所定の閾値とを比較する。特徴量が閾値以上の場合、すなわち、近傍のエッジ画素とは異なるエッジ方向を有するエッジ画素が多く含まれる場合、画素ブロックまたは画素ブロック内の注目画素は網点領域に属すると判定する。特徴量が閾値より小さい場合、すなわち、近傍のエッジ画素と同じエッジ方向を有するエッジ画素が多く含まれる場合、画素ブロックまたは画素ブロック内の注目画素は文字領域に属すると判定する。
【0056】
これにより、エッジの方向という画像の構造的特徴に基づいて領域分離を行うので、空間周波数の成分が近似している網点領域と文字領域とを精度良く分離することができる。
【0057】
また本発明は、上記の画像処理装置と、
画像処理装置によって処理された画像データを出力する画像出力装置とを備えることを特徴とする画像形成装置である。
【0058】
本発明に従えば、上記の画像処理装置によって処理された画像データを、画像出力装置から出力する。
【0059】
これにより、高精度に領域分離が行われ、領域に応じた処理が施された画像データを出力することができるので、高画質の画像を形成することができる。
【0060】
【発明の実施の形態】
本発明は、領域分離処理に関するものである。領域分離処理とは、入力画像データの各画素を網点領域、文字領域、印画紙写真領域(写真領域)、下地領域、およびこれら4つの領域のいずれに属するかを判定できない不定領域、のいずれかに分離する処理である。このように、入力画像データを各領域に分離することで、各領域の特性に応じたフィルタ処理、ガンマ処理、中間調処理などの画像処理を施すことができ、高画質な画像を出力することができる。
【0061】
本発明の実施形態である領域分離処理方法について説明する。本実施形態では、まず、入力画像データを任意の大きさの矩形から成る画素ブロックに分割する。そして、複数種類の領域から下地領域を分離する。下地領域とは、白地領域とも呼ばれ、画像の明度が一定以上となる背景部分であるため、当該領域は明度に基づいて分離することができる。一定以上の明度を有するブロックを下地領域として分離した後、ブロックごとに、水平エッジ、垂直エッジおよび斜めエッジの3方向のエッジを検出し、画素ブロック内のエッジ画素の総数、エッジ方向の相関性に基づく特徴量などを算出する。画素のエッジ方向とは、画素が構成するエッジの方向のことをいう。
【0062】
印画紙写真領域は中間調濃度の画像であり、画像中に存在するエッジは他の領域と比べて少ないため、エッジ画素の総数を算出し、これを所定の閾値と比較することで当該領域を分離することができる。
【0063】
また、文字領域と網点領域とでは、エッジの出現に見られる構造上の違いが存在する。図1は、文字画像と網点画像におけるエッジ方向の分布を示す図である。図1(a)は文字画像についての図であり、図1(b)は網点画像についての図である。文字画像および網点画像ともに、図の上段左には入力画像、上段右にはエッジ画像が示され、下段には、上段のエッジ画像をさらに3方向のエッジに分離した水平エッジ画像、垂直エッジ画像および斜めエッジ画像が左、中央、右の順に示されている。
【0064】
図1(a)の下段に示すように、文字画像に出現する3方向のエッジのうち、異方向のエッジが出現する位置は大きく異なり、異方向のエッジが所定領域内で出現する割合は低い。これに対し、図1(b)の下段に示すように、網点画像に出現する3方向のエッジのうち、異方向のエッジが出現する位置はそれほど異ならず、異方向のエッジが所定領域内で出現する割合は高い。
【0065】
このことより、文字領域では同方向のエッジ画素が多く含まれ、網点領域では異方向のエッジ画素が多く含まれる構造となっており、これに基づいて両領域を分離することができる。
【0066】
図2は、領域分離処理を実行する領域分離処理部Aの構成を示すブロック図である。領域分離処理部Aは、ブロック分割部1、L*a*b*変換部2およびブロック判定部3から構成される。ブロック分割部1は、RGB信号(R:赤、G:緑、B:青)から成る入力画像データをm×n画素から成る画素のブロック(以降、「判定ブロック」と呼ぶものとする。なお、m,nは任意の自然数である。)に分割し、L*a*b*変換部2に出力する。L*a*b*変換部2は、ブロック分割部1で分割された各判定ブロックの画素が有するRGB信号を、CIE1976L*a*b*信号(CIE:Commission Internationale de l’Eclairage:国際照明委員会。L*:明度、a*,b*:色度)に変換し、L*a*b*信号のうちのL*信号をブロック判定部3に出力する。色空間の変換は、CIE1976L*a*b*の定義式を用いることによって行う。
【0067】
ブロック判定部3は、変換されたCIE1976L*a*b*信号のL*信号を用いて各判定ブロックを、網点領域から成る網点ブロック、文字領域から成る文字ブロック、写真領域から成る写真ブロック、下地領域から成る下地ブロック、不定領域である不定ブロックに分類し、領域識別信号を出力する。本実施形態では、CIE1976L*a*b*信号のL*信号を用いて、画像データを領域分離処理しているが、領域分離処理に用いる信号はL*信号に限定されるものではなく、式(1)によって表される輝度値でもよく、RGB信号をそのまま用いて行ってもよい。
Yj=0.30Rj+0.59Gj+0.11Bj …(1)
【0068】
ここでのYjは各画素の輝度値を表し、Rj,Gj,Bjは各画素の色成分を表す。
【0069】
なお、入力画像データの読み取り解像度は、エリアシング(原稿には存在しない干渉縞など)を回避するために印刷解像度の2倍以上の解像度が必要で、読み取り解像度が高いほど判定精度は向上する。
【0070】
また、判定ブロックのサイズは、広いほど判定精度は向上し、たとえば、m×n=7×7画素以上のサイズが望ましい。
【0071】
図3は、領域分離処理部Aによる領域分離処理の手順を示すフローチャートである。まず、ステップa1では、ブロック分割部1によって、入力画像データをm×n画素から成る画素の判定ブロックに分割する分割処理が行われる(m,nは任意の自然数)。ステップa2では、L*a*b*変換部2が各判定ブロックのRGB信号をL*a*b*信号に変換する。ステップa3では、各判定ブロックが、網点、文字、写真、下地および不定のいずれの領域に属するかをブロック判定部3が判定するブロック判定処理が行われる。そして、ステップa4では、画像データ中の全判定ブロックについて各処理が終了したか否かが判断される。終了していれば領域分離処理を終了し、終了していなければステップa3に戻る。
【0072】
図4は、図2に示すブロック判定部3の構成を示すブロック図である。ブロック判定部3は、下地画素検出処理部10、エッジ成分算出処理部11、エッジ方向分類処理部12、方向相関算出処理部13および判定処理部14から構成される。さらに、エッジ成分算出処理部11は、水平エッジ成分算出処理部111および垂直エッジ成分算出処理部112から成る。エッジ成分算出処理部11はエッジ抽出手段を構成し、エッジ方向分類処理部12はエッジ方向決定手段を構成し、方向相関算出処理部13は方向相関検出手段を構成し、判定処理部14は判定手段を構成する。
【0073】
下地画素検出処理部10は、下地画素の検出を行い、検出結果を下地画素信号として判定処理部14に出力する。エッジ成分算出処理部11は、エッジ成分を算出し、算出結果をエッジ成分信号としてエッジ方向分類処理部12に出力する。ここでエッジ成分とは、判定ブロック内の処理対象の画素(以降、「注目画素」と呼ぶものとする。)と近傍画素との階調差を表し、注目画素がエッジを構成する画素かどうかを決定する際に参照される値である。エッジ成分は、注目画素の画素データを含む所定の画素データ群に対してフィルタ処理を施すことによって算出することができる。なお、エッジ成分は、エッジの方向に応じて算出する。本実施形態では、水平方向および垂直方向のエッジ成分を算出する。水平エッジ成分算出処理部111によって水平エッジ成分を算出し、垂直エッジ成分算出処理部112によって垂直エッジ成分を算出する。
【0074】
エッジ方向分類処理部12は、エッジ成分算出処理部11から出力された水平および垂直エッジ成分信号に基づいて、判定ブロック内の画素を非エッジ画素、水平エッジ画素、垂直エッジ画素、斜めエッジ画素に分類し、分類結果をエッジ方向信号として方向相関算出処理部13に出力する。方向相関算出処理部13は、エッジ方向信号に基づいてエッジ方向の相関性に基づく特徴量を算出し、算出結果を方向相関信号として判定処理部14に出力する。判定処理部14は、下地画素信号および方向相関信号に基づいて、当該判定ブロックがいずれの領域に属するブロックであるのかを判定する。そして、判定結果を領域識別信号として出力する。
【0075】
図5は、ブロック判定部3によるブロック判定処理の手順を示すフローチャートである。
【0076】
まず、ステップb1では、ブロック判定部3の下地画素検出処理部10によって下地画素の検出処理が行われる。ステップb2では、水平エッジ成分算出処理部111によって水平エッジ成分の算出処理が行われる。ステップb3では、垂直エッジ成分算出処理部112によって垂直エッジ成分の算出処理が行われる。
【0077】
ステップb4では、エッジ方向分類処理部12によって判定ブロック内の画素を非エッジ画素、水平エッジ画素、垂直エッジ画素、斜めエッジ画素に分類するエッジ方向分類処理が行われる。ステップb5では、方向相関算出処理部13によってエッジ方向の相関性に基づく特徴量を算出する方向相関算出処理が行われる。そして、ステップb6では、判定処理部14によって、入力画像データの判定ブロックが、下地ブロック、写真ブロック、文字ブロック、網点ブロック、不定ブロックのいずれであるのかを判定する判定処理が行われ、ブロック判定処理を終了する。
【0078】
次に、ブロック判定処理を構成する下地画素検出処理(図5に示すステップb1)、水平および垂直エッジ成分算出処理(図5に示すステップb2,b3)、エッジ方向分類処理(図5に示すステップb4)、方向相関算出処理(図5に示すステップb5)および判定処理(図5に示すステップb6)の詳細な手順について説明する。
【0079】
図6は、下地画素検出処理部10による下地画素検出処理の詳細な手順を示すフローチャートである。下地画素は、明度を表す画素データL*が一定以上の値を有しているか否かによって判断できる。ここでは判定ブロック内の画素ごとに入力画像データの明度L*を所定の閾値と比較していき、判定ブロック内に下地画素がいくつ存在するのかを算出する。この処理は、判定ブロック内上段の左端の画素から右端の画素の順に行い、これを各段で繰り返すことで、判定ブロック内の左上の画素から右下の画素にかけて行う。
【0080】
まず、ステップc1では、下地画素検出処理部10によって判定ブロック内の画素データの明度L*が所定の閾値T1よりも大きいか否かが判定される。閾値T1よりも大きければステップc2に進み、閾値T1以下であればステップc3に進む。ステップc2では、下地画素数Cnt_whiteに1が加算される。ステップc3では、判定ブロック内の全画素について処理が終了したか否かが判定される。処理が終了していれば下地画素検出処理を終了し、処理が終了していなければステップc1に戻る。この処理によって、当該判定ブロックにおける下地画素数Cnt_whiteが算出される。
【0081】
次に、水平エッジ成分算出処理(図5に示すステップb2)について説明する。図7は、水平エッジ成分算出処理部111による水平エッジ成分算出処理の手順を示すフローチャートである。ここでは、判定ブロックを構成する画素ごとに、その画素データの水平エッジ成分を数値として算出し、算出した値を後述するエッジ方向分類処理で使用する。
【0082】
ステップd1で、以下の式(2)に基づいて水平エッジ成分を算出する。ここでは、水平エッジ成分をhor、エッジ成分算出関数をEdge、処理の対象となる画素群の画素データをOriginalLで表す。処理の対象となる画素群とは、たとえば、3×3の画素群であって、この3×3の画素群の中心となる注目画素と、その周囲8つの近傍画素から成る。
hor=Edge(filter_hor,OriginalL)…(2)
【0083】
なお、filter_horとは、水平エッジ成分抽出のためのフィルタである。このフィルタには、高周波成分を通過するハイパスフィルタ(High Pass Filter:HPF)を用いてもよいし、低周波成分を通過するローパスフィルタ(Low Pass Filter:LPF)を用いてもよい。ただし、フィルタの種類によって、演算内容が以下のように異なる。
【0084】
HPFの場合は、式(3)に示すように対象画素群の画素データOriginalLとフィルタfilter_horとの畳み込み演算を行い、注目画素の水平エッジ成分を算出する。
【0085】
【数1】
【0086】
LPFの場合は、式(4)に示すように処理の対象となる画素群の画素データOriginalLとフィルタfilter_horとの畳み込み演算を行い、これを元の画素群の画素データOriginalLから減算する。こうすることで、ノイズの影響を抑制しつつ、注目画素の水平エッジ成分のみを抽出することができる。
【0087】
【数2】
【0088】
なお、フィルタの形状はハイパス、ローパスのいずれかの性質を持つものであればどのようなものであってもよく、たとえばラプラシアンフィルタなどを用いることができる。
【0089】
また、判定ブロックの端に位置する画素についてのフィルタ処理は、インターリーブ処理によって、たとえば判定ブロック内で隣接する画素の画素データを、判定ブロック外の画素データとして補間することで行っている。
【0090】
次に、垂直エッジ成分算出処理(図5に示すステップb3)について説明する。図8は、垂直エッジ成分算出処理部112による垂直エッジ成分算出処理の手順を示すフローチャートである。ここでは、判定ブロックを構成する画素ごとに、その画素データの垂直エッジ成分を数値として算出し、算出した値を後述するエッジ方向分類処理で使用する。基本的な処理は水平エッジ成分処理と同様である。
【0091】
ステップe1で、以下の式(5)に基づいて注目画素の垂直エッジ成分verを算出する。
ver=Edge(filter_ver,OriginalL)…(5)
【0092】
filter_verとは、垂直エッジ成分抽出のためのフィルタであり、filter_verとfilter_horは以下の式(6)の関係を満たすことが好ましい。
filter_ver=filter_horΤ …(6)
【0093】
ここでの「T」は、転地演算を表す。そして、ステップe2ではステップb3へ戻る。
【0094】
次に、エッジ方向分類処理(図5に示すステップb4)について説明する。図9は、エッジ方向分類処理部12によるエッジ方向分類処理の詳細な手順を示すフローチャートである。ここでは、先に算出した水平エッジ成分horおよび垂直エッジ成分verに基づいて、判定ブロックの各画素を非エッジ画素、水平エッジ画素、垂直エッジ画素、あるいは斜めエッジ画素のいずれかに分類するとともに、判定ブロック内のエッジ画素の総数を算出する。この処理は、判定ブロック内上段の左端の画素から右端の画素の順に行い、これを各段で繰り返すことで、判定ブロック内の左上の画素から右下の画素にかけて行う。
【0095】
まず、ステップf1では、注目画素はエッジ画素か否かが判断される。この判断は、水平エッジ成分horおよび垂直エッジ成分verの二乗和(hor2+ver2)を算出し、これを閾値T2と比較することによって行う。なお、閾値T2との比較にそれぞれのエッジ成分の二乗和(hor2+ver2)を用いているのは、水平エッジ成分、垂直エッジ成分の算出結果が負の値になる場合があるからであり、単なるエッジ成分の和(hor+ver)では、注目画素周辺の濃度変化を正しく評価できないためである。
【0096】
(hor2+ver2)が閾値T2より大きい場合には、注目画素周辺の濃度変化が大きく、注目画素をエッジ画素と判定してステップf3に進む。(hor2+ver2)が閾値T2以下の場合には、ステップf2に進む。ステップf2では、注目画素周辺の濃度変化が小さいので、非エッジ画素と判定され、ステップf9へ進む。
【0097】
ステップf3では、エッジ総数Cnt_totalに1が加算される。エッジ総数Cnt_totalとは、判定ブロック内におけるエッジ画素の総数である。ステップf4では、水平エッジ成分horと垂直エッジ成分verの二乗の差分値(hor2−ver2)が閾値T3と比較される。(hor2−ver2)が閾値T3より大きい場合には、ステップf5へ進み、注目画素は水平エッジ画素と判定され、ステップf9に進む。(hor2−ver2)が閾値T3以下の場合には、ステップf6に進む。
【0098】
ステップf6では、(hor2−ver2)と、閾値T3より小さい値の閾値T4との比較が行われ、(hor2−ver2)が閾値T4より小さい場合には、ステップf7に進む。ステップf7では、注目画素は垂直エッジ画素と判定され、ステップf9に進む。(hor2−ver2)が閾値T4以上の場合には、ステップf8に進む。ステップf8では、注目画素は斜めエッジ画素と判定され、ステップf9に進む。このように、閾値T3との比較にそれぞれのエッジ成分の二乗差を用いているのは、水平エッジ成分、垂直エッジ成分の算出結果が負の値になる場合があり、単なるエッジ成分の単なる差(hor−ver)では正しいエッジの方向を評価できないからである。
【0099】
ステップf9では、判定ブロックを構成する全ての画素について、エッジ方向分類処理が終了したか否かが判定される。終了していなければステップf1に戻り、終了していればエッジ方向分類処理を終了する。
【0100】
このように、エッジ方向の決定には、水平エッジ成分horの2乗と垂直エッジ成分verの2乗との差分を算出するだけでよいので、たとえばエッジ角度の算出に水平成分と垂直成分の比の逆正接を用いる場合と比較して、格段に計算量を削減することができ、精度を下げることなく処理の高速化を図ることができる。また、当該処理を行う回路の規模増大を抑えることができる。
【0101】
このエッジ方向分類処理は次の手順で行ってもよい。
図10は、角度によるエッジ方向の分類方法を表す図である。画像データの水平ライン方向を基準とした場合、水平方向とエッジの成す角度をθ(0°≦θ≦90°)とし、θがφHよりも小さければ水平エッジ(θ<φH)、φVよりも大きければ垂直エッジ(θ>φV)、それ以外(φH≦θ≦φV)であれば斜めエッジと定義すると、以下の式(7)〜(9)のような判定式によって、エッジの方向を判定することができる。具体的には、エッジ角度が15度未満は水平エッジ(θ<φH=15°)、75度を超えるときは垂直エッジ(θ>φV=75°)というように、予め定めておけばエッジ方向を精度良く分類することができる。
ver2−hor2tan2φH<0(Horizontal;水平)…(7)
ver2−hor2tan2φV>0(Vertical;垂直) …(8)
otherwise (Diagonal;斜め) …(9)
【0102】
図11は、エッジ方向分類処理の他の手順を示すフローチャートである。処理手順は、図9に示す処理手順と略同様であるが、ステップf4’およびステップf6’における、水平エッジ、垂直エッジおよび斜めエッジを判定するための判断基準が異なる。すなわち、判断基準に、前記の式(7)、(8)を用いるのである。
【0103】
次に、方向相関算出処理(図5に示すステップb5)について説明する。図12は、方向相関算出処理部13による方向相関算出処理の詳細な手順を示すフローチャートである。相関性とは、各画素のエッジの方向と近傍画素のエッジの方向とがどれくらい同じかまたは異なっているか、すなわち、近傍画素のうち同じエッジの方向を持つ近傍画素の割合を示す。本実施形態では、3×3画素の画素群の中心を注目画素とし、その周囲の8画素を近傍画素とする。
【0104】
判定ブロック内の各エッジ画素を注目画素としたときに、相関性として注目画素の近傍エッジ画素のうち、注目画素のエッジ方向と同じエッジ方向を有する近傍エッジ画素数を注目画素ごとに計数し、計数された近傍エッジ画素数が所定の値より少ない注目画素の画素数を特徴量として算出する。この処理は、判定ブロック内上段の左端の画素から右端の画素の順に行い、これを各段で繰り返すことで、判定ブロック内の左上の画素から右下の画素にかけて行う。なお、判定ブロックの端に位置する画素についての処理は、インターリーブ処理によって、たとえば判定ブロック内で隣接する画素の画素データを補間することで行っている。
【0105】
まず、ステップg1では、エッジ方向分類処理のステップf1,f2の判断結果に基づいて、注目画素がエッジ画素であるか否かが判断される。エッジ画素であればステップg2に進み、エッジ画素でなければステップg9に進む。
【0106】
ステップg2では、ステップg1と同様に、注目画素の近傍画素のうち所定の近傍画素がエッジ画素であるか否かが判定される。エッジ画素であればステップg3に進み、エッジ画素でなければステップg6に進む。ステップg3では、近傍エッジ数Cnt_neighborに1が加算される。これによって、エッジ画素である近傍画素の数を算出することができる。
【0107】
ステップg4では、エッジ方向分類処理におけるステップf4〜f8の判断結果に基づいてエッジ方向を比較し、注目画素と近傍画素とのエッジの方向が等しいか否かが判定される。等しければステップg5に進み、等しくなければステップg6に進む。ステップg5では、同方向エッジ数Cnt_sameに1が加算される。これによって、注目画素のエッジと同方向のエッジを有する近傍画素の数を算出することができる。
【0108】
そして、ステップg6では、すべての近傍画素について処理が終了したか否かが判定される。終了していればステップg7に進み、終了していなければステップg2に戻り、次の近傍画素の処理を行う。
【0109】
ステップg7では、同方向エッジ数Cnt_sameを2倍したものと、注目画素の近傍エッジ数Cnt_neighborとが比較される。2Cnt_same<Cnt_neighborとなった場合、同方向エッジ数が近傍エッジ数の半数より下回ることになるので、注目画素のエッジ方向と異なるエッジ方向を有する近傍エッジ画素の割合が多いことになる。ステップg8では、特徴量である相関画素数Cnt_high_corに1が加算される。そして、Cnt_sameおよびCnt_neighborの値はクリアされる。ステップg9では、判定ブロックを構成する全ての画素について処理が終了したか否かが判断される。終了していれば方向相関算出処理を終了し、終了していなければステップg1に戻る。
【0110】
このように、画素ブロック内の注目画素ごとに、注目画素のエッジの方向と同じエッジの方向を有する近傍エッジ画素数を計数し、この計数値が所定の値より小さくなる注目画素の画素数を算出するので、画素ブロックの特徴量を容易に算出することができる。
【0111】
なお、方向相関算出処理は、以下のように内積を利用して行うこともできる。図13は、内積を利用して方向相関算出処理を行う場合の処理手順を示すフローチャートである。まず、予めそれぞれのエッジの方向に対して以下のベクトルを割り当てておく。注目画素をXc、近傍画素をXnとし、Xc,Xnにはエッジの方向に対して割り当てたベクトル値(10)〜(13)を格納する。ここでのベクトル値が、エッジの方向に応じて置き換えられた所定の値となる。
水平方向→[1 0 0] …(10)
垂直方向→[0 1 0] …(11)
斜め方向→[0 0 1] …(12)
非エッジ→[0 0 0] …(13)
【0112】
これらのベクトル値を用いて、式(14)および式(15)から近傍エッジ数Cnt_neighborおよび同方向エッジ数Cnt_sameを算出する。
【0113】
【数3】
【0114】
【数4】
【0115】
具体的なフローでは、まずステップh1で、近傍エッジ数Cnt_neighbor=Cnt_neighbor+Xn・Xnを算出し、ステップh2は、同方向エッジ数Cnt_same=Cnt_same+Xc・Xnを算出し、これを画素ブロック内の全画素について繰り返す。
【0116】
ステップh3では、すべての近傍画素について処理が終了したか否かが判定される。終了していればステップh4に進み、終了していなければステップh1に戻る。ステップh4では、同方向エッジ数Cnt_sameを2倍したものと、注目画素の近傍エッジ数Cnt_neighborとが比較される。2Cnt_same<Cnt_neighborであればステップh5に進み、2Cnt_same≧Cnt_neighborであればステップh6に進む。
【0117】
ステップh5では、相関画素数Cnt_high_corに1が加算される。そして、Cnt_sameおよびCnt_neighborの値はクリアされる。ステップh6では、判定ブロックを構成する全ての画素について処理が終了したか否かが判断される。終了していれば方向相関算出処理を終了し、終了していなければステップh1に戻る。
【0118】
このように、方向相関算出処理に内積を利用することで、処理手順中の判断処理を減らし、処理を単純化することができる。すなわち、図12に示したステップg1,g2,g4において分岐処理を行う必要がなくなるため、方向相関算出処理を高速に行うことができる。さらに、当該処理を行う回路の規模増大を抑えることができる。
【0119】
また、式(10)〜(13)のベクトル成分を各ビットに割り当て、水平エッジを「100」、垂直エッジを「010」、斜めエッジを「001」のように2進数で表現すれば、式(14),(15)の内積演算はビット演算により実行でき、さらに処理を高速に行うことができる。
【0120】
次に、判定処理(図5に示すステップb6)について説明する。判定処理は、判定ブロックごとに行い、対象となる判定ブロックは、下地画素検出処理、水平エッジ成分算出処理、垂直エッジ成分算出処理、エッジ方向分類処理および方向相関算出処理が終了した判定ブロックである。下地画素検出処理で算出した下地画素数Cnt_white、エッジ方向分類処理で算出したエッジ画素の総数Cnt_total、方向相関算出処理で算出した高相関画素数Cnt_high_corを用いることで、当該判定ブロックが、下地ブロック、写真ブロック、文字ブロック、網点ブロックおよび不定ブロックのうちのいずれであるのかを判定する。
【0121】
図14は、判定処理の詳細な手順を示すフローチャートである。まず、ステップi1では、下地画素数Cnt_whiteと閾値T5とが比較される。下地画素数Cnt_whiteが閾値T5よりも大きければステップi2に進み、下地画素数Cnt_whiteが閾値T5以下であればステップi3に進む。ステップi2では、当該判定ブロックを下地ブロックと判定し、判定処理を終了する。これは、判定ブロック内の下地画素の数が一定数より多く存在するからである。
【0122】
ステップi3では、エッジ画素の総数Cnt_totalと閾値T6とが比較される。エッジ画素の総数Cnt_totalが閾値T6よりも小さければ(Cnt_total<閾値T6)ステップi4に進み、エッジ画素の総数Cnt_totalが閾値T6以上であれば(Cnt_total≧閾値T6)ステップi5に進む。ステップi4では、当該判定ブロックを写真ブロックと判定し、判定処理を終了する。これは、判定ブロック内のエッジ画素の総数が一定数より少なく、中間調画像であり、かつ、下地ブロックではないからである。
【0123】
ステップi5では、相関画素数Cnt_high_corと閾値T7とが比較される。Cnt_high_corが閾値T7よりも小さければ(Cnt_high_cor<閾値T7)ステップi7に進み、Cnt_high_corが閾値T7以上であれば(Cnt_high_cor≧閾値T7)ステップi6に進む。
【0124】
ステップi7では、相関画素数Cnt_high_corを2倍した2Cnt_high_corとエッジ画素の総数Cnt_totalとが比較される。2Cnt_high_corがエッジ画素の総数Cnt_totalよりも小さければ(2Cnt_high_cor<Cnt_total)、ステップi8に進む。この場合、相関画素数はエッジ画素の総数の半分よりも小さいことになり、判定ブロック内にはエッジの方向が同方向の画素が多く存在することになるので、ステップi8では、当該判定ブロックを文字ブロックと判定し、判定処理を終了する。
【0125】
ステップi7で、2Cnt_high_corがエッジ画素の総数Cnt_total以上であれば(2Cnt_high_cor≧Cnt_total)、ステップi9に進む。この場合、前記とは逆に判定ブロック内にはエッジの方向が異なる画素が多く存在することになるので、網点ブロックである可能性も考えられる。しかしながら、誤判定である可能性もあるのでこれを避ける理由から、ステップi9に進み、不定ブロックと判定し、判定処理を終了する。
【0126】
ステップi6でも同様に、相関画素数Cnt_high_corを2倍した2Cnt_high_corとエッジ画素の総数Cnt_totalとが比較される。2Cnt_high_corがエッジ画素の総数Cnt_totalよりも小さければ(2Cnt_high_cor<Cnt_total)、判定ブロック内にはエッジの方向が同方向の画素が多く存在することになるので、文字ブロックである可能性も考えられる。しかしながら、誤判定である可能性もあるのでこれを避ける理由から、ステップi9に進み、不定ブロックと判定し、判定処理を終了する。
【0127】
2Cnt_high_corがエッジ画素の総数Cnt_total以上であれば(2Cnt_high_cor≧Cnt_total)、ステップi10に進む。この場合、判定ブロック内には方向の異なるエッジが多く存在することになるので、ステップi10では判定ブロックを網点ブロックと判定し、判定処理を終了する。
【0128】
以上の判定処理によって、判定ブロックを、文字ブロック、網点ブロック、写真ブロック、下地ブロック、不定ブロックに分離することができる。
【0129】
前述の各処理を画像データ中の全判定ブロックについて行うことで、画像データの領域分離処理を行うことができる。
【0130】
このように、画素のエッジの方向に基づく特徴量を用いることで、画像のエッジ方向という構造的な特徴に基づいた領域分離を行うことができる。これによって、周波数分布が非常に似ている領域であっても、精度よく分離することができる。
【0131】
以上では、所定の画素数からなる画素ブロックに対して領域分離を行う方法を示したが、画素ブロック内の注目画素に対して領域判定を行うようにしてもよい。
【0132】
図15は、画像形成装置Yの構成を示すブロック図である。画像形成装置Yは、画像処理装置X、画像入力装置60および画像出力装置61を備え、たとえば、電子写真方式やインクジェット方式を用いたデジタル複写機もしくは複合機などとして利用される。
【0133】
前述の領域分離処理部Aは、画像処理装置Xに備えられている。これによって、画像処理装置Xは、入力された画像データに領域分離処理を施し、画像データを構成する各ブロックの領域を識別することで、領域の特性に応じた様々な画像処理、たとえばフィルタ処理、ガンマ処理、中間調処理を施すことができる。これによって、高画質な画像を得ることができ、画像形成装置Yは、画像処理装置Xによって画像処理が施された画像データから高画質な画像を形成することができる。
【0134】
画像入力装置60は、入力させる画像を読み取って画像データに変換するものであり、CCD(Charge Coupled Device)などを備えたスキャナ部を含んで構成され、画像からの反射光像をCCDにて読み取り、画素ごとにRGBのアナログ信号に変換し、このアナログ信号を画像処理装置Xに入力する。
【0135】
画像出力装置61は、画像処理装置Xによって画像処理された画像データに基づいて、紙などの記録媒体上に画像を形成する。画像形成は、たとえば電子写真方式やインクジェット方式により行われる。
【0136】
次に、画像処理装置Xについて説明する。画像処理装置Xは、アナログ/デジタル(以後「A/D」と略称する)変換部50、シェーディング補正部51、入力階調補正部52、領域分離処理部A、色補正部53、墨生成下色除去処理部54、空間フィルタ処理部55、中間調出力階調処理部56から構成される。
【0137】
画像入力装置60から入力されたRGBのアナログ信号の画像データは、A/D変換部50、シェーディング補正部51、入力階調補正部52、領域分離処理部A、色補正部53、墨生成下色除去処理部54、空間フィルタ処理部55、中間調出力階調処理部56の順で処理され、CMYK(C:シアン、M:マゼンタ、Y:イエロー、K:ブラック)のデジタルカラー信号として、画像出力装置62へ出力される。
【0138】
A/D変換部50は、画像入力装置60から入力されるRGBのアナログ信号をデジタル信号に変換して、シェーディング補正部51に出力する。シェーディング補正部51は、A/D変換部50から入力されたRGBのデジタル信号に対して、画像入力装置60の照明系、結像系、撮像系で生じる各種の歪みを取り除く処理を施し、RGBの反射率信号として出力する。
【0139】
入力階調補正部52は、シェーディング補正部51にて各種の歪みが取り除かれたRGBの反射率信号に対して、カラーバランスを整えるとともに、濃度など画像処理装置Xに採用されている画像処理システムに適した濃度信号に変換する。
【0140】
領域分離処理部Aは、入力階調補正部52から入力されたRGB信号の画像データに基づいて、画像データを、前述のようにブロックごとまたは画素ごとに文字、網点、写真、下地、不定の領域に分離していく領域分離処理を行う。領域分離処理部Aは、処理の結果に基づき、各ブロックまたは各画素がいずれの領域に属しているかを示す領域識別信号を墨生成下色除去処理部54、空間フィルタ処理部55に出力するとともに、入力階調補正部52から入力されたRGBデジタル信号をそのまま色補正部53に出力する。領域識別信号は、中間調出力階調処理部56に出力されてもよい。
【0141】
色補正部53は、RGBの濃度信号をCMY(C:シアン・M:マゼンタ・Y:イエロー)の濃度信号に変換するとともに、色を忠実に再現するために、CMYの濃度信号に色補正処理を施す。ここでの色補正処理は、具体的には、不要吸収成分を含むCMYのトナーやインクの分光特性に基づいた色濁りを、CMYの濃度信号から取り除く処理である。
【0142】
墨生成下色除去処理部54は、領域分離処理部Aから出力された領域識別信号を用い、領域ごとに、色補正部53から出力されたCMYの色信号に基づいて、黒(K)の色信号を生成する墨生成処理と、CMYの色信号に対して下色を除去する下色除去処理を施す。下色除去処理とは、CMYの色信号から墨生成処理で生成された黒の色信号を差し引いて新たなCMYの色信号を得る処理である。これらの処理の結果、CMYの濃度信号は、CMYKの色信号からなる画像データに変換される。
【0143】
空間フィルタ処理部55は、墨生成下色除去処理部54で得られたCMYK画像データに対して、デジタルフィルタを用いた空間フィルタ処理を施す。当該処理も、領域分離処理部Aから出力された領域識別信号を用いて、領域ごとに行われる。これによって画像の空間周波数特性が補正されるので、画像出力装置が出力する画像にぼやけ、または粒状性劣化を生じることを防止することができる。
【0144】
中間調出力階調処理部56は、中間調生成処理を施す。中間調生成処理とは、画像を複数の画調に分割して階調を再現できるようにする処理であり、2値や多値のディザ法・誤差拡散法などを用いることができる。なお、中間調出力階調処理部56は、画像データの濃度値を、画像出力装置61の特性値である網点面積率に変換する処理を行ってもよい。そして、中間調出力階調処理部56によって処理された濃度信号は、画像出力装置に与えられる。前述の画像処理装置Xの動作は、たとえば、画像処理装置Xが備えるCPU(Central Processing Unit)により制御される。
【0145】
本発明は、前述の領域分離処理方法を実行させるためのプログラムによって実現される。このプログラムは、画像処理方法を実行する装置の主メモリに直接格納されてもよいし、固定ディスク装置に挿入することによって読み取り可能となる記録媒体に格納されてもよい。これによって、領域分離処理方法を実行するプログラムを記録した記録媒体を持ち運び自在に提供することができる。
【0146】
なお、本実施の形態では、この記録媒体としては、マイクロコンピュータで処理が行われるためには、メモリ、たとえばROM(Read Only Memory)のようなものそのものがプログラムメディアであっても良いし、また、外部記憶装置としてプログラム読み取り装置が設けられ、そこに挿入することができる読み取り可能なプログラムメディアであってもよい。
【0147】
いずれの場合においても、格納されているプログラムはマイクロプロセッサがアクセスして実行させる構成であっても良いし、あるいは、いずれの場合もプログラムを読み出し、読み出されたプログラムは、マイクロコンピュータのプログラム記憶エリアにダウンロードされて、そのプログラムが実行される方式であってもよい。このダウンロード用のプログラムは予め本体装置に格納されているものとする。
【0148】
ここで、プログラムメディアは、本体と分離可能に構成される記録媒体であり、磁気テープやカセットテープなどのテープ系、フレキシブルディスクやハードディスクなどの磁気ディスクやCD−ROM(Compact Disk Read Only Memory)、MO(Magneto Optical)ディスク、MD(Mini Disk)およびDVD(Digital Versatile Disk)などの光ディスクのディスク系、メモリカードを含むIC(Integrated Circuits)カードおよび光カードなどのカード系、マスクROM、EPROM(Erasable Programmable Read−Only Memory)、EEPROM(Electrically Erasable Programmable Read−Only Memory)およびフラッシュROMなどによる半導体メモリを含めた固定的にプログラムを担持する媒体であってもよい。
【0149】
また、本実施形態が、インターネットを含む通信ネットワークを接続可能なシステム構成である場合、通信ネットワークからプログラムをダウンロードするように流動的にプログラムを担持する媒体であってもよい。なお、このように通信ネットワークからプログラムをダウンロードする場合には、そのダウンロード用のプログラムは予め本体装置に格納しておくか、あるいは別な記録媒体からインストールされるものであっても良い。
【0150】
前述の記録媒体は、デジタル画像形成装置やコンピュータシステムに備えられるプログラム読み取り装置により読み取られることにより、前述の領域分離処理方法が実行される。
【0151】
コンピュータシステムは、フラットベッドスキャナ・フィルムスキャナ・デジタルカメラなどの画像入力装置60、所定のプログラムがロードされることにより画像処理方法など様々な処理が行われるコンピュータ、コンピュータの処理結果を表示するCRTディスプレイ・液晶ディスプレイなどの画像表示装置、およびコンピュータの処理結果を紙などに出力するプリンタによって構成される。さらには、ネットワークを介してサーバーなどに接続するための通信手段としてのモデムなども備えられる。
【0152】
【発明の効果】
以上のように本発明によれば、エッジの方向という画像の構造的特徴に基づいて領域分離を行うので、空間周波数の成分が近似している網点領域と文字領域とを精度良く分離することができる。また、下地領域の判定は、検出した下地画素数を用いて行うので、容易に下地領域を分離することができる。また、写真領域の判定は、検出したエッジ画素数を用いて行うので、容易に写真領域を分離することができる。
【0153】
また本発明によれば、水平エッジ成分と垂直エッジ成分との差分を算出するだけでエッジの方向を決定できるので、計算量を削減することができ、精度を下げることなく領域分離処理の高速化を図ることができる。また、領域分離処理を行う回路規模を縮小することができる。
【0154】
また本発明によれば、注目画素のエッジ方向と同じエッジ方向を有する近傍エッジ画素数に基づいて特徴量を算出するので、画素ブロックの特徴量を容易に算出することができる。
【0155】
また本発明によれば、エッジ画素のエッジの方向を、その方向に応じて所定の値に置き換えて、注目画素のエッジ方向と同じエッジ方向を有する近傍エッジ画素数を算出するので、判断処理を行う必要がなく、計算量を削減することができ、領域分離処理の高速化を図ることができる。また、領域分離処理を行う回路規模を縮小することができる。
【0156】
また本発明によれば、上記の領域分離処理方法をコンピュータに実行させるための領域分離処理プログラムとして提供することができる。
【0157】
また本発明によれば、上記の領域分離処理方法をコンピュータに実行させるための領域分離処理プログラムを記録したコンピュータ読み取り可能な記録媒体として提供することができる。
【0158】
また本発明によれば、高精度に領域分離が行われ、領域に応じた処理が施された画像データを出力することができるので、高画質の画像を形成することができる。
【図面の簡単な説明】
【図1】文字画像と網点画像におけるエッジ方向の分布を示す図である。
【図2】領域分離処理を実行する領域分離処理部Aの構成を示すブロック図である。
【図3】領域分離処理部Aによる領域分離処理の手順を示すフローチャートである。
【図4】図2に示すブロック判定部3の構成を示すブロック図である。
【図5】ブロック判定部3によるブロック判定処理の手順を示すフローチャートである。
【図6】下地画素検出処理部10による下地画素検出処理の詳細な手順を示すフローチャートである。
【図7】水平エッジ成分算出処理部111による水平エッジ成分算出処理の手順を示すフローチャートである。
【図8】垂直エッジ成分算出処理部112による垂直エッジ成分算出処理の手順を示すフローチャートである。
【図9】エッジ方向分類処理部12によるエッジ方向分類処理の詳細な手順を示すフローチャートである。
【図10】角度によるエッジ方向の分類方法を表す図である。
【図11】エッジ方向分類処理の他の手順を示すフローチャートである。
【図12】方向相関算出処理部13による方向相関算出処理の詳細な手順を示すフローチャートである。
【図13】内積を利用して方向相関算出処理を行う場合の処理手順を示すフローチャートである。
【図14】判定処理の詳細な手順を示すフローチャートである。
【図15】画像形成装置Yの構成を示すブロック図である。
【符号の説明】
1 ブロック分割部
2 L*a*b*変換部
3 ブロック判定部
10 下地画素検出処理部
11 エッジ成分算出処理部
12 エッジ方向分類処理部
13 方向相関算出処理部
14 判定処理部
50 アナログ/デジタル(A/D)変換部
51 シェーディング補正部
52 入力階調補正部
53 色補正部
54 墨生成下色除去処理部
55 空間フィルタ処理部
56 中間調出力階調処理部
60 画像入力装置
61 画像出力装置
A 領域分離処理部
X 画像処理装置
Y 画像形成装置[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image forming apparatus such as a digital copying machine, in which an image data is separated into a base area, a character area, a halftone area, and a photograph area in order to appropriately perform processing such as filter processing and halftone generation processing. The present invention relates to a separation processing method, an area separation processing program, and a recording medium on which the program is recorded. Furthermore, the present invention relates to an image processing apparatus provided with an area separation processing unit using the above-described area separation method, and an image forming apparatus provided with the image processing apparatus and outputting an image using image data obtained by area separation.
[0002]
[Prior art]
In general digital copiers and the like, in order to output a high-quality image, each pixel is separated into a base area, a character area, a halftone area, and a photographic paper photographic area (photo area) with respect to input image data. And image processing such as filter processing, gamma processing, and halftone processing according to the characteristics of each area.
[0003]
For example,
[0004]
The wavelet transform is a type of frequency conversion, and is a technique for performing encoding using the redundancy of frequency-converted image data. The different frequency components refer to a DC component, an AC component in the main scanning direction, an AC component in the sub-scanning direction, and an AC component in an oblique direction. When the wavelet transform processing is performed on the image data, the image can be decomposed into a low-frequency component and a high-frequency component, and a wavelet decomposition coefficient can be obtained. Since various information such as color, texture, and shape information can be obtained from the wavelet decomposition coefficient, the wavelet decomposition coefficient can be used as a feature amount of image data.
[0005]
In the image processing apparatus of
[0006]
[Patent Document 1]
JP-A-11-220622
(Page 4-11, Figures 1, 2, 7, 19)
[0007]
[Problems to be solved by the invention]
In the case where region segmentation is performed by using the wavelet transform, in the past, a region was segmented after performing a wavelet inverse transform and restoring the original image data. According to the image forming apparatus, since the signal decomposed into different frequency components after the wavelet transform can be separated into regions without performing the inverse wavelet transform, extra labor and time can be saved.
[0008]
However, since the above technique focuses on the difference between the frequency components of the respective regions, the regions are separated from each other, so that regions having similar frequency distributions, such as a halftone dot region having a small number of lines and a character region including small characters, are used. Is very difficult to separate.
[0009]
Further, in the above technique, in order to improve the segmentation accuracy, it is necessary to perform a wavelet transform of two or more layers, the amount of calculation becomes enormous, and there is a problem from the viewpoint of processing speed. Further, in order to perform the region separation, it is necessary to process a large number of coefficient signals generated by the wavelet transform of a plurality of layers, and the amount of calculation becomes enormous. However, there is a problem that the processing cost is increased accordingly.
[0010]
An object of the present invention is to provide an area separation processing method, an area separation processing program, and a recording medium on which the area separation processing method and the high-quality image can be accurately and rapidly performed. An object of the present invention is to provide an image processing apparatus that can generate the image data and an image forming apparatus including the image processing apparatus.
[0011]
[Means for Solving the Problems]
According to the present invention, image data representing an image composed of a plurality of pixels is input, and based on the input image data, a pixel block composed of a plurality of pixels or a target pixel in the pixel block includes a character area and a halftone dot area In an area separation processing method of determining which of a plurality of areas belongs to and performing area separation of image data,
A dividing step of dividing the image data into pixel blocks each having a predetermined number of pixels;
A component calculation step of calculating an edge component of each pixel in the pixel block,
A direction determining step of determining a direction of an edge formed by each pixel based on the calculated edge component;
A feature amount calculating step of calculating a feature amount of the pixel block based on the correlation between the direction of the edge of each pixel in the pixel block and the direction of the edge of a neighboring pixel based on the determined direction of the edge;
Determining whether the pixel block or the pixel of interest in the pixel block belongs to the character area or the halftone dot area based on the calculated feature amount. It is.
[0012]
The direction of the edge formed by each pixel in the pixel block indicates the characteristic of the pixel block or the pixel of interest in the pixel block. A pixel block or a target pixel in a pixel block including many pixels having different edge directions belongs to a dot region, and a pixel block or a target pixel in a pixel block including many edge pixels having the same edge direction is a character. Belongs to the area. The present invention focuses on these, and performs the region separation processing.
[0013]
According to the present invention, first, in a dividing step, input image data is divided into pixel blocks each having a predetermined number of pixels.
[0014]
In the component calculation step, an edge component of each pixel in the pixel block is calculated. The edge component is a value that is referred to when determining whether the target pixel is a pixel forming an edge, and for example, a gradation difference between the target pixel and a neighboring pixel is used. The edge component includes a horizontal edge component and a vertical edge component. For example, each component is calculated using an edge component extraction filter or the like.
[0015]
In the direction determining step, the direction of the edge formed by each pixel is determined based on the calculated edge component. If the horizontal edge component is greater than the vertical edge component, the edge direction is horizontal, and if the vertical edge component is greater than the horizontal edge component, the edge direction is vertical. If the difference between the horizontal edge component and the vertical edge component is small, the edge direction is an oblique direction. Therefore, the edge direction is determined by comparing the horizontal edge component and the vertical edge component.
[0016]
In the feature amount calculating step, the feature amount of the pixel block is calculated based on the correlation between the direction of the edge of each pixel in the pixel block and the direction of the edge of its neighboring pixels. Here, the correlation indicates how much the direction of the edge of each pixel and the direction of the edge of a neighboring pixel are the same or different, that is, the ratio of neighboring pixels having the same edge direction among neighboring pixels.
[0017]
As described above, the direction of the edge of each pixel in the pixel block represents the characteristic of the pixel block or the target pixel in the pixel block. The number of pixels having an edge direction different from the neighboring pixels included in the pixel block is calculated as a feature amount.
[0018]
In the determining step, it is determined whether or not the pixel block or the target pixel in the pixel block belongs to the character area or the halftone dot area based on the calculated feature amount. For example, when the feature amount is the above-described feature amount, the feature amount is compared with a predetermined threshold. If the feature value is equal to or larger than the threshold value, that is, if many pixels having an edge direction different from the neighboring pixels are included, it is determined that the pixel block or the target pixel in the pixel block belongs to the halftone dot region. If the feature value is smaller than the threshold value, that is, if many pixels having the same edge direction as the neighboring pixels are included, it is determined that the pixel block or the target pixel in the pixel block belongs to the character area.
[0019]
Thus, since the area is separated based on the structural feature of the image, that is, the direction of the edge, it is possible to accurately separate the halftone dot area and the character area whose spatial frequency components are similar.
[0020]
Further, according to the present invention, image data representing an image composed of a plurality of pixels is input, and based on the input image data, a pixel block composed of a plurality of pixels or a pixel of interest in the pixel block is a character region, a halftone dot region and In an area separation processing method of determining which of a plurality of areas including a photograph area belongs, and performing area separation of image data,
A dividing step of dividing the image data into pixel blocks each having a predetermined number of pixels;
A component calculation step of calculating an edge component of each pixel in the pixel block,
An edge pixel counting step of detecting an edge pixel in the pixel block based on the edge component and counting the number of edge pixels;
A direction determining step of determining a direction of an edge formed by each edge pixel based on the edge component,
A feature value calculating step of calculating a feature value of the pixel block based on the correlation between the direction of the edge of each edge pixel in the pixel block and the direction of the edge of its neighboring edge pixels based on the determined direction of the edge;
Based on the counted number of edge pixels, it is determined whether or not the pixel of interest in the pixel block or the pixel block belongs to a photographic area, and based on the calculated feature amount, A determining step of determining whether or not a pixel belongs to the character area or the halftone dot area.
[0021]
According to the present invention, first, in the dividing step, input image data is divided into pixel blocks each having a predetermined number of pixels.
[0022]
In the component calculation step, an edge component of each pixel in the pixel block is calculated. The edge component includes a horizontal edge component and a vertical edge component. For example, each component is calculated using an edge component extraction filter or the like.
[0023]
When the edge component is calculated, in the edge pixel counting step, an edge pixel in the pixel block is detected based on the edge component, and the number of edge pixels is counted. Since an edge pixel has a large edge component, a pixel whose edge component is larger than a predetermined threshold is detected as an edge pixel.
[0024]
In the direction determining step, the direction of the edge formed by each edge pixel is determined based on the calculated edge component. If the horizontal edge component is greater than the vertical edge component, the edge direction is horizontal, and if the vertical edge component is greater than the horizontal edge component, the edge direction is vertical. If the difference between the horizontal edge component and the vertical edge component is small, the direction of the edge is oblique. Therefore, the direction of the edge is determined by comparing the horizontal edge component and the vertical edge component.
[0025]
In the feature amount calculation step, the feature amount of the pixel block is calculated based on the correlation between the edge direction of each edge pixel in the pixel block and the edge direction of the neighboring pixels based on the determined edge direction. As described above, the edge direction of the edge pixel in the pixel block indicates the characteristic of the pixel block or the target pixel in the pixel block. The number of edge pixels having an edge direction different from that of the neighboring edge pixels included in the pixel block is calculated as a feature amount.
[0026]
In the determination step, for example, the counted number of edge pixels is compared with a predetermined threshold value, and if it is smaller than the threshold value, it is determined that the pixel block or the target pixel in the pixel block belongs to the photograph area. When it is determined that the pixel does not belong to the photograph area, it is determined whether or not the pixel block or the target pixel in the pixel block belongs to the character area or the halftone area based on the calculated feature amount. For example, when the feature amount is the above-described feature amount, the feature amount is compared with a predetermined threshold. When the feature value is equal to or larger than the threshold value, that is, when many edge pixels having an edge direction different from the neighboring edge pixels are included, it is determined that the pixel block or the pixel of interest in the pixel block belongs to the dot area. When the feature value is smaller than the threshold value, that is, when many edge pixels having the same edge direction as the neighboring edge pixels are included, it is determined that the pixel block or the target pixel in the pixel block belongs to the character area.
[0027]
Thus, since the area is separated based on the structural feature of the image, that is, the direction of the edge, it is possible to accurately separate the halftone dot area and the character area whose spatial frequency components are similar. In addition, since the determination of the photograph area is performed using the detected number of edge pixels, the photograph area can be easily separated.
[0028]
Further, according to the present invention, image data indicating an image composed of a plurality of pixels is input, and based on the input image data, a pixel block composed of a plurality of pixels or a target pixel in the pixel block is a character area, a halftone area, In an area separation processing method of determining which of a plurality of areas including a photograph area and a base area belongs, and performing area separation of image data,
A dividing step of dividing the image data into pixel blocks each having a predetermined number of pixels;
A base pixel counting step of detecting a base pixel in the pixel block based on the tone value of the pixel and counting the number of base pixels;
A component calculation step of calculating an edge component of each pixel in the pixel block,
An edge pixel counting step of detecting an edge pixel in the pixel block based on the edge component and counting the number of edge pixels;
A direction determining step of determining a direction of an edge formed by each edge pixel based on the edge component,
A feature value calculating step of calculating a feature value of the pixel block based on the correlation between the direction of the edge of each edge pixel in the pixel block and the direction of the edge of its neighboring edge pixels based on the determined direction of the edge;
It is determined whether or not the pixel of interest in the pixel block or the pixel block belongs to the background area based on the counted number of background pixels, and the pixel of interest in the pixel block or pixel block is determined based on the counted number of edge pixels. Determining whether the pixel block belongs to a photograph area, and determining whether the pixel of interest in the pixel block or the pixel block belongs to the character area or the halftone dot area based on the calculated feature amount; and Is a region separation processing method.
[0029]
According to the present invention, first, in the dividing step, input image data is divided into pixel blocks each having a predetermined number of pixels.
[0030]
In the background pixel counting step, the background pixels in the pixel block are detected based on the gradation values of the pixels, and the number of background pixels is counted. Since the background area is often white, the gradation value of the background pixel is large. Therefore, a pixel whose tone value is larger than a predetermined threshold value is detected as a base pixel.
[0031]
In the component calculation step, an edge component of each pixel in the pixel block is calculated. The edge component includes a horizontal edge component and a vertical edge component. For example, each component is calculated using an edge component extraction filter or the like.
[0032]
When the edge component is calculated, in the edge pixel counting step, an edge pixel in the pixel block is detected based on the edge component, and the number of edge pixels is counted. Since an edge pixel has a large edge component, a pixel whose edge component is larger than a predetermined threshold is detected as an edge pixel.
[0033]
In the direction determining step, the direction of the edge formed by each edge pixel is determined based on the calculated edge component. If the horizontal edge component is greater than the vertical edge component, the edge direction is horizontal, and if the vertical edge component is greater than the horizontal edge component, the edge direction is vertical. If the difference between the horizontal edge component and the vertical edge component is small, the direction of the edge is oblique. Therefore, the direction of the edge is determined by comparing the horizontal edge component and the vertical edge component.
[0034]
In the feature amount calculating step, the feature amount of the pixel block is calculated based on the correlation between the edge direction of each edge pixel in the pixel block and the edge direction of its neighboring pixels. As described above, the edge direction of the edge pixel in the pixel block indicates the characteristic of the pixel block or the target pixel in the pixel block. The number of edge pixels having an edge direction different from that of the neighboring edge pixels included in the pixel block is calculated as a feature amount.
[0035]
Finally, in the determination step, for example, the counted number of background pixels is compared with a predetermined threshold value, and if it is larger than the threshold value, it is determined that the pixel block or the target pixel in the pixel block belongs to the background region. When it is determined that the pixel does not belong to the background area, for example, the counted number of edge pixels is compared with a predetermined threshold. If the number is smaller than the threshold, it is determined that the pixel block or the pixel of interest in the pixel block belongs to the photograph area. When it is determined that the pixel does not belong to the photograph area, it is determined whether or not the pixel block or the target pixel in the pixel block belongs to the character area or the halftone area based on the calculated feature amount. For example, when the feature amount is the above-described feature amount, the feature amount is compared with a predetermined threshold. When the feature value is equal to or larger than the threshold value, that is, when many edge pixels having an edge direction different from the neighboring edge pixels are included, it is determined that the pixel block or the pixel of interest in the pixel block belongs to the dot area. When the feature value is smaller than the threshold value, that is, when many edge pixels having the same edge direction as the neighboring edge pixels are included, it is determined that the pixel block or the target pixel in the pixel block belongs to the character area.
[0036]
Thus, since the region is separated based on the structural feature of the image, that is, the direction of the edge, it is possible to accurately separate the halftone dot region and the character region in which the spatial frequency components are approximated. In addition, since the background area is determined using the detected number of background pixels, the background area can be easily separated. In addition, since the determination of the photograph area is performed using the detected number of edge pixels, the photograph area can be easily separated.
[0037]
Further, in the present invention, the component calculating step calculates a horizontal edge component and a vertical edge component as edge components,
The direction determining step may determine an edge direction from a difference between the horizontal edge component and the vertical edge component.
[0038]
According to the present invention, a horizontal edge component and a vertical edge component are calculated as edge components, and the direction of the edge is determined from the difference between these components.
[0039]
As described above, the direction of the edge is determined only by calculating the difference between the horizontal edge component and the vertical edge component. For example, the angle of the edge is calculated from the arc tangent of the ratio between the horizontal edge component and the vertical edge component. As compared with the case of performing the calculation, the amount of calculation can be reduced, and the speed of the region separation processing can be increased without lowering the accuracy. Further, the circuit scale for performing the region separation processing can be reduced.
[0040]
Further, in the feature amount calculating step, when each edge pixel in the pixel block is set as a target pixel, the number of neighboring edge pixels having the same edge direction as the edge direction of the target pixel among the neighboring edge pixels of the target pixel Is counted for each pixel of interest,
The number of pixels of the target pixel in which the counted number of neighboring edge pixels is smaller than a predetermined value is calculated as a feature amount.
[0041]
According to the present invention, in the feature amount calculation step, first, an edge pixel in a pixel block is set as a target pixel, and among neighboring edge pixels of the target pixel, the number of neighboring edge pixels having the same edge direction as the edge direction of the target pixel ( The number of neighboring edge pixels in the same direction) is counted. The target pixel is sequentially changed to another edge pixel in the pixel block, and the number of edge pixels in the same direction in the same direction is counted for each target pixel. The number of neighboring edge pixels in the same direction counted for each pixel of interest is compared with a predetermined value, for example, 1 / of the number of neighboring edge pixels, and the number of pixels of the pixel of interest smaller than this is calculated.
[0042]
As described above, since the feature amount is calculated based on the number of edge pixels in the same direction, the feature amount of the pixel block can be easily calculated.
[0043]
Further, in the present invention, in the feature amount calculating step, the direction of the edge of the edge pixel is replaced with a predetermined value according to the direction,
The number of neighboring edge pixels having the same edge direction as the target pixel is counted using the replaced value.
[0044]
According to the present invention, the direction of the edge of the edge pixel is replaced with a predetermined value according to the direction. As the predetermined value, for example, an arbitrary vector is used. Each vector is set such that the inner product of the vectors is "1" when the edges are in the same direction, and "0" when the edges are in different directions. With this setting, when counting neighboring edge pixels in the same direction, it is only necessary to find the sum of the inner products of the vector indicating the edge direction of the target pixel and the vector indicating the edge direction of the neighboring edge pixel. It is not necessary to determine whether the edge direction is the same as the edge direction of the neighboring edge pixels.
[0045]
As described above, since the determination process is not performed, the amount of calculation can be reduced, and the speed of the region separation process can be increased. Further, the circuit scale for performing the region separation processing can be reduced.
[0046]
Further, the present invention is an area separation processing program for causing a computer to execute the above area separation processing method.
[0047]
According to the present invention, an area separation processing program for causing a computer to execute the above area separation processing method can be provided.
[0048]
According to the present invention, there is provided a computer-readable recording medium recording an area separation processing program for causing a computer to execute the above-described area separation processing method.
[0049]
According to the present invention, it is possible to provide a computer-readable recording medium that records an area separation processing program for causing a computer to execute the above-described area separation processing method.
[0050]
Further, according to the present invention, image data representing an image composed of a plurality of pixels is input, and based on the input image data, a pixel block composed of a plurality of pixels or a pixel of interest in the pixel block defines a character region and a halftone dot region. In an image processing apparatus including an area separation processing unit that determines which of a plurality of areas including the image data belongs to and performs area separation of image data,
Dividing means for dividing the image data into pixel blocks each having a predetermined number of pixels;
Component calculating means for calculating an edge component of each pixel in the pixel block,
Direction determining means for determining the direction of the edge formed by each pixel based on the calculated edge component,
A feature amount calculating unit configured to calculate a feature amount of the pixel block based on a correlation between the direction of the edge of each pixel in the pixel block and the direction of the edge of a neighboring pixel based on the determined direction of the edge;
A determination unit configured to determine whether the pixel of interest or the pixel of interest in the pixel block belongs to the character region or the halftone dot region based on the calculated feature amount. is there.
[0051]
According to the present invention, first, the dividing means divides the input image data into pixel blocks each having a predetermined number of pixels.
[0052]
The component calculation means calculates an edge component of each pixel in the pixel block. The edge component includes a horizontal edge component and a vertical edge component. For example, each component is calculated using an edge component extraction filter or the like.
[0053]
Based on the calculated edge component, the direction determining means determines the direction of the edge formed by each pixel. If the horizontal edge component is greater than the vertical edge component, the edge direction is horizontal, and if the vertical edge component is greater than the horizontal edge component, the edge direction is vertical. If the difference between the horizontal edge component and the vertical edge component is small, the direction of the edge is oblique. Therefore, the direction of the edge is determined by comparing the horizontal edge component and the vertical edge component.
[0054]
The characteristic amount calculating means calculates the characteristic amount of the pixel block based on the correlation between the edge direction of each pixel in the pixel block and the edge directions of neighboring pixels based on the determined edge direction. As described above, the edge direction of the edge pixel in the pixel block indicates the characteristic of the pixel block or the target pixel in the pixel block. The number of edge pixels having an edge direction different from that of the neighboring edge pixels included in the pixel block is calculated as a feature amount.
[0055]
Based on the calculated feature amount, the determination unit determines whether the pixel block or the pixel of interest in the pixel block belongs to a character area or a halftone dot area. For example, when the feature amount is the above-described feature amount, the feature amount is compared with a predetermined threshold. When the feature value is equal to or larger than the threshold value, that is, when many edge pixels having an edge direction different from the neighboring edge pixels are included, it is determined that the pixel block or the pixel of interest in the pixel block belongs to the dot area. When the feature value is smaller than the threshold value, that is, when many edge pixels having the same edge direction as the neighboring edge pixels are included, it is determined that the pixel block or the target pixel in the pixel block belongs to the character area.
[0056]
Thus, since the region is separated based on the structural feature of the image, that is, the direction of the edge, it is possible to accurately separate the halftone dot region and the character region in which the spatial frequency components are approximated.
[0057]
The present invention also provides the image processing device described above,
An image forming apparatus comprising: an image output device that outputs image data processed by the image processing device.
[0058]
According to the invention, the image data processed by the image processing device is output from the image output device.
[0059]
As a result, high-accuracy region separation is performed, and image data that has been subjected to processing according to the region can be output, so that a high-quality image can be formed.
[0060]
BEST MODE FOR CARRYING OUT THE INVENTION
The present invention relates to a region separation process. The region separation processing is defined as any one of a halftone dot region, a character region, a photographic paper photograph region (photo region), a background region, and an undefined region where it cannot be determined which of these four regions belongs to each pixel of the input image data. This is the process of separating crab. In this way, by separating the input image data into each area, it is possible to perform image processing such as filter processing, gamma processing, and halftone processing according to the characteristics of each area, and output a high-quality image. Can be.
[0061]
An area separation processing method according to an embodiment of the present invention will be described. In the present embodiment, first, the input image data is divided into pixel blocks each having a rectangle of an arbitrary size. Then, the base region is separated from the plurality of types of regions. The background region is also called a white background region, and is a background portion where the brightness of an image is equal to or higher than a certain value. Therefore, the region can be separated based on the brightness. After separating a block having a certain lightness or more as a background area, the horizontal direction, the vertical direction, and the diagonal edge are detected for each block in three directions, and the total number of edge pixels in the pixel block and the correlation in the edge direction are detected. And the like are calculated based on. The edge direction of a pixel refers to the direction of the edge formed by the pixel.
[0062]
The photographic paper photographic area is an image having a halftone density, and the number of edges present in the image is smaller than that of other areas. Can be separated.
[0063]
In addition, there is a structural difference between the character area and the halftone dot area, which appears in the appearance of edges. FIG. 1 is a diagram showing a distribution of edge directions in a character image and a halftone image. FIG. 1A illustrates a character image, and FIG. 1B illustrates a halftone image. In both the character image and the halftone image, the input image is shown on the upper left and the edge image is shown on the upper right. The lower edge shows a horizontal edge image and a vertical edge obtained by further dividing the upper edge image into edges in three directions. The image and the oblique edge image are shown in the order of left, center, and right.
[0064]
As shown in the lower part of FIG. 1A, among the three directions of edges that appear in the character image, the positions where the edges in different directions appear are greatly different, and the proportion of the edges in different directions appearing in the predetermined area is low. . On the other hand, as shown in the lower part of FIG. 1B, among the three directions of edges appearing in the halftone dot image, the positions where the edges of different directions appear are not so different, and the edges of different directions are within the predetermined area. The rate of appearance is high.
[0065]
Thus, the character area has a structure in which many edge pixels in the same direction are included, and the halftone dot area has a structure in which many edge pixels in different directions are included. Based on this, both areas can be separated.
[0066]
FIG. 2 is a block diagram illustrating a configuration of the area separation processing unit A that performs the area separation processing. The area separation processing unit A includes a
[0067]
The
Y j = 0.30R j + 0.59G j + 0.11B j … (1)
[0068]
Y here j Represents the luminance value of each pixel, and R j , G j , B j Represents the color component of each pixel.
[0069]
The reading resolution of the input image data needs to be at least twice the printing resolution in order to avoid aliasing (such as interference fringes not present in the original), and the higher the reading resolution, the higher the determination accuracy.
[0070]
In addition, the larger the size of the determination block is, the higher the determination accuracy is. For example, a size of m × n = 7 × 7 pixels or more is desirable.
[0071]
FIG. 3 is a flowchart illustrating a procedure of the area separation processing by the area separation processing unit A. First, in step a1, the
[0072]
FIG. 4 is a block diagram showing a configuration of the
[0073]
The background pixel
[0074]
The edge direction
[0075]
FIG. 5 is a flowchart illustrating a procedure of a block determination process performed by the
[0076]
First, in step b1, the background pixel
[0077]
In step b4, the edge direction
[0078]
Next, background pixel detection processing (step b1 shown in FIG. 5), horizontal and vertical edge component calculation processing (steps b2 and b3 shown in FIG. 5), edge direction classification processing (step shown in FIG. 5) which constitutes the block determination processing b4), detailed procedures of the directional correlation calculation process (step b5 shown in FIG. 5) and the determination process (step b6 shown in FIG. 5) will be described.
[0079]
FIG. 6 is a flowchart illustrating a detailed procedure of the background pixel detection processing by the background pixel
[0080]
First, in step c1, the brightness L of the pixel data in the determination block is * Is greater than or equal to a predetermined threshold T1. If it is larger than the threshold T1, the process proceeds to step c2, and if it is smaller than the threshold T1, the process proceeds to step c3. In step c2, 1 is added to the number of base pixels Cnt_white. In step c3, it is determined whether the processing has been completed for all pixels in the determination block. If the processing has been completed, the background pixel detection processing has been completed. If the processing has not been completed, the processing returns to step c1. By this processing, the number of base pixels Cnt_white in the determination block is calculated.
[0081]
Next, the horizontal edge component calculation processing (step b2 shown in FIG. 5) will be described. FIG. 7 is a flowchart illustrating a procedure of the horizontal edge component calculation processing by the horizontal edge component
[0082]
In step d1, a horizontal edge component is calculated based on the following equation (2). Here, the horizontal edge component is represented by hor, the edge component calculation function is represented by Edge, and the pixel data of the pixel group to be processed is represented by OriginalL. The pixel group to be processed is, for example, a 3 × 3 pixel group, and includes a pixel of interest at the center of the 3 × 3 pixel group and eight neighboring pixels around the pixel of interest.
hor = Edge (filter_hor, OriginalL) (2)
[0083]
Note that filter_hor is a filter for extracting a horizontal edge component. As this filter, a high-pass filter (High Pass Filter: HPF) that passes high-frequency components may be used, or a low-pass filter (Low Pass Filter: LPF) that passes low-frequency components may be used. However, the content of the operation differs as follows depending on the type of the filter.
[0084]
In the case of the HPF, the convolution operation of the pixel data OriginalL of the target pixel group and the filter filter_hor is performed as shown in Expression (3) to calculate the horizontal edge component of the target pixel.
[0085]
(Equation 1)
[0086]
In the case of the LPF, the convolution operation of the pixel data OriginalL of the pixel group to be processed and the filter filter_hor is performed as shown in Expression (4), and this is subtracted from the pixel data OriginalL of the original pixel group. By doing so, it is possible to extract only the horizontal edge component of the target pixel while suppressing the influence of noise.
[0087]
(Equation 2)
[0088]
The filter may have any shape as long as it has either high-pass or low-pass properties. For example, a Laplacian filter can be used.
[0089]
In addition, the filtering process for the pixel located at the end of the determination block is performed by interleaving, for example, by interpolating pixel data of an adjacent pixel in the determination block as pixel data outside the determination block.
[0090]
Next, the vertical edge component calculation processing (step b3 shown in FIG. 5) will be described. FIG. 8 is a flowchart illustrating the procedure of the vertical edge component calculation processing by the vertical edge component
[0091]
In step e1, the vertical edge component ver of the target pixel is calculated based on the following equation (5).
ver = Edge (filter_ver, OriginalL) (5)
[0092]
The filter_ver is a filter for extracting a vertical edge component, and it is preferable that the filter_ver and the filter_hor satisfy the following expression (6).
filter_ver = filter_hor Τ … (6)
[0093]
Here, "T" represents a transfer operation. Then, in step e2, the process returns to step b3.
[0094]
Next, the edge direction classification processing (step b4 shown in FIG. 5) will be described. FIG. 9 is a flowchart illustrating a detailed procedure of the edge direction classification processing by the edge direction
[0095]
First, in step f1, it is determined whether the pixel of interest is an edge pixel. This determination is based on the sum of squares (hor) of the horizontal edge component hor and the vertical edge component ver. 2 + Ver 2 ) Is calculated and compared with a threshold value T2. Note that the sum of squares (horror) of each edge component is used for comparison with the threshold value T2. 2 + Ver 2 ) Is used because the calculation result of the horizontal edge component and the vertical edge component may be a negative value, and the mere sum of the edge components (hor + ver) correctly evaluates the density change around the target pixel. It is not possible.
[0096]
(Hor 2 + Ver 2 Is larger than the threshold value T2, the density change around the target pixel is large, the target pixel is determined to be an edge pixel, and the process proceeds to step f3. (Hor 2 + Ver 2 ) Is equal to or smaller than the threshold value T2, the process proceeds to step f2. In Step f2, since the density change around the target pixel is small, it is determined that the pixel is a non-edge pixel, and the process proceeds to Step f9.
[0097]
In step f3, 1 is added to the total number of edges Cnt_total. The total number of edges Cnt_total is the total number of edge pixels in the determination block. In step f4, the squared difference value (hor) between the horizontal edge component hor and the vertical edge component ver 2 -Ver 2 ) Is compared with a threshold T3. (Hor 2 -Ver 2 ) Is larger than the threshold value T3, the process proceeds to step f5, the pixel of interest is determined to be a horizontal edge pixel, and the process proceeds to step f9. (Hor 2 -Ver 2 ) Is equal to or smaller than the threshold value T3, the process proceeds to step f6.
[0098]
In step f6, (hor 2 -Ver 2 ) Is compared with a threshold value T4 smaller than the threshold value T3. 2 -Ver 2 ) Is smaller than the threshold value T4, the process proceeds to step f7. In step f7, the target pixel is determined to be a vertical edge pixel, and the process proceeds to step f9. (Hor 2 -Ver 2 ) Is equal to or larger than the threshold value T4, the process proceeds to step f8. In step f8, the target pixel is determined to be a diagonal edge pixel, and the process proceeds to step f9. As described above, the reason why the square difference of each edge component is used for comparison with the threshold value T3 is that the calculation result of the horizontal edge component and the vertical edge component may be a negative value, This is because (hor-ver) cannot evaluate the correct edge direction.
[0099]
In step f9, it is determined whether or not the edge direction classification processing has been completed for all pixels forming the determination block. If not completed, the process returns to step f1, and if completed, the edge direction classification processing ends.
[0100]
As described above, the edge direction can be determined only by calculating the difference between the square of the horizontal edge component hor and the square of the vertical edge component ver. For example, when calculating the edge angle, the ratio of the horizontal component to the vertical component is used. Compared with the case of using the arc tangent of (1), the amount of calculation can be remarkably reduced, and the processing speed can be increased without lowering the accuracy. In addition, it is possible to suppress an increase in the scale of a circuit that performs the processing.
[0101]
This edge direction classification processing may be performed in the following procedure.
FIG. 10 is a diagram illustrating a method of classifying an edge direction by an angle. When the horizontal line direction of the image data is used as a reference, the angle between the horizontal direction and the edge is θ (0 ° ≦ θ ≦ 90 °), and θ is φ H Horizontal edge (θ <φ H ), Φ V Larger than the vertical edge (θ> φ V ), Otherwise (φ H ≦ θ ≦ φ V ), If it is defined as a diagonal edge, the direction of the edge can be determined by the following determination formulas (7) to (9). Specifically, when the edge angle is less than 15 degrees, the horizontal edge (θ <φ H = 15 °), vertical edge when exceeding 75 ° (θ> φ) V = 75 °), the edge directions can be classified with high accuracy if predetermined.
ver 2 -Hor 2 tan 2 φ H <0 (Horizontal; horizontal) (7)
ver 2 -Hor 2 tan 2 φ V > 0 (Vertical; vertical) ... (8)
otherwise (Diagonal; diagonal) ... (9)
[0102]
FIG. 11 is a flowchart illustrating another procedure of the edge direction classification process. The processing procedure is substantially the same as the processing procedure shown in FIG. 9, but the judgment criteria for judging a horizontal edge, a vertical edge, and a diagonal edge in step f4 ′ and step f6 ′ are different. That is, the above formulas (7) and (8) are used as criteria.
[0103]
Next, the direction correlation calculation processing (step b5 shown in FIG. 5) will be described. FIG. 12 is a flowchart illustrating a detailed procedure of the directional correlation calculation processing by the directional correlation
[0104]
When each edge pixel in the determination block is set as the target pixel, among the nearby edge pixels of the target pixel as the correlation, the number of nearby edge pixels having the same edge direction as the edge direction of the target pixel is counted for each target pixel, The number of pixels of the target pixel in which the counted number of neighboring edge pixels is smaller than a predetermined value is calculated as a feature amount. This processing is performed in order from the leftmost pixel to the rightmost pixel in the upper stage in the determination block, and is repeated from each pixel in the uppermost stage to the lower right pixel in the determination block. The processing for the pixels located at the ends of the determination block is performed by interleaving, for example, by interpolating pixel data of adjacent pixels in the determination block.
[0105]
First, in step g1, it is determined whether or not the target pixel is an edge pixel based on the determination results in steps f1 and f2 of the edge direction classification processing. If it is an edge pixel, the process proceeds to step g2, and if it is not an edge pixel, the process proceeds to step g9.
[0106]
In step g2, similarly to step g1, it is determined whether or not a predetermined neighboring pixel among the neighboring pixels of the target pixel is an edge pixel. If it is an edge pixel, the process proceeds to step g3. If it is not an edge pixel, the process proceeds to step g6. In step g3, 1 is added to the number of neighboring edges Cnt_neighbor. This makes it possible to calculate the number of neighboring pixels that are edge pixels.
[0107]
In Step g4, the edge directions are compared based on the determination results in Steps f4 to f8 in the edge direction classification processing, and it is determined whether or not the edge directions of the target pixel and the neighboring pixels are equal. If they are equal, the procedure proceeds to step g5, and if they are not equal, the procedure proceeds to step g6. At step g5, 1 is added to the number of edges Cnt_same in the same direction. As a result, the number of neighboring pixels having an edge in the same direction as the edge of the target pixel can be calculated.
[0108]
Then, in step g6, it is determined whether or not the processing has been completed for all neighboring pixels. If the processing has been completed, the process proceeds to step g7, and if not completed, the process returns to step g2 to process the next neighboring pixel.
[0109]
In Step g7, the value obtained by doubling the number Cnt_same of the same-direction edges is compared with the number Cnt_neighbor of the neighboring edges of the target pixel. When 2Cnt_same <Cnt_neighbor, the number of edges in the same direction is less than half the number of neighboring edges, so that the ratio of neighboring edge pixels having an edge direction different from the edge direction of the target pixel is large. In step g8, 1 is added to the number of correlated pixels Cnt_high_cor, which is a feature amount. Then, the values of Cnt_same and Cnt_neighbor are cleared. At step g9, it is determined whether the processing has been completed for all the pixels constituting the determination block. If the processing has been completed, the directional correlation calculation processing ends, and if not, the processing returns to step g1.
[0110]
In this way, for each pixel of interest in the pixel block, the number of neighboring edge pixels having the same edge direction as the direction of the edge of the pixel of interest is counted, and the number of pixels of interest whose count value becomes smaller than a predetermined value is calculated. Since the calculation is performed, the feature amount of the pixel block can be easily calculated.
[0111]
Note that the direction correlation calculation process can also be performed using the inner product as described below. FIG. 13 is a flowchart illustrating a processing procedure when the directional correlation calculation processing is performed using the inner product. First, the following vectors are assigned to the directions of the respective edges in advance. The target pixel is Xc, the neighboring pixels are Xn, and vector values (10) to (13) assigned to the edge direction are stored in Xc and Xn. The vector value here is a predetermined value replaced according to the direction of the edge.
Horizontal → [100] ... (10)
Vertical direction → [0 10] ... (11)
Oblique direction → [0 0 1] (12)
Non-edge → [0 0 0] (13)
[0112]
Using these vector values, the number of neighboring edges Cnt_neighbor and the number of same-direction edges Cnt_same are calculated from Expressions (14) and (15).
[0113]
[Equation 3]
[0114]
(Equation 4)
[0115]
In the specific flow, first, in step h1, the number of neighboring edges Cnt_neighbor = Cnt_neighbor + Xn · Xn is calculated, and in step h2, the number of edges in the same direction Cnt_same = Cnt_same + Xc · Xn is calculated, and this is repeated for all pixels in the pixel block. .
[0116]
In step h3, it is determined whether or not the processing has been completed for all neighboring pixels. If it has been completed, the process proceeds to step h4. If not completed, the process returns to step h1. In step h4, the value obtained by doubling the number of edges Cnt_same in the same direction is compared with the number of edges Cnt_neighbor near the target pixel. If 2Cnt_same <Cnt_neighbor, the process proceeds to step h5, and if 2Cnt_same ≧ Cnt_neighbor, the process proceeds to step h6.
[0117]
In step h5, 1 is added to the number of correlated pixels Cnt_high_cor. Then, the values of Cnt_same and Cnt_neighbor are cleared. In Step h6, it is determined whether the processing has been completed for all the pixels constituting the determination block. If the processing has been completed, the directional correlation calculation processing ends, and if not, the processing returns to step h1.
[0118]
As described above, by using the inner product for the directional correlation calculation process, it is possible to reduce the determination process during the processing procedure and to simplify the process. That is, since it is not necessary to perform the branching process in steps g1, g2, and g4 shown in FIG. 12, the directional correlation calculation process can be performed at high speed. Further, an increase in the scale of a circuit that performs the processing can be suppressed.
[0119]
Also, if the vector components of Equations (10) to (13) are assigned to each bit, and the horizontal edge is represented by “100”, the vertical edge is represented by “010”, and the oblique edge is represented by “001”, the following equation is obtained. The inner product operation of (14) and (15) can be executed by a bit operation, and the processing can be performed at a higher speed.
[0120]
Next, the determination process (step b6 shown in FIG. 5) will be described. The determination process is performed for each determination block, and the target determination block is a determination block for which the background pixel detection process, the horizontal edge component calculation process, the vertical edge component calculation process, the edge direction classification process, and the direction correlation calculation process have been completed. . By using the number of base pixels Cnt_white calculated in the base pixel detection process, the total number of edge pixels Cnt_total calculated in the edge direction classification process, and the number of highly correlated pixels Cnt_high_cor calculated in the directional correlation calculation process, the determination block becomes a base block, It is determined whether the block is a photograph block, a character block, a halftone block, or an undefined block.
[0121]
FIG. 14 is a flowchart illustrating a detailed procedure of the determination process. First, in step i1, the number of base pixels Cnt_white is compared with a threshold value T5. If the number of base pixels Cnt_white is larger than the threshold T5, the process proceeds to step i2. If the number of base pixels Cnt_white is equal to or smaller than the threshold T5, the process proceeds to step i3. In step i2, the determination block is determined to be a base block, and the determination processing ends. This is because the number of background pixels in the determination block is greater than a certain number.
[0122]
In step i3, the total number Cnt_total of edge pixels is compared with a threshold value T6. If the total number of edge pixels Cnt_total is smaller than the threshold value T6 (Cnt_total <threshold value T6), the process proceeds to step i4. If the total number of edge pixels Cnt_total is equal to or greater than the threshold value T6 (Cnt_total ≧ threshold value T6), the process proceeds to step i5. In step i4, the determination block is determined to be a photograph block, and the determination processing ends. This is because the total number of edge pixels in the determination block is smaller than a certain number, the image is a halftone image, and is not a base block.
[0123]
In step i5, the number of correlated pixels Cnt_high_cor is compared with a threshold value T7. If Cnt_high_cor is smaller than threshold T7 (Cnt_high_cor <threshold T7), the process proceeds to step i7, and if Cnt_high_cor is equal to or greater than threshold T7 (Cnt_high_cor ≧ threshold T7), the process proceeds to step i6.
[0124]
In step i7, 2Cnt_high_cor obtained by doubling the number of correlated pixels Cnt_high_cor is compared with the total number of edge pixels Cnt_total. If 2Cnt_high_cor is smaller than the total number of edge pixels Cnt_total (2Cnt_high_cor <Cnt_total), the process proceeds to step i8. In this case, the number of correlated pixels is smaller than half of the total number of edge pixels, and there are many pixels having the same edge direction in the determination block. It is determined to be a character block, and the determination processing ends.
[0125]
If 2Cnt_high_cor is equal to or larger than the total number of edge pixels Cnt_total (2Cnt_high_cor ≧ Cnt_total) in step i7, the process proceeds to step i9. In this case, contrary to the above, since there are many pixels having different edge directions in the determination block, it is possible that the block is a halftone block. However, there is a possibility that an erroneous determination is made, so to avoid this, the process proceeds to step i9, the block is determined to be an indefinite block, and the determination process ends.
[0126]
Similarly, in step i6, 2Cnt_high_cor obtained by doubling the number of correlated pixels Cnt_high_cor is compared with the total number of edge pixels Cnt_total. If 2Cnt_high_cor is smaller than the total number of edge pixels Cnt_total (2Cnt_high_cor <Cnt_total), a large number of pixels having the same direction of the edge exist in the determination block, and thus it may be a character block. However, there is a possibility that an erroneous determination is made, so to avoid this, the process proceeds to step i9, the block is determined to be an indefinite block, and the determination process ends.
[0127]
If 2Cnt_high_cor is equal to or greater than the total number of edge pixels Cnt_total (2Cnt_high_cor ≧ Cnt_total), the process proceeds to step i10. In this case, since there are many edges in different directions in the determination block, in step i10, the determination block is determined to be a halftone dot block, and the determination process ends.
[0128]
Through the above-described determination processing, the determination block can be separated into a character block, a halftone block, a photograph block, a background block, and an undefined block.
[0129]
By performing each of the above-described processes for all determination blocks in the image data, it is possible to perform a region separation process on the image data.
[0130]
As described above, by using the feature amount based on the direction of the edge of the pixel, it is possible to perform the region separation based on the structural feature of the edge direction of the image. As a result, it is possible to accurately separate even areas having very similar frequency distributions.
[0131]
In the above, the method of performing region separation on a pixel block having a predetermined number of pixels has been described. However, the region may be determined on a target pixel in a pixel block.
[0132]
FIG. 15 is a block diagram illustrating a configuration of the image forming apparatus Y. The image forming apparatus Y includes an image processing apparatus X, an image input device 60, and an
[0133]
The above-described area separation processing unit A is provided in the image processing apparatus X. As a result, the image processing apparatus X performs a region separation process on the input image data and identifies the region of each block constituting the image data, thereby performing various image processes according to the characteristics of the region, for example, a filter process. , Gamma processing, and halftone processing. Accordingly, a high-quality image can be obtained, and the image forming apparatus Y can form a high-quality image from the image data on which the image processing has been performed by the image processing apparatus X.
[0134]
The image input device 60 reads an input image and converts it into image data. The image input device 60 includes a scanner unit having a CCD (Charge Coupled Device) and the like, and reads a reflected light image from the image by the CCD. Is converted into an RGB analog signal for each pixel, and this analog signal is input to the image processing apparatus X.
[0135]
The
[0136]
Next, the image processing apparatus X will be described. The image processing apparatus X includes an analog / digital (hereinafter abbreviated as “A / D”)
[0137]
The image data of the RGB analog signal input from the image input device 60 is converted into an A /
[0138]
The A /
[0139]
The input
[0140]
Based on the RGB signal image data input from the input
[0141]
The
[0142]
The black generation and under color removal processing unit 54 uses the area identification signal output from the area separation processing unit A, and outputs a black (K) black based on the CMY color signals output from the
[0143]
The spatial
[0144]
The halftone output
[0145]
The present invention is realized by a program for executing the above-described area separation processing method. This program may be stored directly in the main memory of the device that executes the image processing method, or may be stored in a recording medium that can be read by inserting it into a fixed disk device. This makes it possible to provide a portable recording medium on which a program for executing the area separation processing method is recorded.
[0146]
In the present embodiment, as the recording medium, a memory, for example, a ROM (Read Only Memory) itself may be a program medium in order to be processed by the microcomputer, Alternatively, a program reading device may be provided as an external storage device, and may be a readable program medium that can be inserted therein.
[0147]
In any case, the stored program may be configured to be accessed and executed by a microprocessor, or in any case, the program may be read and the read program may be stored in a program storage of the microcomputer. The program may be downloaded to an area and the program may be executed. It is assumed that the download program is stored in the main unit in advance.
[0148]
Here, the program medium is a recording medium configured to be separable from the main body, such as a tape system such as a magnetic tape or a cassette tape, a magnetic disk such as a flexible disk or a hard disk, a CD-ROM (Compact Disk Read Only Memory), Disk systems of optical disks such as MO (Magneto Optical) disks, MDs (Mini Disks) and DVDs (Digital Versatile Disks), card systems such as IC (Integrated Circuits) cards including memory cards and optical cards, mask ROMs, EPROMs (Erasables) Programmable Read-Only Memory, EEPROM (Electrically Erasable Program) mmable Read-Only Memory) and a flash ROM may be a medium fixedly carrying the program, including semiconductor memories due.
[0149]
Further, in the case where the present embodiment has a system configuration capable of connecting to a communication network including the Internet, the medium may carry a program in a fluid manner so as to download the program from the communication network. When the program is downloaded from the communication network as described above, the download program may be stored in the main device in advance, or may be installed from another recording medium.
[0150]
The above-described recording medium is read by a program reading device provided in a digital image forming apparatus or a computer system, so that the above-described area separation processing method is executed.
[0151]
The computer system includes an image input device 60 such as a flatbed scanner, a film scanner, and a digital camera, a computer on which various processing such as an image processing method is performed by loading a predetermined program, and a CRT display for displaying a processing result of the computer. -It is composed of an image display device such as a liquid crystal display and a printer that outputs the processing results of the computer to paper or the like. Further, a modem or the like is provided as communication means for connecting to a server or the like via a network.
[0152]
【The invention's effect】
As described above, according to the present invention, segmentation is performed based on the structural feature of an image, which is the direction of an edge. Therefore, it is possible to accurately separate a halftone dot region and a character region in which spatial frequency components are approximated. Can be. In addition, since the background area is determined using the detected number of background pixels, the background area can be easily separated. In addition, since the determination of the photograph area is performed using the detected number of edge pixels, the photograph area can be easily separated.
[0153]
Further, according to the present invention, the direction of the edge can be determined only by calculating the difference between the horizontal edge component and the vertical edge component, so that the calculation amount can be reduced and the speed of the region separation processing can be increased without lowering the accuracy. Can be achieved. Further, the circuit scale for performing the region separation processing can be reduced.
[0154]
Further, according to the present invention, since the feature amount is calculated based on the number of neighboring edge pixels having the same edge direction as the edge direction of the target pixel, the feature amount of the pixel block can be easily calculated.
[0155]
According to the present invention, the edge direction of the edge pixel is replaced with a predetermined value according to the direction, and the number of neighboring edge pixels having the same edge direction as the edge direction of the target pixel is calculated. It is not necessary to perform the calculation, the amount of calculation can be reduced, and the speed of the region separation processing can be increased. Further, the circuit scale for performing the region separation processing can be reduced.
[0156]
Further, according to the present invention, an area separation processing program for causing a computer to execute the above-described area separation processing method can be provided.
[0157]
Further, according to the present invention, it is possible to provide a computer-readable recording medium that records an area separation processing program for causing a computer to execute the above-described area separation processing method.
[0158]
Further, according to the present invention, it is possible to perform high-accuracy region separation and output image data that has been subjected to processing according to the region, so that a high-quality image can be formed.
[Brief description of the drawings]
FIG. 1 is a diagram showing a distribution of an edge direction in a character image and a halftone image.
FIG. 2 is a block diagram illustrating a configuration of a region separation processing unit A that performs a region separation process.
FIG. 3 is a flowchart illustrating a procedure of a region separation process performed by a region separation processing unit A;
FIG. 4 is a block diagram showing a configuration of a
FIG. 5 is a flowchart illustrating a procedure of a block determination process performed by a
FIG. 6 is a flowchart showing a detailed procedure of a background pixel detection process by a background pixel
FIG. 7 is a flowchart illustrating a procedure of a horizontal edge component calculation process by a horizontal edge component
FIG. 8 is a flowchart illustrating a procedure of a vertical edge component calculation process by a vertical edge component
FIG. 9 is a flowchart illustrating a detailed procedure of an edge direction classification process by an edge direction classification processing unit;
FIG. 10 is a diagram illustrating a method of classifying an edge direction by an angle.
FIG. 11 is a flowchart illustrating another procedure of the edge direction classification process.
FIG. 12 is a flowchart illustrating a detailed procedure of a direction correlation calculation process by a direction correlation
FIG. 13 is a flowchart illustrating a processing procedure when a directional correlation calculation process is performed using an inner product.
FIG. 14 is a flowchart illustrating a detailed procedure of a determination process.
FIG. 15 is a block diagram illustrating a configuration of an image forming apparatus Y.
[Explanation of symbols]
1 Block division
2 L * a * b * Conversion unit
3 Block judgment section
10 Background pixel detection processing unit
11 Edge component calculation processing unit
12 Edge direction classification processing unit
13 direction correlation calculation processing unit
14 Judgment processing unit
50 analog / digital (A / D) converter
51 Shading correction unit
52 Input tone correction unit
53 color correction unit
54 Black Generation Under Color Removal Processing Unit
55 spatial filter processing unit
56 Halftone output gradation processing section
60 Image input device
61 Image output device
A area separation processing unit
X image processing device
Y Image forming device
Claims (10)
画像データを所定の画素数からなる画素ブロックに分割する分割ステップと、
画素ブロック内の各画素のエッジ成分を算出する成分算出ステップと、
算出されたエッジ成分に基づいて、各画素が構成するエッジの方向を決定する方向決定ステップと、
決定されたエッジの方向に基づいて、画素ブロック内の各画素のエッジの方向とその近傍画素のエッジの方向との相関性に基づく画素ブロックの特徴量を算出する特徴量算出ステップと、
算出された特徴量に基づいて、前記画素ブロックまたは画素ブロック内の注目画素が前記文字領域あるいは前記網点領域のいずれに属するかを判定する判定ステップとを有することを特徴とする領域分離処理方法。Image data representing an image composed of a plurality of pixels is input, and based on the input image data, a pixel block composed of a plurality of pixels or a pixel of interest in the pixel block is divided into a plurality of regions including a character region and a halftone dot region. In the area separation processing method of determining which one belongs to and performing area separation of image data,
A dividing step of dividing the image data into pixel blocks each having a predetermined number of pixels;
A component calculation step of calculating an edge component of each pixel in the pixel block,
A direction determining step of determining a direction of an edge formed by each pixel based on the calculated edge component;
A feature amount calculating step of calculating a feature amount of the pixel block based on the correlation between the direction of the edge of each pixel in the pixel block and the direction of the edge of a neighboring pixel based on the determined direction of the edge;
Determining whether the pixel block or the pixel of interest in the pixel block belongs to the character area or the halftone dot area based on the calculated feature amount. .
画像データを所定の画素数からなる画素ブロックに分割する分割ステップと、
画素ブロック内の各画素のエッジ成分を算出する成分算出ステップと、
エッジ成分に基づいて画素ブロック内のエッジ画素を検出し、エッジ画素数を計数するエッジ画素計数ステップと、
エッジ成分に基づいて各エッジ画素が構成するエッジの方向を決定する方向決定ステップと、
決定されたエッジの方向に基づいて、画素ブロック内の各エッジ画素のエッジの方向とその近傍エッジ画素のエッジの方向との相関性に基づく画素ブロックの特徴量を算出する特徴量算出ステップと、
計数されたエッジ画素数に基づいて、前記画素ブロックまたは画素ブロック内の注目画素が写真領域に属するか否かを判定し、算出された特徴量に基づいて、前記画素ブロックまたは画素ブロック内の注目画素が前記文字領域あるいは前記網点領域に属するか否かを判定する判定ステップとを有することを特徴とする領域分離処理方法。Image data representing an image composed of a plurality of pixels is input, and based on the input image data, a plurality of pixel blocks including a plurality of pixels or a plurality of pixels of interest in a pixel block including a character area, a halftone area, and a photograph area. In the region separation processing method of determining which of the regions belongs to, and performing region separation of the image data,
A dividing step of dividing the image data into pixel blocks each having a predetermined number of pixels;
A component calculation step of calculating an edge component of each pixel in the pixel block,
An edge pixel counting step of detecting an edge pixel in the pixel block based on the edge component and counting the number of edge pixels;
A direction determining step of determining a direction of an edge formed by each edge pixel based on the edge component,
A feature value calculating step of calculating a feature value of the pixel block based on the correlation between the direction of the edge of each edge pixel in the pixel block and the direction of the edge of its neighboring edge pixels based on the determined direction of the edge;
Based on the counted number of edge pixels, it is determined whether or not the pixel of interest in the pixel block or the pixel block belongs to a photographic area, and based on the calculated feature amount, A determining step of determining whether or not a pixel belongs to the character area or the halftone dot area.
画像データを所定の画素数からなる画素ブロックに分割する分割ステップと、
画素の階調値に基づいて画素ブロック内の下地画素を検出し、下地画素数を計数する下地画素計数ステップと、
画素ブロック内の各画素のエッジ成分を算出する成分算出ステップと、
エッジ成分に基づいて画素ブロック内のエッジ画素を検出し、エッジ画素数を計数するエッジ画素計数ステップと、
エッジ成分に基づいて各エッジ画素が構成するエッジの方向を決定する方向決定ステップと、
決定されたエッジの方向に基づいて、画素ブロック内の各エッジ画素のエッジの方向とその近傍エッジ画素のエッジの方向との相関性に基づく画素ブロックの特徴量を算出する特徴量算出ステップと、
計数された下地画素数に基づいて前記画素ブロックまたは画素ブロック内の注目画素が下地領域に属するか否かを判定し、計数されたエッジ画素数に基づいて前記画素ブロックまたは画素ブロック内の注目画素が写真領域に属するか否かを判定し、算出された特徴量に基づいて前記画素ブロックまたは画素ブロック内の注目画素が前記文字領域あるいは前記網点領域に属するか否かを判定する判定ステップとを有することを特徴とする領域分離処理方法。Image data indicating an image composed of a plurality of pixels is input, and based on the input image data, a pixel block composed of a plurality of pixels or a pixel of interest in the pixel block is a character area, a halftone dot area, a photograph area, and a base area. In a region separation processing method of determining which of a plurality of regions including a region belongs, and performing region separation of image data,
A dividing step of dividing the image data into pixel blocks each having a predetermined number of pixels;
A base pixel counting step of detecting a base pixel in the pixel block based on the tone value of the pixel and counting the number of base pixels;
A component calculation step of calculating an edge component of each pixel in the pixel block,
An edge pixel counting step of detecting an edge pixel in the pixel block based on the edge component and counting the number of edge pixels;
A direction determining step of determining a direction of an edge formed by each edge pixel based on the edge component,
A feature value calculating step of calculating a feature value of the pixel block based on the correlation between the direction of the edge of each edge pixel in the pixel block and the direction of the edge of its neighboring edge pixels based on the determined direction of the edge;
It is determined whether or not the pixel of interest in the pixel block or the pixel block belongs to the background area based on the counted number of background pixels, and the pixel of interest in the pixel block or pixel block is determined based on the counted number of edge pixels. Determining whether the pixel block belongs to a photograph area, and determining whether the pixel of interest in the pixel block or the pixel block belongs to the character area or the halftone dot area based on the calculated feature amount; and A region separation processing method comprising:
前記方向決定ステップは、前記水平エッジ成分と垂直エッジ成分との差分からエッジの方向を決定することを特徴とする請求項1〜3のいずれか1つに記載の領域分離処理方法。The component calculation step calculates a horizontal edge component and a vertical edge component as edge components,
4. The method according to claim 1, wherein the direction determining step determines an edge direction from a difference between the horizontal edge component and the vertical edge component. 5.
計数された近傍エッジ画素数が所定の値より少ない注目画素の画素数を、特徴量として算出することを特徴とする請求項1〜4のいずれか1つに記載の領域分離処理方法。In the feature amount calculating step, when each edge pixel in the pixel block is set as a target pixel, among the neighboring edge pixels of the target pixel, the number of neighboring edge pixels having the same edge direction as the edge direction of the target pixel is determined for each target pixel. Counting,
The region separation processing method according to any one of claims 1 to 4, wherein the number of pixels of the target pixel in which the counted number of neighboring edge pixels is smaller than a predetermined value is calculated as a feature amount.
置き換えられた値を用いて、注目画素のエッジ方向と同じエッジ方向を有する近傍エッジ画素数を計数することを特徴とする請求項5記載の領域分離処理方法。In the feature amount calculation step, the direction of the edge of the edge pixel is replaced with a predetermined value according to the direction,
6. The method according to claim 5, wherein the number of neighboring edge pixels having the same edge direction as the target pixel is counted using the replaced value.
画像データを所定の画素数からなる画素ブロックに分割する分割手段と、
画素ブロック内の各画素のエッジ成分を算出する成分算出手段と、
算出されたエッジ成分に基づいて各画素が構成するエッジの方向を決定する方向決定手段と、
決定されたエッジの方向に基づいて、画素ブロック内の各画素のエッジの方向とその近傍画素のエッジの方向との相関性に基づく画素ブロックの特徴量を算出する特徴量算出手段と、
算出された特徴量に基づいて、前記画素ブロックまたは画素ブロック内の注目画素が前記文字領域あるいは前記網点領域のいずれに属するかを判定する判定手段とを有することを特徴とする画像処理装置。Image data representing an image composed of a plurality of pixels is input, and based on the input image data, a pixel block composed of a plurality of pixels or a pixel of interest in the pixel block is divided into a plurality of regions including a character region and a halftone dot region. In an image processing apparatus including an area separation processing unit that determines which one belongs to, and performs area separation of image data,
Dividing means for dividing the image data into pixel blocks each having a predetermined number of pixels;
Component calculating means for calculating an edge component of each pixel in the pixel block,
Direction determining means for determining the direction of the edge formed by each pixel based on the calculated edge component,
A feature amount calculating unit configured to calculate a feature amount of the pixel block based on a correlation between the direction of the edge of each pixel in the pixel block and the direction of the edge of a neighboring pixel based on the determined direction of the edge;
An image processing apparatus comprising: a determination unit configured to determine whether the pixel block or the pixel of interest in the pixel block belongs to the character region or the halftone dot region based on the calculated feature amount.
画像処理装置によって処理された画像データを出力する画像出力装置とを備えることを特徴とする画像形成装置。An image processing apparatus according to claim 9,
An image forming apparatus comprising: an image output device that outputs image data processed by the image processing device.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2003061907A JP4248899B2 (en) | 2003-03-07 | 2003-03-07 | Area separation processing method, area separation processing program, recording medium recording the same, image processing apparatus, and image forming apparatus including the same |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2003061907A JP4248899B2 (en) | 2003-03-07 | 2003-03-07 | Area separation processing method, area separation processing program, recording medium recording the same, image processing apparatus, and image forming apparatus including the same |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2004272557A true JP2004272557A (en) | 2004-09-30 |
| JP4248899B2 JP4248899B2 (en) | 2009-04-02 |
Family
ID=33123989
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2003061907A Expired - Fee Related JP4248899B2 (en) | 2003-03-07 | 2003-03-07 | Area separation processing method, area separation processing program, recording medium recording the same, image processing apparatus, and image forming apparatus including the same |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4248899B2 (en) |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007251689A (en) * | 2006-03-16 | 2007-09-27 | Sony Corp | Apparatus and method for processing image, apparatus and method for learning, and program |
| JP2008021207A (en) * | 2006-07-14 | 2008-01-31 | Fuji Xerox Co Ltd | Image processing system and image processing program |
| JP2009055121A (en) * | 2007-08-23 | 2009-03-12 | Sharp Corp | Image processing apparatus, image processing method, image forming apparatus and program, and recording medium |
| US8073251B2 (en) | 2007-02-16 | 2011-12-06 | Sharp Kabushiki Kaisha | Image processing apparatus and method including page-background process capability, and non-transitory computer readable storage medium for causing computer to function as the same |
| US8422789B2 (en) | 2009-09-09 | 2013-04-16 | Murata Machinery, Ltd. | Image discrimination device and image attribute discrimination method |
| US11106883B2 (en) | 2018-08-02 | 2021-08-31 | Samsung Electronics Co., Ltd. | Method and apparatus for processing data corresponding to fingerprint image |
-
2003
- 2003-03-07 JP JP2003061907A patent/JP4248899B2/en not_active Expired - Fee Related
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007251689A (en) * | 2006-03-16 | 2007-09-27 | Sony Corp | Apparatus and method for processing image, apparatus and method for learning, and program |
| JP2008021207A (en) * | 2006-07-14 | 2008-01-31 | Fuji Xerox Co Ltd | Image processing system and image processing program |
| US8073251B2 (en) | 2007-02-16 | 2011-12-06 | Sharp Kabushiki Kaisha | Image processing apparatus and method including page-background process capability, and non-transitory computer readable storage medium for causing computer to function as the same |
| JP2009055121A (en) * | 2007-08-23 | 2009-03-12 | Sharp Corp | Image processing apparatus, image processing method, image forming apparatus and program, and recording medium |
| US8422789B2 (en) | 2009-09-09 | 2013-04-16 | Murata Machinery, Ltd. | Image discrimination device and image attribute discrimination method |
| US11106883B2 (en) | 2018-08-02 | 2021-08-31 | Samsung Electronics Co., Ltd. | Method and apparatus for processing data corresponding to fingerprint image |
| US11468701B2 (en) | 2018-08-02 | 2022-10-11 | Samsung Electronics Co., Ltd. | Method and apparatus for processing data corresponding to fingerprint image |
Also Published As
| Publication number | Publication date |
|---|---|
| JP4248899B2 (en) | 2009-04-02 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN100438563C (en) | Image processing apparatus, image forming apparatus, image reading process apparatus, image processing method | |
| CN100568911C (en) | Image processing device, method, and program, image forming device, and recording medium | |
| JP4495197B2 (en) | Image processing apparatus, image forming apparatus, image processing program, and recording medium for recording image processing program | |
| JP4855458B2 (en) | Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium for recording image processing program | |
| CN100477722C (en) | Image processing device, image forming device, image reading processing device and method | |
| JP4105539B2 (en) | Image processing apparatus, image forming apparatus including the same, image processing method, image processing program, and recording medium | |
| JP4248899B2 (en) | Area separation processing method, area separation processing program, recording medium recording the same, image processing apparatus, and image forming apparatus including the same | |
| JP4050220B2 (en) | Image processing method, image processing apparatus, image forming apparatus, program, and recording medium | |
| JP3942080B2 (en) | Image forming apparatus | |
| JP4522978B2 (en) | Image processing apparatus, image processing method, image forming apparatus, image processing program, and recording medium | |
| JP2003209704A (en) | Image processing method, image processing apparatus, image forming apparatus, image processing program, and recording medium | |
| JP4053362B2 (en) | Interpolation processing method, interpolation processing program, recording medium recording the same, image processing apparatus, and image forming apparatus provided with the same | |
| JP2011015172A (en) | Device for processing image, device for forming image, method and program for processing image, and recording medium recording program for processing image | |
| JP3854060B2 (en) | Image processing apparatus, image forming apparatus, image processing method, and recording medium | |
| JP2007053439A (en) | Isolated point determination apparatus, image processing apparatus, image reading apparatus, image forming apparatus, isolated point determination method, isolated point determination program, image processing program, computer-readable recording medium | |
| JP4086537B2 (en) | Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium | |
| JP2003234912A (en) | Image processing method, image processing apparatus, and image forming apparatus | |
| JP4176053B2 (en) | Image processing method, image processing apparatus, image forming apparatus, and computer program | |
| JP4808282B2 (en) | Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium for recording image processing program | |
| JP2003125198A (en) | Image processing apparatus and image processing method, and image forming apparatus, program, and recording medium having the same | |
| JP2004023174A (en) | Image processing apparatus, image forming apparatus, image processing method, program, and recording medium | |
| JP2006304015A (en) | Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium | |
| JP2008271131A (en) | Image processing method, image processing apparatus, and image forming apparatus | |
| JP2004118463A (en) | Image processing method and image processing apparatus, program, recording medium, and image forming apparatus | |
| JP2005347963A (en) | Background detection method and image processing apparatus using the same |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050810 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080729 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080925 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081021 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081210 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090113 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090114 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120123 Year of fee payment: 3 |
|
| R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130123 Year of fee payment: 4 |
|
| LAPS | Cancellation because of no payment of annual fees |