JP3713982B2 - Image processing apparatus and image processing method - Google Patents
Image processing apparatus and image processing method Download PDFInfo
- Publication number
- JP3713982B2 JP3713982B2 JP29251998A JP29251998A JP3713982B2 JP 3713982 B2 JP3713982 B2 JP 3713982B2 JP 29251998 A JP29251998 A JP 29251998A JP 29251998 A JP29251998 A JP 29251998A JP 3713982 B2 JP3713982 B2 JP 3713982B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- value
- background
- image
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000009499 grossing Methods 0.000 claims description 90
- 238000006243 chemical reaction Methods 0.000 claims description 30
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 claims description 3
- 238000000926 separation method Methods 0.000 claims description 2
- 238000000034 method Methods 0.000 description 57
- 238000010586 diagram Methods 0.000 description 42
- 238000001514 detection method Methods 0.000 description 30
- 238000003708 edge detection Methods 0.000 description 15
- 238000007796 conventional method Methods 0.000 description 8
- 230000002087 whitening effect Effects 0.000 description 6
- 241000519995 Stachys sylvatica Species 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000005336 cracking Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
Description
【0001】
【発明の属する技術分野】
この発明は、カラードキュメントまたはカラー伝送画像、特にそれらの文字・線画部に対し、スムージングを含む高解像度化処理を施し、デジタル複写機、レーザプリンタ等の高解像度出力装置へ出力する画像処理装置および画像処理方法に関する。
【0002】
【従来の技術】
従来、FAX等の低解像度白黒2値画像を高解像度化することによって、画質を向上させ、デジタル複写機、レーザプリンタ等から出力する画像処理装置が各種提案されている。これらの技術の1つにスムージング拡大技術がある。スムージング拡大とは、文字・線画等の直線や曲線で構成される画像をジャギー(ぎざぎざ)なく、滑らかに解像度変換(拡大)する技術である。
【0003】
上記スムージング拡大技術は、白黒2値のファクシミリ画像を受信し、高解像度化して出力する場合に多く用いられてきた。ファクシミリでは、次の3種類の解像度のいずれかで送受信されることが多い。
▲1▼8×3.85 ドット/mm
▲2▼8×7.7 ドット/mm
▲3▼16×15.4 ドット/mm
【0004】
ところで、高解像度な出力装置、例えば400dpiの解像度を有するプリンタで、上記3種の解像度で受信された画像を出力する場合には、画素密度が細かくなる分、画像を拡大する必要がある。そこで、正確な倍率で解像度変換(拡大)する場合もあるが、近似した倍率で変換してもほぼ支障がないことなどの理由から、一般に、次の倍率を用いて解像度変換処理が行われている。
▲1▼の解像度であれば、主走査方向に2倍、副走査方向に4倍、
▲2▼の解像度であれば、主走査方向に2倍、副走査方向に2倍、
▲3▼の解像度であれば、主走査方向に1倍、副走査方向に1倍(無変換と同等)。
【0005】
初期の従来技術では、単純な補間法(2倍なら画素を2回ダブらせて出力する等の単純拡大法)で拡大処理が行われていた。しかしながら、この手法では、文字部や線画部でジャギーが発生してしまう。このジャギーを補正しながら滑らかに拡大処理するのがスムージング拡大処理である。
【0006】
図26は、スムージング拡大処理を説明するための概念図である。図26(a)は拡大前の画像、同図(b)は単純に主走査方向に2倍、副走査方向に4倍にして出力した画像(各画素を主走査に2個、副走査に4個ずつダブらせて出力)、同図(c)はスムージング拡大処理により、主走査方向に2倍、副走査方向に4倍にして出力した画像である。
【0007】
従来のスムージング拡大処理について説明する。従来のスムージング拡大処理として、8×3.85ドット/mmの画像を、400dpiに変換する場合、すなわち、主走査方向を2倍、副走査方向を4倍(前述した▲1▼に相当)にする場合について説明する。言い換えると、8×3.85ドット/mmの解像度を有する入力画像のジャギーを検出し、入力画像の各1画素を、ジャギーが検出された場合にはジャギーを補正した2×4画素を出力し,検出されない場合には、単純拡大処理を施した場合と同等のジャギー補正なしの2×4画素を出力する。
【0008】
具体的には、まず、入力された2値画像を順次走査し、注目画素を中心とする特定領域(例えば13×7)を設定し、設定した領域が予め記憶させておいたジャギー検出パターンと一致するか否かを判断する。ジャギー検出パターンとしては周期(段差)の長いもの、短いものなど複数用意するとともに、ジャギー検出パターンに対応付けて、ジャギー検出パターンと一致した場合にジャギーを補正するためのジャギー補正出力画素パターン(2×4画素)を用意しておく。
【0009】
ここで、図27は、従来のスムージング拡大処理で用いるジャギー検出パターンの一例を示す概念図である。図示するジャギー検出パターンは、主走査方向に黒画素が7画素連続後、副走査方向に1画素分黒画素が変移する周期を有する。他に黒画素を中心画素とするパターン、さらに白画素を中心画素とするジャギー検出パターンが複数用意されている。これらのジャギー検出パターンと一致する場合には、ジャギー検出パターンに対応付けられているジャギー補正拡大2×4画素(白黒2値)を出力し、ジャギー検出パターンと一致しない場合には、単純拡大と同等の2×4画素(白黒2値)を出力する。
【0010】
上述したように、ジャギー検出パターンとジャギー補正出力画素パターンとを予め用意しておき、スムージング拡大する方法が、『”ファクシミリ受信画像の平滑化処理による高画質化”、1991年画像電子学会年次大会予稿18、pp.69―72』など、多数報告されている。また、上述したジャギー検出パターンを用いる代わりに、処理画素周辺の画素を用いて論理演算を行うことにより、ジャギーを検出するといった手法も特開平2―9268等で開示されている。
【0011】
【発明が解決しようとする課題】
ところで、近年のカラーデジタル複写機、カラーデジタルプリンタなどでは、高解像度なだけでなく、256階調、多階調で出力可能なものが主流となっており、従来技術では、これらの性能(特に階調面)を十分に生かした出力が得られない。
【0012】
上述した高性能出力装置では、図28に示すように、まず、多値デジタル画像データをD/Aコンバータ1を用いてアナログ信号に変換する。次に、変換されたアナログ信号を三角波発生装置2からの基準三角波信号とコンパレータ3で比較し、レーザビームのオン/オフ制御を行うパルス幅変調(PWM)方式を用いて中間調画像を滑らかな階調表現で出力可能としている。
【0013】
図29は、トナーを用紙に付着させる期間は、レーザをオンとするイメージライティング方式のゼログラフィー(電子写真)技術を用いた場合の、図28の▲2▼、▲3▼、▲4▼、の各点の波形を模式的に示したもので、コンパレータ3でアナログ化された画像信号と基準三角波とを比較し、三角波より画像信号のレベルが高い部分だけレーザビームをオンとしている。カラー多値画像データの場合には、各色成分(通常、YMCK)毎にレーザ点灯時間を制御し、各色成分毎に印字する。この結果、各色成分で256階調可能な場合には、約1670万色の表現が可能となる。
【0014】
また、デジタル複写機は、コピー機能の他に、外部インターフェースを備えて、プリンタやファクシミリの機能を搭載し、マルチファンクション化が進んでいる。従来のレーザプリンタ等では、単に2値画像を出力するにとどまっていたので、写真などの中間調部は、誤差拡散法やディザ法等で擬似中間調2値化してプリンタデータを送信していたが、デジタル複写機を応用したマルチファンクション機では、多値データをそのまま扱うことが可能である。しかしながら、上述した従来技術では、入力画像が白黒2値であること、出力画像も白黒2値であることを前提とした技術である。
【0015】
したがって、上述したようなカラー多値画像のスムージング拡大にはそのまま適用することができない。そこで、簡単に対処するのであれば、カラー多値画像を適当な白黒2値に変換し、スムージング拡大処理を施すことが考えられる。しかしながら、得られる画像は、拡大されてはいるものの、白黒2値画像となってしまい、色と階調が損なわれる。得られた白黒2値画像をカラー多値画像に戻ることも考えられるが、一旦損なわれた色と階調とを復元することは極めて困難である。その他の方法として、カラー多値画像を各色成分毎に、例えば、R,G,B毎に適当なしきい値で2値化してスムージング拡大処理を施すことも考えられる。この場合、上述したように、白黒で出力されることはないが、各色成分は2階調でしか表現できないため、階調劣化の問題を解決することはできない。
【0016】
これに対して、特開平8−320925には、画像の階調を維持しながら、限定的な部分にのみスムージング拡大処理を施す手法が開示されている。すなわち、文字は黒で表されることが大半であることを理由に、カラー多値画像中の黒文字の部分のみをスムージング拡大する方法である。しかしながら、黒文字の多いカラー画像では有効であるが、他の階調を持った色文字(中間調文字)をスムージング拡大処理することができないという問題がある。
【0017】
多値データをスムージング拡大するために、図27に示すような2値データで構成されるジャギー検出パターンではなく、多値データで構成されるジャギー検出パターンおよびジャギー補正出力画素パターンを作成することも考えられるが、多階調の場合には、2値のパターンに比べて階調分それらの組み合わせが増えるため、これらのパターン数が膨大なものとなるという問題がある。
【0018】
その他、カラー画像特有の問題も生じる。すなわち、カラー画像の場合、写真画像や色背景中に色文字や色線画が存在することがある。これらを、前述した従来技術(色成分毎に2値化してからスムージング拡大する)で処理すると、白ぬけを生じる恐れがある。例えば、図30(a)に示すように、写真画像中に文字が存在する場合、単純に主走査方向に2倍、副走査方向に2倍の解像度へと拡大したとすると、図30(b)に示すようになる。この場合、文字部にはジャギーが生じる。これに対して、前述した従来技術によるスムージング拡大処理を施すと、図30(c)に示すようになり、文字部のジャギーは改善されるが、写真部と文字部との境界で白ぬけが発生してしまう。これはスムージング拡大において出力されるジャギー補正画素群(この場合、2×2画素)が背景(下地)画素を考慮したものでなく、常に白背景であることを前提としていることが原因である。
【0019】
以下に従来技術での問題点をまとめる。
▲1▼従来技術のスムージング拡大は、入力画像として、白黒2値画像を対象としており、カラー多値画像をそのまま扱うことができない。
▲2▼カラー多値画像を一旦2値化後、従来技術によるスムージング拡大を行う場合には、出力は2値に限られ、本来の色と階調が失われてしまう。また、写真画像中に文字・線画が存在すると、白抜けを生じることがある。
▲3▼カラー多値データで構成されるジャギー検出パターンを用いる方法は、そのパターン数が膨大となり、作成も困難である。
【0020】
この発明は上述した事情に鑑みてなされたもので、ジャギー検出パターンを増やすことなく、また、白抜けの発生を防止して、カラー多値画像における文字・線画にスムージング拡大処理を施すことができる画像処理装置および画像処理方法を提供することを目的としている。
【0021】
【課題を解決するための手段】
上述した問題点を解決するために、請求項1記載の発明では、多値画像データから2値画像データを生成する2値化手段と、前記2値化手段によって2値化された2値画像データのエッジ部を平滑化しながら、全体を高解像度化して平滑高解像2値画像データとする平滑高解像度化手段と、前記多値画像データに基づいて、背景部の濃度値と背景部以外の濃度値とを算出する下地算出手段と、前記平滑高解像度化手段により得られた平滑高解像2値画像データの背景部には前記下地算出手段によって算出された背景部の濃度値を割り当て、当該平滑高解像2値画像データの背景部以外には前記下地算出手段によって算出された背景部以外の濃度値を割り当ることによって、スムージング拡大多値画像データを取得する2値多値変換手段とを具備することを特徴とする。
請求項2記載の発明では、前記2値化手段は、前記多値画像データとともに入力され、前記多値画像データ中の少なくとも絵柄部、文字部、線画部を識別可能に表す画像属性データに基づいて、前記多値画像データを2値化することを特徴とする。
【0022】
請求項3記載の発明では、前記2値化手段は、前記多値画像データを少なくとも絵柄部と文字・線画部とに分離し、該分離結果に基づいて前記多値画像データを2値化することを特徴とする。
請求項4記載の発明では、位相または周期が異なる複数のパターン波形を発生するパターン波形発生手段と、前記平滑高解像度化手段からの前記平滑高解像2値画像データに基づいて、前記パターン波形発生手段が発生する複数のパターン波形のうち、いずれか1つを選択する選択手段と、前記平滑高解像2値画像データと前記選択手段により選択されたパターン波形とに基づいて、オン/オフ信号を生成する信号生成手段とを具備することを特徴とする。
【0023】
また、請求項5記載の発明では、多値画像データから2値画像データを生成する2値化ステップと、前記2値化ステップにて2値化された2値画像データのエッジ部を平滑化しながら、全体を高解像度化して平滑高解像2値画像データとする平滑高解像度化ステップと、前記多値画像データに基づいて、背景部の濃度値と背景部以外の濃度値とを算出する下地算出ステップと、前記平滑高解像度化ステップにて得られた平滑高解像2値画像データの背景部には前記下地算出ステップにて算出された背景部の濃度値を割り当て、当該平滑高解像2値画像データの背景部以外には前記下地算出ステップにて算出された背景部以外の濃度値を割り当ることによって、スムージング拡大多値画像データを取得する2値多値変換ステップとを有することを特徴とする。
請求項6記載の発明では、位相または周期が異なる複数のパターン波形を発生するパターン波形発生ステップと、前記平滑高解像度化ステップにて得られた前記平滑高解像2値画像データに基づいて、前記パターン波形発生ステップで発生した複数のパターン波形のうち、いずれか1つを選択する選択ステップと、前記平滑高解像2値画像データと前記選択ステップにより選択されたパターン波形とに基づいて、オン/オフ信号を生成する信号生成ステップとを有することを特徴とする。
【0024】
【発明の実施の形態】
次に図面を参照してこの発明の実施形態について説明する。
まず、本発明の実施形態で用いるデータについて説明する。以下に述べる各実施形態では、基本的には、カラー多階調画像を対象とするが、白黒多階調画像であっても処理は可能である。カラー多値画像データは、一般的に、1つの画素データを複数のコンポーネントで表す。それらの色空間には、「赤(R)、緑(G)、青(B)」、「イエロー(Y)、マゼンダ(M)、シアン(C)」、「明度(L*)、色相(H*)、彩度(C*)」、「L*、a*、b*」などがある。いずれの場合も、各コンポーネント毎の多値画素データについて処理することが可能である。また、以下に述べる各実施形態では、パーソナルコンピュータ(以下、PCという)等で作成された写真や色文字、線画を含むカラー画像データ(色成分:Y,M,C、解像度:200dpi、階調:8ビット/ピクセル)を、解像度が400dpiのカラーレーザプリンタから出力する場合を想定している。
【0025】
A.第1実施形態
A―1.第1実施形態の構成
以下に、本発明の第1実施形態を説明する。図1は、本発明の第1実施形態による画像処理装置の構成を示すブロック図である。図において、画像入力は、多値カラーラスタ画像データ(以下、多値画像データという)および画像属性情報データ(以下、属性情報データまたはタグデータという)からなる。多値画像データおよび属性情報データは、PC等を通じて作成された文書画像を表すプリンタ記述言語(PDL:Printer Description Language)を展開することにより得られる。本第1実施形態では、多値画像データの色成分を、Y,M,Cとする。画像処理装置には、Y,M,Cの色成分毎に、多値画像データおよび属性情報データが順次供給される。
【0026】
また、上記属性情報データとは、元の文書画像の各部分がどのような属性を持つか表したデータであり、ここでは、文字、線画(CG等のグラフィック)、写真の3つの属性に分類されるものとする。属性情報データは、PDL中に記載されている情報に基づいて作成される。これらの属性情報データの各々を便宜上タグ(Tag)と呼ぶことにする。例えば、画像の文字部分を表す部分は文字タグ、線画部は線画タグ、写真部は写真タグデータとする。
【0027】
画像メモリ61は、主走査方向に13画素、副走査方向に7画素からなるメモリであり、上記多値画像データを記憶する。Tagメモリ62は、画像メモリ61に記憶される13×7画素の各画素に対応する属性情報データ(タグデータ)を記憶する。Tag判別回路63は、Tagメモリ62に記憶されたタグデータのうち、文字または線画を表す画素を検知し、検知結果を2値化回路64に供給する。2値化回路64は、Tag判別回路63の検知結果に基づいて、画像メモリ61に記憶された多値画像データの文字・線画部に対して2値化処理を行う。スムージング拡大回路65は、ROM68に記憶されているジャギー検出パターンおよび拡大出力パターン(ジャギー補正パターン)を用いて、上記2値化された、文字・線画部のデータに対してスムージング拡大処理を施し、2値多値変換回路67に供給する。
【0028】
下地算出回路66は、画像メモリ61に記憶された多値画像データと、Tagメモリ62に記憶されたタグデータとに基づいて、文字・線画を表す画素の画素値(非下地値)、およびそれ以外の部分の画素値(下地値)を算出し、下地値および非下地値として2値多値変換回路67に供給する。2値多値変換回路67は、スムージング拡大回路65で得られた2値スムージング拡大画素群のうち、文字・線画を示す画素を、下地算出回路66で算出した非下地値(多値データ)へ変換し、非文字・非線画を示す画素を、下地値(多値データ)へと変換した後、スムージング拡大多値画像データとして出力する。また、ROM68は、複数のジャギー検出パターンおよび該ジャギー検出パターンに対応するジャギー補正パターンを記憶する。
【0029】
上述した構成を、各色成分数分用意して並列に処理してもよいし(本第1実施形態の場合、YMCそれぞれ3つ用意する)、1つの構成で色成分数だけ処理を繰り返してもよい。以下の説明では、1つの構成で色成分数だけ繰り返し処理するものとする。
【0030】
A−2.第1実施形態の動作
次に、上述した第1実施形態の動作について説明する。まず、PC等を通じて作成された文書画像は、プリンタ記述言語(PDL:Printer Description Language)で表された後、多値画像データおよび属性情報データに展開され、多値画像データと属性情報データ(タグデータ)は、各々、画像メモリ61、Tagメモリ62に記憶される。
【0031】
次に、Tag判別回路63でTagメモリ62に記憶されたタグデータのうち、文字または線画を表す画素を検知する。この結果に基づいて、2値化回路64において、画像メモリ61に記憶された多値画像データに対して、文字・線画部の2値化処理を行う。得られた2値画像データは、スムージング拡大回路65に供給され、記憶ROM68に記憶されているジャギー検出パターンおよび拡大出力パターン(ジャギー補正パターン)を用いて、スムージング拡大処理が行われる。さらに、スムージング拡大処理された結果は、2値多値変換回路67に供給される。
【0032】
一方、下地算出回路66では、画像メモリ61に記憶された多値画像データと、Tagメモリ62に記憶されたタグデータとに基づいて、文字・線画を表す画素の画素値(非下地値)、およびそれ以外の部分の画素値(下地値)を算出する。2値多値変換回路67では、スムージング拡大回路65で得られた2値スムージング拡大画素群のうち、文字・線画を示す画素は、下地算出回路66で算出した非下地値(多値データ)へ変換され、非文字・非線画を示す画素は、下地値(多値データ)へと変換される。この結果、得られたデータがスムージング拡大多値画像データとなる。
【0033】
上述した処理は、まず、Y成分に対して行われた後、次にM成分、最後にC成分というように、面順次で行われる。各色成分でのスムージング拡大処理が終了した後、各色成分毎に、図示しない画像出力装置(解像度:400dpi、カラー多値レーザプリンタ)へ出力され、印字処理が行われる。
【0034】
さらに、図2ないし図4に示すフローチャートを参照して詳細に説明する。まず、図2に示すステップS101で、最初の色成分であるY成分の多値画像データと、これに対応する属性情報データ(タグデータ)とを読み込む。ここで、図5は、読み込まれた多値画像データの一例を示す概念図である。多値画像データは、前述したように、主走査方向に13画素、副走査方向に7画素分からなり、画像メモリ61に読み込まれる。また、図6は、読み込まれたタグデータの一例を示す概念図である。タグデータにおいては、値「0」が写真部分を表す画素であり、値「1」が文字部分を表す画素である。なお、図示していないが、線画部分は、値「2」となる。なお、本実施形態では、タグデータの値を便宜上このように設定しているが、その他の値でもよい。図5および図6のいずれにおいても、注目処理画素(中心画素)は太枠で示している。
【0035】
次に、ステップS102で、Tag判別回路63により、注目画素を中心とする3×3画素内に文字部分を表すタグデータが存在するか否かを判断する。まず、タグデータについて、注目画素を中心とする3×3画素領域に着目する。ここで、図7は、図6に示す13×7画素のタグデータから3×3画素を抜き出したものである。この例では、3×3画素領域内には、文字部分を表すタグデータ「1」が存在する。したがって、この場合、ステップS102における判断結果は「YES」となり、ステップS103およびステップS104へ進む。
【0036】
ステップS104では、図1に示す2値化回路64により、画像メモリ61に読み込まれた、図5に示す13×7画素の全てについて、文字タグに対応する画素の値を「255(黒)」とし、文字タグ以外に対応する画素(写真タグに対応する画素)の値を「0(白)」とする。ここでは、図5に示す多値画像データを2値化したが、図6に示すタグデータを2値化してもよい。この場合、文字タグデータが「255(黒)」となり、それ以外のタグデータが「0(白)」となる。図9は、2値化処理後の2値画像データを示す概念図である。
【0037】
次に、ステップS105で、上記2値画像データに対してスムージング拡大処理を施す。ここで、図10は、図9に示す2値画像データの注目画素をスムージング拡大する様子を示す概念図である。スムージング拡大処理の手法は、従来技術で説明した2値画像入力用に行われているものをそのまま用いればよい。すなわち、予め用意されたジャギー検出パターンと比較し、一致すれば、ジャギー補正出力画素パターン(2×2画素:2倍)を2値多値変換回路67へ供給する。図10に示すジャギー補正出力画素パターンにおいて、黒画素は非下地値、白画素は下地値を表す。
【0038】
一方、ステップS103では、下地算出回路66により、図3に示すフローチャートに従って下地値および非下地値が算出される。図3に示すステップS120で、まず、図1に示す画像メモリ61に記憶されている多値画像データとTagメモリ62に記憶されているタグデータとから、注目画素を中心に3×3画素を参照し(図11、図7参照)、文字タグに対応する画素(非下地)で最大となる最大画素値Aを算出する。また、ステップS121で、非文字タグに対応する画素群(下地)の平均画素値Bを算出する。
【0039】
ここで、図11は、図5に示す多値画像データの注目画素を中心とする3×3画素を示す概念図である。図11に示す例では、A=128となる。また、図11に示す例では、(210+206+216+210)/4=210.5となり、四捨五入してB=211となる。そして、図3に示すステップS122で、下地値(=B)、非下地値(=A)として出力する。なお、ここでは、非下地値は、文字タグに対応する画素の最大値としたが、平均値あるいは他の基準で算出してもよい。同様に、下地値は、非文字タグに対応する画素の平均値としたが、非下地値と同様に最大値を基準としたり、他の基準で算出してもよい。上記非下地値Aおよび下地値Bは、図1に示す2値多値変換回路67に供給される。
【0040】
次に、図2に示すステップS106で、2値多値変換回路67により、スムージング拡大回路65から供給される2×2画素の2値データを、下地算出回路66で算出した、非下地値Aおよび下地値Bを用いて多値データに変換する。例えば、図10に示すスムージング拡大処理で得られた2×2画素の黒画素に対しては非下地値Aを当てはめ、白画素には下地値Bを当てはめる。ここで、図12は、スムージング拡大処理後の2×2画素の黒画素に対して非下地値Aを当てはめ、白画素に下地値Bを当てはめた一例を示す概念図である。図示するように、前述したステップS103で、非下地値A=128、下地値B=211となったので、2値多値変換後の2×2画像は、図12に示すようになる。
【0041】
したがって、本第1実施形態では、従来、下地値、非下地値を考慮していないため、スムージング拡大後の画像で生じていた白ぬけを防止することができる。また、カラー中間調文字・線画をスムージング拡大することができる。写真中に文字が存在した場合においても、ジャギー補正後の文字部と写真部との境界部に、下地である写真部の画素値(平均値)を当てはめているので白ぬけすることがない。そして、上述した処理によりスムージング拡大多値画素が得られると、ステップS107で、スムージング拡大多値画素をプリンタなどの画像出力装置へ出力する。
【0042】
次に、ステップS102で、処理画素中心の3×3画素領域内に文字部分を表すタグデータ「1」が存在しない場合には、判断結果は「NO」となり、ステップS108へ進む。ステップS108では、3×3画素領域内に線画部を表すタグデータ「2」が存在するか否かを判断する。そして、線画部を表すタグデータ「2」が存在する場合には、ステップS109〜S113の処理を実行する。
【0043】
まず、ステップS109で、図1に示す2値化回路64により、画像メモリ61に読み込まれた、13×7画素について、線画タグに対応する画素の値を「255(黒)」とし、線画タグ以外に対応する画素の値を「0(白)」とする。次に、ステップS110で、前述したステップS105と同様に、スムージング拡大処理を施すとともに、ステップS113で、ステップS103と同様に、下地値および非下地値を算出する。
【0044】
ステップS113では、下地算出回路66により、図4に示すフローチャートに従って下地値および非下地値が算出される。図4に示すステップS130で、まず、図1に示す画像メモリ61に記憶されている多値画像データとTagメモリ62に記憶されているタグデータとから、注目画素を中心に3×3画素を参照し、線画タグに対応する画素(非下地)で最大となる最大画素値Aを算出する。また、ステップS131で、非線画タグに対応する画素群(下地)の平均画素値Bを算出する。そして、ステップS132で、下地値(=B)、非下地値(=A)として出力する。次に、ステップS111で、前述したステップS106と同様に、2値多値変換を行った後、ステップS112で、前述したステップS107と同様に、スムージング拡大多値画素をプリンタなどの画像出力装置へ出力する。
【0045】
一方、ステップS108での判定が「NO」であった場合、すなわち、図8に示すように、3×3画素領域内に文字タグ「1」、線画タグ「2」のいずれも存在しない場合には、文字や線画がないので、ステップS114へ進み、注目画素を単純に拡大する。例えば、写真タグ「0」を持つ画素は、単純拡大される。なお、本第1実施形態では、単純拡大するようにしたが、これに限らず、例えば、投影法、4点補間、16点補間などの他の拡大方法を用いてもよい。そして、ステップS115で、単純拡大された画像データは出力される。
上述した処理は、各色成分、各画素毎に行われる。すなわち、Y成分画像の処理が終了後、続いてM成分画像、そしてC成分画像を処理する。
【0046】
上述したように、本第1実施形態では、スムージング拡大処理を施す時点では、2値データを用いて行われるので、カラー多値データからなるジャギー検出パターンおよび出力補正パターンを作成・用意する必要がない。また、下地値、非下地値を算出して、得られたスムージング拡大データを多値データに変換することにより、白抜けの発生を防止することができ、かつ多値データのままのスムージング拡大出力が得られることになる。
【0047】
B.第2実施形態
B―1.第2実施形態の構成
次に、本発明の第2実施形態について説明する。図13は、本発明の第2実施形態による画像処理装置の構成を示すブロック図である。なお、図1に対応する部分には同一の符号を付けて説明を省略する。第2実施形態において、第1実施形態と異なる点は、Tagメモリ62、Tag判別回路63、2値化回路64に代えて、エッジ検出型2値化回路71を設けたところにある。エッジ検出型2値化回路71は、画像メモリ61に記憶されている、13×7画素の多値画像データに対して、例えば、Sobel、ラプラシアンなど、既存の微分オペレータを用いて、エッジ強度が予め設定されたしきい値を超える画素が、注目画素を中心とする3×3画素周辺に存在する場合、注目画素がエッジ画素であると判断し、エッジ画素を「255」、非エッジ画素を「0」に変換して2値化する。上記しきい値は、予め実験的に設定される。
【0048】
B−2.第2実施形態の動作
次に、第2実施形態の動作について説明する。ここで、図14は、本第2実施形態による画像処理装置の動作を説明するためのフローチャートである。まず、PC等を通じて作成された文書画像は、プリンタ記述言語(PDL:Printer Description Language)で表された後、多値画像データに展開され、多値画像データは、各々、画像メモリ61に記憶される。ここで、入力される画像は、PC等を通じて作成されない画像、例えば、スキャナ等から入力される多値ラスター画像であってもよい。
【0049】
次に、エッジ検出型2値化回路71において、多値画像データに対して上述したエッジ検出処理が施され、エッジである画素を黒画素、非エッジ画素を白画素とする2値化処理が施される。下地算出回路66では、画像メモリ61に記憶されている多値画像データに対して、エッジ検出型2値化回路71からの出力に基づいて、下地値および非下地値が算出される。スムージング拡大回路65では、エッジ検出型2値化回路71からの出力に対して、スムージング拡大を行う。スムージング拡大の結果、得られた拡大2値画素群を、2値多値変換回路67において、第1実施形態と同様の処理で多値画素へと変換し、得られた多値スムージング拡大多値データとして画像出力装置へ出力する。
【0050】
さらに、図14に示すフローチャートを参照して詳細に説明する。まず、ステップS210で、最初の色成分であるY成分の13×7画素分の多値画像データを画像メモリ61に読み込む。次に、ステップS211で、エッジ検出型2値化回路71により、13×7画素の画像データ全てに対してエッジ検出処理を施し、エッジ強度が予め設定されたしきい値を超える画素が、注目画素を中心とする3×3画素周辺に存在するか否かを判断し、存在する場合には、注目画素がエッジ画素であると判断し、ステップS212で、入力された13×7画素内の領域で、エッジ強度がしきい値を超えるエッジ画素を「255」、しきい値以下の非エッジ画素を「0」に変換して2値化する。例えば、入力された多値画像データが図5に示すものとし、図9に示す結果が得られたとする。次に、ステップS213で、第1実施形態と同様にスムージング拡大処理を施し、2×2画素のジャギー補正画素を取得する(図10参照)。
【0051】
一方、ステップS216では、下地算出回路66において、画像メモリ61に記憶されている多値画像データおよびエッジ検出処理の結果に従って、下地値および非下地値を算出する。具体的には、図15に示すステップS221で、注目画素を中心とする3×3画素領域内(図11)で、エッジと判定された画素のうち(2値化処理の結果、黒画素となる部分の画素)、画素値が最大となる最大画素値Aを算出する。図11に示す例では、A=128となる。また、ステップS222では、非エッジ画素群の平均画素値Bを算出する。図11に示す例の場合、(210+206+216+210)/4=210.5、四捨五入してB=211となる。そして、ステップS223で、下地値(=B)、非下地値(=A)として出力する。ここで、非下地値は、エッジ対応画素の最大値としたが、平均値、あるいは他の基準で設定してもよい。同様に、下地値は、非エッジ対応画像の平均値としたが、非下地値と同様に最大値を基準としたり、他の基準で設定してもよい。
【0052】
次に、図14に示すステップS214で、スムージング拡大回路65から出力される2×2画素の2値データを、図13に示す下地算出回路66で得られた下地値および非下地値を用いて多値データに変換する。例えば、図10に示す2×2画素のスムージング拡大画素の黒画素に対しては非下地値を当てはめ、白画素には下地値を当てはめる。前述したステップS216で説明したように、下地値=211、非下地値=128であるので、多値変換後の2×2画素は、図11に示すようになる。したがって、第1実施形態と同様に、白ぬけの発生を防止することができる。
【0053】
一方、ステップS211での判定が「NO」であった場合、すなわち、3×3画素領域の注目画素がエッジ画素でない場合には、ステップS217へ進み、注目画素を単純に拡大する。なお、本第2実施形態では、単純拡大するようにしたが、第1実施形態と同様に、例えば、投影法、4点補間、16点補間などの他の拡大方法を用いてもよい。そして、ステップS218で、単純拡大された画像データは出力される。
上述した処理は、各色成分、各画素毎に行われる。すなわち、Y成分画像の処理が終了後、続いてM成分画像、そしてC成分画像を処理する。
【0054】
このように、第2実施形態では、第1実施形態とは異なり、属性情報データ(タグデータ)を用いずに、エッジ検出を行い、得られたエッジ強度に従ってスムージング拡大を行うか、単純拡大を行うかを選択する。なお、第2実施形態では、エッジ強度を1つのしきい値と比較して拡大手法を選択しているが、エッジ強度を複数段階に分け、各エッジ強度毎に拡大方法を変更するようにしてもよい。例えば、あるエッジ強度ではスムージング拡大を施し、これと異なるエッジ強度の場合には単純拡大を施し、さらに、これら2つのエッジ強度と異なる場合には4点補間による拡大を実施するようにしてもよい。
【0055】
C.第3実施形態
C―1.第3実施形態の構成
次に、本発明の第3実施形態について説明する。図16は、本発明の第3実施形態による画像処理装置の構成を示すブロック図である。なお、図1または図13に対応する部分には同一の符号を付けて説明を省略する。図において、ROM80は、ジャギー検出パターンおよびジャギー補正パターンに加えて、後述する三角波発生装置82、83、84から出力される三角波信号A,B,Cのいずれかを選択するための三角波選択信号Sを記憶する。D/Aコンバータ81は、2値多値変換回路67から出力される、スムージング拡大後の多値データ(2×2画素)をアナログ信号に変換し、コンパレータ86の一方の入力端に供給する。
【0056】
次に、三角波発生装置82〜84は、各々、位相もしくは周期の異なる三角波A,B,Cを発生し、SEL85に供給する。SEL85は、上記三角波選択信号Sに従って、上記三角波発生装置82〜84から出力される三角波信号A,B,Cのいずれかを選択し、選択した三角波信号をコンパレータ86の他方の入力端に供給する。コンパレータ86は、D/Aコンバータ81で変換されたアナログ信号と、SEL85で選択された三角波信号とのレベル(振幅)を比較し、アナログ信号が三角波信号より大となると、オンとなるレーザ制御信号を出力する。該レーザ制御信号は、レーザプリンタなどの画像出力装置における画像形成部で、感光ドラムに潜像を形成するためのレーザ光のオン/オフを制御するために用いられる。
【0057】
C―2.第3実施形態の動作
次に、第3実施形態の動作について説明する。なお、画像が入力されてから、タグデータに基づいて画像を2値化し、スムージング拡大を行うまでの処理、および下地値および非下地値の算出、スムージング拡大で得られた2値画素群を多値画素群へ変換するまでの処理は、第1実施形態と同様であるので簡単に説明する。まず、PC等を通じて作成された文書画像は、プリンタ記述言語(PDL:Printer Description Language)で表された後、多値画像データおよび属性情報データに展開され、多値画像データと属性情報データ(タグデータ)は、各々、画像メモリ61、Tagメモリ62に記憶される。
【0058】
下地算出回路66では、第1実施形態と同様の処理で、多値画像データおよびタグデータを用いて、下地値および非下地値が算出される。一方、Tag判別回路63で、タグデータから文字タグ、線画タグが検出されると、これらに対応する多値画像データの画素に対して、2値化回路64で2値化処理が施される。得られた2値画像データは、スムージング拡大回路65において、スムージング拡大処理が施された後、2値多値変換回路67に供給される。また、スムージング拡大回路65では、上記スムージング処理済の2値画像データに対応する三角波選択信号SをSEL85に供給する。
【0059】
ここで、図17は、スムージング拡大回路65でのスムージング拡大および三角波選択信号Sの選択について説明するための概念図である。図示するように、スムージング拡大回路65では、第1または第2実施形態と同様に、ROM80に記憶されているジャギー検出パターンと、2値データとをパターンマッチングし、双方が一致した場合には、上記ジャギー検出パターンに対応するジャギー補正パターン(2×2画素)と、該ジャギー補正パターンの各画素に設定された三角波選択信号Sとを出力する。図示の例では、左上の画素に対しては、三角波発生装置82が発生する三角波信号Aを選択するための三角波選択信号S、その他の画素に対しては、三角波発生装置84が発生する三角波信号Cを選択するための三角波選択信号Sが出力されることになる。
【0060】
一方、双方が一致しない場合には、単純拡大が行われたのと同様の画素群(2×2画素、ジャギー補正なし)と三角波選択信号Sを出力する。すなわち、注目画素が黒画素の場合には、図18(a)に示すように、全てが黒画素となる2値データ(2×2画素)と、各画素に対して三角波発生装置84が発生する三角波信号Cを選択するための三角波選択信号Sとを出力する。これに対して、注目画素が白画素の場合には、図18(b)に示すように、全てが白画素となる2値データ(2×2画素)と、各画素に対して三角波発生装置84が発生する三角波信号Cを選択するための三角波選択信号Sとを出力する。
【0061】
次に、2値多値変換回路67では、第1実施形態と同様の処理で、下地値および非下地値に従って、スムージング拡大処理後の2値データがスムージング拡大多値データに変換され、D/Aコンバータ81に供給される。すなわち、2値データの黒画素には、非下地値を当てはめ、白画素には下地値を当てはめてスムージング拡大多値データに変換する。D/Aコンバータ81では、スムージング拡大処理が施されたスムージング拡大多値データがアナログ信号に変換され、コンパレータ86の一方の入力端に供給される。また、SEL85では、スムージング拡大回路65から供給される三角波選択信号Sに従って、三角波発生装置82〜84から出力される三角波信号A,B,Cのいずれかが選択され、選択された三角波信号がコンパレータ86の他方の入力端に供給される。
【0062】
ここで、図19は、三角波発生装置82〜84で発生される三角波信号A,B,C、水平同期信号、画素クロック、および画素データの関係を示す概念図である。図示するように、三角波信号Aは、1画素毎の信号に同期し、画素クロックの2倍の周期を有する。また、三角波信号Bは、上記三角波信号Aを位相反転した波形を有する。そして、三角波信号Cは、画素クロックと同じ周期を有する。
【0063】
コンパレータ86では、アナログ信号が三角波信号より大となると、オンとなるレーザ制御信号を出力する。ここで、図20は、多値画像データと三角波選択信号Sとの一例を示す概念図であり、図21は、図20に示す多値画像データと三角波選択信号Sに対するコンパレータ86の動作を説明するための概念図である。また、図22は、図20に示す多値画像データを波形選択することなしに、画素クロックと同じ周期を有する三角波信号Cだけを用いた場合のコンパレータ86の動作を説明するための概念図である。図20に示す多値画像データと三角波選択信号Sが供給された場合には、コンパレータ86からは、図21に示すレーザ制御信号が出力される。
【0064】
一方、図20に示す多値画像データに応じて波形選択することなしに、画素クロックと同じ周期を有する三角波信号Cだけを用いた場合には、コンパレータ86からは、図22に示すレーザ制御信号が出力される。図21に示すレーザ制御信号と、図22に示すレーザ制御信号とを比較すると、図22では、レーザONの信号が3つに分断されており、主走査方向に連続する3つの多値画素が印字割れを生じている。この結果、感光体上に形成される潜像は、図23に示すように、ギャップGを生じたものとなる。これに対して、図21では、3つの多値画素が滑らかに接続されており、印字割れを生じない。そして、図24に示すように、感光体上で形成される潜像においても分断が生じない。
【0065】
このように、3つの三角波信号A,B,Cを状況に応じて切り替えて、レーザ制御信号を生成することで、文字・線画を出力する際、特にエッジ部において印字割れのない、より滑らかな再現が可能となる。すなわち、第1実施形態による効果に加えて、エッジ部における画素を引き寄せてギャップ発生を防止することができるという効果が得られ、さらに高精細なスムージング拡大処理を行うことができる。
【0066】
D.第4実施形態
D―1.第4実施形態の構成
次に、本発明の第4実施形態について説明する。図25は、本発明の第4実施形態による画像処理装置の構成を示すブロック図である。なお、図13または図16に対応する部分には同一の符号を付けて説明を省略する。図示するように、本第4実施形態は、図13に示す第2実施形態の構成と、図16に示す第3実施形態で説明したレーザ制御信号を生成する構成とを組み合わせた構成となっている。
【0067】
D―2.第4実施形態の動作
次に、第4実施形態の動作について説明する。まず、PC等を通じて作成された文書画像は、プリンタ記述言語(PDL:Printer Description Language)で表された後、多値画像データに展開され、多値画像データは、各々、画像メモリ61に記憶される。次に、エッジ検出型2値化回路71において、多値画像データに対して上述したエッジ検出処理が施され、エッジである画素を黒画素、非エッジ画素を白画素とする2値化処理が施される。なお、入力される画像は、スキャナ等から入力される多値ラスター画像であってもよい。
【0068】
下地算出回路66では、画像メモリ61に記憶されている多値画像データに対して、エッジ検出型2値化回路71からの出力に基づいて、下地値および非下地値が算出される。スムージング拡大回路65では、エッジ検出型2値化回路71からの出力に対して、ROM80に記憶されるジャギー検出パターンを用いたパターンマッチングによるスムージング拡大を行う。すなわち、スムージング拡大処理では、第3実施形態で説明した処理と同様、ジャギー補正パターン(2×2画素)および該ジャギー補正パターンに対応した、画素引き寄せのための三角波選択信号Sを出力する。スムージング拡大の結果、得られたジャギー補正パターンは、2値多値変換回路67において、第1実施形態と同様の処理で多値画素へと変換され、スムージング拡大多値データとして出力される。
【0069】
D/Aコンバータ81では、スムージング拡大処理が施されたスムージング拡大多値データがアナログ信号に変換され、コンパレータ86の一方の入力端に供給される。また、SEL85では、スムージング拡大回路65から供給される三角波選択信号Sに従って、三角波発生装置82〜84から出力される三角波信号A,B,Cのいずれかが選択され、選択された三角波信号がコンパレータ86の他方の入力端に供給される。コンパレータ86では、アナログ信号が三角波信号より大となると、オンとなるレーザ制御信号を出力する。
【0070】
【発明の効果】
以上、説明したように、この発明によれば、2値化手段により、多値画像データから2値画像データを生成し、平滑高解像度化手段により、前記2値画像データのエッジ部を平滑化しながら、全体を高解像度化して平滑高解像2値画像データをするようにしたので、平滑化・高解像度化を2値画像データを用いて行うため、ジャギー検出パターンを増やす必要がなく、メモリを浪費しないという利点が得られる。また、多値変換手段により、入力される多値画像データに基づいて、前記平滑高解像2値画像データを最終的に多値画像データに変換するため、カラー多値画像であっても、色、階調を維持したまま、文字・線画にスムージング拡大処理を施すことができるという利点が得られる。
【0071】
また、下地算出手段により、前記多値画像データに基づいて背景部の濃度値と背景部以外の濃度値とを算出し、前記平滑高解像2値画像データの背景部には、前記下地算出手段によって算出された背景部の濃度値を割り当て、前記平滑高解像2値画像データの背景部以外には、前記下地算出手段によって算出された背景部以外の濃度値を割り当ることによって、多値画像データに変換するようにしたので、文字部と写真部の境界で白抜けを生じないという利点が得られる。
【図面の簡単な説明】
【図1】 本発明の第1実施形態による画像処理装置の構成を示すブロック図である。
【図2】 第1実施形態による画像処理装置の動作を説明するためのフローチャートである。
【図3】 第1実施形態による画像処理装置の動作(下地値、非下地値の算出動作)を説明するためのフローチャートである。
【図4】 第1実施形態による画像処理装置の動作(下地値、非下地値の算出動作)を説明するためのフローチャートである。
【図5】 第1実施形態および第2実施形態で、入力される多値画像データの一例を示す概念図である。
【図6】 第1実施形態で、入力される属性情報(タグ)データの一例を示す概念図である。
【図7】 注目画素を中心とする3×3画素領域内の属性情報(タグデータ)を示す概念図である。
【図8】 注目画素を中心とする3×3画素に文字と線画以外のタグデータが存在する場合を示す概念図である。
【図9】 文字部のみを黒、それ以外を白とする2値化処理を説明するための概念図である。
【図10】 ジャギーを検出する際の動作を説明するための概念図である。
【図11】 入力多値画像データの注目画素を中心とする3×3画素を示す概念図である。
【図12】 スムージング拡大2値データを多値データに変換する2値多値変換を説明するための概念図である。
【図13】 第2実施形態による画像処理装置の構成を示すブロック図である。
【図14】 第2実施形態による画像処理装置の動作を説明するためのフローチャートである。
【図15】 第2実施形態における下地値算出、非下地値算出の過程を示すフローチャートである。
【図16】 第3実施形態による画像処理装置の構成を示すブロック図である。
【図17】 第3実施形態におけるジャギー検出(パターンマッチング)の動作を説明するための概念図である。
【図18】 第3実施形態において、ジャギーが検出されなかった場合、注目画素値に応じて出力されるジャギー補正パターンおよび三角波選択信号Sを示す概念図である。
【図19】 第3実施形態における三角波信号A,B,Cを含む各信号を示す概念図である。
【図20】 第3実施形態よるスムージング拡大処理後の画像データおよび三角波信号Sの一例を示す概念図である。
【図21】 第3実施形態におけるレーザ制御信号の生成過程を示す概念図である。
【図22】 第3実施形態において三角波信号Cを用いたレーザ制御信号の生成過程を示す概念図である。
【図23】 第3実施形態において、図22に示すレーザ制御信号で感光体上に形成される潜像画像の画素を示す概念図である。
【図24】 第3実施形態において、図21に示すレーザ制御信号で感光体上に形成される潜像画像の画素を示す概念図である。
【図25】 第4実施形態による画像処理装置の構成を示すブロック図である。
【図26】 従来技術によるスムージング拡大処理を説明するための概念図である。
【図27】 従来技術によるパターンマッチングによるジャギー検出を説明するための概念図である。
【図28】 従来技術によるパルス変調方式を用いる画像処理装置の一部構成を示すブロック図である。
【図29】 従来技術によるパルス変調方式を用いる画像処理装置の動作を示すブロック図である。
【図30】 従来技術によるスムージング拡大処理よる白ぬけ発生を説明するための概念図である。
【符号の説明】
61 画像メモリ
62 Tagメモリ
63 Tag判別回路
64 2値化回路(2値化手段)
65 スムージング拡大回路(平滑高解像度化手段)
66 下地算出回路(下地算出手段)
67 2値多値変換回路(多値変換手段)
68 ROM
71 エッジ検出型2値化回路
80 ROM
81 D/Aコンバータ
82,83,84 三角波発生装置(パターン波形発生手段)
85 SEL(選択手段)
86 コンバータ(信号生成手段)[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a color document or a color transmission image, in particular, a character / line drawing portion thereof subjected to high resolution processing including smoothing, and output to a high resolution output device such as a digital copying machine or a laser printer, and The present invention relates to an image processing method.
[0002]
[Prior art]
Conventionally, various image processing apparatuses that improve the image quality by increasing the resolution of a low-resolution black-and-white binary image such as FAX and output from a digital copying machine, a laser printer, or the like have been proposed. One of these techniques is a smoothing expansion technique. Smoothing enlargement is a technique for smoothly converting (enlarging) resolution of an image composed of straight lines and curves, such as characters and line drawings, without jaggies.
[0003]
The smoothing enlargement technique has been widely used when a monochrome binary facsimile image is received and output at a higher resolution. A facsimile is often transmitted and received at one of the following three types of resolutions.
(1) 8 × 3.85 dots / mm
(2) 8 × 7.7 dots / mm
(3) 16 × 15.4 dots / mm
[0004]
By the way, when outputting an image received at the above three resolutions with a high-resolution output device, for example, a printer having a resolution of 400 dpi, it is necessary to enlarge the image as the pixel density becomes finer. Therefore, resolution conversion (enlargement) may be performed at an accurate magnification. However, the resolution conversion processing is generally performed using the following magnification because the conversion with an approximate magnification has almost no problem. Yes.
If the resolution is (1), it is 2 times in the main scanning direction, 4 times in the sub scanning direction,
If the resolution is (2), double in the main scanning direction, double in the sub scanning direction,
If the resolution is {circle over (3)}, it is 1 time in the main scanning direction and 1 time in the sub scanning direction (equivalent to no conversion).
[0005]
In the earlier prior art, enlargement processing was performed by a simple interpolation method (a simple enlargement method such as double-outputting a pixel twice for output). However, with this method, jaggy occurs in the character part and line drawing part. Smoothing enlargement processing is a smooth enlargement processing while correcting this jaggy.
[0006]
FIG. 26 is a conceptual diagram for explaining the smoothing enlargement process. FIG. 26A shows an image before enlargement, and FIG. 26B shows an image output by simply doubling in the main scanning direction and quadrupling in the sub scanning direction (two pixels for main scanning and sub scanning). FIG. 4C shows an image that has been output twice as much in the main scanning direction and four times in the sub-scanning direction by the smoothing enlargement process.
[0007]
A conventional smoothing enlargement process will be described. As a conventional smoothing enlargement process, when an image of 8 × 3.85 dots / mm is converted to 400 dpi, that is, the main scanning direction is doubled and the sub-scanning direction is quadrupled (corresponding to (1) described above). The case where it does is demonstrated. In other words, it detects jaggies in an input image having a resolution of 8 × 3.85 dots / mm and outputs each pixel of the input image, or 2 × 4 pixels corrected for jaggy when jaggies are detected. If not detected, 2 × 4 pixels without jaggy correction equivalent to those obtained when the simple enlargement process is performed are output.
[0008]
Specifically, first, the input binary image is sequentially scanned to set a specific area (for example, 13 × 7) centered on the target pixel, and the set area is stored in advance as a jaggy detection pattern. Determine whether they match. A plurality of jaggy detection patterns having a long period (step), a short pattern, etc. are prepared, and a jaggy correction output pixel pattern (2 for correcting jaggy when matched with the jaggy detection pattern in association with the jaggy detection pattern is prepared. X4 pixels) is prepared.
[0009]
Here, FIG. 27 is a conceptual diagram showing an example of a jaggy detection pattern used in the conventional smoothing enlargement process. The illustrated jaggy detection pattern has a period in which black pixels are shifted by one pixel in the sub-scanning direction after seven consecutive black pixels in the main scanning direction. In addition, a plurality of patterns having a black pixel as a central pixel and a jaggy detection pattern having a white pixel as a central pixel are prepared. When these match with the jaggy detection pattern, the
[0010]
As described above, a method of preparing a jaggy detection pattern and a jaggy correction output pixel pattern in advance and performing smoothing enlargement is described as “" Higher image quality by smoothing processing of a received facsimile image ”, 1991 Tournament Proceedings 18, pp. 69-72 ”and many others have been reported. Japanese Patent Laid-Open No. 2-9268 discloses a method of detecting jaggy by performing a logical operation using pixels around the processing pixel instead of using the above-described jaggy detection pattern.
[0011]
[Problems to be solved by the invention]
By the way, in recent color digital copying machines, color digital printers, etc., those which can output not only high resolution but also 256 gradations and multiple gradations are mainstream. An output that makes full use of the gradation surface cannot be obtained.
[0012]
In the above-described high-performance output device, as shown in FIG. 28, first, the multi-value digital image data is converted into an analog signal using the D /
[0013]
FIG. 29 shows the period during which the toner is attached to the paper when the image writing type xerography (electrophotography) technology in which the laser is turned on is used, (2), (3), (4) in FIG. The waveform of each point is schematically shown. The image signal analogized by the
[0014]
In addition to the copy function, digital copiers are equipped with an external interface and are equipped with printer and facsimile functions and are becoming multifunctional. In conventional laser printers and the like, only a binary image is output, so a halftone portion such as a photograph has been converted to pseudo halftone binarization using an error diffusion method, a dither method, or the like to transmit printer data. However, a multi-function machine using a digital copying machine can handle multi-value data as it is. However, the above-described conventional technique is based on the premise that the input image is monochrome binary and the output image is monochrome binary.
[0015]
Therefore, it cannot be directly applied to the smoothing enlargement of the color multi-valued image as described above. Therefore, if it is easy to deal with it, it is conceivable to convert the color multi-valued image into an appropriate black-and-white binary and apply smoothing enlargement processing. However, although the obtained image is enlarged, it becomes a monochrome binary image, and the color and gradation are impaired. Although it is conceivable to convert the obtained black-and-white binary image back to a color multi-valued image, it is extremely difficult to restore a once lost color and gradation. As another method, it is conceivable to perform smoothing enlargement processing by binarizing a color multi-value image for each color component, for example, for each of R, G, and B with an appropriate threshold value. In this case, as described above, black and white are not output, but since each color component can be expressed only in two gradations, the problem of gradation deterioration cannot be solved.
[0016]
On the other hand, Japanese Patent Application Laid-Open No. 8-320925 discloses a method of performing smoothing enlargement processing only on a limited portion while maintaining the gradation of an image. That is, this is a method of smoothing and enlarging only the black character portion in the color multi-valued image because the characters are mostly represented in black. However, although it is effective for a color image with many black characters, there is a problem that it is impossible to perform smoothing enlargement processing for color characters (halftone characters) having other gradations.
[0017]
In order to increase the smoothing of multi-value data, it is possible to create a jaggy detection pattern and a jaggy correction output pixel pattern composed of multi-value data instead of a jaggy detection pattern composed of binary data as shown in FIG. Although it is conceivable, in the case of multiple gradations, there is a problem that the number of these patterns becomes enormous because the number of combinations increases by the number of gradations compared to a binary pattern.
[0018]
In addition, problems specific to color images also occur. That is, in the case of a color image, a color character or a color line image may exist in a photographic image or color background. If these are processed by the above-described conventional technique (binarization is performed for each color component and then smoothing is expanded), whitening may occur. For example, as shown in FIG. 30A, when characters are present in a photographic image, it is assumed that the resolution is simply doubled in the main scanning direction and doubled in the sub-scanning direction. ) As shown. In this case, jaggy occurs in the character portion. On the other hand, when the smoothing enlargement process according to the above-described conventional technique is performed, as shown in FIG. 30C, the jaggy of the character part is improved, but whitening is caused at the boundary between the photograph part and the character part. Will occur. This is because the jaggy correction pixel group (in this case, 2 × 2 pixels) output in the smoothing enlargement does not take the background (background) pixels into consideration, and is always assumed to be a white background.
[0019]
The problems in the conventional technology are summarized below.
{Circle around (1)} The smoothing expansion of the prior art is intended for a monochrome binary image as an input image, and cannot handle a color multi-valued image as it is.
{Circle around (2)} When a color multi-valued image is binarized once and smoothing enlargement is performed according to the prior art, the output is limited to binary and the original color and gradation are lost. Further, if there are characters / line drawings in the photographic image, white spots may occur.
(3) The method using a jaggy detection pattern composed of color multi-value data has a huge number of patterns and is difficult to create.
[0020]
The present invention has been made in view of the above-described circumstances, and can perform smoothing enlargement processing on a character / line image in a color multivalued image without increasing the jaggy detection pattern and preventing occurrence of white spots. An object of the present invention is to provide an image processing apparatus and an image processing method.
[0021]
[Means for Solving the Problems]
In order to solve the above-described problems, in the invention described in
According to a second aspect of the present invention, the binarizing means is input together with the multi-valued image data, and is based on image attribute data representing at least a picture part, a character part, and a line drawing part in the multi-valued image data. The multi-value image data is binarized.
[0022]
According to a third aspect of the present invention, the binarizing means separates the multi-valued image data into at least a picture part and a character / line drawing part, and binarizes the multi-valued image data based on the separation result. It is characterized by that.
According to a fourth aspect of the present invention, the pattern waveform generating means for generating a plurality of pattern waveforms having different phases or periods, and the pattern waveform based on the smooth high-resolution binary image data from the smooth high-resolution means. On / off based on selection means for selecting any one of a plurality of pattern waveforms generated by the generation means, the smooth high-resolution binary image data, and the pattern waveform selected by the selection means Signal generating means for generating a signal.
[0023]
In the invention described in
In the invention of
[0024]
DETAILED DESCRIPTION OF THE INVENTION
Next, an embodiment of the present invention will be described with reference to the drawings.
First, data used in the embodiment of the present invention will be described. In each of the embodiments described below, a color multi-tone image is basically targeted. However, even a monochrome multi-tone image can be processed. Color multivalued image data generally represents one pixel data by a plurality of components. These color spaces include “red (R), green (G), blue (B)”, “yellow (Y), magenta (M), cyan (C)”, “lightness (L*), Hue (H*), Saturation (C*) "," L*, A*, B*"and so on. In either case, it is possible to process multi-value pixel data for each component. In each embodiment described below, color image data (color components: Y, M, C, resolution: 200 dpi, gradation) including photographs, color characters, and line drawings created by a personal computer (hereinafter referred to as a PC) or the like. : 8 bits / pixel) is output from a color laser printer with a resolution of 400 dpi.
[0025]
A. First embodiment
A-1. Configuration of the first embodiment
The first embodiment of the present invention will be described below. FIG. 1 is a block diagram showing the configuration of the image processing apparatus according to the first embodiment of the present invention. In the figure, the image input includes multi-value color raster image data (hereinafter referred to as multi-value image data) and image attribute information data (hereinafter referred to as attribute information data or tag data). Multi-value image data and attribute information data are obtained by developing a printer description language (PDL: Printer Description Language) representing a document image created through a PC or the like. In the first embodiment, the color components of the multivalued image data are Y, M, and C. Multi-valued image data and attribute information data are sequentially supplied to the image processing apparatus for each of Y, M, and C color components.
[0026]
The attribute information data is data representing what attributes each part of the original document image has. In this case, the attribute information data is classified into three attributes: characters, line drawings (graphics such as CG), and photographs. Shall be. The attribute information data is created based on information described in the PDL. Each of these attribute information data is called a tag (Tag) for convenience. For example, a portion representing a character portion of an image is a character tag, a line drawing portion is a line drawing tag, and a photo portion is a photo tag data.
[0027]
The
[0028]
Based on the multi-valued image data stored in the
[0029]
The above-described configuration may be prepared for each color component and processed in parallel (in the case of the first embodiment, three YMCs are prepared), or the processing may be repeated for the number of color components in one configuration. Good. In the following description, it is assumed that the number of color components is repeatedly processed in one configuration.
[0030]
A-2. Operation of the first embodiment
Next, the operation of the above-described first embodiment will be described. First, a document image created through a PC or the like is expressed in a printer description language (PDL) and then expanded into multi-value image data and attribute information data. The multi-value image data and attribute information data (tag) Data) is stored in the
[0031]
Next, the tag discrimination circuit 63 detects pixels representing characters or line drawings from the tag data stored in the Tag memory 62. Based on this result, the binarization circuit 64 performs binarization processing of the character / line drawing unit on the multi-value image data stored in the
[0032]
On the other hand, in the
[0033]
The processing described above is first performed on the Y component, then the M component, and finally the C component. After the smoothing enlargement process for each color component is completed, each color component is output to an image output device (not shown) (resolution: 400 dpi, color multi-value laser printer), and a printing process is performed.
[0034]
Further details will be described with reference to the flowcharts shown in FIGS. First, in step S101 shown in FIG. 2, the multi-value image data of the Y component, which is the first color component, and attribute information data (tag data) corresponding thereto are read. Here, FIG. 5 is a conceptual diagram showing an example of the read multi-value image data. As described above, the multi-value image data consists of 13 pixels in the main scanning direction and 7 pixels in the sub scanning direction, and is read into the
[0035]
Next, in step S102, the Tag determination circuit 63 determines whether or not tag data representing a character portion exists in 3 × 3 pixels centered on the target pixel. First, with regard to the tag data, attention is paid to a 3 × 3 pixel region centered on the target pixel. Here, FIG. 7 is obtained by extracting 3 × 3 pixels from the 13 × 7 pixel tag data shown in FIG. 6. In this example, tag data “1” representing a character portion exists in the 3 × 3 pixel region. Therefore, in this case, the determination result in step S102 is “YES”, and the process proceeds to step S103 and step S104.
[0036]
In step S104, the value of the pixel corresponding to the character tag is set to “255 (black)” for all 13 × 7 pixels shown in FIG. 5 read into the
[0037]
Next, in step S105, smoothing enlargement processing is performed on the binary image data. Here, FIG. 10 is a conceptual diagram showing a state in which the target pixel of the binary image data shown in FIG. The smoothing enlargement processing method may be the same as that performed for binary image input described in the related art. That is, it compares with a jaggy detection pattern prepared in advance, and if they match, the jaggy correction output pixel pattern (2 × 2 pixels: double) is supplied to the binary
[0038]
On the other hand, in step S103, the background value and non-background value are calculated by the
[0039]
Here, FIG. 11 is a conceptual diagram showing 3 × 3 pixels centered on the target pixel of the multi-valued image data shown in FIG. In the example shown in FIG. 11, A = 128. In the example shown in FIG. 11, (210 + 206 + 216 + 210) /4=210.5, and rounded off to B = 211. Then, in step S122 shown in FIG. 3, the background value (= B) and the non-background value (= A) are output. Here, the non-background value is the maximum value of the pixel corresponding to the character tag, but may be calculated based on an average value or other criteria. Similarly, the background value is the average value of the pixels corresponding to the non-character tag. However, the maximum value may be used as a reference as in the case of the non-background value, or may be calculated using another reference. The non-background value A and the background value B are supplied to the binary
[0040]
Next, in step S106 shown in FIG. 2, the non-background value A is calculated by the
[0041]
Therefore, in the first embodiment, since background values and non-background values are not considered in the past, whitening that has occurred in an image after smoothing enlargement can be prevented. Also, color halftone characters and line drawings can be smoothed and enlarged. Even when characters are present in the photograph, since the pixel value (average value) of the photograph portion as the background is applied to the boundary portion between the character portion and the photograph portion after the jaggy correction, whitening does not occur. When the smoothed enlarged multi-valued pixel is obtained by the above-described processing, the smoothed enlarged multi-valued pixel is output to an image output device such as a printer in step S107.
[0042]
Next, when the tag data “1” representing the character portion does not exist in the 3 × 3 pixel area at the center of the processing pixel in step S102, the determination result is “NO”, and the process proceeds to step S108. In step S108, it is determined whether or not tag data “2” representing the line drawing portion exists in the 3 × 3 pixel region. If the tag data “2” representing the line drawing part exists, the processes of steps S109 to S113 are executed.
[0043]
First, in step S109, the value of the pixel corresponding to the line drawing tag is set to “255 (black)” for 13 × 7 pixels read into the
[0044]
In step S113, the
[0045]
On the other hand, if the determination in step S108 is “NO”, that is, if neither the character tag “1” nor the line drawing tag “2” exists in the 3 × 3 pixel area as shown in FIG. Since there is no character or line drawing, the process proceeds to step S114, and the target pixel is simply enlarged. For example, a pixel having a photo tag “0” is simply enlarged. In the first embodiment, simple enlargement is used. However, the present invention is not limited to this. For example, another enlargement method such as a projection method, four-point interpolation, or 16-point interpolation may be used. In step S115, the simply enlarged image data is output.
The above-described processing is performed for each color component and each pixel. That is, after the processing of the Y component image is completed, the M component image and the C component image are subsequently processed.
[0046]
As described above, in the first embodiment, since the binary data is used when the smoothing enlargement process is performed, it is necessary to create and prepare a jaggy detection pattern and an output correction pattern composed of color multi-value data. Absent. Also, by calculating background values and non-background values and converting the resulting smoothed enlarged data to multi-valued data, it is possible to prevent white spots from occurring and to output smoothed enlarged data as it is. Will be obtained.
[0047]
B. Second embodiment
B-1. Configuration of the second embodiment
Next, a second embodiment of the present invention will be described. FIG. 13 is a block diagram showing the configuration of the image processing apparatus according to the second embodiment of the present invention. It should be noted that portions corresponding to those in FIG. The second embodiment is different from the first embodiment in that an edge detection
[0048]
B-2. Operation of the second embodiment
Next, the operation of the second embodiment will be described. FIG. 14 is a flowchart for explaining the operation of the image processing apparatus according to the second embodiment. First, a document image created through a PC or the like is expressed in a printer description language (PDL) and then expanded into multi-valued image data. Each of the multi-valued image data is stored in an
[0049]
Next, in the edge detection
[0050]
Furthermore, it demonstrates in detail with reference to the flowchart shown in FIG. First, in step S <b> 210, multi-value image data for 13 × 7 pixels of the Y component that is the first color component is read into the
[0051]
On the other hand, in step S216, the
[0052]
Next, in step S214 shown in FIG. 14, the 2 × 2 pixel binary data output from the smoothing enlargement circuit 65 is used by using the background value and the non-background value obtained by the
[0053]
On the other hand, if the determination in step S211 is “NO”, that is, if the target pixel in the 3 × 3 pixel region is not an edge pixel, the process proceeds to step S217, and the target pixel is simply enlarged. In the second embodiment, simple enlargement is used. However, as in the first embodiment, other enlargement methods such as a projection method, 4-point interpolation, and 16-point interpolation may be used. In step S218, the simply enlarged image data is output.
The above-described processing is performed for each color component and each pixel. That is, after the processing of the Y component image is completed, the M component image and the C component image are subsequently processed.
[0054]
As described above, in the second embodiment, unlike the first embodiment, edge detection is performed without using attribute information data (tag data), and smoothing expansion is performed according to the obtained edge strength, or simple expansion is performed. Choose what to do. In the second embodiment, the enlargement method is selected by comparing the edge strength with one threshold value. However, the edge strength is divided into a plurality of stages, and the enlargement method is changed for each edge strength. Also good. For example, smoothing expansion may be performed at a certain edge strength, simple expansion may be performed when the edge strength is different from this, and expansion may be performed by four-point interpolation when the two edge strengths are different. .
[0055]
C. Third embodiment
C-1. Configuration of the third embodiment
Next, a third embodiment of the present invention will be described. FIG. 16 is a block diagram showing the configuration of the image processing apparatus according to the third embodiment of the present invention. Note that portions corresponding to those in FIG. 1 or FIG. In the figure, the ROM 80, in addition to the jaggy detection pattern and the jaggy correction pattern, a triangular wave selection signal S for selecting any of the triangular wave signals A, B, C output from the triangular wave generators 82, 83, 84 described later. Remember. The D /
[0056]
Next, each of the triangular wave generators 82 to 84 generates triangular waves A, B, and C having different phases or periods, and supplies them to the SEL 85. The SEL 85 selects one of the triangular wave signals A, B, and C output from the triangular wave generators 82 to 84 in accordance with the triangular wave selection signal S, and supplies the selected triangular wave signal to the other input terminal of the comparator 86. . The comparator 86 compares the level (amplitude) of the analog signal converted by the D /
[0057]
C-2. Operation of the third embodiment
Next, the operation of the third embodiment will be described. It should be noted that, after the image is input, the binarization of the image based on the tag data and the smoothing expansion, the calculation of the background value and the non-background value, and the binary pixel group obtained by the smoothing expansion Since the processing until conversion to a value pixel group is the same as that of the first embodiment, it will be briefly described. First, a document image created through a PC or the like is expressed in a printer description language (PDL) and then expanded into multi-value image data and attribute information data. The multi-value image data and attribute information data (tag) Data) is stored in the
[0058]
The
[0059]
Here, FIG. 17 is a conceptual diagram for explaining the smoothing expansion and the selection of the triangular wave selection signal S in the smoothing expansion circuit 65. As shown in the figure, in the smoothing expansion circuit 65, as in the first or second embodiment, when the jaggy detection pattern stored in the ROM 80 and binary data are pattern-matched and both match, A jaggy correction pattern (2 × 2 pixels) corresponding to the jaggy detection pattern and a triangular wave selection signal S set for each pixel of the jaggy correction pattern are output. In the illustrated example, for the upper left pixel, a triangular wave selection signal S for selecting the triangular wave signal A generated by the triangular wave generator 82, and for the other pixels, a triangular wave signal generated by the triangular wave generator 84. A triangular wave selection signal S for selecting C is output.
[0060]
On the other hand, if the two do not match, the same pixel group (2 × 2 pixels, no jaggy correction) and the triangular wave selection signal S as those subjected to simple enlargement are output. That is, when the pixel of interest is a black pixel, as shown in FIG. 18A, binary data (2 × 2 pixels) in which all pixels are black, and a triangular wave generator 84 is generated for each pixel. A triangular wave selection signal S for selecting the triangular wave signal C to be output. On the other hand, when the target pixel is a white pixel, as shown in FIG. 18B, binary data (2 × 2 pixels) in which all are white pixels, and a triangular wave generator for each pixel A triangular wave selection signal S for selecting the triangular wave signal C generated by the reference numeral 84 is output.
[0061]
Next, in the binary
[0062]
Here, FIG. 19 is a conceptual diagram showing the relationship among the triangular wave signals A, B, C generated by the triangular wave generators 82 to 84, the horizontal synchronization signal, the pixel clock, and the pixel data. As shown in the figure, the triangular wave signal A is synchronized with the signal for each pixel and has a cycle twice as long as the pixel clock. The triangular wave signal B has a waveform obtained by inverting the phase of the triangular wave signal A. The triangular wave signal C has the same cycle as the pixel clock.
[0063]
The comparator 86 outputs a laser control signal that is turned on when the analog signal is larger than the triangular wave signal. Here, FIG. 20 is a conceptual diagram showing an example of the multi-value image data and the triangular wave selection signal S, and FIG. 21 explains the operation of the comparator 86 for the multi-value image data and the triangular wave selection signal S shown in FIG. It is a conceptual diagram for doing. FIG. 22 is a conceptual diagram for explaining the operation of the comparator 86 when only the triangular wave signal C having the same period as the pixel clock is used without selecting the waveform of the multi-value image data shown in FIG. is there. When the multi-value image data and the triangular wave selection signal S shown in FIG. 20 are supplied, the comparator 86 outputs the laser control signal shown in FIG.
[0064]
On the other hand, when only the triangular wave signal C having the same period as the pixel clock is used without selecting a waveform according to the multi-value image data shown in FIG. 20, the comparator 86 outputs the laser control signal shown in FIG. Is output. When the laser control signal shown in FIG. 21 is compared with the laser control signal shown in FIG. 22, in FIG. 22, the laser ON signal is divided into three, and three multi-value pixels continuous in the main scanning direction are divided. Print cracks have occurred. As a result, the latent image formed on the photoconductor has a gap G as shown in FIG. On the other hand, in FIG. 21, three multi-valued pixels are connected smoothly, and printing cracks do not occur. As shown in FIG. 24, the latent image formed on the photosensitive member is not divided.
[0065]
In this way, by switching the three triangular wave signals A, B, and C according to the situation and generating the laser control signal, when outputting a character / line image, there is no print cracking especially at the edge portion, and smoother Reproduction is possible. That is, in addition to the effect of the first embodiment, the effect of preventing the occurrence of a gap by attracting the pixels at the edge portion can be obtained, and further smoothing enlargement processing can be performed.
[0066]
D. Fourth embodiment
D-1. Configuration of the fourth embodiment
Next, a fourth embodiment of the present invention will be described. FIG. 25 is a block diagram showing a configuration of an image processing apparatus according to the fourth embodiment of the present invention. Note that portions corresponding to those in FIG. 13 or FIG. As shown in the figure, the fourth embodiment is a combination of the configuration of the second embodiment shown in FIG. 13 and the configuration for generating the laser control signal described in the third embodiment shown in FIG. Yes.
[0067]
D-2. Operation of the fourth embodiment
Next, the operation of the fourth embodiment will be described. First, a document image created through a PC or the like is expressed in a printer description language (PDL) and then expanded into multi-valued image data. Each of the multi-valued image data is stored in an
[0068]
The
[0069]
In the D /
[0070]
【The invention's effect】
As described above, according to the present invention, binary image data is generated from multi-value image data by the binarizing means, and the edge portion of the binary image data is smoothed by the smoothing and high resolution means. However, since the overall resolution is increased to obtain smooth high-resolution binary image data, smoothing and high-resolution are performed using binary image data, so there is no need to increase the jaggy detection pattern, and the memory The advantage of not wasting is obtained. Further, since the smooth high-resolution binary image data is finally converted to multi-value image data based on the input multi-value image data by the multi-value conversion means, even if it is a color multi-value image, There is an advantage that the smoothing enlargement process can be performed on the character / line drawing while maintaining the color and gradation.
[0071]
Further, the background calculation means calculates the density value of the background portion and the density value other than the background portion based on the multivalued image data, and the background calculation is performed on the background portion of the smooth high-resolution binary image data. By assigning a density value of the background portion calculated by the means, and assigning a density value other than the background portion calculated by the background calculation means other than the background portion of the smooth high-resolution binary image data, Since it is converted to value image data, there is an advantage that white spots do not occur at the boundary between the character portion and the photograph portion.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of an image processing apparatus according to a first embodiment of the present invention.
FIG. 2 is a flowchart for explaining the operation of the image processing apparatus according to the first embodiment;
FIG. 3 is a flowchart for explaining the operation (background value / non-background value calculation operation) of the image processing apparatus according to the first embodiment;
FIG. 4 is a flowchart for explaining the operation (background value / non-background value calculation operation) of the image processing apparatus according to the first embodiment;
FIG. 5 is a conceptual diagram showing an example of input multi-value image data in the first embodiment and the second embodiment.
FIG. 6 is a conceptual diagram showing an example of input attribute information (tag) data in the first embodiment.
FIG. 7 is a conceptual diagram showing attribute information (tag data) in a 3 × 3 pixel area centered on a pixel of interest.
FIG. 8 is a conceptual diagram illustrating a case where tag data other than characters and line drawings exists in 3 × 3 pixels centered on a pixel of interest.
FIG. 9 is a conceptual diagram for explaining binarization processing in which only the character part is black and the others are white.
FIG. 10 is a conceptual diagram for explaining an operation when jaggies are detected.
FIG. 11 is a conceptual diagram showing 3 × 3 pixels centered on a target pixel of input multi-valued image data.
FIG. 12 is a conceptual diagram for explaining binary multi-value conversion for converting smoothing enlarged binary data into multi-value data.
FIG. 13 is a block diagram illustrating a configuration of an image processing apparatus according to a second embodiment.
FIG. 14 is a flowchart for explaining the operation of the image processing apparatus according to the second embodiment;
FIG. 15 is a flowchart illustrating a background value calculation process and a non-background value calculation process according to the second embodiment.
FIG. 16 is a block diagram illustrating a configuration of an image processing apparatus according to a third embodiment.
FIG. 17 is a conceptual diagram for explaining an operation of jaggy detection (pattern matching) in the third embodiment.
FIG. 18 is a conceptual diagram showing a jaggy correction pattern and a triangular wave selection signal S that are output according to a target pixel value when jaggy is not detected in the third embodiment.
FIG. 19 is a conceptual diagram showing signals including triangular wave signals A, B, and C in the third embodiment.
FIG. 20 is a conceptual diagram illustrating an example of image data and a triangular wave signal S after smoothing enlargement processing according to the third embodiment.
FIG. 21 is a conceptual diagram showing a generation process of a laser control signal in the third embodiment.
FIG. 22 is a conceptual diagram showing a generation process of a laser control signal using a triangular wave signal C in the third embodiment.
FIG. 23 is a conceptual diagram showing pixels of a latent image formed on a photoconductor by a laser control signal shown in FIG. 22 in the third embodiment.
24 is a conceptual diagram showing pixels of a latent image formed on a photoconductor by a laser control signal shown in FIG. 21 in the third embodiment.
FIG. 25 is a block diagram illustrating a configuration of an image processing apparatus according to a fourth embodiment.
FIG. 26 is a conceptual diagram for explaining smoothing expansion processing according to a conventional technique.
FIG. 27 is a conceptual diagram for explaining jaggy detection by pattern matching according to a conventional technique.
FIG. 28 is a block diagram illustrating a partial configuration of an image processing apparatus using a pulse modulation method according to a conventional technique.
FIG. 29 is a block diagram illustrating an operation of an image processing apparatus using a pulse modulation method according to a conventional technique.
FIG. 30 is a conceptual diagram for explaining occurrence of whitening due to a smoothing enlargement process according to a conventional technique.
[Explanation of symbols]
61 Image memory
62 Tag memory
63 Tag discrimination circuit
64 Binarization circuit (binarization means)
65 Smoothing enlargement circuit (means for smooth and high resolution)
66 Background calculation circuit (background calculation means)
67 Binary multi-value conversion circuit (multi-value conversion means)
68 ROM
71 Edge detection type binarization circuit
80 ROM
81 D / A converter
82, 83, 84 Triangular wave generator (pattern waveform generating means)
85 SEL (selection means)
86 Converter (Signal generation means)
Claims (6)
前記2値化手段によって2値化された2値画像データのエッジ部を平滑化しながら、全体を高解像度化して平滑高解像2値画像データとする平滑高解像度化手段と、
前記多値画像データに基づいて、背景部の濃度値と背景部以外の濃度値とを算出する下地算出手段と、
前記平滑高解像度化手段により得られた平滑高解像2値画像データの背景部には前記下地算出手段によって算出された背景部の濃度値を割り当て、当該平滑高解像2値画像データの背景部以外には前記下地算出手段によって算出された背景部以外の濃度値を割り当ることによって、スムージング拡大多値画像データを取得する2値多値変換手段と
を具備することを特徴とする画像処理装置。Binarization means for generating binary image data from multivalued image data;
Smoothing and high resolution means for smoothing the edge portion of the binary image data binarized by the binarizing means and making the whole high resolution to obtain smooth high resolution binary image data;
Based on the multi-valued image data, a background calculation means for calculating a density value of the background part and a density value other than the background part;
The background value of the smooth high-resolution binary image data obtained by the smooth high-resolution binary image data is assigned with the density value of the background portion calculated by the background calculation means. Image processing further comprising: binary multi-value conversion means for acquiring smoothed enlarged multi-value image data by assigning density values other than the background calculated by the background calculation means other than the background apparatus.
前記多値画像データとともに入力され、前記多値画像データ中の少なくとも絵柄部、文字部、線画部を識別可能に表す画像属性データに基づいて、前記多値画像データを2値化することBinarizing the multi-valued image data based on image attribute data that is input together with the multi-valued image data and represents at least a pattern part, a character part, and a line drawing part in the multi-valued image data.
を特徴とする請求項1または2記載の画像処理装置。The image processing apparatus according to claim 1, wherein:
前記多値画像データを少なくとも絵柄部と文字・線画部とに分離し、該分離結果に基づいて前記多値画像データを2値化することSeparating the multi-valued image data into at least a picture part and a character / line-drawing part, and binarizing the multi-valued image data based on the separation result
を特徴とする請求項1または2記載の画像処理装置。The image processing apparatus according to claim 1, wherein:
前記平滑高解像度化手段からの前記平滑高解像2値画像データに基づいて、前記パターン波形発生手段が発生する複数のパターン波形のうち、いずれか1つを選択する選択手段と、Selection means for selecting any one of a plurality of pattern waveforms generated by the pattern waveform generation means based on the smooth high resolution binary image data from the smooth high resolution means;
前記平滑高解像2値画像データと前記選択手段により選択されたパターン波形とに基づいて、オン/オフ信号を生成する信号生成手段とSignal generating means for generating an on / off signal based on the smooth high-resolution binary image data and the pattern waveform selected by the selecting means;
を具備することを特徴とする請求項1ないし4のいずれかに記載の画像処理装置。The image processing apparatus according to claim 1, further comprising:
前記2値化ステップにて2値化された2値画像データのエッジ部を平滑化しながら、全体を高解像度化して平滑高解像2値画像データとする平滑高解像度化ステップと、A smoothing and high resolution step for smoothing the edge portion of the binary image data binarized in the binarization step and increasing the overall resolution to obtain smooth high resolution binary image data;
前記多値画像データに基づいて、背景部の濃度値と背景部以外の濃度値とを算出する下地算出ステップと、Based on the multi-valued image data, a background calculation step for calculating a density value of the background portion and a density value other than the background portion;
前記平滑高解像度化ステップにて得られた平滑高解像2値画像データの背景部には前記下地算出ステップにて算出された背景部の濃度値を割り当て、当該平滑高解像2値画像データの背景部以外には前記下地算出ステップにて算出された背景部以外の濃度値を割り当ることによって、スムージング拡大多値画像データを取得する2値多値変換ステップとThe background portion of the smooth high resolution binary image data obtained in the smooth high resolution step is assigned the density value of the background portion calculated in the background calculation step, and the smooth high resolution binary image data is assigned. A binary multi-value conversion step of acquiring smoothed enlarged multi-value image data by assigning density values other than the background portion calculated in the background calculation step to other than the background portion of
を有することを特徴とする画像処理方法。An image processing method comprising:
前記平滑高解像度化ステップにて得られた前記平滑高解像2値画像データに基づいて、前記パターン波形発生ステップで発生した複数のパターン波形のうち、いずれか1つを選択する選択ステップと、A selection step of selecting any one of a plurality of pattern waveforms generated in the pattern waveform generation step based on the smooth high resolution binary image data obtained in the smoothing and high resolution step;
前記平滑高解像2値画像データと前記選択ステップにより選択されたパターン波形とに基づいて、オン/オフ信号を生成する信号生成ステップとA signal generation step of generating an on / off signal based on the smooth high-resolution binary image data and the pattern waveform selected in the selection step;
を更に有することを特徴とする請求項5に記載の画像処理装置。 The image processing apparatus according to claim 5, further comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP29251998A JP3713982B2 (en) | 1998-10-14 | 1998-10-14 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP29251998A JP3713982B2 (en) | 1998-10-14 | 1998-10-14 | Image processing apparatus and image processing method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2000125134A JP2000125134A (en) | 2000-04-28 |
| JP3713982B2 true JP3713982B2 (en) | 2005-11-09 |
Family
ID=17782867
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP29251998A Expired - Fee Related JP3713982B2 (en) | 1998-10-14 | 1998-10-14 | Image processing apparatus and image processing method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP3713982B2 (en) |
Families Citing this family (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4441300B2 (en) | 2004-03-25 | 2010-03-31 | 株式会社リコー | Image processing apparatus, image processing method, image processing program, and recording medium storing the program |
| JP4553297B2 (en) * | 2004-08-02 | 2010-09-29 | 株式会社リコー | Image processing device |
| US7706021B2 (en) | 2004-11-01 | 2010-04-27 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method for suppressing jaggies in the edge portions of image |
| JP4622932B2 (en) | 2006-05-11 | 2011-02-02 | 村田機械株式会社 | Image processing method, image processing apparatus, computer program, and recording medium |
| JP5126531B2 (en) * | 2008-09-24 | 2013-01-23 | 富士ゼロックス株式会社 | Image processing apparatus and image processing program |
| JP6073674B2 (en) * | 2012-12-25 | 2017-02-01 | 京セラドキュメントソリューションズ株式会社 | Image processing apparatus and image forming apparatus |
| JP2016021664A (en) * | 2014-07-14 | 2016-02-04 | 株式会社リコー | Image forming apparatus |
| JP7041520B2 (en) * | 2018-01-11 | 2022-03-24 | キヤノン株式会社 | Inkjet recording equipment, image processing methods and programs |
| CN117036364B (en) * | 2023-10-09 | 2024-01-02 | 全芯智造技术有限公司 | Image processing method and device, storage medium and computing equipment |
-
1998
- 1998-10-14 JP JP29251998A patent/JP3713982B2/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| JP2000125134A (en) | 2000-04-28 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP3638026B2 (en) | Image processing apparatus and image processing method | |
| US5565994A (en) | Multiple separation error diffusion, with cross separation correlation control for color images | |
| JP4158496B2 (en) | Image processing device | |
| JP3713982B2 (en) | Image processing apparatus and image processing method | |
| US7292372B2 (en) | Image processing apparatus and image forming apparatus which adaptively switches image processing methods between a dot image portion and a non-dot image portion | |
| US5020119A (en) | System for producing serrated, alternating pixel pattern on character boundaries | |
| JP2008147748A (en) | Image processor and image processing method | |
| JP3796985B2 (en) | Image processing apparatus, image processing method, and storage medium | |
| JPH10304200A (en) | Image processor | |
| JP4217302B2 (en) | Image processing apparatus and image processing method | |
| JPH10126610A (en) | Image processor | |
| JP3920480B2 (en) | Image forming apparatus | |
| JP3861352B2 (en) | Image processing device | |
| JP2696902B2 (en) | Color image processing equipment | |
| JP2005175824A (en) | Image processing method, image processing apparatus, image forming apparatus, and computer program | |
| JP4748985B2 (en) | Halftone image forming method and apparatus for reducing dot isolation | |
| JP3434374B2 (en) | Image forming device | |
| JP4106659B2 (en) | Image processing apparatus and image forming apparatus | |
| JPH08331400A (en) | Color image processing method and apparatus thereof | |
| JP4968192B2 (en) | Image processing apparatus, image processing program, and image processing method | |
| JPH10224637A (en) | Picture processor | |
| JP3760687B2 (en) | Image forming apparatus and method | |
| JPH099038A (en) | Image processing apparatus and method | |
| JP2009134583A (en) | Image forming apparatus, image forming method, computer program, and recording medium | |
| JPH0758949A (en) | Image processing device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050511 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050517 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050705 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050802 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050815 |
|
| R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090902 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100902 Year of fee payment: 5 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110902 Year of fee payment: 6 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120902 Year of fee payment: 7 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120902 Year of fee payment: 7 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130902 Year of fee payment: 8 |
|
| LAPS | Cancellation because of no payment of annual fees |