JP3564216B2 - Image processing device - Google Patents
Image processing device Download PDFInfo
- Publication number
- JP3564216B2 JP3564216B2 JP31604295A JP31604295A JP3564216B2 JP 3564216 B2 JP3564216 B2 JP 3564216B2 JP 31604295 A JP31604295 A JP 31604295A JP 31604295 A JP31604295 A JP 31604295A JP 3564216 B2 JP3564216 B2 JP 3564216B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- line drawing
- document
- image processing
- scanning direction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/403—Edge-driven scaling; Edge-based scaling
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、画像処理装置に関し、特に、複数画素を参照して線画(文字)のエッヂを抽出し、その結果によりパラメータを切り替え画像の形成処理を行なう画像処理装置に関する。
【0002】
【従来の技術】
従来、変倍率に応じて、線画のエッヂの抽出の判定のパラメータを変えることができる画像処理装置がある。この機能を装備する理由は、変倍率に応じて読み取り部の画像データの特性が変化するためである。
【0003】
同様な理由で、画像処理フィルタを変える画像処理装置もある。例えば、4回スキャンして画像データを読み取る装置では、構成部品の主走査変倍は原稿認識部の後で、副走査変倍は原稿認識部の前の配置構成をとる場合がある。
【0004】
【発明が解決しようとする課題】
しかしながら、上記従来例のような配置構成の画像処理装置であると、倍率により原稿認識部の結果の線のエッヂ(輪郭)を抽出しているため、主走査と副走査の幅が出力結果として異なる。また、主走査変倍を原稿認識部の前に配置すると、R・G・Bのための3つの回路部を必要とする問題を伴う。
【0005】
本発明は、主走査と副走査の変倍率を変えてもそれぞれのエッジ検出の出力結果を略一定とする画像処理装置を提供することを目的とする。
【0006】
【課題を解決するための手段】
上記目的を達成するために、本発明は、原稿を読み取ってデジタルデータとして出力する原稿読み取り部と、前記原稿読み取り部で読み取った画像データを補正し原稿認識を行なう画像処理部と、前記画像処理部の出力画像データを用紙に出力する画像記録部と、を備えた画像処理装置であって、前記画像処理部は、線画らしさを認識する線画認識部と原稿の特定領域が有彩又は無彩を判定する色判定部とからなる原稿認識部と、主走査方向の拡大・縮小又は等倍処理を実行する変倍部と、を備え、前記線画認識部は、RGBデータを変換してモノクロ信号を出力するモノクロ化部と、線画のエッジを抽出するとともに白領域と黒画素を検出するラプラシアン部と、白領域周辺の黒エッジを抽出するとともに細線の検出を行うパターンマッチング部と、前記パターンマッチング部からの抽出パターンを膨張することで文字の交点を繋ぐとともに線画とその周辺の線画処理を行う膨張部と、を備え、副走査方向の変倍は、前記画像処理部での原稿認識を行う前処理段階である前記原稿読み取り部において実行され、主走査方向の変倍は、前記線画認識と前記色判定された原稿認識部の後処理段階である前記変倍部において実行され、主走査方向の変倍率に応じて主走査方向又は副走査方向の膨張幅を変える構成とする。
【0008】
【発明の実施の形態】
次に添付図面を参照して本発明による画像処理装置の実施の形態を詳細に説明する。図1〜図7を参照すると本発明の画像処理装置の実施の形態が示されている。図1は画像処理装置の主要構成ブロック図、図2〜図4は内部の部分構成ブロック図、図5は白領域検出の動作を説明するためのマトリックス、図6および図7は線画の概念的な断面図、図8および図9は印刷原稿の線画の抽出手順を説明するための概念図である。
【0009】
画像処理装置は、図1に示すように原稿を読み取り、読み取ったデータをデジタルデータとして出力する原稿読み取り部11、原稿読み取り部11が読み取った画像データを補正し原稿認識を行なう画像処理部12、画像処理部12の出力画像データを用紙に出力する画像記録部13とから構成される。
【0010】
本実施例の要部である画像処理部12を図2を用いて説明する。
RGBγ補正部21は、RGBデータのグレーバランスの補正と濃度データへの変換を行う。
【0011】
遅延部22は、原稿認識部30の出力結果と同期をとるために、RGBデータを遅延する。原稿認識部30は、RGB画像データに応じて、文字領域か絵柄領域かを判定して、RGBフィルタ部23にC/P信号を出力する。C/P信号のロジックは、Hで文字、Lで絵柄である。
【0012】
さらに、原稿領域の有彩領域か無彩領域を判定して、B/C信号をRGBフィルタ部23に出力する。B/C信号のロジックは、Hで無彩領域、Lで有彩領域である。C/P信号は、RGBフィルタ部23、色補正部24、VCR部25、変倍部26、CMYBkフィルタ部27、CMYBkγ補正部28、階調処理部29にカスケード接続され、画像データに同期して信号IMGを出力する。
【0013】
各ブロックは、C/P信号およびB/C信号により、文字の処理と絵柄の処理を切りかえて行なう。B/C信号は、RGBフィルタ部23、色補正部24、VCR部25にカスケード接続され、画像データに同期して出力する。
【0014】
RGBフィルタ部23は、R・G・BデータをMTF補正するフィルタであり、N×Nのマトリックスで構成している。C/P信号がHの時は鮮鋭化処理を行ない、Lの時は平滑化処理をする。色補正部24は、R・G・Bデータを一次のマスキング等でC・M・Yのデータに変換する。
【0015】
VCR部25は、画像データの色再現を向上させるため、C・M・Y・Bkの4色で表現する。C・M・Yの共通部分をVCR(加色除去)を行ない、Bkデータを生成する。C/P信号がLの時は、スケルトンブラックのBk生成を行なう。C/P信号がHの時は、フルブラック処理を行なう。さらに、C/P信号がHで、かつB/C信号がHの時は、C・M・Yのデータをイレースする。これは、黒文字の時、黒成分のみで表現するためである。また、出力IMGは、C・M・Y・Bkのうち一色を出力する、面順次の一色である。つまり、4回原稿を読み取りを行なうことにより、フルカラ−(4色)データを作成する。
【0016】
変倍部26は、主走査方向の拡大・縮少、あるいは、等倍処理を実行する。CMYBkフィルタ部27は、画像記録部13の周波数特性や、C/P信号に応じてNXNの空間フィルタを用い、平滑化処理や鮮鋭化処理を行なう。CMYBkγ補正部28は、画像記録部13の周波数特性や、C/P信号に応じて、γカーブを変更し処理をする。C/P信号が“L”の時は画像を忠実に再現したγで、C/P信号が“H”の時はγをたたさせてコントラストを強調する。
【0017】
階調処理部29は、画像記録部13の階調特性やC/P信号に応じてディザ処理等の量子化を行なう。C/P信号が“L”の時は階調重視の処理を行ない、C/P信号が“H”の時は解像力重視の処理を行なう。さらに、原稿認識部30は図3に示すように、線画らしさを検出する線画認識部31と、原稿の特定領域が有彩・無彩を判定する色判定部32とからなる。
【0018】
線画認識部31のC/P信号の出力ロジックは、線画のエッヂであると“H”を出力し、それ以外では“L”を出力する。また、色判定部32のB/C信号出力ロジックは、有彩領域であると“L”を出力し、それ以外では“H”を出力する。出力結果は、4×4画素を1画素に対応させた信号である。以下において、出力結果の単位は1ブロックとする。
【0019】
本実施形態では、400DPI程度の読み取り密度の原稿読み取り部を例にとって説明する。本実施形態の要部である線画認識部31を、図4を用いて説明する。図4において、線画認識部31は、モノクロ化部41、ラプラシアン部42、Yパターンマッチング部A、B、C(43〜45)、孤立点除去部46、膨張部47からなる。
【0020】
モノクロ化部41は、R・G・Bデータを輝度データなどに変換して、モノクロ信号にする。例えば、輝度データでなくとも、R・G・Bの中で最も濃いデータを選択してもよいし、Gを輝度データとして用いることも可能である。出力データは、数字が大きいと濃く、小さいと薄いことを表す。
【0021】
ラプラシアン部42は、線画のエッヂを抽出すると同時に、白領域と黒画素を検出する。白領域を検出することにより、白地上の線画の抽出のデータとする。白領域検出の動作を図5の記号化されたマトリックスを用いて説明する。例えば、白領域のマトリックスを3×3とすると、次のようになる。
【0022】
【0023】
注目画素を含んで周辺データが閾値thw より小さい時、白領域とする。このパターンは直交パターンであるが、斜めなどのパターンを追加してもよい。
【0024】
黒画素検出において、十分に濃い画素を黒画素とする。式で表すとa22>thBとなる。エッヂ量抽出において、5×5のマトリックスで、次のようにエッヂ量を求める。
【0025】
x = (a22×2) −(a21+a23)
y =(a22×2) −(a12+a32)
z = i×x + j×y
但し、xは、主走査方向のエッヂ量、
yは、副走査方向のエッヂ量、
zは、x、yに重みづけをして、総エッヂ量を求める。
【0026】
ここで、i、j=とも、選択的な係数で、ハードウェアを設計する際に、ゲート規模が小さくなるような係数、1、1.115、1.25、1.375、1.5、1.625、1.75、1.875、2にしている(固定小数点演算)。このようにしておくことにより、主走査と副走査のMTF(光学系と、走行系)などのぼけを修正する。
【0027】
一般に主走査と副走査のMTFは異なっており、さらに副走査の変倍は、読み取り装置の読み取り面積により行なっているため、副走査の変倍率によりMTFは異なる。本実施形態は、主走査変倍は、原稿認識部のあとなので気にする必要はない。さらに、副走査の倍率が大きい時、例えば、200%の時は、次のようにエッヂ量を求めるように選択可能である。
【0028】
x =(a22×2) −(a20+a24)
y =(a22×2) −(a02+a42)
z = i×x + j×y
【0029】
このようにすることにより、副走査の変倍処理に対応している。出力は白領域信号と、黒画素、信号とエッヂ量を出力する。白領域信号は、Hで白領域を示し、黒画素信号は、Hで黒画素を示す。
【0030】
図6は、線画の断面図であり、白領域と黒画素と閾値と関係を表す概念図である。また、図7はエッヂ量(z)の関係を表す図である。
【0031】
次にパターンマッチング部A、B、Cを説明する。
パターンマッチング部A43のブロックでは、白領域周辺の黒エッヂを抽出する。ここで白領域パターン(W)は、白領域の信号であり、黒パターン(K)は、黒画素、または、エッヂ量が閾値thRB より、大きいものをHとする。黒パターンは単純に黒画素で抽出を行なわないのは、原稿読み取り時のボケをエッヂ量で補正するものである。概念図は、図6、図7に示してある。パターン例としては、次式の(7×7)のようになる。
【0032】
【0033】
水平成分、垂直成分のみで示したが、同様に、ななめ成分のパターンも同様に抽出する。このように白領域上のエッヂを抽出する。白領域が多いので網点を線画と誤認識することなく、白領域の線画を抽出が可能となる。
【0034】
パターンマッチング部B44のブロックでは、細線の検出を行なう。細線とは、文書中のケイ線や、文字などが該当する。ここで白パターン(w)は、白領域であるか、または、エッヂ量が閾値 thRw より小さい(マイナス成分なので、絶対値は大きい) ものをHとする。黒パターン(k) は、黒画素または、エッ
ヂ量が閾値 thRB より大きいものをHとする。ここのthRBは、パターンマッチング部C45とは同じである必要はない。黒パターン、白パターンともエッヂ量成分で補正するのは、細線のコントラストをあげている。
パターンの例としては、次式の(7×7)のようになる。
【0035】
【0036】
水平成分、垂直成分のみで示したが、同様に、ななめ成分のパターンも同様に抽出する。このように黒パターンの両側を、白パターンではさみこまれている場合に、細線として抽出する。また、白領域が存在する時には、線画である可能性が高いので、パターンマッチングをあまくしてもよい。例えば、次式のようになる。白領域を記号aとする。
【0037】
【0038】
などを追加してもよい。ここでは水平成分のみ示したが、同様に垂直成分、斜め成分も同様に抽出する。さらに、このパターンと逆に白パターンの両側を、白パターンではさみ込まれている場合には、細線であるので、このようなパターンで追加してもよいし、白パターンを中心としたパターンマッチングでもよい。
【0039】
パターンマッチング部C45のブロックは、パターンマッチング部A43の補助的なもので、白領域上の黒エッヂを抽出するために、白エッヂ成分の3つ要素でパターンマッチングを行なう。ここで白領域パターン(a)は、白領域の信号であり、黒パターン(k) は、黒画素、または、エッヂ量が閾値 thRB より大きいものをHとする。白パターン(w)は、白領域であるか、またはエッヂ量が閾値 thRw より小さい(マイナス成分なので、絶対値は大きい)ものをHとする。パターンの例としては、次式の(7×7)のようになる。
【0040】
【0041】
ここでは、水平成分のみ示したが、同様に、垂直・水平成分のみ示したが、同様に斜め成分も同様に抽出する。このことにより、コントラストのしっかりした文字を抽出することが、可能となる。そして、白エッヂ成分を検出している分、黒パターンの幅を少なくしても網点を誤検知することなく、小さな文字などが抽出可能となる。ここでの閾値、thRB、thRw に、同一でなくてもよい。本実施例は、7×7で行なったが、マトリックスサイズは、何でもよい。さらに、パターンマッチング部A、B、Cのマトリックスを成分する際には、ラインメモリを用いるが、独立に行なうのではなく、共有してもよい。
【0042】
例としては、thw 、thk が同一であるならば、共有可能であるし、大小関
係を利用してコード化してもかまわない。コード化の例として、下記を掲げる。
【0043】
パターン2の thRw を、 thRw2 、 thRB を、thRB2
パターン3の thRw を、 thRw3 、 thRB を、thRB3
【0044】
ここにおいて、大小関係が、
thRw2 > thRw3 > thRB3 > thRB2 > thRB3
ならば、通常、5bit×nラインとなるが、コードを次のようにすると、3bit
×nラインとなる。
【0045】
【0046】
ここでPは、エッヂ量である。コードは、0〜5であるので、3bitあれば表現できる。コードを展開する時に、逆に行なえばよい。大小関係は、固定でなくても入れかえられるようにした方がよいのはいうまでもない。孤立点除去において、線画は連続した線からなるので、孤立点を除去する。孤立点は、網点を線画と誤検出した場合に生じる。
【0047】
パターンマッチング部A43、パターンマッチング部B44、パターンマッチング部C45のいずれか一つ以上で抽出したら抽出パターンとする。例えば、5×5のパターンマッチングにおいて、周辺画素に抽出パターンがなく、注目画素に注目画素が抽出パターンならば除去する。一例を式で示す。ここにおいて、抽出パターンを記号aとする。
【0048】
【外1】
【0049】
また、パターンマッチングでなく、マトリックス内の数をかぞえて判定してもよい。
【0050】
膨張部47において、抽出パターンを膨張することにより、文字の交点などをつなぎ、さらに線画とその周辺を線画処理を行なうようにする。
【0051】
上述のパターンマッチングは、十字の交点を抽出できないが、連結が可能となる。また、線画とその周辺を線画とみなすのは、黒文字処理と空間フィルタを良好に作用させるためである。次式に例(7×7)を示す。
【0052】
【0053】
このことにより、印刷原稿の線画を良好に抽出可能とする。これは等倍の例であり、変倍について説明する。図8および図9は線画の抽出手順を説明するための概念図であり、図中の実線が線画、点線が線画認識部であり線画として判定する領域を表している。
【0054】
副走査変倍は、原稿認識の前(原稿読み取り部11)で行なっており、主走査変倍は、原稿認識の後(変倍部26)で行なっている。このことにより、例えば等倍で処理した時、図9のように主・副走査とも同じ幅で線画処理を行なうが、主・副走査とも200%で処理をすると、図8のように主走査のみ線画処理を行なう幅が大きくなる。よって主走査の変倍率により、主走査の膨張幅を変える。式の構成例を以下に示す。
【0055】
((膨張量−1)/2/変倍率)×2+1
つまり、
(7−1)/2/2×2+1= 4.5
【0056】
膨張量は、整数でなければならないので、5とする。このことにより、変倍率の影響により、主走査と副走査の線処理の処理範囲がほぼ同一の幅となる。逆に主走査の変倍率により、副走査の膨張幅をかえても同様の効果がある。式の構成例を以下に示す。
【0057】
((膨張量−1)/2×変倍率)×2+1)
【0058】
本実施形態は、輪郭抽出するものすべてに適用できる。さらに、孫コピー(ジェネレーション、複写機の出力を入力原稿として複写)する際には、上述のパラメータを印刷原稿と異なる。パラメータ(thw、thB、thRw、thRB) を変更するほかに、パターンマッチング部C45の抽出動作を行なわないようにする。
【0059】
現在の複写機の出力は、文字を400DPI写真部が、200DPIの万線パターンが一般的である。万線パターンは線画と誤検出しやすいので、パターンマッチング部C45の抽出動作を行なわないようにする。複写機は印刷物に対して、1/10程度の解像度なので、孫コピーにはさほど影響しない。このように解像度の低い原稿(孫コピー)に対しては、良好に抽出可能となる。
【0060】
【発明の効果】
以上の説明より明かなように、本発明の画像処理装置は、副走査を副走査変倍率で変倍し、主走査を主走査変倍率で変倍し、副走査変倍率と主走査変倍率に応じて輪郭抽出の結果を膨張する。よって、主走査変倍率により主走査又は副走査の輪郭の膨張量を変えることにより、出力結果を変倍率に影響なくほぼ一定にすることができる。
【図面の簡単な説明】
【図1】本発明の画像処理装置の実施例を示す主要構成ブロック図である。
【図2】図1の画像処理部の構成例を示すブロック図である。
【図3】図2の原稿認識部の構成例を示すブロック図である。
【図4】図3の線画認識部の構成例を示すブロック図である。
【図5】白領域検出の動作を説明するための記号化されたマトリックスである。
【図6】線画の概念的な断面図であり、白領域と黒画素と閾値とを表している。
【図7】線画の概念的な断面図であり、エッジ量と閾値とを表している。
【図8】印刷原稿の線画の抽出手順を説明するための概念図1である。
【図9】印刷原稿の線画の抽出手順を説明するための概念図2である。
【符号の説明】
11 原稿読み取り部
12 画像処理部
13 画像記録部
21 RGBγ補正部
22 遅延部
23 RGBフィルタ部
24 色補正部
25 VCR部
26 変倍部
27 CMYBkフィルタ部
28 CMYBkγ補正部
29 階調処理部
30 原稿認識部
31 線画認識部
32 色判定部
41 モノクロ化部
42 ラプラシアン部
43、44、45 パターンマッチング部
46 孤立点除去部
47 膨張部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image processing apparatus, and more particularly, to an image processing apparatus that extracts an edge of a line drawing (character) with reference to a plurality of pixels, switches parameters according to the result, and performs an image forming process.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, there is an image processing apparatus that can change a parameter for determining the edge of a line drawing in accordance with a magnification. The reason for providing this function is that the characteristics of the image data of the reading unit change according to the magnification.
[0003]
For the same reason, some image processing apparatuses change the image processing filter. For example, in an apparatus that reads image data by scanning four times, the main scanning magnification of a component may be arranged after the document recognition unit, and the sub-scan magnification may be arranged before the document recognition unit.
[0004]
[Problems to be solved by the invention]
However, in the image processing apparatus having the arrangement configuration as in the conventional example described above, since the edge (outline) of the line as a result of the document recognition unit is extracted by the magnification, the width of the main scan and the sub-scan is output as the output result. different. In addition, if the main scanning magnification is arranged before the document recognition unit, there is a problem that three circuit units for R, G, and B are required.
[0005]
SUMMARY OF THE INVENTION It is an object of the present invention to provide an image processing apparatus that makes the output results of edge detection substantially constant even when the magnification of main scanning and sub-scanning are changed.
[0006]
[Means for Solving the Problems]
In order to achieve the above object, the present invention provides a document reading unit that reads a document and outputs it as digital data, an image processing unit that corrects image data read by the document reading unit and performs document recognition, An image recording unit that outputs the output image data of the document to a sheet, wherein the image processing unit includes a line drawing recognizing unit that recognizes the likeness of the line drawing and a specific area of the document being chromatic or achromatic. A document recognizing section comprising a color determining section for determining whether or not the image data has been enlarged and reduced in the main scanning direction or a magnification changing section for performing equal magnification processing. The line drawing recognizing section converts the RGB data into a monochrome signal. , A Laplacian section that extracts the edges of line drawings and detects white areas and black pixels, and a pattern match that extracts black edges around white areas and detects thin lines And a dilation unit that expands the extracted pattern from the pattern matching unit to connect the intersections of the characters and performs line drawing processing and line drawing processing around the line drawing. The magnification in the main scanning direction is executed in the original reading unit, which is a pre-processing stage for performing original recognition in the unit, and the magnification in the main scanning direction is a post-processing stage of the original recognition unit in which the line image recognition and the color determination are performed. And the expansion width in the main scanning direction or the sub-scanning direction is changed according to the magnification in the main scanning direction.
[0008]
BEST MODE FOR CARRYING OUT THE INVENTION
Next, an embodiment of an image processing apparatus according to the present invention will be described in detail with reference to the accompanying drawings. 1 to 7 show an embodiment of an image processing apparatus according to the present invention. FIG. 1 is a block diagram of a main configuration of an image processing apparatus, FIGS. 2 to 4 are block diagrams of an internal partial configuration, FIG. 5 is a matrix for explaining an operation of white area detection, and FIGS. FIGS. 8 and 9 are conceptual views for explaining a procedure for extracting a line drawing of a print original.
[0009]
As shown in FIG. 1, the image processing apparatus reads a document, outputs a read data as digital data, a
[0010]
The
The RGB
[0011]
The
[0012]
Further, it determines whether the document area is a chromatic area or an achromatic area, and outputs a B / C signal to the
[0013]
Each block switches between character processing and picture processing according to the C / P signal and the B / C signal. The B / C signal is cascade-connected to an
[0014]
The
[0015]
The
[0016]
The
[0017]
The
[0018]
The output logic of the C / P signal of the line
[0019]
In the present embodiment, a document reading unit having a reading density of about 400 DPI will be described as an example. The line
[0020]
The
[0021]
The
[0022]
[0023]
When the peripheral data including the target pixel is smaller than the threshold value thw, the white area is set. This pattern is an orthogonal pattern, but an oblique pattern or the like may be added.
[0024]
In black pixel detection, a sufficiently dark pixel is defined as a black pixel. In a formula, a 22 > thB. In the edge amount extraction, the edge amount is obtained as follows using a 5 × 5 matrix.
[0025]
x = (a 22 × 2) - (a 21 + a 23)
y = (a 22 × 2) - (a 12 + a 32)
z = ixx + jxy
Here, x is the edge amount in the main scanning direction,
y is the edge amount in the sub-scanning direction,
As for z, x and y are weighted to determine the total edge amount.
[0026]
Here, i and j = are both selective coefficients and are coefficients that reduce the gate scale when designing hardware, 1, 1.115, 1.25, 1.375, 1.5, 1.625, 1.75, 1.875, and 2 (fixed point arithmetic). By doing so, blurring of the MTF (optical system and traveling system) of the main scanning and the sub-scanning is corrected.
[0027]
Generally, the MTFs of the main scanning and the sub-scanning are different, and the magnification of the sub-scanning is performed by the reading area of the reading device. In the present embodiment, since the main scanning magnification change is performed after the document recognition unit, there is no need to worry. Further, when the sub-scanning magnification is large, for example, when the magnification is 200%, it is possible to select the edge amount as follows.
[0028]
x = (a 22 × 2) - (a 20 + a 24)
y = (a 22 × 2) - (a 02 + a 42)
z = ixx + jxy
[0029]
In this way, it is possible to cope with the magnification change processing of the sub-scan. The output outputs a white area signal, a black pixel, a signal and an edge amount. The white area signal indicates a white area with H, and the black pixel signal indicates a black pixel with H.
[0030]
FIG. 6 is a cross-sectional view of a line drawing, and is a conceptual diagram illustrating a relationship between a white region, a black pixel, and a threshold. FIG. 7 is a diagram showing the relationship between the edge amount (z).
[0031]
Next, the pattern matching units A, B, and C will be described.
In the block of the pattern matching unit A43, a black edge around the white area is extracted. Here, the white area pattern (W) is a signal of the white area, and the black pattern (K) is H when a black pixel or an edge amount is larger than the threshold thRB. The reason why the black pattern is not simply extracted with black pixels is to correct the blur at the time of reading the original with the edge amount. The conceptual diagrams are shown in FIGS. An example of the pattern is as follows (7 × 7).
[0032]
[0033]
Although only the horizontal component and the vertical component are shown, the pattern of the slant component is similarly extracted. Thus, the edge on the white area is extracted. Since there are many white areas, a line image of a white area can be extracted without erroneously recognizing a halftone dot as a line image.
[0034]
In the block of the pattern matching unit B44, a thin line is detected. A thin line corresponds to a key line or a character in a document. Here, the white pattern (w) is a white area or an H whose edge amount is smaller than the threshold thRw (absolute value is large because it is a negative component). The black pattern (k) is defined as H when a black pixel or an edge amount is larger than the threshold thRB. The thRB here need not be the same as that of the pattern matching unit C45. Correcting both the black pattern and the white pattern with the edge amount component increases the contrast of the fine line.
An example of the pattern is as follows (7 × 7).
[0035]
[0036]
Although only the horizontal component and the vertical component are shown, the pattern of the slant component is similarly extracted. As described above, when both sides of the black pattern are sandwiched by the white pattern, they are extracted as thin lines. Further, when a white area exists, it is highly possible that the image is a line drawing, so that pattern matching may be performed. For example, Let the white area be a symbol a.
[0037]
[0038]
Etc. may be added. Although only the horizontal component is shown here, the vertical component and the oblique component are similarly extracted. Further, in contrast to this pattern, when both sides of the white pattern are sandwiched by the white pattern, the pattern is a thin line. Therefore, such a pattern may be added. May be.
[0039]
The block of the pattern matching unit C45 is auxiliary to the pattern matching unit A43, and performs pattern matching using three elements of a white edge component in order to extract a black edge on a white area. Here, the white area pattern (a) is a signal of the white area, and the black pattern (k) is H when a black pixel or an edge amount is larger than the threshold thRB. The white pattern (w) is a white area or an H whose edge amount is smaller than the threshold thRw (the absolute value is large because it is a negative component). An example of the pattern is as follows (7 × 7).
[0040]
[0041]
Although only the horizontal component is shown here, only the vertical and horizontal components are shown, but the diagonal components are similarly extracted. As a result, it is possible to extract characters having a high contrast. Then, even if the width of the black pattern is reduced, a small character or the like can be extracted without erroneously detecting a halftone dot, because the white edge component is detected. The threshold values, thRB, thRw, need not be the same. In this embodiment, the matrix is 7 × 7, but the matrix size is not limited. Further, when the matrixes of the pattern matching units A, B, and C are used as components, a line memory is used, but may be shared instead of independently.
[0042]
As an example, if thw and thk are the same, they can be shared and may be coded using a magnitude relationship. The following are examples of coding.
[0043]
The thRw of the pattern 2 is represented by thRw 2 , thRB, and thRB 2
In pattern 3, thRw, thRw 3 , thRB, thRB 3
[0044]
Here, the magnitude relationship is
thRw 2> thRw 3> thRB 3 > thRB 2> thRB 3
Then, it is usually 5 bits x n lines, but if the code is as follows, 3 bits
× n lines.
[0045]
[0046]
Here, P is an edge amount. Since the code is from 0 to 5, it can be expressed with 3 bits. When developing the code, you can do the reverse. Needless to say, it is better to exchange the magnitude relation even if it is not fixed. In the isolated point removal, since the line image is composed of continuous lines, the isolated points are removed. An isolated point occurs when a halftone dot is erroneously detected as a line image.
[0047]
If any one or more of the pattern matching unit A43, the pattern matching unit B44, and the pattern matching unit C45 extracts the pattern, the extracted pattern is set. For example, in 5 × 5 pattern matching, if there is no extracted pattern in the surrounding pixels and the target pixel is the extracted pattern, the target pixel is removed. An example is shown by a formula. Here, the extracted pattern is represented by a symbol a.
[0048]
[Outside 1]
[0049]
Also, instead of pattern matching, the determination may be made by counting the numbers in the matrix.
[0050]
The
[0051]
In the above-mentioned pattern matching, intersections of crosses cannot be extracted, but connection is possible. The reason why a line drawing and its surroundings are regarded as a line drawing is to make black character processing and a spatial filter work well. The following equation shows an example (7 × 7).
[0052]
[0053]
This makes it possible to satisfactorily extract a line image of a printed document. This is an example of the same magnification, and the magnification will be described. FIG. 8 and FIG. 9 are conceptual diagrams for explaining the line drawing extraction procedure, in which solid lines in the drawings indicate a line drawing, and dotted lines indicate a line drawing recognizing unit and an area determined as a line drawing.
[0054]
The sub-scanning magnification is performed before document recognition (document reading unit 11), and the main scanning magnification is performed after document recognition (magnification unit 26). Thus, for example, when processing is performed at the same magnification, line drawing processing is performed with the same width in both main and sub-scanning as shown in FIG. 9, but when processing is performed at 200% in both main and sub-scanning, as shown in FIG. Only the line drawing process becomes wider. Therefore, the expansion width of the main scan is changed according to the magnification of the main scan. A configuration example of the expression is shown below.
[0055]
((Expansion amount-1) / 2 / magnification) × 2 + 1
That is,
(7-1) /2/2×2+1=4.5
[0056]
Since the expansion amount must be an integer, it is set to 5. As a result, the processing ranges of the line processing in the main scanning and the sub-scanning have substantially the same width due to the influence of the magnification. Conversely, the same effect is obtained even if the expansion width of the sub-scan is changed by changing the magnification of the main scan. A configuration example of the expression is shown below.
[0057]
((Expansion amount -1) / 2 x magnification) x 2 + 1)
[0058]
The present embodiment can be applied to all contour extraction. Further, when the grandchild copy (generation, copying the output of the copying machine as an input document), the above-described parameters are different from those of the print document. In addition to changing the parameters (thw, thB, thRw, thRB), the extraction operation of the pattern matching unit C45 is not performed.
[0059]
The current output of a copying machine is generally a 400 DPI photo part for characters and a 200 DPI line pattern. Since the line pattern is easily erroneously detected as a line drawing, the extraction operation of the pattern matching unit C45 is not performed. Since the copier has a resolution of about 1/10 of the printed matter, it does not significantly affect the grandchild copy. As described above, it is possible to satisfactorily extract a low-resolution original (a grandchild copy).
[0060]
【The invention's effect】
As is clear from the above description, the image processing apparatus according to the present invention changes the magnification of the sub-scan at the sub-scan magnification, the magnification of the main scan at the main scan magnification, the sub-scan magnification, and the main scan magnification. Expands the result of the contour extraction according to. Therefore, by changing the expansion amount of the main scanning or sub-scanning contour according to the main scanning magnification, the output result can be made substantially constant without affecting the magnification.
[Brief description of the drawings]
FIG. 1 is a main configuration block diagram illustrating an embodiment of an image processing apparatus according to the present invention.
FIG. 2 is a block diagram illustrating a configuration example of an image processing unit in FIG. 1;
FIG. 3 is a block diagram illustrating a configuration example of a document recognition unit in FIG. 2;
FIG. 4 is a block diagram illustrating a configuration example of a line drawing recognition unit in FIG. 3;
FIG. 5 is a symbolized matrix for explaining the operation of white area detection.
FIG. 6 is a conceptual cross-sectional view of a line drawing, showing a white area, a black pixel, and a threshold.
FIG. 7 is a conceptual cross-sectional view of a line drawing, showing an edge amount and a threshold.
FIG. 8 is a conceptual diagram for explaining a procedure for extracting a line image of a print original.
FIG. 9 is a conceptual diagram for explaining a procedure for extracting a line image of a print document.
[Explanation of symbols]
REFERENCE SIGNS
Claims (1)
前記画像処理部は、線画らしさを認識する線画認識部と原稿の特定領域が有彩又は無彩を判定する色判定部とからなる原稿認識部と、主走査方向の拡大・縮小又は等倍処理を実行する変倍部と、を備え、
前記線画認識部は、RGBデータを変換してモノクロ信号を出力するモノクロ化部と、線画のエッジを抽出するとともに白領域と黒画素を検出するラプラシアン部と、白領域周辺の黒エッジを抽出するとともに細線の検出を行うパターンマッチング部と、前記パターンマッチング部からの抽出パターンを膨張することで文字の交点を繋ぐとともに線画とその周辺の線画処理を行う膨張部と、を備え、
副走査方向の変倍は、前記画像処理部での原稿認識を行う前処理段階である前記原稿読み取り部において実行され、
主走査方向の変倍は、前記線画認識と前記色判定された原稿認識部の後処理段階である前記変倍部において実行され、
主走査方向の変倍率に応じて主走査方向又は副走査方向の膨張幅を変える
ことを特徴とする画像処理装置。A document reading unit that reads a document and outputs it as digital data; an image processing unit that corrects image data read by the document reading unit and performs document recognition; and an image recording unit that outputs output image data of the image processing unit to a sheet And an image processing apparatus comprising:
The image processing unit includes: a document recognition unit including a line drawing recognition unit for recognizing the likeness of a line drawing and a color determination unit for determining whether a specific region of the document is chromatic or achromatic; an enlargement / reduction or equal magnification process in the main scanning direction And a scaling unit for performing
The line drawing recognizing unit converts the RGB data into a monochrome signal and outputs a monochrome signal. The line drawing recognizing unit extracts the edges of the line drawing and detects the white area and black pixels. The line drawing recognizing unit extracts the black edge around the white area. A pattern matching unit that detects a thin line, and an expansion unit that connects the intersection of characters by expanding an extraction pattern from the pattern matching unit, and performs a line drawing and a line drawing process around the line drawing,
Zooming in the sub-scanning direction is performed in the document reading unit, which is a pre-processing stage for performing document recognition in the image processing unit,
The scaling in the main scanning direction is performed in the scaling unit, which is a post-processing stage of the line recognition and the color-recognized document recognition unit,
An image processing apparatus wherein an expansion width in a main scanning direction or a sub-scanning direction is changed according to a magnification in a main scanning direction.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP31604295A JP3564216B2 (en) | 1995-11-09 | 1995-11-09 | Image processing device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP31604295A JP3564216B2 (en) | 1995-11-09 | 1995-11-09 | Image processing device |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPH09134438A JPH09134438A (en) | 1997-05-20 |
| JP3564216B2 true JP3564216B2 (en) | 2004-09-08 |
Family
ID=18072623
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP31604295A Expired - Fee Related JP3564216B2 (en) | 1995-11-09 | 1995-11-09 | Image processing device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP3564216B2 (en) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4589896B2 (en) | 2006-07-04 | 2010-12-01 | 株式会社リコー | Image processing apparatus, image processing method, and program |
-
1995
- 1995-11-09 JP JP31604295A patent/JP3564216B2/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| JPH09134438A (en) | 1997-05-20 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| EP0713329B1 (en) | Method and apparatus for automatic image segmentation using template matching filters | |
| JPH07170420A (en) | Color image processing system | |
| JP3564216B2 (en) | Image processing device | |
| JP3596962B2 (en) | Image processing device | |
| JPH0818785A (en) | Image output device | |
| JP4047356B2 (en) | Image processing device | |
| JP3183787B2 (en) | Halftone area determination device | |
| JP4035696B2 (en) | Line segment detection apparatus and image processing apparatus | |
| JP3989636B2 (en) | Image processing device | |
| JP3216963B2 (en) | Halftone area determination device | |
| JPH09139839A (en) | Image processing device | |
| JPH0541796A (en) | Copying machine | |
| JPH06334856A (en) | Picture processor | |
| JP7077925B2 (en) | Image processing equipment, image processing methods, and programs | |
| JP2008092323A (en) | Image processing apparatus, and image reading apparatus and image forming apparatus provided with the same | |
| JP4059600B2 (en) | Image processing apparatus and image processing method | |
| JP3999420B2 (en) | Image processing apparatus and image processing method | |
| JP3506848B2 (en) | Image processing device | |
| JP3723666B2 (en) | Image processing device | |
| JPH1023251A (en) | Image processing device | |
| JPH1079852A5 (en) | ||
| JPH1155505A (en) | Image processing device | |
| JPH09130598A (en) | Color image forming equipment | |
| JPH1079852A (en) | Image processing device | |
| JPH01173971A (en) | Image processing method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20040219 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040224 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040419 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040525 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040607 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080611 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090611 Year of fee payment: 5 |
|
| LAPS | Cancellation because of no payment of annual fees |