JPH11346315A - Image processing unit and image processing method - Google Patents
Image processing unit and image processing methodInfo
- Publication number
- JPH11346315A JPH11346315A JP10151389A JP15138998A JPH11346315A JP H11346315 A JPH11346315 A JP H11346315A JP 10151389 A JP10151389 A JP 10151389A JP 15138998 A JP15138998 A JP 15138998A JP H11346315 A JPH11346315 A JP H11346315A
- Authority
- JP
- Japan
- Prior art keywords
- edge
- contrast
- image signal
- correction
- coefficient
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims description 28
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000012937 correction Methods 0.000 claims abstract description 120
- 238000009499 grossing Methods 0.000 claims abstract description 23
- 238000004364 calculation method Methods 0.000 claims abstract description 20
- 238000000034 method Methods 0.000 claims description 26
- 235000003642 hunger Nutrition 0.000 abstract description 38
- 230000037351 starvation Effects 0.000 abstract description 38
- 230000007423 decrease Effects 0.000 abstract description 5
- 230000004044 response Effects 0.000 abstract description 2
- 238000003708 edge detection Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 241000519995 Stachys sylvatica Species 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 239000006249 magnetic particle Substances 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 229910003460 diamond Inorganic materials 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
Landscapes
- Dot-Matrix Printers And Others (AREA)
- Facsimile Image Signal Circuits (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、ディジタル複写機
やプリンタなどの画像形成装置において画像を形成する
際に用いることのできる画像処理装置及び画像処理方法
に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and an image processing method that can be used when forming an image in an image forming apparatus such as a digital copying machine or a printer.
【0002】[0002]
【従来の技術】従来の画像形成装置における現像方法の
一つとして、絶縁性トナーと磁性粒子を用いた二成分磁
気現像方式があり、広く用いられている。この二成分磁
気現像方式では、同色の高濃度部分と低濃度部分とが隣
接した画像を再現しようとした場合、二成分磁気現像方
式の出力再現特性により白抜け(以下、スターベーショ
ンと呼ぶ)が発生することが知られている。この現象
は、感光体ドラム上に付着したトナーが現像器の現像剤
層中に引き戻されることによって発生する。2. Description of the Related Art As one of developing methods in a conventional image forming apparatus, there is a two-component magnetic developing method using an insulating toner and magnetic particles, and is widely used. In this two-component magnetic development method, when trying to reproduce an image in which a high-density part and a low-density part of the same color are adjacent to each other, white spots (hereinafter referred to as starvation) occur due to the output reproduction characteristics of the two-component magnetic development method. It is known to occur. This phenomenon occurs when the toner adhered on the photosensitive drum is pulled back into the developer layer of the developing device.
【0003】このような問題を解決するため、例えば特
開平5−281790号公報などに記載されている方法
がある。この方法では、絶縁性トナーおよび磁性粒子の
粒径を制限し、またバイアス電圧の周波数を高めるな
ど、現像部における改善によってスターベーションの発
生を防止している。しかしこのような現像部における制
限は、装置の大型化やコストアップを伴うとともに、例
えば高解像度化など、他の要求との両立が難しい場合が
生じる。In order to solve such a problem, there is a method described in, for example, JP-A-5-281790. In this method, the generation of starvation is prevented by improving the developing section, such as by limiting the particle diameters of the insulating toner and the magnetic particles and increasing the frequency of the bias voltage. However, such a limitation in the developing unit involves an increase in the size and cost of the apparatus, and in some cases, it is difficult to achieve compatibility with other requirements, such as a higher resolution.
【0004】別の解決方法として、例えば特開平10−
65919号に記載されている方法がある。この方法で
は、濃度の変化するエッジ部分を検出し、感光体ドラム
上から現像器の現像剤層中に引き戻されるトナー量をも
とに補正量を決定して、補正対象となる低濃度部の画像
信号を補正する。この補正された画像信号によって画像
を形成することにより、スターベーションの発生をを防
止している。As another solution, for example, Japanese Patent Application Laid-Open
There is a method described in US Pat. In this method, an edge portion where the density changes is detected, and a correction amount is determined based on an amount of toner pulled back from a photosensitive drum into a developer layer of a developing device, and a low density portion to be corrected is determined. Correct the image signal. By forming an image using the corrected image signal, occurrence of starvation is prevented.
【0005】一方、上述のような同色の高濃度部分と低
濃度部分とが隣接した画像を再現しようとした場合、そ
の隣接部分(エッジ部分)の高濃度側の微小領域の濃度
をより濃く、低濃度側の微小領域の濃度をより薄く再現
することによってエッジ部分の再現性が向上することが
知られている。図8は、エッジを含む画像信号及び形成
された画像の濃度分布の一例の説明図である。例えば図
8(A)に示すように低濃度部と高濃度部とが隣接した
エッジを含む画像信号が入力された場合を考える。この
とき、図8(B)に示すようにエッジに隣接する低濃度
側の1ないし数画素程度の微小領域の濃度をより薄く、
またエッジに隣接する高濃度側の1ないし数画素程度の
微小領域の濃度をより濃く再現することによって、見か
け上、エッジをシャープに再現することができる。この
ような画像の再現特性は、電子写真方式では画像の形成
時にこのような特性が得られる。On the other hand, if an attempt is made to reproduce an image in which a high-density portion and a low-density portion of the same color are adjacent to each other, the density of the high-density minute area in the adjacent portion (edge portion) is increased. It is known that the reproducibility of the edge portion is improved by reproducing the density of the minute area on the low density side thinner. FIG. 8 is an explanatory diagram of an example of an image signal including an edge and a density distribution of a formed image. For example, consider a case where an image signal including an edge where a low density portion and a high density portion are adjacent to each other as shown in FIG. At this time, as shown in FIG. 8B, the density of a minute area of about 1 to several pixels on the low density side adjacent to the edge is further reduced,
Further, by reproducing the density of a minute area of about one to several pixels on the high density side adjacent to the edge more densely, the edge can be apparently reproduced sharply. In the electrophotographic method, such characteristics can be obtained when an image is formed.
【0006】しかしこのような低濃度側の濃度低下は微
小領域において発生する限りにおいてはエッジの強調と
して作用するが、上述のようなスターベーションは数十
画素以上といった広い範囲において発生し、濃度の低下
が視認される。スターベーションが発生した画像の濃度
分布を図8(C)に示している。これに対処するため、
例えば上述の特願平 FN96−00432 号に
記載されている方法等を用いることができる。この方法
によって、図8(A)に示す画像信号を図8(D)に示
すような画像信号に補正する。この図8(D)に示す画
像信号を用いて画像を形成することにより、形成された
画像の濃度分布は図8(E)に示すようになり、スター
ベーションを防止することができる。However, such a decrease in density on the low-density side acts as edge enhancement as long as it occurs in a minute area. However, the above-described starvation occurs in a wide range of several tens of pixels or more, and the density decreases. A drop is visible. FIG. 8C shows the density distribution of the image in which the starvation has occurred. To address this,
For example, the method described in Japanese Patent Application No. FN96-00432 described above can be used. With this method, the image signal shown in FIG. 8A is corrected to the image signal shown in FIG. By forming an image using the image signal shown in FIG. 8D, the density distribution of the formed image becomes as shown in FIG. 8E, and starvation can be prevented.
【0007】この図8(E)に示す濃度分布では、エッ
ジに隣接した低濃度側の微小領域においても濃度の低下
がほとんどない。そのため、エッジの鮮鋭度が低下し、
エッジがぼけて見えるという不具合があった。これは図
8(D)に示すようにエッジ部分において低濃度側の画
像信号の濃度を濃くしているために発生する。この濃度
の調整量を小さくすれば見かけ上のぼけをある程度防げ
るが、逆にスターベーションの発生をある程度容認せざ
るを得ないという問題があった。In the density distribution shown in FIG. 8 (E), there is almost no reduction in density even in a small area on the low density side adjacent to the edge. Therefore, the sharpness of the edge decreases,
There was a problem that edges appeared blurred. This occurs because the density of the image signal on the low density side is increased at the edge portion as shown in FIG. If the amount of adjustment of the density is reduced, apparent blurring can be prevented to some extent, but on the contrary, the occurrence of starvation must be tolerated to some extent.
【0008】[0008]
【発明が解決しようとする課題】本発明は、上述した事
情に鑑みてなされたもので、エッジ部分の見かけ上のぼ
けを抑えつつスターベーションの低減を図り、高品質の
画像を形成可能な画像信号を生成する画像処理装置およ
び画像処理方法を提供することを目的とするものであ
る。SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and aims to reduce starvation while suppressing apparent blurring of an edge portion, and to form an image capable of forming a high quality image. It is an object of the present invention to provide an image processing device and an image processing method for generating a signal.
【0009】[0009]
【課題を解決するための手段】本発明は、入力された画
像信号を平滑化してスターベーションを低減させるため
の信号を生成するとともに、その平滑化された画像信号
によって入力された画像信号をどの程度補正するかを示
す重み係数を決定する。決定された重み係数に従って平
滑化された画像信号で入力された画像信号を補正するこ
とにより、スターベーションを低減することができる。According to the present invention, a signal for smoothing an input image signal to reduce starvation is generated, and the input image signal is converted into an image signal based on the smoothed image signal. A weight coefficient indicating whether the degree is to be corrected is determined. By correcting the input image signal with the image signal smoothed according to the determined weight coefficient, starvation can be reduced.
【0010】しかしこのままでは上述のようにエッジ部
分が見かけ上ぼけるので、エッジ部分における一方の側
の微小部分の濃度を補正するためのエッジ補正係数を決
定し、決定したエッジ補正係数をも加味して入力された
画像信号を補正することによって、エッジ部分のコント
ラストを向上させ、見かけ上のエッジのぼけを抑制す
る。However, since the edge portion is apparently blurred as described above, an edge correction coefficient for correcting the density of the minute portion on one side of the edge portion is determined, and the determined edge correction coefficient is also taken into consideration. By correcting the input image signal, the contrast of the edge portion is improved, and apparent blurring of the edge is suppressed.
【0011】このようにして、エッジ部分の見かけ上の
ぼけを抑えつつ、スターベーションを低減させることが
でき、高品質の画像を形成することが可能となる。In this way, the starvation can be reduced while suppressing the apparent blur at the edge portion, and a high-quality image can be formed.
【0012】[0012]
【発明の実施の形態】図1は、本発明の画像処理装置の
実施の一形態を示すブロック図である。図中、1は入力
バッファ、2は平滑化部、3は重み係数決定部、4はエ
ッジ補正係数決定部、5は補正画素値算出部、11はコ
ントラスト演算部、12は補正対象選択テーブル、13
は重み係数選択テーブル、14は重み係数算出部、21
はエッジ検出部、22はエッジ判定部、23は係数決定
部である。FIG. 1 is a block diagram showing an embodiment of an image processing apparatus according to the present invention. In the figure, 1 is an input buffer, 2 is a smoothing unit, 3 is a weight coefficient determining unit, 4 is an edge correction coefficient determining unit, 5 is a corrected pixel value calculating unit, 11 is a contrast calculating unit, 12 is a correction target selection table, 13
Is a weight coefficient selection table, 14 is a weight coefficient calculator, 21
Denotes an edge detection unit, 22 denotes an edge determination unit, and 23 denotes a coefficient determination unit.
【0013】入力バッファ1は、入力された画像信号を
受け取り、ほぼ所定ライン数分の画像信号を保持する。
そして注目画素と、注目画素の周囲を含む所定領域内の
画素の値を出力する。以下、この所定領域をウィンドウ
と呼ぶ。また、注目画素の値を注目画素値gとする。ウ
ィンドウの大きさは、例えば注目画素を中心とするm×
n画素の矩形領域とすることができる。具体例として、
例えばエッジ部分において主走査方向に14画素、副走
査方向に7画素の補正を行なう場合には、ウィンドウの
大きさを29×15画素とすることができる。もちろ
ん、ウィンドウの大きさ及び形状は任意であって、平滑
化部2やエッジ検出部21などの処理に必要な大きさ及
び形状とすればよい。また、例えば画像信号が画像メモ
リなどの記憶装置に格納され、画像メモリなどから必要
な領域の画素値を読み出すことができる構成であれば、
この入力バッファ1を設けずに構成することもできる。An input buffer 1 receives an input image signal and holds an image signal for approximately a predetermined number of lines.
Then, the value of the pixel of interest and a pixel in a predetermined area including the periphery of the pixel of interest are output. Hereinafter, this predetermined area is called a window. The value of the target pixel is set as a target pixel value g. The size of the window is, for example, m ×
It can be a rectangular area of n pixels. As a specific example,
For example, when correcting 14 pixels in the main scanning direction and 7 pixels in the sub-scanning direction at the edge portion, the window size can be 29 × 15 pixels. Of course, the size and shape of the window are arbitrary, and may be any size and shape necessary for processing by the smoothing unit 2 and the edge detection unit 21. Further, for example, if the image signal is stored in a storage device such as an image memory and a pixel value of a necessary area can be read from the image memory or the like,
A configuration without the input buffer 1 is also possible.
【0014】平滑化部2は、入力バッファ1から出力さ
れるウィンドウ内の画像信号をもとに平滑化フィルタリ
ング処理を行なって、注目画素における平均値信号fを
出力する。この平均値信号fはスターベーションを低減
させるために用いる。The smoothing unit 2 performs a smoothing filtering process on the basis of the image signal in the window output from the input buffer 1, and outputs an average signal f at the pixel of interest. The average signal f is used to reduce starvation.
【0015】重み係数決定部3は、平滑化部2から出力
される平均値信号fによって注目画素値gをどの程度補
正するかを示す重み係数を決定する。重み係数決定部3
は、コントラスト演算部11、補正対象選択テーブル1
2、重み係数選択テーブル13、重み係数算出部14等
によって構成されている。The weight coefficient determining section 3 determines a weight coefficient indicating how much the target pixel value g is corrected by the average value signal f output from the smoothing section 2. Weight coefficient determination unit 3
Is the contrast calculation unit 11, the correction target selection table 1
2, a weight coefficient selection table 13, a weight coefficient calculator 14, and the like.
【0016】コントラスト演算部11は、注目画素値g
と周囲の画素とのコントラストhを演算する。ここでは
入力バッファ1から出力されるウィンドウ内の画像信号
のうちから最大の濃度を検索し、検索されたウィンドウ
内の最大濃度と注目画素値gとの濃度差をコントラスト
hとして算出する。The contrast calculating section 11 calculates a target pixel value g.
And the contrast h between the pixel and surrounding pixels are calculated. Here, the maximum density is searched from the image signals in the window output from the input buffer 1, and the density difference between the searched maximum density and the target pixel value g is calculated as the contrast h.
【0017】補正対象選択テーブル12は、注目画素が
どの程度補正を要する画素なのかを示す補正対象度wh
を注目画素値gから求めるためのテーブルである。図2
は、注目画素値と補正対象選択テーブルに設定される補
正対象度との関係の一例を示すグラフである。例えば白
地では白抜けが発生してもわからない。また、エッジに
おいて濃度の薄い側でも濃度が非常に濃い場合にはエッ
ジ部分のコントラストが小さいのでスターベーションは
発生しない。これらの場合にはスターベーションを低減
させるための補正の必要性が低い。このように下地(エ
ッジにおける濃度の薄い側)の濃度に応じて、スターベ
ーションに対する補正をどの程度行なえばよいかが異な
る。そのため図2に示すように、注目画素値gの値が小
さい部分と大きい部分では補正対象度whを小さくし
て、補正の必要性が小さいことを示す。また、中間濃度
においては補正を行なう対象とするため、補正対象度w
hを1としている。このような補正対象度whを注目画
素値gと対応づけて補正対象選択テーブル12に格納し
ておく。これにより、補正対象選択テーブル12は注目
画素値gに応じて、その補正の度合いを補正対象度wh
として出力することができる。補正対象選択テーブル1
2は、注目画素値gを入力、補正対象度whを出力とす
るルックアップテーブルで構成することができるが、こ
れに限らず、演算により補正対象度whを求めるなど、
種々の構成で実現することができる。The correction target selection table 12 has a correction target degree wh indicating how much the target pixel needs correction.
Is a table for obtaining from the target pixel value g. FIG.
9 is a graph showing an example of a relationship between a target pixel value and a correction target degree set in a correction target selection table. For example, on a white background, even if a white spot occurs, it is not known. In addition, when the density is very high even on the side where the density is low at the edge, starvation does not occur because the contrast of the edge portion is small. In these cases, the necessity of correction for reducing starvation is low. As described above, the degree to which the starvation should be corrected differs depending on the density of the background (the side with the lower density at the edge). Therefore, as shown in FIG. 2, the correction target degree wh is reduced in the portion where the value of the target pixel value g is small and in the portion where the value is large, indicating that the necessity of correction is small. Further, since the correction is performed at the intermediate density, the correction target degree w
h is set to 1. Such a correction target degree wh is stored in the correction target selection table 12 in association with the target pixel value g. Accordingly, the correction target selection table 12 determines the degree of correction in accordance with the target pixel value g by the correction target degree wh.
Can be output as Correction target selection table 1
2 can be configured with a look-up table that inputs the target pixel value g and outputs the correction target degree wh, but is not limited thereto, and calculates the correction target degree wh by calculation, etc.
It can be realized with various configurations.
【0018】重み係数選択テーブル13は、コントラス
ト演算部11から出力されるコントラストhに対応した
コントラスト重みwwを求めるためのテーブルである。
このコントラスト重みwwは、平滑化部2から出力され
る平均値信号fによって注目画素値gをどの程度補正す
るかを示す。コントラストhが大きいとスターベーショ
ンの影響も大きくなるが、平均値信号fの変化も大きく
なる。この両者を調節することで、見かけ上、スターベ
ーションを減少させることができる。コントラストhに
応じた平均値信号fの変化とスターベーションを減少さ
せるための補正量の変化の対応関係をあらかじめ実験で
求めておけば、平均値信号fをスターベーションを減少
させるための補正量にほぼ一致させるための対応関係が
得られる。この対応関係を示す値が、コントラストhに
対応したコントラスト重みwwである。図3は、コント
ラストと重み係数選択テーブルに設定されるコントラス
ト重みの関係の一例を示すグラフである。例えばコント
ラスト演算部11で得られるコントラストhに対応づけ
て、図3に示すような重み係数wwを設定しておくこと
ができる。重み係数選択テーブル13は、コントラスト
演算部11から出力されるコントラストhを入力とし、
対応するコントラスト重みwwを出力するルックアップ
テーブルとして構成することができるが、これに限ら
ず、演算によってコントラスト重みwwを求める構成な
ど、種々の構成で実現することができる。The weight coefficient selection table 13 is a table for calculating a contrast weight ww corresponding to the contrast h output from the contrast calculator 11.
The contrast weight ww indicates how much the target pixel value g is corrected by the average value signal f output from the smoothing unit 2. When the contrast h is large, the influence of the starvation increases, but the change of the average signal f also increases. By adjusting both, the starvation can be apparently reduced. If the correspondence between the change of the average signal f according to the contrast h and the change of the correction amount for reducing the starvation is previously obtained by an experiment, the average signal f can be used as the correction amount for reducing the starvation. The corresponding relationship for making them substantially coincide is obtained. The value indicating this correspondence is the contrast weight ww corresponding to the contrast h. FIG. 3 is a graph showing an example of the relationship between the contrast and the contrast weight set in the weight coefficient selection table. For example, a weighting coefficient ww as shown in FIG. 3 can be set in association with the contrast h obtained by the contrast calculator 11. The weight coefficient selection table 13 receives the contrast h output from the contrast calculator 11 as an input,
It can be configured as a look-up table that outputs the corresponding contrast weight ww, but is not limited to this, and can be implemented in various configurations such as a configuration in which the contrast weight ww is obtained by calculation.
【0019】重み係数算出部14は、補正対象度whお
よびコントラスト重みwwから重み係数Wを算出する。
この重み係数Wは、コントラストhに応じて平均値信号
fによって注目画素値gをどの程度補正するかを示すコ
ントラスト重みwwに対して、その補正がどの程度必要
かを示す補正対象度whを加味し、入力された注目画素
値gに対して、平均値信号fによってどの程度の補正を
行なうかを示すものである。具体的には、重み係数Wは
コントラスト重みwwと補正対象度whとを乗算(W=
ww×wh)して求めることができる。もちろん、他の
演算方法を用いたり、ルックアップテーブルを用いるな
ど、他の方法で重み係数Wを求めてもよい。また、スタ
ーベーションはエッジ部分の濃度の薄い側に発生するの
で、濃度の濃い側には補正する必要がない。そのため、
コントラストhが0(注目画素値gが最大濃度)であっ
たり、注目画素値gが平均値信号fよりも大きい場合に
は、注目画素はエッジ部でないか、あるいはエッジ部に
おいて濃度が濃い側の画素である。このような場合には
補正を行なう必要がないため、この重み係数算出部14
において補正を行なわない重み係数、具体的には0を強
制的に設定する。The weight coefficient calculating section 14 calculates a weight coefficient W from the correction target degree wh and the contrast weight ww.
This weighting factor W takes into account the degree of correction wh, which indicates how much correction is necessary, to the contrast weight ww, which indicates how much the target pixel value g is corrected by the average value signal f according to the contrast h. It indicates how much correction is to be performed on the input target pixel value g by the average value signal f. Specifically, the weight coefficient W is obtained by multiplying the contrast weight ww and the correction target degree wh (W =
ww × wh). Of course, the weight coefficient W may be obtained by another method such as using another calculation method or using a lookup table. In addition, since the starvation occurs on the side of the edge portion where the density is low, it is not necessary to perform correction on the side where the density is high. for that reason,
When the contrast h is 0 (the target pixel value g is the maximum density) or the target pixel value g is larger than the average value signal f, the target pixel is not an edge part or the density of the edge part is higher. Pixel. In such a case, since there is no need to perform correction, the weight coefficient calculating unit 14
, A weighting coefficient for which no correction is made, specifically, 0 is compulsorily set.
【0020】エッジ補正係数決定部4は、入力された画
像信号中のエッジ部分において、濃度の薄い側の微小部
分の濃度を補正してエッジを強調させるためのエッジ補
正係数ewを決定する。エッジ補正係数決定部4は、エ
ッジ検出部21,エッジ判定部22,係数決定部23な
どを有している。The edge correction coefficient determination section 4 determines an edge correction coefficient ew for correcting the density of a minute portion on the low density side in the edge portion of the input image signal to emphasize the edge. The edge correction coefficient determination unit 4 includes an edge detection unit 21, an edge determination unit 22, a coefficient determination unit 23, and the like.
【0021】エッジ検出部21は、入力バッファ1から
注目画素を含む所定領域の画素を受け取り、エッジの存
在を検出する。エッジ検出部21は、入力バッファ1か
ら出力されるウィンドウ内のすべての画素を参照する必
要はなく、エッジを検出可能な大きさ、具体的には例え
ば3×3画素程度の領域の画素を参照すればよい。The edge detecting section 21 receives a pixel in a predetermined area including a pixel of interest from the input buffer 1 and detects the presence of an edge. The edge detection unit 21 does not need to refer to all the pixels in the window output from the input buffer 1, but refers to a pixel of a size capable of detecting an edge, specifically, for example, an area of about 3 × 3 pixels. do it.
【0022】エッジ判定部22は、エッジ検出部21に
おいてエッジが検出されたか否かとともに、重み係数決
定部3のコントラスト演算部11で算出されたコントラ
ストhが所定の閾値CNTLMTよりも大きいか否かを
判定する。そして、エッジ検出部21でエッジが検出さ
れ、コントラストhが閾値CNTLMTより大きい場合
に、補正処理を行なうべきエッジであると判定する。判
定結果及びコントラストhを係数決定部23に送る。The edge determination section 22 determines whether or not the edge is detected by the edge detection section 21 and whether or not the contrast h calculated by the contrast calculation section 11 of the weight coefficient determination section 3 is larger than a predetermined threshold value CNTLMT. Is determined. When the edge is detected by the edge detection unit 21 and the contrast h is larger than the threshold CNTLMT, it is determined that the edge is to be subjected to the correction processing. The determination result and the contrast h are sent to the coefficient determination unit 23.
【0023】係数決定部23は、エッジ判定部22にお
ける判定結果に従い、補正処理を行なうべきエッジであ
ると判定された場合にはエッジ補正係数ewをコントラ
ストhに応じた値に設定する。図4は、コントラストと
係数決定部23に設定されるエッジ補正係数ewとの関
係の一例を示すグラフである。ここではエッジ補正係数
ewは、1のときエッジ補正を行なわず、0のときスタ
ーベーションを防止するための補正量のみとする値とし
ている。図4に示すように、コントラストhが小さい場
合にはスターベーション防止のための補正量も小さいの
で、エッジ補正量を小さくしている。逆にコントラスト
hが大きい場合にはスターベーション防止のための補正
量も大きくなるため、エッジ補正量を大きくしている。
図4ではコントラストhに対して直線的にエッジ補正係
数ewを減少させているように示しているが、実際には
実験的に求めることができる。このコントラストhに応
じたエッジ補正係数ewの決定は、例えばルックアップ
テーブルなどを用いて行なうことができる。もちろん、
他の方法を適用して構成してもよく、例えば図4に示す
ように直線的な関係にあれば、単純な関係式に基づいて
演算により求めることもできる。The coefficient determining unit 23 sets the edge correction coefficient ew to a value corresponding to the contrast h when it is determined according to the determination result of the edge determining unit 22 that the edge should be subjected to the correction processing. FIG. 4 is a graph showing an example of the relationship between the contrast and the edge correction coefficient ew set in the coefficient determination unit 23. Here, the edge correction coefficient ew is a value that does not perform edge correction when it is 1 and that only has a correction amount for preventing starvation when it is 0. As shown in FIG. 4, when the contrast h is small, the correction amount for preventing starvation is also small, so that the edge correction amount is reduced. Conversely, when the contrast h is large, the correction amount for preventing starvation is also large, so the edge correction amount is large.
Although FIG. 4 shows that the edge correction coefficient ew decreases linearly with respect to the contrast h, it can be actually obtained experimentally. The determination of the edge correction coefficient ew according to the contrast h can be performed using, for example, a look-up table. of course,
Other methods may be applied, for example, as long as they have a linear relationship as shown in FIG. 4, they can be obtained by calculation based on a simple relational expression.
【0024】また係数決定部23は、エッジ判定部22
で補正処理を行なうべきエッジではないと判定された場
合には、エッジ近傍の微小部分に対する補正処理が行な
われないようにエッジ補正係数ewを設定する。例えば
エッジ補正係数ewを1に設定する。The coefficient determining section 23 includes an edge determining section 22
If it is determined that the edge is not an edge to be subjected to the correction processing, the edge correction coefficient ew is set so that the correction processing is not performed on the minute portion near the edge. For example, the edge correction coefficient ew is set to 1.
【0025】補正画素値算出部5は、重み係数決定部3
で決定した重み係数Wと、エッジ補正係数決定部4で決
定されたエッジ補正係数ewに従って、平滑化部2から
出力される平均値信号fにより注目画素値gを補正して
出力画像信号Gを生成し、出力する。出力画像信号G
は、例えば次のような式に従って算出することができ
る。 G=(f×W)+(1−W)×ew×g この式によって算出される出力画像信号Gは、スターベ
ーションの発生するエッジ付近の領域においては重み係
数Wの割合に応じて注目画素値gは平均値信号fにより
補正されることになる。これによりスターベーションを
低減させることができる。また、エッジ近傍の微小領域
では、エッジ補正係数ewによって注目画素値gが制限
されるため、エッジ近傍における濃度の薄い側の微小部
分の濃度を低下させ、エッジを強調させることができ
る。このようにして、出力画像信号Gはエッジにおける
見かけ上のぼけを抑えつつ、スターベーションを低減し
たものとなる。The correction pixel value calculation section 5 includes a weight coefficient determination section 3
The target pixel value g is corrected by the average value signal f output from the smoothing unit 2 in accordance with the weight coefficient W determined in the step S1 and the edge correction coefficient ew determined in the edge correction coefficient determination unit 4 to obtain the output image signal G. Generate and output. Output image signal G
Can be calculated according to the following equation, for example. G = (f × W) + (1−W) × ew × g The output image signal G calculated by this equation is a pixel of interest in an area near the edge where starvation occurs, depending on the ratio of the weighting coefficient W. The value g will be corrected by the average value signal f. Thereby, starvation can be reduced. Further, in the minute area near the edge, the target pixel value g is limited by the edge correction coefficient ew, so that the density of the minute part on the lighter side near the edge can be reduced and the edge can be emphasized. In this way, the output image signal G has reduced starvation while suppressing the apparent blur at the edges.
【0026】図5は、本発明の画像処理装置の実施の一
形態における動作の一例を示すフローチャートである。
画像信号が入力される前に、各種のパラメータを設定し
ておく。例えば平滑化部2の平滑化フィルタパラメータ
や、重み係数決定部3の補正対象選択テーブル12,重
み係数選択テーブル13の値、エッジ補正係数決定部4
のエッジ判定部22における閾値CNTLMTの値など
をあらかじめ設定しておく。FIG. 5 is a flowchart showing an example of the operation of the image processing apparatus according to the embodiment of the present invention.
Various parameters are set before an image signal is input. For example, the smoothing filter parameters of the smoothing unit 2, the values of the correction target selection table 12 and the weight coefficient selection table 13 of the weight coefficient determination unit 3, and the edge correction coefficient determination unit 4
The value of the threshold CNTLMT in the edge determination unit 22 is set in advance.
【0027】画像信号が入力されると、S31において
順次入力バッファ1に保持されてゆく。所定の画素数あ
るいは所定のライン数だけの画像信号が入力された後、
注目画素を順次移動させながら注目画素を含む所定のウ
ィンドウ内の画素が切り出されて出力される。これを受
けて平滑化部2,重み係数決定部3,エッジ補正係数決
定部4がそれぞれ処理を開始する。もちろん、各部は入
力バッファ1から出力されるウィンドウ内のすべての画
素を利用しなくてもよい。ここでは一例として、平滑化
部2及び重み係数決定部3ではウィンドウ内のすべての
画素を用いることとし、エッジ補正係数決定部4では所
定のウィンドウよりも小さな注目画素を含む領域の画素
のみを用いることとする。When an image signal is input, it is sequentially stored in the input buffer 1 in S31. After an image signal of a predetermined number of pixels or a predetermined number of lines is input,
Pixels in a predetermined window including the target pixel are cut out and output while sequentially moving the target pixel. In response, the smoothing unit 2, the weight coefficient determination unit 3, and the edge correction coefficient determination unit 4 start processing. Of course, each unit need not use all the pixels in the window output from the input buffer 1. Here, as an example, the smoothing unit 2 and the weight coefficient determining unit 3 use all the pixels in the window, and the edge correction coefficient determining unit 4 uses only the pixels in the area including the target pixel smaller than the predetermined window. It shall be.
【0028】平滑化部2は、ウィンドウ内の各画素の値
をもとに、S32において平滑化フィルタ演算を行な
い、注目画素に対応する平均値信号fを求める。The smoothing unit 2 performs a smoothing filter operation in S32 based on the value of each pixel in the window to obtain an average signal f corresponding to the pixel of interest.
【0029】また重み係数決定部3では、ウィンドウ内
の各画素の値をもとに、まずコントラスト演算部11で
コントラストhを算出する。そのために、S33におい
てウィンドウ内の各画素値から最大値を検索する。検索
された最大値をMAXCとする。さらにS34におい
て、最大値MAXCと注目画素値gの差を計算し、これ
をコントラストhとする。このコントラストhおよび最
大値MAXCは、エッジ補正係数決定部4のエッジ判定
部22にも送られる。In the weight coefficient determining section 3, first, a contrast h is calculated by the contrast calculating section 11 based on the value of each pixel in the window. For that purpose, the maximum value is searched from each pixel value in the window in S33. The searched maximum value is set to MAXC. Further, in S34, a difference between the maximum value MAXC and the target pixel value g is calculated, and this is set as a contrast h. The contrast h and the maximum value MAXC are also sent to the edge determination unit 22 of the edge correction coefficient determination unit 4.
【0030】重み係数算出部14は、コントラスト演算
部11で算出されたコントラストhを受け、S35にお
いてコントラストhが0以下か否かを判定する。コント
ラストhが0以下の場合には、ウィンドウ内が均一な濃
度であるか、あるいはエッジ部において注目画素が濃度
の濃い側の画素であるときを示す。同様に注目画素値g
が平均値信号f以上の場合には、注目画素が濃度の濃い
側の画素であることを示している。スターベーションは
エッジ部の濃度の薄い側に発生するので、このようにエ
ッジ部の濃度の濃い側については補正処理を行なう必要
がない。もちろん、平坦部についても補正処理を行なう
必要がない。そのため、S36において重み係数Wを0
にして重み係数Wによる補正が行なわれないようにす
る。The weight coefficient calculator 14 receives the contrast h calculated by the contrast calculator 11, and determines in step S35 whether or not the contrast h is 0 or less. If the contrast h is equal to or less than 0, it indicates that the window has a uniform density, or that the target pixel is a pixel with a higher density at the edge. Similarly, the target pixel value g
Is greater than or equal to the average signal f, it indicates that the target pixel is a pixel on the higher density side. Since the starvation occurs on the side where the density of the edge portion is low, it is not necessary to perform the correction process on the side where the density of the edge portion is high. Of course, it is not necessary to perform the correction process on the flat portion. Therefore, the weight coefficient W is set to 0 in S36.
To prevent the correction by the weight coefficient W from being performed.
【0031】S35においてコントラストhが0より大
きく、また注目画素値gが平均値信号fより小さい場合
には、注目画素はエッジ部分における濃度の薄い側の画
素である。そのため、スターベーションが発生する可能
性がある。まずS37において、注目画素値gを補正す
るためのコントラスト重みwwをコントラストhに基づ
いて重み係数選択テーブル13から得る。同時にS38
において注目画素値gに基づいて補正対象選択テーブル
12から補正対象度whを得る。さらにS39におい
て、重み係数算出部14は重み係数選択テーブル13か
ら得られたコントラスト重みwwと補正対象選択テーブ
ル12から得られた補正対象度whから重み係数Wを算
出する。When the contrast h is larger than 0 and the target pixel value g is smaller than the average signal f in S35, the target pixel is a pixel on the edge portion where the density is lower. Therefore, starvation may occur. First, in S37, a contrast weight ww for correcting the target pixel value g is obtained from the weight coefficient selection table 13 based on the contrast h. At the same time S38
, The correction target degree wh is obtained from the correction target selection table 12 based on the target pixel value g. Further, in S39, the weighting factor calculation unit 14 calculates the weighting factor W from the contrast weight ww obtained from the weighting factor selection table 13 and the correction target degree wh obtained from the correction target selection table 12.
【0032】一方、エッジ補正係数決定部4のエッジ検
出部21は、入力バッファ1内の注目画素を含む小領
域、例えば3×3画素程度の領域から、S40において
最大値を検索する。この最大値をMAXEとする。ここ
ではエッジ検出部21の処理を最大値MAXEの検索の
みとし、実際にエッジか否かの判定はエッジ判定部22
で行なう。もちろん、種々の公知の方法によってエッジ
検出部21でエッジか否かの判定を行なってもよい。On the other hand, the edge detection section 21 of the edge correction coefficient determination section 4 searches the maximum value in S40 from a small area including the target pixel in the input buffer 1, for example, an area of about 3 × 3 pixels. This maximum value is defined as MAXE. Here, the processing of the edge detection unit 21 is limited to the search for the maximum value MAXE.
Perform in. Of course, the edge detection unit 21 may determine whether an edge is present or not by various known methods.
【0033】エッジ判定部22は、S41において、エ
ッジ検出部21で得た最大値MAXEと、コントラスト
演算部11で得た最大値MAXCとを比較する。上述の
ように最大値MAXCはウィンドウ内の最大値であるの
で、ウィンドウよりも小さな領域においてこの最大値M
AXCと同じ値を有する画素が存在することは、エッジ
を検出するための小領域が少なくとも濃度の濃い側の画
素を含むことを示す。最大値MAXCと最大値MAXE
が等しい場合には、さらにS42において、コントラス
トhがあらかじめ設定されている閾値CNTLMTより
大きいか否かを判定する。コントラストhが閾値CNT
LMTよりも大きい場合、所定のウィンドウ内に閾値C
NTLMT以上の濃度差を有するエッジが存在し、しか
も注目画素がエッジの濃度の薄い側の画素であることが
わかる。S41およびS42の判定から、小領域中に濃
度の濃い部分が存在するとともに、注目画素は薄い側の
画素であることが判定される。すなわち、注目画素はエ
ッジ近傍の薄い側の画素であることになる。このように
して判定された画素は、エッジ強調のために補正すべき
画素である。そのためエッジを強調させるべく、S43
において係数決定部23でコントラストhに基づいてエ
ッジ補正係数ewを算出する。S41において最大値M
AXCと最大値MAXEが等しくない場合、および、S
42においてコントラストhが閾値CNTLMT以下の
場合には、S44において係数決定部23でエッジ補正
係数ewを1として、エッジ強調の補正が行なわれない
ようにする。In step S 41, the edge determination unit 22 compares the maximum value MAXE obtained by the edge detection unit 21 with the maximum value MAXC obtained by the contrast calculation unit 11. As described above, since the maximum value MAXC is the maximum value in the window, the maximum value M is set in an area smaller than the window.
The presence of a pixel having the same value as AXC indicates that the small area for detecting the edge includes at least the pixel on the higher density side. Maximum value MAXC and maximum value MAXE
Are equal to each other, it is further determined in S42 whether or not the contrast h is larger than a preset threshold CNTLMT. Contrast h is threshold CNT
If it is greater than LMT, the threshold C within a given window
It can be seen that there is an edge having a density difference equal to or higher than NTLMT, and that the pixel of interest is a pixel with a lower edge density. From the determinations in S41 and S42, it is determined that a high-density portion exists in the small region, and that the target pixel is a pixel on the lighter side. That is, the target pixel is a pixel on the thin side near the edge. The pixel determined in this way is a pixel to be corrected for edge enhancement. Therefore, in order to emphasize the edge, S43
, The coefficient determination unit 23 calculates an edge correction coefficient ew based on the contrast h. In S41, the maximum value M
If AXC is not equal to the maximum value MAX, and S
If the contrast h is equal to or smaller than the threshold value CNTLMT in S42, the edge determination coefficient ew is set to 1 in the coefficient determination unit 23 in S44, so that the edge enhancement is not corrected.
【0034】このようにして平均値信号f、重み係数
W、エッジ補正係数ewが求められた後、補正画素値算
出部5はS45において出力画素信号Gを算出する。出
力画素信号Gの算出は、上述のような算出式に従って演
算により求めることができる。もちろん他の算出式や、
多次元のルックアップテーブルを用いるなど他の手法に
よって求めてもよい。このようにして算出された出力画
素信号Gを補正処理結果として出力すればよい。After the average value signal f, the weight coefficient W, and the edge correction coefficient ew are obtained in this way, the corrected pixel value calculator 5 calculates the output pixel signal G in S45. The calculation of the output pixel signal G can be obtained by calculation according to the above-described calculation formula. Of course, other formulas,
It may be obtained by another method such as using a multidimensional lookup table. The output pixel signal G calculated in this way may be output as a correction processing result.
【0035】次に具体例を用いて本発明の画像処理装置
の実施の一形態における補正処理動作の一例を説明す
る。図6は、入力画像信号の一例の説明図、図7は、補
正処理後の出力画像信号の一例の説明図である。画像は
実際には2次元状の広がりを有しているが、ここではあ
るラインの一部のみを示している。ここでは一例とし
て、図6に示すように画素位置Bとその次の画素との間
に濃度差が存在し、ステップ状のエッジが存在する画像
を想定する。この濃度差がコントラストhである。Next, an example of a correction processing operation in an embodiment of the image processing apparatus of the present invention will be described using a specific example. FIG. 6 is a diagram illustrating an example of an input image signal, and FIG. 7 is a diagram illustrating an example of an output image signal after a correction process. Although the image actually has a two-dimensional spread, only a part of a certain line is shown here. Here, as an example, as shown in FIG. 6, an image in which a density difference exists between the pixel position B and the next pixel and a step-like edge exists is assumed. This density difference is the contrast h.
【0036】入力バッファ1で切り出すウィンドウの幅
を図示した幅とすると、画素位置Aよりも左側および画
素位置Cよりも右側ではウィンドウ内に画素位置Bのエ
ッジを含まない。そのため、ここでは画素位置Aから画
素位置Cまでの画素について説明する。画素位置Aから
画素位置Cまでの画素を注目画素とするとき、ウィンド
ウ中には濃度の異なる画素が含まれるため、平滑化部2
によって平滑化フィルタ処理を行なうことによって図7
に破線で示す平均値信号fが出力される。また、コント
ラスト演算部11では画素位置Aから画素位置Bまでの
画素が注目画素である場合にはエッジ部分の濃度差をコ
ントラストhとして出力し、画素位置Bの次の画素から
右側ではコントラストhは0となる。Assuming that the width of the window cut out by the input buffer 1 is the illustrated width, the edge of the pixel position B is not included in the window on the left side of the pixel position A and on the right side of the pixel position C. Therefore, the pixels from pixel position A to pixel position C will be described here. When the pixels from the pixel position A to the pixel position C are set as the target pixel, since the window includes pixels having different densities, the smoothing unit 2
By performing the smoothing filter processing by FIG.
Output an average signal f indicated by a broken line. When the pixel from pixel position A to pixel position B is the pixel of interest, the contrast calculation unit 11 outputs the density difference of the edge portion as the contrast h. It becomes 0.
【0037】重み係数選択テーブル13は、コントラス
ト演算部11からコントラストhを受け、各画素ごとに
対応するコントラスト重みwwを出力する。一方、補正
対象選択テーブル12からは、画素位置Aから画素位置
Cまでのいずれの画素についても、補正対象であるとし
て補正対象度wh=1が出力されるものとする。The weight coefficient selection table 13 receives the contrast h from the contrast calculator 11 and outputs a corresponding contrast weight ww for each pixel. On the other hand, from the correction target selection table 12, it is assumed that any pixel from the pixel position A to the pixel position C is to be corrected and the correction target degree wh = 1 is output.
【0038】重み係数算出部14では、コントラストh
を判定し、画素位置Aから画素位置Bまでの各画素につ
いては補正対象度whとコントラスト重みwwから重み
係数Wを計算する。ここでは補正対象度wh=1である
ので、重み係数W=コントラスト重みwwとなる。ま
た、画素位置Bの右隣の画素から右側はエッジ部の濃度
の濃い側の画素であり、コントラストh=0および注目
画素値g>平均値信号fとなるため、重み係数W=0と
する。In the weight coefficient calculating section 14, the contrast h
Is determined, and for each pixel from the pixel position A to the pixel position B, the weight coefficient W is calculated from the correction target degree wh and the contrast weight ww. Here, since the correction target degree wh = 1, the weight coefficient W = the contrast weight ww. Further, the right side from the pixel on the right side of the pixel position B is a pixel on the side where the density of the edge portion is higher, and the contrast h = 0 and the pixel value of interest g> the average value signal f. Therefore, the weight coefficient W = 0. .
【0039】さらにエッジ検出部21では、画素位置B
よりも左側の画素が注目画素のときには、ウィンドウよ
りも小さな例えば3×3画素の検出領域内に濃度の濃い
画素は検出されない。そのためエッジ判定部22では画
素位置Bよりも左側の各画素ではエッジと判定せず、エ
ッジ補正係数ewとして1を出力する。Further, in the edge detecting section 21, the pixel position B
When the pixel on the left side is the target pixel, a pixel having a high density is not detected in a detection area smaller than the window, for example, a 3 × 3 pixel. Therefore, the edge determination unit 22 does not determine each pixel on the left side of the pixel position B as an edge and outputs 1 as the edge correction coefficient ew.
【0040】これによって、画素位置Aから画素位置B
の左隣の画素までの各画素については、エッジ補正係数
ew=1であるので重み係数Wによる補正処理が行なわ
れ、図7に示すように平均値信号fの傾きを緩やかにし
た画像信号となる。このようにエッジへ向けて濃度を高
くすることにより、スターベーションを抑制することが
できる。As a result, the pixel positions A to B
Since the edge correction coefficient ew = 1 for each pixel up to the pixel to the left of the pixel, a correction process based on the weight coefficient W is performed, and as shown in FIG. Become. By thus increasing the density toward the edge, starvation can be suppressed.
【0041】画素位置Bについては、エッジ検出部21
において濃度の濃い部分が検出され、またコントラスト
hも十分大きいと判定されて、エッジ判定部22におい
て画素位置Bがエッジ補正の対象となる画素であると判
定される。係数決定部23ではコントラストhに対応し
たエッジ補正係数ewを求め、補正画素値算出部5へと
出力する。これによって補正画素値算出部5ではエッジ
補正係数ewおよび重み係数Wによる補正処理を行なう
こととなり、エッジ補正係数ewに応じた分だけ注目画
素値gが低減され、図7に示すように濃度の薄い画素が
生成される。For the pixel position B, the edge detector 21
, A portion having a high density is detected, and it is determined that the contrast h is sufficiently large, and the edge determination unit 22 determines that the pixel position B is a pixel to be subjected to edge correction. The coefficient determination unit 23 calculates an edge correction coefficient ew corresponding to the contrast h, and outputs the edge correction coefficient ew to the correction pixel value calculation unit 5. As a result, the correction pixel value calculation unit 5 performs a correction process using the edge correction coefficient ew and the weight coefficient W, and the target pixel value g is reduced by an amount corresponding to the edge correction coefficient ew, and as shown in FIG. Thin pixels are generated.
【0042】画素位置Bの右隣の画素よりも右側につい
ては、コントラストhが0となるためエッジ補正係数e
w=1となり、また重み係数Wも0となるため、補正画
素値算出部5は注目画素値gをそのまま出力画像信号G
として出力することになる。On the right side of the pixel on the right side of the pixel position B, the contrast h becomes 0, so that the edge correction coefficient e
Since w = 1 and the weight coefficient W also becomes 0, the corrected pixel value calculation unit 5 outputs the target pixel value g as it is to the output image signal G
Will be output as
【0043】このようにして、図6に示すような入力画
像信号は、図7に示すようにエッジ部分の低濃度側であ
る、画素位置Aから画素位置Bまでの各画素について、
スターベーションを抑制するために濃度を高める処理が
施されるとともに、画素位置Bについては濃度を低下さ
せてエッジを強調する処理が施される。このようにして
補正処理の施された出力画像信号Gを用い、画像を形成
することによって、エッジ部分が見かけ上ぼけることな
く、スターベーションを低減することが可能となる。形
成された画像の濃度分布は、例えば図8(B)に示した
分布に近い特性となる。In this way, the input image signal as shown in FIG. 6 is obtained for each pixel from pixel position A to pixel position B on the low density side of the edge portion as shown in FIG.
In order to suppress the starvation, a process of increasing the density is performed, and a process of reducing the density at the pixel position B to emphasize the edge is performed. By forming an image using the output image signal G that has been subjected to the correction processing in this way, starvation can be reduced without apparently blurring the edge portion. The density distribution of the formed image has, for example, characteristics close to the distribution shown in FIG.
【0044】上述の具体例では低濃度部から高濃度部に
移行するエッジの例について示しているが、高濃度部か
ら低濃度部に移行するエッジについても同様にエッジ部
の低濃度側に補正を施すことができる。また、上述の具
体例では1次元的に示しているが、2次元のウィンドウ
を設定してそれぞれの処理を行なっているので、主走査
方向、副走査方向とも、エッジ部分の低濃度側につい
て、上述のような補正処理を施すことができる。例えば
主走査方向と副走査方向とでスターベーションの発生領
域が異なる場合には、スターベーションの発生領域に応
じてウィンドウの主走査方向の幅と副走査方向の幅を設
定すればよい。また、同じ方向でも低濃度部から高濃度
部に移行する場合と高濃度部から低濃度部に移行する場
合とでスターベーションの発生領域が異なる場合でも、
ウィンドウの注目画素の左右や上下の幅を適宜設定する
ことによって対応することが可能である。もちろん上述
のようにウィンドウの形状は矩形に限らず、例えば円形
や菱形など、形状は任意であり、スターベーションの防
止に効果的な形状及び大きさとすればよい。In the above specific example, an example of an edge transitioning from a low-density portion to a high-density portion is shown, but an edge transitioning from a high-density portion to a low-density portion is similarly corrected to the low-density side of the edge portion. Can be applied. In the above-described specific example, the two-dimensional window is set, but each process is performed. Therefore, in both the main scanning direction and the sub-scanning direction, the low density side of the edge portion is used. The above-described correction processing can be performed. For example, when the region where the starvation occurs is different between the main scanning direction and the sub-scanning direction, the width of the window in the main scanning direction and the width in the sub-scanning direction may be set according to the region where the starvation occurs. Also, even in the same direction, even when the region of occurrence of starvation is different between when shifting from a low density portion to a high density portion and when shifting from a high density portion to a low density portion,
This can be dealt with by appropriately setting the left and right and top and bottom widths of the target pixel in the window. Of course, as described above, the shape of the window is not limited to a rectangle, but may be any shape such as a circle or a diamond, and may be any shape and size effective for preventing starvation.
【0045】上述の説明では、ある単色の画像について
行なう処理について説明したが、例えば画像形成時に複
数色の色材を用いてカラー画像を形成する場合には、各
色材に対応した色の画像ごとに、それぞれ上述のような
処理を行なえばよい。In the above description, the processing performed on a single-color image has been described. For example, when a color image is formed using a plurality of color materials at the time of image formation, each color image corresponding to each color material is formed. Then, the above-described processing may be performed.
【0046】[0046]
【発明の効果】以上の説明から明らかなように、本発明
によれば、エッジ部分の見かけ上のぼけを抑えつつ、ス
ターベーションを防止することができ、高品質の画像を
形成可能な画像信号を生成することができるという効果
がある。As is apparent from the above description, according to the present invention, starvation can be prevented while suppressing apparent blurring of an edge portion, and an image signal capable of forming a high quality image. Can be generated.
【図1】 本発明の画像処理装置の実施の一形態を示す
ブロック図である。FIG. 1 is a block diagram illustrating an embodiment of an image processing apparatus according to the present invention.
【図2】 注目画素値と補正対象選択テーブルに設定さ
れる補正対象度との関係の一例を示すグラフである。FIG. 2 is a graph illustrating an example of a relationship between a target pixel value and a correction target degree set in a correction target selection table.
【図3】 コントラストと重み係数選択テーブルに設定
されるコントラスト重みの関係の一例を示すグラフであ
る。FIG. 3 is a graph showing an example of a relationship between contrast and contrast weight set in a weight coefficient selection table.
【図4】 コントラストと係数決定部23に設定される
エッジ補正係数ewとの関係の一例を示すグラフであ
る。FIG. 4 is a graph showing an example of a relationship between a contrast and an edge correction coefficient ew set in a coefficient determination unit 23.
【図5】 本発明の画像処理装置の実施の一形態におけ
る動作の一例を示すフローチャートである。FIG. 5 is a flowchart illustrating an example of an operation of the image processing apparatus according to the embodiment of the present invention.
【図6】 入力画像信号の一例の説明図である。FIG. 6 is an explanatory diagram of an example of an input image signal.
【図7】 補正処理後の出力画像信号の一例の説明図で
ある。FIG. 7 is an explanatory diagram of an example of an output image signal after a correction process.
【図8】 エッジを含む画像信号及び形成された画像の
濃度分布の一例の説明図である。FIG. 8 is an explanatory diagram of an example of an image signal including an edge and a density distribution of a formed image.
1…入力バッファ、2…平滑化部、3…重み係数決定
部、4…エッジ補正係数決定部、5…補正画素値算出
部、11…コントラスト演算部、12…補正対象選択テ
ーブル、13…重み係数選択テーブル、14…重み係数
算出部、21…エッジ検出部、22…エッジ判定部、2
3…係数決定部。DESCRIPTION OF SYMBOLS 1 ... Input buffer, 2 ... Smoothing part, 3 ... Weight coefficient determination part, 4 ... Edge correction coefficient determination part, 5 ... Correction pixel value calculation part, 11 ... Contrast calculation part, 12 ... Correction object selection table, 13 ... Weight Coefficient selection table, 14 ... weight coefficient calculator, 21 ... edge detector, 22 ... edge determiner, 2
3. Coefficient determination unit.
Claims (5)
手段と、該平滑化手段によって平滑化された画像信号を
用いて前記入力された画像信号を補正する際の補正の程
度を示す重み係数を決定する重み係数決定手段と、前記
入力された画像信号を参照し画像中のエッジ部分におけ
る一方の側の微小部分の濃度を補正するためのエッジ補
正係数を決定するエッジ補正係数決定手段と、前記平滑
化手段から出力される平滑化された画像信号と前記重み
係数決定手段で決定した前記重み係数と前記エッジ補正
係数決定手段で決定した前記エッジ補正係数に基づいて
前記入力された画像信号を補正する補正手段を有するこ
とを特徴とする画像処理装置。1. A smoothing means for smoothing an input image signal, and a weight indicating a degree of correction when correcting the input image signal using the image signal smoothed by the smoothing means. Weight coefficient determining means for determining a coefficient, and edge correction coefficient determining means for determining an edge correction coefficient for correcting the density of a minute portion on one side of an edge portion in an image with reference to the input image signal; The input image signal based on the smoothed image signal output from the smoothing means, the weight coefficient determined by the weight coefficient determining means, and the edge correction coefficient determined by the edge correction coefficient determining means. An image processing apparatus, comprising: a correction unit that corrects the image.
た画像信号に応じた補正対象重みを決定する補正対象重
み決定手段と、周囲の画像信号とのコントラストを演算
するコントラスト演算手段と、該コントラスト演算手段
により算出されたコントラストに応じたコントラスト重
みを決定するコントラスト重み決定手段と、前記補正対
象重み決定手段で決定した前記補正対象重みと前記コン
トラスト重み決定手段で決定した前記コントラスト重み
に基づいて前記重み係数を算出する重み係数算出手段を
有していることを特徴とする請求項1に記載の画像処理
装置。2. The image processing apparatus according to claim 1, wherein the weighting factor determining unit determines a correction target weight according to the input image signal, a contrast calculating unit that calculates a contrast with surrounding image signals, A contrast weight determining means for determining a contrast weight according to the contrast calculated by the contrast calculating means; and a correction weight determined by the correction weight determining means and the contrast weight determined by the contrast weight determining means. The image processing apparatus according to claim 1, further comprising a weight coefficient calculation unit configured to calculate the weight coefficient.
正係数決定手段において補正を施す側の濃度とは反対側
の濃度領域については前記入力された画像信号がそのま
ま出力されるように前記重み係数を決定することを特徴
とする請求項1又は請求項2に記載の画像処理装置。3. The weighting factor determining means according to claim 1, wherein said weighting factor determining means determines that the input image signal is output as it is in a density area on a side opposite to a density to be corrected by the edge correction coefficient determining means. The image processing apparatus according to claim 1, wherein the image processing apparatus determines:
力された画像信号からエッジを検出するエッジ検出手段
と、該エッジ検出手段において検出されたエッジが補正
すべきエッジか否かを判定するエッジ判定手段と、該エ
ッジ判定手段における判定結果に応じて前記エッジ補正
係数を決定する係数決定手段を有していることを特徴と
する請求項1ないし請求項3のいずれか1項に記載の画
像処理装置。4. The edge correction coefficient determining means includes: an edge detecting means for detecting an edge from the input image signal; and an edge for determining whether or not the edge detected by the edge detecting means is an edge to be corrected. The image according to any one of claims 1 to 3, further comprising: a determination unit; and a coefficient determination unit that determines the edge correction coefficient according to a determination result of the edge determination unit. Processing equipment.
に、平滑化された画像信号を用いて前記入力された画像
信号を補正する程度を示す重み係数を前記入力された画
像信号から決定し、また前記入力された画像信号を参照
して画像中のエッジ部分における一方の側の微小部分の
濃度を補正するためのエッジ補正係数を決定し、前記平
滑化された画像信号と前記重み係数と前記エッジ補正係
数に基づいて前記入力された画像信号を補正することを
特徴とする画像処理方法。5. A method for smoothing an input image signal and determining a weighting factor indicating a degree of correcting the input image signal using the smoothed image signal from the input image signal; Further, an edge correction coefficient for correcting the density of a minute portion on one side of the edge portion in the image with reference to the input image signal is determined, and the smoothed image signal, the weight coefficient, and the An image processing method, wherein the input image signal is corrected based on an edge correction coefficient.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP15138998A JP3709911B2 (en) | 1998-06-01 | 1998-06-01 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP15138998A JP3709911B2 (en) | 1998-06-01 | 1998-06-01 | Image processing apparatus and image processing method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPH11346315A true JPH11346315A (en) | 1999-12-14 |
| JP3709911B2 JP3709911B2 (en) | 2005-10-26 |
Family
ID=15517523
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP15138998A Expired - Fee Related JP3709911B2 (en) | 1998-06-01 | 1998-06-01 | Image processing apparatus and image processing method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP3709911B2 (en) |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002044449A (en) * | 2000-06-20 | 2002-02-08 | Hewlett Packard Co <Hp> | Adaptive halftoning method |
| US6903828B1 (en) | 1999-08-31 | 2005-06-07 | Fuji Xerox Co., Ltd. | Image processing apparatus |
| US7170635B2 (en) | 2001-05-29 | 2007-01-30 | Minolta Co., Ltd. | Image processing apparatus, image processing method, and computer program product therefor |
| CN100556075C (en) | 2006-12-31 | 2009-10-28 | 华晶科技股份有限公司 | Remove the method for picture noise |
| JP2015079155A (en) * | 2013-10-17 | 2015-04-23 | 富士ゼロックス株式会社 | Image forming apparatus, image processing program, and image processing method |
| US10237446B2 (en) | 2016-08-30 | 2019-03-19 | Konica Minolta, Inc. | Correcting image data by adjusting pixels at a determined distance from an edge |
| US10497101B2 (en) | 2017-02-06 | 2019-12-03 | Konica Minolta, Inc. | Image processing apparatus and image processing method |
-
1998
- 1998-06-01 JP JP15138998A patent/JP3709911B2/en not_active Expired - Fee Related
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6903828B1 (en) | 1999-08-31 | 2005-06-07 | Fuji Xerox Co., Ltd. | Image processing apparatus |
| JP2002044449A (en) * | 2000-06-20 | 2002-02-08 | Hewlett Packard Co <Hp> | Adaptive halftoning method |
| US7170635B2 (en) | 2001-05-29 | 2007-01-30 | Minolta Co., Ltd. | Image processing apparatus, image processing method, and computer program product therefor |
| CN100556075C (en) | 2006-12-31 | 2009-10-28 | 华晶科技股份有限公司 | Remove the method for picture noise |
| JP2015079155A (en) * | 2013-10-17 | 2015-04-23 | 富士ゼロックス株式会社 | Image forming apparatus, image processing program, and image processing method |
| US10237446B2 (en) | 2016-08-30 | 2019-03-19 | Konica Minolta, Inc. | Correcting image data by adjusting pixels at a determined distance from an edge |
| US10497101B2 (en) | 2017-02-06 | 2019-12-03 | Konica Minolta, Inc. | Image processing apparatus and image processing method |
Also Published As
| Publication number | Publication date |
|---|---|
| JP3709911B2 (en) | 2005-10-26 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4112362B2 (en) | System and method for enhancing scanned document images for color printing | |
| JP4509415B2 (en) | Image processing device | |
| US6771814B1 (en) | Image processing device and image processing method | |
| US6064494A (en) | Image processor | |
| JP4236804B2 (en) | Image processing method, apparatus and storage medium | |
| JP3325243B2 (en) | Image processing device | |
| US8848249B2 (en) | Creating an image to be printed using halftone blending | |
| US10798268B2 (en) | Image processing apparatus, method of controlling the same, and storage medium for switching a show-through removal process based on a halftone-dot region | |
| US20100238468A1 (en) | Image processing apparatus and control method of image forming apparatus | |
| JP2004120741A (en) | Digital image sharpening method | |
| US7324244B2 (en) | Image forming apparatus and image forming method | |
| JPH11346315A (en) | Image processing unit and image processing method | |
| US6873373B2 (en) | Image emphasizing apparatus and image emphasizing program | |
| JP2018036343A (en) | Image processing apparatus, image forming apparatus, image forming system and image processing method | |
| US20110164829A1 (en) | Image processing apparatus and image processing method | |
| WO2003079670A1 (en) | Reducing halos in spatially dependent gamut mapping | |
| US5726780A (en) | Image processing apparatus | |
| JP3455123B2 (en) | Image sharpness enhancement method and recording medium recording program for executing the processing | |
| JP2000333014A (en) | Image processing unit, image processing method, and computer-readable storage medium storing image processing procedure | |
| JP6335016B2 (en) | Image processing apparatus and method | |
| JPH08317255A (en) | Method and device for picture quality improvement | |
| JP2010192962A (en) | Image processing apparatus and program | |
| JP3821672B2 (en) | Video signal processor | |
| JP4549227B2 (en) | Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium | |
| JP3289530B2 (en) | Image processing device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050405 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050413 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050613 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050720 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050802 |
|
| R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090819 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100819 Year of fee payment: 5 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110819 Year of fee payment: 6 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120819 Year of fee payment: 7 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120819 Year of fee payment: 7 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130819 Year of fee payment: 8 |
|
| LAPS | Cancellation because of no payment of annual fees |