JP2017037622A - Image processing device and program - Google Patents
Image processing device and program Download PDFInfo
- Publication number
- JP2017037622A JP2017037622A JP2016012547A JP2016012547A JP2017037622A JP 2017037622 A JP2017037622 A JP 2017037622A JP 2016012547 A JP2016012547 A JP 2016012547A JP 2016012547 A JP2016012547 A JP 2016012547A JP 2017037622 A JP2017037622 A JP 2017037622A
- Authority
- JP
- Japan
- Prior art keywords
- image
- degree
- original image
- parameter
- holding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 70
- 230000014759 maintenance of location Effects 0.000 claims description 152
- 238000000605 extraction Methods 0.000 claims description 11
- 230000001629 suppression Effects 0.000 abstract description 18
- 230000006872 improvement Effects 0.000 abstract description 5
- 238000005286 illumination Methods 0.000 description 62
- 230000006870 function Effects 0.000 description 51
- 230000001965 increasing effect Effects 0.000 description 24
- 238000000034 method Methods 0.000 description 24
- 230000014509 gene expression Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 12
- 230000003247 decreasing effect Effects 0.000 description 10
- 230000003993 interaction Effects 0.000 description 10
- 230000007423 decrease Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 6
- 230000002708 enhancing effect Effects 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000012937 correction Methods 0.000 description 5
- 238000009499 grossing Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 230000003111 delayed effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000012886 linear function Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 125000001475 halogen functional group Chemical group 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 239000004615 ingredient Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 238000012887 quadratic function Methods 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Landscapes
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
Abstract
Description
本発明は、画像処理装置及びプログラムに関する。 The present invention relates to an image processing apparatus and a program.
原画像の推定照明光成分を算出する照明光成分推定部と、推定照明光成分を補正した補正推定照明光成分を出力する推定照明光成分補正部と、原画像の輝度成分を補正された推定照明光成分で除算することで輝度成分を補正するレティネックス処理部と、補正された輝度成分のゲイン調整を行なうゲイン調整部とを備え、推定照明光成分補正部は、0から基準値までの値の推定照明光成分は、補正推定照明光成分の最大値に変換し、基準値より大きい値の推定照明光成分は、推定照明光成分の値よりも補正推定照明光成分の値が大きな値となるように変換し、かつ、推定照明光成分の値が大きくなるにつれて、補正推定照明光成分の増加率が減少するような特性を用いる画像処理装置は知られている(例えば、特許文献1参照)。 An illumination light component estimation unit that calculates an estimated illumination light component of the original image, an estimated illumination light component correction unit that outputs a corrected estimated illumination light component obtained by correcting the estimated illumination light component, and an estimation in which the luminance component of the original image is corrected A Retinex processing unit that corrects the luminance component by dividing by the illumination light component, and a gain adjustment unit that adjusts the gain of the corrected luminance component, and the estimated illumination light component correction unit includes 0 to a reference value The estimated illumination light component of the value is converted into the maximum value of the corrected estimated illumination light component, and the estimated illumination light component having a value larger than the reference value is a value having a larger value of the corrected estimated illumination light component than the estimated illumination light component value. An image processing apparatus using such a characteristic that the rate of increase of the corrected estimated illumination light component decreases as the value of the estimated illumination light component increases and the value of the estimated illumination light component increases is known (for example, Patent Document 1). reference).
ここで、0から基準値までの値の推定照明光成分を、補正推定照明光成分の最大値に変換して、レティネックス処理を行う構成を採用した場合、暗部については、原画像のままとなるので、ノイズの発生は抑制されたとしても、視認性は向上しない。また、基準値より大きい値の推定照明光成分を、推定照明光成分の値よりも補正推定照明光成分の値が大きな値となるように、かつ、推定照明光成分の値が大きくなるにつれて、補正推定照明光成分の増加率が減少するように変換して、レティネックス処理を行う構成を採用した場合、明部については、明るくなるにつれてレティネックスの効果を弱めるようにしているので、白飛びの発生は抑制されたとしても、視認性は思い通りに向上しない。 Here, when the configuration in which the estimated illumination light component having a value from 0 to the reference value is converted to the maximum value of the corrected estimated illumination light component and the Retinex processing is performed is adopted, the dark portion is left as the original image. Therefore, even if the generation of noise is suppressed, the visibility is not improved. Further, the estimated illumination light component having a value larger than the reference value is set so that the value of the corrected estimated illumination light component is larger than the value of the estimated illumination light component, and as the value of the estimated illumination light component increases, If a configuration is adopted in which the rate of increase in the corrected estimated illumination light component is reduced and the Retinex process is used, the effect of Retinex is weakened as the bright part becomes brighter. Even if the occurrence of is suppressed, the visibility is not improved as expected.
視認性を向上し、ノイズ又は白飛びの発生を抑制するには、原画像の反射率成分の強調度合いと、原画像の暗部又は明部の保持度合いとを用いて、原画像の反射率成分を強調することが考えられる。その際、強調度合いに関係なく保持度合いを決定する構成を採用することも考えられる。しかしながら、原画像の反射率成分の強調度合いによってノイズや白飛びの発生度合いも異なるため、強調度合いに関係なく保持度合いを決定する構成を採用した場合には、視認性の向上とノイズ又は白飛びの発生の抑制とを両立できない可能性が高い。 In order to improve the visibility and suppress the occurrence of noise or whiteout, the reflectance component of the original image is used by using the degree of enhancement of the reflectance component of the original image and the degree of retention of the dark or bright part of the original image. Can be emphasized. At that time, it is conceivable to adopt a configuration that determines the retention level regardless of the enhancement level. However, since the degree of occurrence of noise and whiteout differs depending on the degree of enhancement of the reflectance component of the original image, when adopting a configuration in which the holding degree is determined regardless of the degree of enhancement, the visibility and noise or whiteout are determined. There is a high possibility that it is not possible to achieve both the suppression of the occurrence of water.
視認性を向上し、疑似輪郭の発生を抑制するには、原画像の反射率成分の強調度合いと、原画像の疑似輪郭を発生させる特定色の保持度合いとを用いて、原画像の反射率成分を強調することが考えられる。その際、強調度合いに関係なく保持度合いを決定する構成を採用することも考えられる。しかしながら、原画像の反射率成分の強調度合いによって疑似輪郭の発生度合いも異なるため、強調度合いに関係なく保持度合いを決定する構成を採用した場合には、視認性の向上と疑似輪郭の発生の抑制とを両立できない可能性が高い。 In order to improve visibility and suppress the occurrence of pseudo contour, the reflectance of the original image is determined by using the degree of enhancement of the reflectance component of the original image and the degree of retention of the specific color that generates the pseudo contour of the original image. It is possible to emphasize the ingredients. At that time, it is conceivable to adopt a configuration that determines the retention level regardless of the enhancement level. However, since the degree of occurrence of pseudo contour varies depending on the degree of enhancement of the reflectance component of the original image, when adopting a configuration in which the retention degree is determined regardless of the degree of enhancement, visibility is improved and generation of pseudo contour is suppressed. There is a high probability that
本発明の目的は、原画像の反射率成分の強調度合いと、原画像の暗部又は明部の保持度合いとを用いて、原画像の反射率成分を強調する際に、強調度合いに関係なく保持度合いを決定するよう構成された場合に比較して、視認性の向上とノイズ又は白飛びの発生の抑制とを両立できる可能性を高くすることにある。 It is an object of the present invention to maintain an original image with a reflectance component regardless of the degree of enhancement using the degree of enhancement of the reflectance component of the original image and the degree of retention of the dark or bright portion of the original image. Compared to the case where the degree is determined, there is an increase in the possibility of achieving both improvement in visibility and suppression of occurrence of noise or whiteout.
また、本発明の他の目的は、原画像の反射率成分の強調度合いと、原画像の疑似輪郭を発生させる特定色の保持度合いとを用いて、原画像の反射率成分を強調する際に、強調度合いに関係なく特定色の保持度合いを決定するよう構成された場合に比較して、視認性の向上と疑似輪郭の発生の抑制とを両立できる可能性を高くすることにある。 Another object of the present invention is to enhance the reflectance component of the original image using the degree of enhancement of the reflectance component of the original image and the degree of retention of the specific color that generates the pseudo contour of the original image. The object is to increase the possibility that both the improvement of visibility and the suppression of the occurrence of pseudo contours can be achieved compared to the case where the degree of retention of the specific color is determined regardless of the degree of enhancement.
請求項1に記載の発明は、原画像から、当該原画像の反射率成分を画素値とする反射率画像を生成する反射率画像生成手段と、前記原画像と、当該原画像の反射率成分の強調度合いとを用いて、当該原画像の暗部及び明部の少なくとも何れか一方の保持度合いを決定する決定手段と、前記反射率画像と、前記強調度合いと、前記保持度合いとを用いて、前記原画像の反射率成分が強調された強調画像を生成する強調画像生成手段とを備えたことを特徴とする画像処理装置である。
請求項2に記載の発明は、前記決定手段は、前記保持度合いとして、前記原画像の暗部及び明部の保持度合いである明暗部保持度合いを決定することを特徴とする請求項1に記載の画像処理装置である。
請求項3に記載の発明は、前記決定手段は、前記原画像の暗い画素ほど、前記明暗部保持度合いが高くなり、かつ、前記原画像の明るい画素ほど、当該明暗部保持度合いが高くなるように、当該明暗部保持度合いを決定することを特徴とする請求項2に記載の画像処理装置である。
請求項4に記載の発明は、前記決定手段は、前記強調度合いが高いほど、前記明暗部保持度合いが高くなるように、当該明暗部保持度合いを決定することを特徴とする請求項2に記載の画像処理装置である。
請求項5に記載の発明は、前記決定手段は、前記保持度合いとして、前記原画像の暗部の保持度合いである暗部保持度合いと、前記原画像の明部の保持度合いである明部保持度合いとを決定することを特徴とする請求項1に記載の画像処理装置である。
請求項6に記載の発明は、前記決定手段は、前記原画像の暗い画素ほど、前記暗部保持度合いが高くなるように、当該暗部保持度合いを決定し、前記原画像の明るい画素ほど、前記明部保持度合いが高くなるように、当該明部保持度合いを決定することを特徴とする請求項5に記載の画像処理装置である。
請求項7に記載の発明は、前記決定手段は、前記強調度合いが高いほど、前記暗部保持度合いが高くなるように、当該暗部保持度合いを決定し、前記強調度合いが高いほど、前記明部保持度合いが高くなるように、当該明部保持度合いを決定することを特徴とする請求項5に記載の画像処理装置である。
請求項8に記載の発明は、操作者が画面上で行った操作に予め対応付けられた前記強調度合いを設定する設定手段を更に備えたことを特徴とする請求項1に記載の画像処理装置である。
請求項9に記載の発明は、原画像から、当該原画像の反射率成分を画素値とする反射率画像を生成する反射率画像生成手段と、前記原画像の反射率成分の強調度合いを用いて、当該原画像の疑似輪郭を発生させる色として予め定められた特定色の部分の保持度合いである第1の保持度合いを決定する第1の決定手段と、前記反射率画像と、前記強調度合いと、前記第1の保持度合いとを用いて、前記原画像の反射率成分が強調された強調画像を生成する強調画像生成手段とを備えたことを特徴とする画像処理装置である。
請求項10に記載の発明は、前記原画像から、前記特定色の部分を抽出する抽出手段を更に備え、前記強調画像生成手段は、前記原画像の前記特定色の部分が前記第1の保持度合いを用いて強調され、かつ、前記原画像の前記特定色の部分以外が前記第1の保持度合いを用いて強調されない前記強調画像を生成することを特徴とする請求項9に記載の画像処理装置である。
請求項11に記載の発明は、前記第1の決定手段は、前記強調度合いが高いほど、前記第1の保持度合いが高くなるように、当該第1の保持度合いを決定することを特徴とする請求項9に記載の画像処理装置である。
請求項12に記載の発明は、前記原画像と、前記強調度合いとを用いて、当該原画像の暗部及び明部の少なくとも何れか一方の保持度合いである第2の保持度合いを決定する第2の決定手段を更に備え、前記強調画像生成手段は、前記第2の保持度合いを更に用いて、前記強調画像を生成することを特徴とする請求項9に記載の画像処理装置である。
請求項13に記載の発明は、コンピュータに、原画像から、当該原画像の反射率成分を画素値とする反射率画像を生成する機能と、前記原画像と、当該原画像の反射率成分の強調度合いとを用いて、当該原画像の暗部及び明部の少なくとも何れか一方の保持度合いを決定する機能と、前記反射率画像と、前記強調度合いと、前記保持度合いとを用いて、前記原画像の反射率成分が強調された強調画像を生成する機能とを実現させるためのプログラムである。
請求項14に記載の発明は、コンピュータに、原画像から、当該原画像の反射率成分を画素値とする反射率画像を生成する機能と、前記原画像の反射率成分の強調度合いを用いて、当該原画像の疑似輪郭を発生させる色として予め定められた特定色の部分の保持度合いである第1の保持度合いを決定する機能と、前記反射率画像と、前記強調度合いと、前記第1の保持度合いとを用いて、前記原画像の反射率成分が強調された強調画像を生成する機能とを実現させるためのプログラムである。
According to the first aspect of the present invention, there is provided a reflectance image generating unit that generates a reflectance image having a reflectance component of the original image as a pixel value from the original image, the original image, and the reflectance component of the original image. Using the degree of emphasis and the determination means for determining the degree of retention of at least one of the dark part and the bright part of the original image, the reflectance image, the degree of emphasis, and the degree of retention, An image processing apparatus comprising: an enhanced image generating unit configured to generate an enhanced image in which the reflectance component of the original image is enhanced.
The invention according to claim 2 is characterized in that the determining means determines a brightness / darkness holding degree which is a holding degree of the dark part and the bright part of the original image as the holding degree. An image processing apparatus.
According to a third aspect of the present invention, the determination means is configured such that the darker pixel of the original image has a higher degree of holding the bright and dark part, and the brighter pixel of the original image has a higher degree of holding of the bright and dark part. The image processing apparatus according to claim 2, wherein the degree of bright and dark area retention is determined.
The invention according to claim 4 is characterized in that the determining means determines the brightness / darkness portion holding degree so that the higher the degree of emphasis, the higher the brightness / darkness portion holding degree. This is an image processing apparatus.
According to a fifth aspect of the present invention, the determination means includes, as the holding degree, a dark part holding degree that is a holding degree of a dark part of the original image and a bright part holding degree that is a holding degree of a bright part of the original image. The image processing apparatus according to claim 1, wherein:
According to a sixth aspect of the present invention, the determining unit determines the dark portion retention degree so that the darker pixel of the original image has a higher dark portion retention degree, and the brighter the original image, the brighter the pixel. The image processing apparatus according to claim 5, wherein the bright part holding degree is determined so that the part holding degree is high.
According to a seventh aspect of the present invention, the determination means determines the dark part holding degree so that the dark part holding degree is higher as the emphasis degree is higher, and the bright part holding is higher as the emphasis degree is higher. The image processing apparatus according to claim 5, wherein the degree of bright portion retention is determined so that the degree becomes higher.
The image processing apparatus according to claim 1, further comprising setting means for setting the degree of emphasis previously associated with an operation performed on the screen by the operator. It is.
The invention according to claim 9 uses a reflectance image generating means for generating a reflectance image having the reflectance component of the original image as a pixel value from the original image, and the degree of enhancement of the reflectance component of the original image. A first determining means for determining a first holding degree that is a holding degree of a portion of a specific color predetermined as a color for generating a pseudo contour of the original image, the reflectance image, and the enhancement degree. And an enhanced image generating means for generating an enhanced image in which the reflectance component of the original image is enhanced using the first holding degree.
The invention according to claim 10 further includes an extracting unit that extracts the specific color portion from the original image, and the enhanced image generating unit holds the first color portion of the original image in the first holding state. 10. The image processing according to claim 9, wherein the enhanced image is generated using a degree, and the portion other than the specific color portion of the original image is not enhanced using the first holding degree. Device.
The invention according to claim 11 is characterized in that the first determining means determines the first holding degree so that the higher the degree of emphasis is, the higher the first holding degree is. An image processing apparatus according to claim 9.
According to a twelfth aspect of the present invention, a second holding degree that is a holding degree of at least one of a dark part and a bright part of the original image is determined using the original image and the enhancement degree. The image processing apparatus according to claim 9, further comprising: determining means, wherein the emphasized image generating means further generates the emphasized image using the second holding degree.
According to a thirteenth aspect of the present invention, there is provided a computer having a function of generating a reflectance image having a reflectance component of the original image as a pixel value from the original image, Using the enhancement degree, the function for determining the retention degree of at least one of the dark part and the bright part of the original image, the reflectance image, the enhancement degree, and the retention degree are used. And a function for generating an enhanced image in which the reflectance component of the image is enhanced.
According to the fourteenth aspect of the present invention, the computer uses a function of generating a reflectance image having the pixel value of the reflectance component of the original image from the original image, and the degree of enhancement of the reflectance component of the original image. , A function for determining a first holding degree that is a holding degree of a specific color portion predetermined as a color for generating a pseudo contour of the original image, the reflectance image, the enhancement degree, and the first And a function for generating an enhanced image in which the reflectance component of the original image is enhanced.
請求項1の発明によれば、原画像の反射率成分の強調度合いと、原画像の暗部又は明部の保持度合いとを用いて、原画像の反射率成分を強調する際に、強調度合いに関係なく暗部又は明部の保持度合いを決定するよう構成された場合に比較して、視認性の向上とノイズ又は白飛びの発生の抑制とを両立できる可能性が高くなる。
請求項2の発明によれば、原画像の反射率成分の強調度合いと、原画像の暗部及び明部の保持度合いとを用いて、原画像の反射率成分を強調する際に、強調度合いに関係なく暗部及び明部の保持度合いを決定するよう構成された場合に比較して、視認性の向上とノイズ及び白飛びの発生の抑制とを両立できる可能性が高くなる。
請求項3の発明によれば、原画像の反射率成分の強調度合いと、原画像の暗部の保持度合いと、原画像の明部の保持度合いとを用いて、原画像の反射率成分を強調するよう構成された場合に比較して、ノイズ及び白飛びの発生の抑制が容易になる。
請求項4の発明によれば、原画像の反射率成分の強調度合いの高さに関係なく、原画像の暗部及び明部の保持度合いの高さを決定するよう構成された場合に比較して、強調度合いを高めたときに目立つノイズ及び白飛びの発生を抑制する可能性が高くなる。
請求項5の発明によれば、原画像の反射率成分の強調度合いと、原画像の暗部の保持度合いと、原画像の明部の保持度合いとを用いて、原画像の反射率成分を強調する際に、強調度合いに関係なく暗部の保持度合いと明部の保持度合いとを決定するよう構成された場合に比較して、視認性の向上とノイズ及び白飛びの発生の抑制とを両立できる可能性が高くなる。
請求項6の発明によれば、原画像の反射率成分の強調度合いと、原画像の明部及び暗部の保持度合いとを用いて、原画像の反射率成分を強調するよう構成された場合に比較して、ノイズ及び白飛びの発生の抑制の精度が高くなる。
請求項7の発明によれば、原画像の反射率成分の強調度合いの高さに関係なく、原画像の暗部の保持度合いの高さと原画像の明部の保持度合いの高さとを決定するよう構成された場合に比較して、強調度合いを高めたときに目立つノイズ及び白飛びの発生を抑制する可能性が高くなる。
請求項8の発明によれば、操作者が設定した視認性を確保した上でノイズ及び白飛びの発生を抑制することができる。
請求項9の発明によれば、原画像の反射率成分の強調度合いと、原画像の疑似輪郭を発生させる特定色の保持度合いとを用いて、原画像の反射率成分を強調する際に、強調度合いに関係なく特定色の保持度合いを決定するよう構成された場合に比較して、視認性の向上と疑似輪郭の発生の抑制とを両立できる可能性が高くなる。
請求項10の発明によれば、原画像の反射率成分の強調度合いと、特定色との距離に応じた特定色の保持度合いとを用いて、原画像の全体にわたって反射率成分を強調するよう構成された場合に比較して、視認性の向上と疑似輪郭の発生の抑制とを両立する処理の負荷が軽減される。
請求項11の発明によれば、原画像の反射率成分の強調度合いの高さに関係なく、原画像の疑似輪郭を発生させる特定色の保持度合いの高さを決定するよう構成された場合に比較して、強調度合いを高めたときに目立つ疑似輪郭の発生を抑制する可能性が高くなる。
請求項12の発明によれば、原画像の暗部又は明部の保持度合いを更に用いて、原画像の反射率成分を強調する際に、強調度合いに関係なく暗部又は明部の保持度合いを決定するよう構成された場合に比較して、ノイズ又は白飛びの発生の抑制を更に両立できる可能性が高くなる。
請求項13の発明によれば、原画像の反射率成分の強調度合いと、原画像の暗部又は明部の保持度合いとを用いて、原画像の反射率成分を強調する際に、強調度合いに関係なく暗部又は明部の保持度合いを決定するよう構成された場合に比較して、視認性の向上とノイズ又は白飛びの発生の抑制とを両立できる可能性が高くなる。
請求項14の発明によれば、原画像の反射率成分の強調度合いと、原画像の疑似輪郭を発生させる特定色の保持度合いとを用いて、原画像の反射率成分を強調する際に、強調度合いに関係なく特定色の保持度合いを決定するよう構成された場合に比較して、視認性の向上と疑似輪郭の発生の抑制とを両立できる可能性が高くなる。
According to the first aspect of the present invention, when the reflectance component of the original image is enhanced using the enhancement degree of the reflectance component of the original image and the degree of retention of the dark portion or the bright portion of the original image, Regardless of the configuration in which the degree of holding the dark part or the bright part is determined regardless of the possibility, it is possible to improve both the visibility and the suppression of the occurrence of noise or whiteout.
According to the second aspect of the present invention, when the reflectance component of the original image is emphasized using the enhancement degree of the reflectance component of the original image and the retention levels of the dark part and the bright part of the original image, Regardless of the configuration in which the degree of holding the dark part and the bright part is determined regardless of the possibility, it is possible to improve both visibility and suppress the occurrence of noise and whiteout.
According to the invention of claim 3, the reflectance component of the original image is enhanced using the enhancement degree of the reflectance component of the original image, the retention degree of the dark part of the original image, and the retention degree of the bright part of the original image. As compared with the case where it is configured, it becomes easier to suppress the occurrence of noise and whiteout.
According to the fourth aspect of the present invention, compared to the case where the high degree of retention of the dark part and the bright part of the original image is determined irrespective of the high degree of enhancement of the reflectance component of the original image. The possibility of suppressing the occurrence of noticeable noise and whiteout when the degree of emphasis is increased is increased.
According to the invention of claim 5, the reflectance component of the original image is enhanced using the enhancement degree of the reflectance component of the original image, the retention degree of the dark part of the original image, and the retention degree of the bright part of the original image. Compared to the case where the darkness retention level and the brightness retention level are determined regardless of the enhancement level, it is possible to achieve both improvement in visibility and suppression of occurrence of noise and overexposure. The possibility increases.
According to the invention of claim 6, when the reflectance component of the original image is enhanced using the enhancement degree of the reflectance component of the original image and the retention degree of the bright part and the dark part of the original image. In comparison, the accuracy of suppressing the occurrence of noise and whiteout becomes higher.
According to the seventh aspect of the present invention, the high degree of holding of the dark part of the original image and the high degree of holding of the bright part of the original image are determined regardless of the high degree of enhancement of the reflectance component of the original image. Compared to the case where it is configured, there is a higher possibility of suppressing the occurrence of noticeable noise and whiteout when the degree of emphasis is increased.
According to the invention of claim 8, it is possible to suppress the occurrence of noise and whiteout while ensuring the visibility set by the operator.
According to the invention of claim 9, when enhancing the reflectance component of the original image by using the enhancement degree of the reflectance component of the original image and the holding degree of the specific color that generates the pseudo contour of the original image, Compared to a case where the degree of holding a specific color is determined regardless of the degree of enhancement, there is a higher possibility that both improved visibility and suppression of the occurrence of pseudo contours can be achieved.
According to the invention of claim 10, the reflectance component is emphasized over the entire original image by using the enhancement degree of the reflectance component of the original image and the retention degree of the specific color according to the distance from the specific color. Compared with the case where it comprises, the load of the process which balances the improvement of visibility and suppression of generation | occurrence | production of a pseudo contour is reduced.
According to the eleventh aspect of the present invention, when the degree of holding the specific color that generates the pseudo contour of the original image is determined regardless of the degree of enhancement of the reflectance component of the original image. In comparison, the possibility of suppressing the occurrence of a pseudo contour that is noticeable when the degree of emphasis is increased is increased.
According to the invention of claim 12, when the reflectance component of the original image is emphasized by further using the degree of retention of the dark part or the bright part of the original image, the degree of retention of the dark part or the bright part is determined regardless of the degree of enhancement. Compared with the case where it is configured to do so, there is a high possibility that the suppression of the occurrence of noise or whiteout can be further achieved.
According to the invention of claim 13, when enhancing the reflectance component of the original image using the enhancement degree of the reflectance component of the original image and the degree of retention of the dark part or bright part of the original image, Regardless of the configuration in which the degree of holding the dark part or the bright part is determined regardless of the possibility, it is possible to improve both the visibility and the suppression of the occurrence of noise or whiteout.
According to the invention of claim 14, when enhancing the reflectance component of the original image by using the enhancement degree of the reflectance component of the original image and the holding degree of the specific color that generates the pseudo contour of the original image, Compared to a case where the degree of holding a specific color is determined regardless of the degree of enhancement, there is a higher possibility that both improved visibility and suppression of the occurrence of pseudo contours can be achieved.
以下、添付図面を参照して、本発明の実施の形態について詳細に説明する。 Embodiments of the present invention will be described below in detail with reference to the accompanying drawings.
[実施の形態の背景]
画像を扱って文書を作成する作業は、PC(Personal Computer)を駆使してモニタを観ながら行うのが一般的である。このような作業においては、近年急速に普及しているタブレット等のICT(Information and Communication Technology)デバイスを用いるユーザも増えている。
[Background of the embodiment]
The work of creating a document by handling images is generally performed while watching a monitor using a personal computer (PC). In such work, an increasing number of users use ICT (Information and Communication Technology) devices such as tablets that are rapidly spreading in recent years.
一般に、事務作業やDTP(DeskTop Publishing)作業の現場のようなオフィス環境では、環境光の変化に左右されることは少ない。一方で、快適に持ち運べるICTデバイスには、場所を問わず作業できるという利点はあるが、環境光の変化等、持ち運んだ先に大きく左右されるという欠点もある。 In general, in an office environment such as office work or DTP (DeskTop Publishing) work, it is rarely affected by changes in ambient light. On the other hand, an ICT device that can be carried comfortably has the advantage of being able to work regardless of location, but also has the disadvantage of being greatly influenced by the carried destination, such as changes in ambient light.
また、画像を扱う作業には、上記のような文書を作成する作業の他にも、ユーザがカメラ付きタブレット等で撮影した画像をそれぞれのデバイスに保存する作業がある。ユーザが互いに画像を見せ合ったり画像で状況を説明したりするシーンもよく見られるようになった。 In addition to the work for creating a document as described above, the work for handling images includes a work for storing images taken by a user with a camera-equipped tablet in each device. Scenes where users show images to each other and explain the situation with images are also often seen.
このように、近年のモニタ環境の特徴としては、従来のモニタ環境とは違って、「手軽に使え」、「使用場所が多様」であることが挙げられる。そして、この近年のモニタ環境では、使用方法や使用環境が従来とは異なることから、色合わせよりも「視認性」の方が重視されている。 As described above, as a feature of the monitor environment in recent years, unlike the conventional monitor environment, it is easy to use and has various usage places. In this recent monitor environment, the “viewability” is more important than color matching because the use method and the use environment are different from the conventional one.
「視認性」とは、視対象がはっきり見えるか否かの特性である。画像の視認性を高める方法には、ガンマ補正、ヒストグラムイコライゼーション、ダイナミックレンジ圧縮等に代表される画像処理分野の基本手法がある。 “Visibility” is a characteristic of whether or not a visual target is clearly visible. There are basic methods in the image processing field represented by gamma correction, histogram equalization, dynamic range compression, and the like as methods for improving the visibility of an image.
ガンマ補正では、暗部や対象となる領域を盛り上げるカーブを生成し、画素値に適用することで、暗部を明るくする。ヒストグラムイコライゼーションでは、画像のヒストグラムの偏りをなくすカーブを生成し、画素値に適用することで、ヒストグラムが平滑化される再現を行う。ダイナミックレンジ圧縮では、画像の周辺輝度に応じて補正量を変えることで、コントラストを低下させることなく低輝度及び高輝度を表現する。 In gamma correction, a curve that enlivens a dark part or a target region is generated and applied to pixel values to brighten the dark part. In the histogram equalization, a curve that eliminates the bias of the histogram of the image is generated and applied to the pixel value, thereby reproducing the histogram to be smoothed. In dynamic range compression, low luminance and high luminance are expressed without reducing contrast by changing the correction amount according to the peripheral luminance of the image.
また、視覚特性を利用した視認性向上の方法には、レティネックス原理を利用したものもある。レティネックスは、人間が反射率によってシーンを知覚しているという考え方に基づき、反射率成分を強調することで視認性を高める基本原理である。 Some methods for improving visibility using visual characteristics use the Retinex principle. Retinex is a basic principle that enhances visibility by emphasizing the reflectance component based on the idea that humans perceive a scene by reflectance.
レティネックス処理では、反射率成分を推定するために、照明成分を推定する必要がある。現在のところ、平滑化を行った平滑化画像を照明成分として用いるのが一般的である。この平滑化画像を用いる手法としては、単一の平滑化画像を用いるSSR(Single-Scale Retinex)、及び、複数の平滑化画像を用いるMSR(Multi-Scale Retinex)やIMSR(Integrated Multi-Scale Retinex)がある。SSRでは、単一の平滑化画像を用いるため、平滑化度合いが小さければ暗部領域にノイズが発生する場合があり、平滑化度合いが大きければ明暗差が大きい境界領域で不自然な帯状のディフェクト(ハロー効果)が発生する場合がある。これに対し、MSRやIMSRでは、平滑化画像を多層にするので、ノイズやハロー効果の発生は低減されると言われている。 In Retinex processing, it is necessary to estimate the illumination component in order to estimate the reflectance component. At present, a smoothed image that has been smoothed is generally used as an illumination component. As a method using this smoothed image, SSR (Single-Scale Retinex) using a single smoothed image, MSR (Multi-Scale Retinex) using a plurality of smoothed images, and IMSR (Integrated Multi-Scale Retinex) are used. ) In SSR, since a single smoothed image is used, if the smoothing degree is small, noise may be generated in the dark area, and if the smoothing degree is large, an unnatural band-like defect ( Halo effect) may occur. On the other hand, in MSR and IMSR, it is said that the generation of noise and halo effect is reduced because the smoothed image is multilayered.
しかしながら、反射率成分の強調度合い(再現パラメータ)を高くすると、MSRやIMSRでも、画像によってはノイズ又は白飛びが発生してしまう。 However, if the enhancement degree (reproduction parameter) of the reflectance component is increased, noise or whiteout may occur depending on the image even in MSR or IMSR.
そこで、本実施の形態では、視認性パラメータと画像の明るさ情報とに応じて、ノイズ又は白飛びを抑制する暗部又は明部の保持パラメータを制御するようにした。つまり、同じ画素値でも視認性パラメータに応じて暗部又は明部の保持パラメータが変わることで、最終的な強調度合いも変わるようにする。 Therefore, in the present embodiment, the holding parameter of the dark part or the bright part that suppresses noise or whiteout is controlled according to the visibility parameter and the brightness information of the image. That is, even if the pixel value is the same, the final emphasis level is changed by changing the retention parameter of the dark part or the bright part according to the visibility parameter.
また、人の身体的な特徴上、顔の輪郭と首との境界や、手足を曲げた部分等には陰影ができ易い。このような陰影があると、レティネックス処理によって、疑似輪郭が発生することがある。疑似輪郭は、視認性パラメータが高いほど目立ち易く、不自然な印象を与えてしまう。例えば、視認性パラメータを高くして視認性を向上させるほど、肌部の疑似輪郭が目立つようになる。 In addition, due to human physical characteristics, it is easy to create shadows on the boundary between the face outline and neck, the bent limbs, and the like. If there is such a shadow, a false contour may be generated by the Retinex process. The pseudo contour is more conspicuous as the visibility parameter is higher, and gives an unnatural impression. For example, the pseudo contour of the skin portion becomes more noticeable as the visibility parameter is increased to improve the visibility.
そこで、本実施の形態では、再現する視認性のレベルに応じて疑似輪郭を抑制する肌部保持パラメータを制御する。つまり、同じ画素値でも視認性パラメータに応じて肌部保持パラメータを変えることで、最終的な強調度合いも変えるようにする。 Therefore, in the present embodiment, the skin part holding parameter for suppressing the pseudo contour is controlled according to the level of visibility to be reproduced. That is, even if the pixel value is the same, the final emphasis level is changed by changing the skin holding parameter according to the visibility parameter.
[第1の実施の形態]
図1は、本発明の第1の実施の形態における画像処理装置10の機能構成例を表すブロック図である。図示するように、本実施の形態における画像処理装置10は、照明推定部11と、反射率推定部12と、明暗部保持パラメータ決定部13と、画像再現部17とを備える。
[First Embodiment]
FIG. 1 is a block diagram illustrating a functional configuration example of an image processing apparatus 10 according to the first embodiment of the present invention. As illustrated, the image processing apparatus 10 according to the present embodiment includes an illumination estimation unit 11, a reflectance estimation unit 12, a bright / dark part retention parameter determination unit 13, and an image reproduction unit 17.
照明推定部11は、原画像の位置(x,y)に対する画素値をI(x,y)、照明成分をIL(x,y)とすると、I(x,y)に基づいてIL(x,y)を推定する(以下、この推定された照明成分の画像を「照明推定画像」という)。視覚認知の1つの特性として、網膜に入った光の1点(画像では1つの画素)の知覚量は、その1点の周辺輝度の平均に影響することが知られている。周辺輝度は推定された照明成分に相当し、照明成分の推定は、例えば、移動平均法又はガウス関数で表されるコンボリューションを行うことにより実施される。 The illumination estimation unit 11 assumes that the pixel value for the position (x, y) of the original image is I (x, y) and the illumination component is I L (x, y), and I L based on I (x, y). (X, y) is estimated (hereinafter, this estimated illumination component image is referred to as an “illumination estimated image”). As one characteristic of visual recognition, it is known that the perception amount of one point (one pixel in the image) of light entering the retina affects the average of the peripheral luminance of the one point. The ambient luminance corresponds to the estimated illumination component, and the illumination component is estimated by, for example, performing a convolution represented by a moving average method or a Gaussian function.
ここで、x,yはある画素の位置を表し、kは画像処理のフィルタサイズの画素分で積分した場合に結果が1になるように正規化する係数を表し、σは平滑化度合い(スケール)を表す。尚、上記の関数は一例であり、結果として画像が平滑化されるフィルタであれば如何なるものを用いてもよい。例えば、数式1を変形した関数によるフィルタで、エッジ保存を行う平滑化フィルタとして知られるバイラテラルフィルタがあるが、これを用いてもよいものとする。 Here, x and y represent the position of a certain pixel, k represents a coefficient to be normalized so that the result becomes 1 when integration is performed for pixels of the filter size of image processing, and σ represents a smoothing degree (scale ). The above function is an example, and any filter may be used as long as the result is a smoothed image. For example, although there is a bilateral filter known as a smoothing filter that performs edge preservation with a filter that is a function obtained by transforming Equation 1, it may be used.
レティネックス原理によれば、人の視覚特性は、注目領域の周辺から照明光を推定していることが知られている。従って、平滑化した画像は、推定された照明光を表すことになる。しかしながら、シーンによって適するスケールが異なるため、例えば、照明光の推定は、以下のようにスケール1からスケールNまでのN層の画像の加重合計をとるのが望ましい。 According to the Retinex principle, it is known that the human visual characteristic estimates illumination light from the periphery of a region of interest. Therefore, the smoothed image represents the estimated illumination light. However, since the suitable scale differs depending on the scene, for example, it is desirable to estimate the illumination light by taking a weighted sum of N layer images from scale 1 to scale N as follows.
ここで、IL(x,y)は照明推定画像の画素値を表し、Gn(x,y)はスケールnに対する数式1を表し、I(x,y)は輝度画像の画素値を表し、Wnはスケールnに対する重みを表し、「×」を「○」で囲んだ記号は畳み込みを表す。尚、Wnは、簡易的に1/Nとしてもよいし、層に応じて可変としてもよい。 Here, I L (x, y) represents the pixel value of the estimated illumination image, G n (x, y) represents Equation 1 for the scale n, and I (x, y) represents the pixel value of the luminance image. , W n represents a weight for the scale n, and a symbol in which “×” is surrounded by “◯” represents convolution. Incidentally, W n may be as simple as 1 / N, may be varied depending on the layer.
尚、照明推定部11内の多層画像生成部110による多層画像の生成の様子を図2に示す。図2には、原画像がRGBの3プレーンから構成される場合において、多層画像として、スケール1からスケールNまでのN層の画像が生成される例を示している。ここで、スケール1、スケール2、・・・、スケールNの層は、数式1のσを変化させることにより得られる層であるため、平滑化度合いが異なることになる。図3(a)〜(c)に示すように、σを変化させると画像の周波数が変化する。具体的には、(a)に示すようにσが小さいと高周波になり、(c)に示すようにσが大きいと低周波になり、(b)に示すようにσが中程度だと周波数も中程度になる。 FIG. 2 shows how the multilayer image generation unit 110 in the illumination estimation unit 11 generates a multilayer image. FIG. 2 shows an example in which N-layer images from scale 1 to scale N are generated as multilayer images when the original image is composed of three RGB planes. Here, since the layers of scale 1, scale 2,..., Scale N are layers obtained by changing σ of Formula 1, the degree of smoothing is different. As shown in FIGS. 3A to 3C, when σ is changed, the frequency of the image changes. Specifically, when σ is small as shown in (a), the frequency becomes high, when σ is large as shown in (c), the frequency becomes low, and when σ is medium as shown in (b), the frequency becomes high. Also moderate.
以上のように、多層画像はRGBの3プレーンのN層でもよいが、図4のようなものでもよい。図4は、RGB画像を予めYCbCr画像のような輝度色度画像に変換しておく例を示したものであり、この例では、輝度を表すYの1プレーンのみを多層画像に変換している。これは、輝度のみで照明成分の推定を行う場合があるためである。尚、ここでは、輝度色度で表される色空間としてYCbCr色空間を用いたが、L*a*b*色空間、HSV色空間(但し、HSは色度座標へ変換する)等を用いてもよい。L*a*b*色空間を用いた場合はL*を、HSV色空間を用いた場合はVを、それぞれ輝度画像として用いればよい。また、SSRで用いられる1つのスケールの層の画像のみを照明推定画像としても構わない。 As described above, the multilayer image may be an N layer of three planes of RGB, but may be as shown in FIG. FIG. 4 shows an example in which an RGB image is converted in advance into a luminance chromaticity image such as a YCbCr image. In this example, only one Y plane representing luminance is converted into a multilayer image. . This is because the illumination component may be estimated using only the luminance. Here, the YCbCr color space is used as the color space represented by the luminance chromaticity, but an L * a * b * color space, an HSV color space (where HS is converted into chromaticity coordinates), and the like are used. May be. L * may be used as the luminance image when the L * a * b * color space is used, and V may be used as the luminance image when the HSV color space is used. Further, only an image of one scale layer used in the SSR may be used as the illumination estimation image.
本実施の形態では、原画像の照明成分を画素値とする照明画像の一例として、照明推定画像を用いており、照明画像を生成する照明画像生成手段の一例として、照明推定部11を設けている。 In the present embodiment, an illumination estimation image is used as an example of an illumination image having the illumination component of the original image as a pixel value, and an illumination estimation unit 11 is provided as an example of an illumination image generation unit that generates an illumination image. Yes.
反射率推定部12は、原画像の画素値の照明推定画像の画素値に対する比を求めることにより原画像の反射率を推定する。具体的には、以下のように反射率を表す画像(以下、「反射率推定画像」という)を求める。 The reflectance estimation unit 12 estimates the reflectance of the original image by obtaining a ratio of the pixel value of the original image to the pixel value of the illumination estimated image. Specifically, an image representing the reflectance (hereinafter referred to as “reflectance estimation image”) is obtained as follows.
ここで、I(x,y)は原画像の画素値を表し、IL(x,y)は照明推定画像の画素値を表し、IR(x,y)は反射率推定画像の画素値を表す。尚、RGBの3プレーンのそれぞれで照明推定画像を算出した場合は、数式3も、IR(x,y)がRGBの3プレーン分できるものとして解釈される。また、輝度成分(YCbCrのY、L*a*b*のL、HSVのV)のみを用いる場合は、1プレーンについて数式3を用いればよい。 Here, I (x, y) represents the pixel value of the original image, I L (x, y) represents the pixel value of the illumination estimated image, and I R (x, y) represents the pixel value of the reflectance estimated image. Represents. When the illumination estimation image is calculated for each of the three RGB planes, Equation 3 is also interpreted as I R (x, y) corresponding to the three RGB planes. Further, when only the luminance component (Y of YCbCr, L of L * a * b *, V of HSV) is used, Expression 3 may be used for one plane.
本実施の形態では、原画像の反射率成分を画素値とする反射率画像の一例として、反射率推定画像を用いており、反射率画像を生成する反射率画像生成手段の一例として、反射率推定部12を設けている。 In this embodiment, a reflectance estimation image is used as an example of a reflectance image in which the reflectance component of the original image is a pixel value, and the reflectance is used as an example of a reflectance image generation unit that generates a reflectance image. An estimation unit 12 is provided.
明暗部保持パラメータ決定部13は、視認性パラメータと原画像の輝度情報とに応じて、明暗部保持パラメータを決定する。詳細は後で説明する。 The bright / dark part holding parameter determination unit 13 determines the bright / dark part holding parameter according to the visibility parameter and the luminance information of the original image. Details will be described later.
画像再現部17は、反射率推定部12が生成した反射率推定画像と、原画像とに基づいて、反射率成分を強調する処理を行う。例えば、以下のような再現式により、反射率成分を強調した再現画像を生成する。 The image reproduction unit 17 performs processing for enhancing the reflectance component based on the reflectance estimation image generated by the reflectance estimation unit 12 and the original image. For example, a reproduction image in which the reflectance component is emphasized is generated by the following reproduction formula.
ここで、I(x,y)は原画像の画素値を表し、IR(x,y)は反射率推定画像の画素値を表し、I^(x,y)は再現画像の画素値を表す。また、αは視認性を強調するための視認性パラメータであり、βは明暗部保持パラメータ決定部13で決定された明暗部保持パラメータである。αはユーザの指示や画像の特徴に応じて変わるものとする。ユーザの指示としては、例えば、画面上での指の移動量やモードの選択がある。I^(x,y)は、α=1かつβ=1の場合、反射率成分そのものとなり、α=0又はβ=0の場合、原画像の画素値となる。尚、本明細書では、ハット記号を、数式中では文字の真上に付すが、文中では文字の後ろに付すものとする。 Here, I (x, y) represents the pixel value of the original image, I R (x, y) represents the pixel value of the reflectance estimated image, and I ^ (x, y) represents the pixel value of the reproduced image. Represent. Α is a visibility parameter for emphasizing visibility, and β is a light / dark part retention parameter determined by the light / dark part retention parameter determination unit 13. α is assumed to change according to user instructions and image characteristics. The user instruction includes, for example, selection of a finger movement amount and a mode on the screen. I ^ (x, y) becomes the reflectance component itself when α = 1 and β = 1, and becomes the pixel value of the original image when α = 0 or β = 0. In the present specification, a hat symbol is added immediately above a character in a mathematical expression, but is added after a character in a sentence.
また、最終的な再現パラメータは、αとβを乗じたパラメータとする。そして、再現パラメータには、視認性パラメータαを高めると暗い画素又は明るい画素ほど明暗部保持パラメータβの強度が高まるという特性を持たせる。こうすることで、暗部ノイズ又は明部の白飛びが抑制される。 The final reproduction parameter is a parameter obtained by multiplying α and β. The reproduction parameter has a characteristic that, when the visibility parameter α is increased, the intensity of the dark / dark portion retention parameter β increases as the dark pixel or the bright pixel increases. By doing so, dark part noise or bright part whiteout is suppressed.
尚、レティネックス再現式は幾つか提案されているが、反射率成分の重みを変えるようなものであれば、如何なる再現式を用いても構わない。例えば以下のような式を用いてもよい。 Although several Retinex reproduction formulas have been proposed, any reproduction formula may be used as long as the weight of the reflectance component is changed. For example, the following formula may be used.
ここで、α、βは反射率のゲインを表すパラメータであり、γは再現式の切片を表すパラメータである。図1は、画像再現部17が原画像を用いて再現画像を生成する場合について示したが、この数式5を用いた場合、画像再現部17は原画像を用いずに再現画像を生成することになる。また、αは図1の視認性パラメータに、βは図1の明暗部保持パラメータに相当するが、γは図1には示されていないパラメータである。 Here, α and β are parameters representing the gain of the reflectance, and γ is a parameter representing the intercept of the reproduction formula. FIG. 1 shows the case where the image reproduction unit 17 generates a reproduction image using the original image. However, when the mathematical formula 5 is used, the image reproduction unit 17 generates the reproduction image without using the original image. become. Further, α corresponds to the visibility parameter in FIG. 1, β corresponds to the bright / dark part retention parameter in FIG. 1, and γ is a parameter not shown in FIG.
本実施の形態では、原画像の反射率成分が強調された強調画像の一例として、再現画像を用いており、強調画像を生成する強調画像生成手段の一例として、画像再現部17を設けている。 In the present embodiment, a reproduced image is used as an example of an enhanced image in which the reflectance component of the original image is enhanced, and an image reproduction unit 17 is provided as an example of an enhanced image generation unit that generates an enhanced image. .
次に、明暗部保持パラメータ決定部13について数式4を例として詳細に説明する。明暗部保持パラメータ決定部13で決定される明暗部保持パラメータβは、暗部ノイズ及び明部の白飛びの抑制を担うパラメータである。基本的には、図5に示す通り、画素が暗い又は明るいほど明暗部保持パラメータβを小さくする。すると、原画像の重みが高くなるため、原画像の暗部と明部の状態が保たれる。従って、レティネックス処理により発生する暗部ノイズと明部の白飛びが抑制される。一方、中間の画素値では明暗部保持パラメータβを大きくする。すると、レティネックス再現画像の重みが高くなるため、視認性が高まると考えられる。 Next, the bright / dark part retention parameter determination unit 13 will be described in detail using Equation 4 as an example. The bright / dark part holding parameter β determined by the bright / dark part holding parameter determination unit 13 is a parameter responsible for suppressing dark part noise and bright part whiteout. Basically, as shown in FIG. 5, the darker or brighter the pixel, the smaller the bright / dark portion retention parameter β. Then, since the weight of the original image becomes high, the dark portion and the bright portion of the original image are maintained. Therefore, dark part noise and bright part whiteout generated by Retinex processing are suppressed. On the other hand, the bright / dark area retention parameter β is increased at intermediate pixel values. Then, since the weight of the Retinex reproduction image becomes high, it is considered that the visibility is improved.
例えば、この特性を表す関数としては、次の数式の関数が考えられる。 For example, a function of the following formula can be considered as a function representing this characteristic.
ここで、T,Kは係数であり、T>0であり、K>0である。また、K1,K2は正規化のための係数である。0<I(x,y)<1のときにβ(I(x,y))が0から1の範囲に収まるように正規化する場合、K1,K2は上記のようになる。 Here, T and K are coefficients, T> 0, and K> 0. K1 and K2 are normalization coefficients. When normalization is performed so that β (I (x, y)) falls within the range of 0 to 1 when 0 <I (x, y) <1, K1 and K2 are as described above.
尚、関数としては、上に凸の二次関数等、上記特性を表すものであれば如何なる関数を用いてもよい。 As the function, any function may be used as long as it represents the above characteristics, such as an upward convex quadratic function.
次いで、明暗部保持パラメータ決定部13が、視認性パラメータαに応じて明暗部保持パラメータβを制御する方法について図6を参照して説明する。視認性パラメータαが大きい場合は、その分暗部ノイズや明部の白飛びが目立ち易くなる。そこで、明暗部保持パラメータ決定部13は、図6の破線のように、立ち上がりを遅らせ、立ち下がりを早めた明暗部保持パラメータを決定する。この明暗部保持パラメータを用いることにより、明暗部の保持レベルが強まる。一方、視認性パラメータαが小さい場合は、暗部ノイズや明部の白飛びが目立ち難い。そこで、明暗部保持パラメータ決定部13は、図6の実線のように、破線の明暗部保持パラメータよりも、立ち上がりを早め、立ち下がりを遅らせた明暗部保持パラメータを決定する。この明暗部保持パラメータを用いることにより、明暗部の保持レベルが弱まる。このように、視認性パラメータαの強度に応じて、明暗部保持パラメータβの強度を制御することで、より良好な視認性とノイズや白飛びの抑制とが両立される。 Next, a method in which the light / dark part holding parameter determination unit 13 controls the light / dark part holding parameter β according to the visibility parameter α will be described with reference to FIG. When the visibility parameter α is large, the dark part noise and the bright part of the white part are easily noticeable. Therefore, the bright / dark part retention parameter determination unit 13 determines the bright / dark part retention parameter with the rising edge delayed and the falling edge advanced, as indicated by a broken line in FIG. By using the bright / dark part holding parameter, the bright / dark part holding level is strengthened. On the other hand, when the visibility parameter α is small, dark part noise and bright part whiteout are hardly noticeable. Therefore, as shown by the solid line in FIG. 6, the bright / dark part holding parameter determination unit 13 determines the bright / dark part holding parameter whose rise time is earlier than the broken light / dark part holding parameter. By using the bright / dark part holding parameter, the bright / dark part holding level is weakened. In this way, by controlling the intensity of the bright / dark part retention parameter β according to the intensity of the visibility parameter α, both better visibility and suppression of noise and overexposure can be achieved.
以上のような視認性パラメータαの強度に応じた明暗部保持パラメータβの強度の制御は、例えば、数式6のTをαの関数とした次のような式で表される。 The control of the intensity of the bright / dark part retention parameter β according to the intensity of the visibility parameter α as described above is expressed by the following expression using, for example, T in Expression 6 as a function of α.
ここで、f(α)>0であり、K>0である。また、図6の実線におけるf(α)よりも図6の破線におけるf(α)の方が小さいので、f(α)は減少関数である。但し、この場合の減少関数は、「α1<α2であればf(α1)≧f(α2)」という条件が成立する関数である。つまり、全体として減少する関数であれば、同じ値が続く部分を途中に含んでいてもよい。 Here, f (α)> 0 and K> 0. Further, since f (α) in the broken line in FIG. 6 is smaller than f (α) in the solid line in FIG. 6, f (α) is a decreasing function. However, the decreasing function in this case is a function that satisfies the condition “if α 1 <α 2 , f (α 1 ) ≧ f (α 2 )”. That is, as long as the function decreases as a whole, a portion where the same value continues may be included in the middle.
そこで、f(α)は、例えば、次のような式で表されるものとするとよい。この式は、視認性パラメータαを場合分けして、視認性パラメータαがある値より小さい場合はf(α)をs1とし、視認性パラメータαがある値より大きい場合はf(α)をs2とするものである。 Therefore, f (α) is preferably expressed by the following equation, for example. This expression divides the visibility parameter α into cases. When the visibility parameter α is smaller than a certain value, f (α) is set to s 1, and when the visibility parameter α is larger than a certain value, f (α) is set. it is an s 2.
或いは、f(α)は、連続関数としてもよい。この場合は、例えば、次の式のようにs3を傾きとし、s4を切片とした一次関数とするとよい。 Alternatively, f (α) may be a continuous function. In this case, for example, a linear function with s 3 as a slope and s 4 as an intercept may be used as in the following equation.
本実施の形態では、原画像の反射率成分の強調度合いの一例として、視認性パラメータを用いている。また、原画像の暗部及び明部の保持度合いである明暗部保持度合いの一例として、明暗部保持パラメータを用いており、原画像と強調度合いとを用いて明暗部保持度合いを決定する決定手段の一例として、明暗部保持パラメータ決定部13を設けている。但し、明暗部保持度合いが高いと、明暗部において反射率推定画像よりも原画像の重みが高くなるので、明暗部保持パラメータの値は小さくなる。 In the present embodiment, the visibility parameter is used as an example of the enhancement degree of the reflectance component of the original image. In addition, as an example of the bright and dark part holding degree, which is the holding degree of the dark part and the bright part of the original image, the bright and dark part holding parameter is used, and a determination unit that determines the bright and dark part holding degree using the original image and the enhancement degree As an example, a bright / dark part holding parameter determination unit 13 is provided. However, if the bright and dark area retention degree is high, the weight of the original image is higher than the reflectance estimated image in the light and dark areas, so the value of the bright and dark area retention parameter is small.
[第2の実施の形態]
図7は、本発明の第2の実施の形態における画像処理装置10の機能構成例を表すブロック図である。図示するように、本実施の形態における画像処理装置10は、照明推定部11と、反射率推定部12と、暗部保持パラメータ決定部14と、明部保持パラメータ決定部15と、画像再現部17とを備える。ここで、照明推定部11及び反射率推定部12については、第1の実施の形態と同じなので説明を省略し、以下では、暗部保持パラメータ決定部14、明部保持パラメータ決定部15及び画像再現部17についてのみ説明する。尚、この第2の実施の形態の基本的な考え方は、暗部保持パラメータと明部保持パラメータとを異なる関数で決定することにより、より良好な再現を行う、というものである。
[Second Embodiment]
FIG. 7 is a block diagram illustrating a functional configuration example of the image processing apparatus 10 according to the second embodiment of the present invention. As shown in the figure, the image processing apparatus 10 according to the present embodiment includes an illumination estimation unit 11, a reflectance estimation unit 12, a dark part retention parameter determination unit 14, a bright part retention parameter determination unit 15, and an image reproduction unit 17. With. Here, the illumination estimator 11 and the reflectance estimator 12 are the same as those in the first embodiment, and thus the description thereof will be omitted. In the following, the dark part retention parameter determination unit 14, the bright part retention parameter determination unit 15, and the image reproduction are omitted. Only the unit 17 will be described. The basic idea of the second embodiment is to perform better reproduction by determining the dark part retention parameter and the bright part retention parameter with different functions.
画像再現部17は、反射率推定部12が生成した反射率推定画像と、原画像とに基づいて、反射率成分を強調する処理を行う。例えば、以下のような再現式により、反射率成分を強調した再現画像を生成する。 The image reproduction unit 17 performs processing for enhancing the reflectance component based on the reflectance estimation image generated by the reflectance estimation unit 12 and the original image. For example, a reproduction image in which the reflectance component is emphasized is generated by the following reproduction formula.
ここで、αは視認性を強調するための視認性パラメータ、βは暗部保持パラメータ決定部14で決定された暗部保持パラメータ、γは明部保持パラメータ決定部15で決定された明部保持パラメータである。I^(x,y)は、α=1かつβ=1かつγ=1の場合、反射率成分そのものとなり、α=0又はβ=0又はγ=0の場合、原画像の画素値となる。 Here, α is a visibility parameter for enhancing visibility, β is a dark part retention parameter determined by the dark part retention parameter determination unit 14, and γ is a bright part retention parameter determined by the bright part retention parameter determination unit 15. is there. I ^ (x, y) is the reflectance component itself when α = 1, β = 1, and γ = 1, and is the pixel value of the original image when α = 0, β = 0, or γ = 0. .
また、最終的な再現パラメータは、αとβとγを乗じたパラメータとする。そして、再現パラメータには、視認性パラメータαを高めると暗い画素ほど暗部保持パラメータβの強度が高まるという特性と、視認性パラメータαを高めると明るい画素ほど明部保持パラメータγの強度が高まるという特性とを持たせる。こうすることで、最終的な再現パラメータは、暗い画素でαβに近付き、明るい画素でαγに近付く。 The final reproduction parameter is a parameter obtained by multiplying α, β, and γ. The reproduction parameters include a characteristic that the dark portion retention parameter β increases in intensity as the visibility parameter α is increased, and a bright portion retention parameter γ increases in the brightness pixel as the visibility parameter α is increased. And hold. In this way, the final reproduction parameter approaches αβ for dark pixels and approaches αγ for bright pixels.
本実施の形態では、原画像の反射率成分が強調された強調画像の一例として、再現画像を用いており、強調画像を生成する強調画像生成手段の一例として、画像再現部17を設けている。 In the present embodiment, a reproduced image is used as an example of an enhanced image in which the reflectance component of the original image is enhanced, and an image reproduction unit 17 is provided as an example of an enhanced image generation unit that generates an enhanced image. .
次に、暗部保持パラメータ決定部14及び明部保持パラメータ決定部15について詳細に説明する。暗部保持パラメータ決定部14は、βの特性を変えることで、より良好な視認性を保ちつつ、暗部ノイズを抑制する。また、明部保持パラメータ決定部15は、γの特性を変えることで、より良好な視認性を保ちつつ、明部の白飛びを抑制する。 Next, the dark part retention parameter determination unit 14 and the bright part retention parameter determination unit 15 will be described in detail. The dark part holding parameter determining unit 14 suppresses dark part noise while maintaining better visibility by changing the characteristic of β. In addition, the bright part holding parameter determination unit 15 suppresses overexposure of the bright part by changing the characteristic of γ while maintaining better visibility.
例えば、暗部保持パラメータβを決定する関数としては、数式11の関数が考えられる。 For example, the function of Formula 11 can be considered as a function for determining the dark part retention parameter β.
ここで、T1は係数であり、T1>0である。 Here, T1 is a coefficient, and T1> 0.
図8に示すように、画素が暗いほど暗部保持パラメータβは小さくなる。従って、反射率成分の寄与が小さくなり、原画像の寄与が大きくなる。 As shown in FIG. 8, the dark part retention parameter β decreases as the pixel becomes darker. Therefore, the contribution of the reflectance component is reduced, and the contribution of the original image is increased.
また、明部保持パラメータγを決定する関数としては、数式12の関数が考えられる。ここで、T2,T3は係数であり、T2>0であり、T3>0である。尚、数式12の関数は、図8の関数を暗部保持パラメータの軸を中心に反転させた関数の原画像画素値が0から1に対応する部分を基本とする。但し、このままだとマイナスの値しかとらないので、レンジをT3とし、切片を+1とする正規化を行っている。 Further, as a function for determining the bright portion retention parameter γ, the function of Expression 12 can be considered. Here, T2 and T3 are coefficients, and T2> 0 and T3> 0. The function of Expression 12 is based on a portion in which the original image pixel value of the function obtained by inverting the function of FIG. 8 around the axis of the dark area retention parameter corresponds to 0 to 1. However, since only a negative value is taken as it is, normalization is performed with the range T3 and the intercept +1.
図9に示すように、画素が明るいほど明部保持パラメータγは小さくなる。従って、反射率成分の寄与が小さくなり、原画像の寄与が大きくなる。 As shown in FIG. 9, the bright portion retention parameter γ decreases as the pixel becomes brighter. Therefore, the contribution of the reflectance component is reduced, and the contribution of the original image is increased.
これにより、原画像の画素値と、暗部保持パラメータβ×明部保持パラメータγとの関係は、図10に太線で示したようなものとなる。つまり、第1の実施の形態における原画像の画素値と明暗部保持パラメータβとの関係に類似するものとなる。 As a result, the relationship between the pixel value of the original image and the dark part retention parameter β × the bright part retention parameter γ is as shown by a thick line in FIG. That is, the relationship is similar to the relationship between the pixel value of the original image and the bright / dark part retention parameter β in the first embodiment.
ここで、この第2の実施の形態が第1の実施の形態と異なる点は、暗部保持パラメータβと明部保持パラメータγとがそれぞれ独立に制御される点である。例えば、図10の形状では、暗部保持パラメータβと明部保持パラメータγとが同等の強度に決定された。これに対し、白飛びを更に抑制したい場合には、数式12のT2を小さくすればよい。こうすることで、図11に示すように、明部保持パラメータの曲線の立ち下がりが早まる。そして、この明部保持パラメータの特性と、図8の暗部保持パラメータの特性とを用いると、原画像の画素値と、暗部保持パラメータβ×明部保持パラメータγとの関係は、図12に太線で示したようなものとなる。つまり、図10に太線で示した形状と比べて、明るい画素でのβ×γの立ち下がりが早まっている。そのため、より白飛びが抑制される。また、このように暗部保持パラメータと明部保持パラメータとを独立に制御することで、ノイズの抑制が強まること等もある。 Here, the second embodiment is different from the first embodiment in that the dark part holding parameter β and the bright part holding parameter γ are independently controlled. For example, in the shape of FIG. 10, the dark part retention parameter β and the bright part retention parameter γ are determined to have the same strength. On the other hand, when it is desired to further suppress whiteout, T2 in Expression 12 may be reduced. By doing so, as shown in FIG. 11, the falling of the curve of the bright part retention parameter is accelerated. Then, using the characteristics of the bright area retention parameter and the characteristics of the dark area retention parameter of FIG. 8, the relationship between the pixel value of the original image and the dark area retention parameter β × the bright area retention parameter γ is indicated by a bold line in FIG. It will be as shown in. That is, the falling of β × γ at a bright pixel is earlier than the shape shown by the thick line in FIG. Therefore, whiteout is further suppressed. In addition, by controlling the dark part holding parameter and the bright part holding parameter independently as described above, noise suppression may be enhanced.
次いで、暗部保持パラメータ決定部14が、視認性パラメータαに応じて暗部保持パラメータβを制御する方法について説明する。 Next, a method in which the dark part retention parameter determination unit 14 controls the dark part retention parameter β according to the visibility parameter α will be described.
視認性パラメータαが大きい場合は、その分暗部ノイズが目立ち易くなる。そこで、暗部保持パラメータ決定部14は、図13の破線のように、立ち上がりを遅らせた暗部保持パラメータを決定する。この暗部保持パラメータを用いることにより、暗部の保持レベルが強まる。一方、視認性パラメータαが小さい場合は、暗部ノイズが目立ち難い。そこで、暗部保持パラメータ決定部14は、図13の実線のように、破線の暗部保持パラメータよりも、立ち上がりを早めた暗部保持パラメータを決定する。この暗部保持パラメータを用いることにより、暗部の保持レベルが弱まる。このように、視認性パラメータαの強度に応じて、暗部保持パラメータβの強度を制御することで、より良好な視認性とノイズの抑制とが両立される。 When the visibility parameter α is large, the dark part noise becomes more conspicuous. Therefore, the dark part holding parameter determination unit 14 determines the dark part holding parameter whose rise is delayed as shown by the broken line in FIG. By using the dark area retention parameter, the dark area retention level is enhanced. On the other hand, when the visibility parameter α is small, dark part noise is not noticeable. Therefore, the dark area retention parameter determination unit 14 determines a dark area retention parameter whose rise is earlier than the dashed dark area retention parameter, as indicated by the solid line in FIG. By using this dark part holding parameter, the dark part holding level is weakened. In this way, by controlling the strength of the dark part retention parameter β according to the strength of the visibility parameter α, better visibility and noise suppression can be achieved at the same time.
以上のような視認性パラメータαの強度に応じた暗部保持パラメータβの強度の制御は、例えば、数式11のT1をαの関数とした次のような式で表される。 Control of the intensity of the dark part retention parameter β according to the intensity of the visibility parameter α as described above is expressed by, for example, the following expression using T1 of Expression 11 as a function of α.
ここで、f(α)>0である。また、図13の実線におけるf(α)よりも図13の破線におけるf(α)の方が小さいので、f(α)は減少関数である。但し、この場合の減少関数は、「α1<α2であればf(α1)≧f(α2)」という条件が成立する関数である。つまり、全体として減少する関数であれば、同じ値が続く部分を途中に含んでいてもよい。 Here, f (α)> 0. Further, since f (α) in the broken line in FIG. 13 is smaller than f (α) in the solid line in FIG. 13, f (α) is a decreasing function. However, the decreasing function in this case is a function that satisfies the condition “if α 1 <α 2 , f (α 1 ) ≧ f (α 2 )”. That is, as long as the function decreases as a whole, a portion where the same value continues may be included in the middle.
そこで、f(α)は、例えば、次のような式で表されるものとするとよい。この式は、視認性パラメータαを場合分けして、視認性パラメータαがある値より小さい場合はf(α)をs1とし、視認性パラメータαがある値より大きい場合はf(α)をs2とするものである。 Therefore, f (α) is preferably expressed by the following equation, for example. This expression divides the visibility parameter α into cases. When the visibility parameter α is smaller than a certain value, f (α) is set to s 1, and when the visibility parameter α is larger than a certain value, f (α) is set. it is an s 2.
或いは、f(α)は、連続関数としてもよい。この場合は、例えば、次の式のようにs3を傾きとし、s4を切片とした一次関数とするとよい。 Alternatively, f (α) may be a continuous function. In this case, for example, a linear function with s 3 as a slope and s 4 as an intercept may be used as in the following equation.
次いで、明部保持パラメータ決定部15が、視認性パラメータαに応じて明部保持パラメータγを制御する方法について説明する。 Next, a method in which the bright part holding parameter determination unit 15 controls the bright part holding parameter γ according to the visibility parameter α will be described.
視認性パラメータαが大きい場合は、その分明部の白飛びが目立ち易くなる。そこで、明部保持パラメータ決定部15は、図14の破線のように、立ち下がりを早めた明部保持パラメータを決定する。この明部保持パラメータを用いることにより、明部の保持レベルが強まる。一方、視認性パラメータαが小さい場合は、明部の白飛びが目立ち難い。そこで、図14の実線のように、破線の明部保持パラメータよりも、立ち下がりを遅らせた明部保持パラメータを決定する。この明部保持パラメータを用いることにより、明部の保持レベルが弱まる。このように、視認性パラメータαの強度に応じて、明部保持パラメータγの強度を制御することで、より良好な視認性と白飛びの抑制とが両立される。 When the visibility parameter α is large, the whiteout in the light portion is easily noticeable. Therefore, the bright part holding parameter determination unit 15 determines the bright part holding parameter whose falling edge is accelerated as indicated by a broken line in FIG. By using this bright part holding parameter, the bright part holding level is strengthened. On the other hand, when the visibility parameter α is small, the bright portion of the whiteout is not noticeable. Therefore, as shown by the solid line in FIG. 14, the bright part holding parameter whose falling is delayed from the broken line bright part holding parameter is determined. By using the bright part holding parameter, the bright part holding level is weakened. Thus, by controlling the intensity of the bright portion retention parameter γ according to the intensity of the visibility parameter α, better visibility and suppression of whiteout can be achieved at the same time.
以上のような視認性パラメータαの強度に応じた明部保持パラメータγの強度の制御は、例えば、数式12のT2をαの関数とした次のような式で表される。 The control of the intensity of the bright part retention parameter γ according to the intensity of the visibility parameter α as described above is expressed by the following expression, for example, where T2 in Expression 12 is a function of α.
ここで、f(α)>0である。また、図14の実線におけるf(α)よりも図14の破線におけるf(α)の方が小さいので、f(α)は減少関数である。但し、この場合の減少関数は、「α1<α2であればf(α1)≧f(α2)」という条件が成立する関数である。つまり、全体として減少する関数であれば、同じ値が続く部分を途中に含んでいてもよい。 Here, f (α)> 0. Further, since f (α) in the broken line in FIG. 14 is smaller than f (α) in the solid line in FIG. 14, f (α) is a decreasing function. However, the decreasing function in this case is a function that satisfies the condition “if α 1 <α 2 , f (α 1 ) ≧ f (α 2 )”. That is, as long as the function decreases as a whole, a portion where the same value continues may be included in the middle.
そこで、f(α)は、例えば、次のような式で表されるものとするとよい。この式は、視認性パラメータαを場合分けして、視認性パラメータαがある値より小さい場合はf(α)をs1とし、視認性パラメータαがある値より大きい場合はf(α)をs2とするものである。 Therefore, f (α) is preferably expressed by the following equation, for example. This expression divides the visibility parameter α into cases. When the visibility parameter α is smaller than a certain value, f (α) is set to s 1, and when the visibility parameter α is larger than a certain value, f (α) is set. it is an s 2.
或いは、f(α)は、連続関数としてもよい。この場合は、例えば、次の式のようにs3を傾きとし、s4を切片とした一次関数とするとよい。 Alternatively, f (α) may be a continuous function. In this case, for example, a linear function with s 3 as a slope and s 4 as an intercept may be used as in the following equation.
本実施の形態では、原画像の反射率成分の強調度合いの一例として、視認性パラメータを用いている。また、原画像の暗部の保持度合いである暗部保持度合いの一例として、暗部保持パラメータを用いており、原画像と強調度合いとを用いて暗部保持度合いを決定する決定手段の一例として、暗部保持パラメータ決定部14を設けている。但し、暗部保持度合いが高いと、暗部において反射率推定画像よりも原画像の重みが高くなるので、暗部保持パラメータの値は小さくなる。更に、原画像の明部の保持度合いである明部保持度合いの一例として、明部保持パラメータを用いており、原画像と強調度合いとを用いて明部保持度合いを決定する決定手段の一例として、明部保持パラメータ決定部15を設けている。但し、明部保持度合いが高いと、明部において反射率推定画像よりも原画像の重みが高くなるので、明部保持パラメータの値は小さくなる。 In the present embodiment, the visibility parameter is used as an example of the enhancement degree of the reflectance component of the original image. Further, the dark part holding parameter is used as an example of the dark part holding degree that is the dark part holding degree of the original image, and the dark part holding parameter is used as an example of a determination unit that determines the dark part holding degree using the original image and the enhancement degree. A determination unit 14 is provided. However, when the dark portion retention degree is high, the weight of the original image is higher than the reflectance estimation image in the dark portion, and thus the dark portion retention parameter value is small. Further, as an example of the bright part holding degree, which is the bright part holding degree of the original image, the bright part holding parameter is used, and as an example of a determination unit that determines the bright part holding degree using the original image and the enhancement degree. A bright part holding parameter determination unit 15 is provided. However, when the bright portion holding degree is high, the weight of the original image is higher than the reflectance estimated image in the bright portion, and thus the value of the bright portion holding parameter is small.
また、本実施の形態では、暗部保持パラメータ決定部14及び明部保持パラメータ決定部15を設け、画像再現部17が、視認性パラメータに加え、暗部保持パラメータ及び明部保持パラメータを用いて、反射率成分を強調した再現画像を生成するようにしたが、この限りではない。暗部保持パラメータ決定部14及び明部保持パラメータ決定部15の何れか一方を設け、画像再現部17が、視認性パラメータに加え、暗部保持パラメータ及び明部保持パラメータの何れか一方を用いて、反射率成分を強調した再現画像を生成するようにしてもよい。この意味で、暗部保持パラメータ決定部14及び明部保持パラメータ決定部15は、原画像の暗部及び明部の少なくとも何れか一方の保持度合いを決定する決定手段の一例である。 Further, in the present embodiment, the dark part holding parameter determining unit 14 and the bright part holding parameter determining unit 15 are provided, and the image reproduction unit 17 uses the dark part holding parameter and the bright part holding parameter in addition to the visibility parameter to reflect. Although a reproduced image in which the rate component is emphasized is generated, the present invention is not limited to this. Either one of the dark part holding parameter determination unit 14 and the bright part holding parameter determination unit 15 is provided, and the image reproduction unit 17 uses either one of the dark part holding parameter and the bright part holding parameter to reflect in addition to the visibility parameter. A reproduced image in which the rate component is emphasized may be generated. In this sense, the dark part holding parameter determination unit 14 and the bright part holding parameter determination unit 15 are an example of a determination unit that determines the holding degree of at least one of the dark part and the bright part of the original image.
[第3の実施の形態]
図15は、本発明の第3の実施の形態における画像処理装置10の機能構成例を表すブロック図である。図示するように、本実施の形態における画像処理装置10は、照明推定部11と、反射率推定部12と、ユーザパラメータ決定部16と、画像再現部17とを備える。ここで、照明推定部11、反射率推定部12及び画像再現部17については、第2の実施の形態と同じなので説明を省略し、ユーザパラメータ決定部16についてのみ説明する。
[Third Embodiment]
FIG. 15 is a block diagram illustrating a functional configuration example of the image processing apparatus 10 according to the third embodiment of the present invention. As illustrated, the image processing apparatus 10 according to the present embodiment includes an illumination estimation unit 11, a reflectance estimation unit 12, a user parameter determination unit 16, and an image reproduction unit 17. Here, since the illumination estimation unit 11, the reflectance estimation unit 12, and the image reproduction unit 17 are the same as those in the second embodiment, a description thereof will be omitted, and only the user parameter determination unit 16 will be described.
ユーザパラメータ決定部16は、視認性パラメータ、暗部保持パラメータ及び明部保持パラメータをユーザインタラクションにより決定する。各パラメータをユーザインタラクションにより決定する方法としては、如何なる方法を採用してもよいが、ここでは、2つの方法を説明する。その際、ユーザ(操作者)は指で指示するものとするが、指は指示手段の一例であり、タッチペン等、他の如何なる指示手段で指示するものとしてもよい。 The user parameter determination unit 16 determines a visibility parameter, a dark part holding parameter, and a bright part holding parameter by user interaction. As a method for determining each parameter by user interaction, any method may be adopted. Here, two methods will be described. At that time, the user (operator) is instructed with a finger, but the finger is an example of an instruction means, and may be instructed with any other instruction means such as a touch pen.
第1の方法は、ユーザが指示した方向の組み合わせに応じて、各パラメータを決定する方法である。 The first method is a method of determining each parameter according to the combination of directions designated by the user.
例えば、図16では、表示された原画像上でユーザが指を左右方向に移動させることにより、暗部保持パラメータの強度を変化させるようにしている。具体的には、ユーザが指を左に移動させると、暗部保持パラメータの強度を小さくし、ユーザが指を右に移動させると、暗部保持パラメータの強度を大きくしている。 For example, in FIG. 16, the user moves his / her finger in the left / right direction on the displayed original image to change the intensity of the dark area retention parameter. Specifically, when the user moves his / her finger to the left, the intensity of the dark area retention parameter is decreased, and when the user moves the finger to the right, the intensity of the dark area retention parameter is increased.
また、図16では、表示された原画像上でユーザが指を上下方向に移動させることにより、明部保持パラメータの強度を変化させるようにしている。具体的には、ユーザが指を上に移動させると、明部保持パラメータの強度を小さくし、ユーザが指を下に移動させると、明部保持パラメータの強度を大きくしている。 In FIG. 16, the strength of the bright part holding parameter is changed by moving the finger up and down on the displayed original image. Specifically, when the user moves the finger up, the strength of the bright portion retention parameter is decreased, and when the user moves the finger down, the strength of the bright portion retention parameter is increased.
更に、図16では、表示された原画像上でユーザがタップ操作又はダブルタップ操作を行うことにより、視認性パラメータの強度を変化させるようにしている。具体的には、ユーザが指でタップ操作を行うと、視認性パラメータの強度を大きくし、ユーザが指でダブルタップ操作を行うと、視認性パラメータの強度を小さくしている。 Further, in FIG. 16, the strength of the visibility parameter is changed by the user performing a tap operation or a double tap operation on the displayed original image. Specifically, when the user performs a tap operation with a finger, the strength of the visibility parameter is increased, and when the user performs a double tap operation with a finger, the strength of the visibility parameter is decreased.
或いは、図16には示していないが、表示された原画像上でユーザが指を斜め方向に移動させることにより、暗部保持パラメータと明部保持パラメータとの両方を制御するようにしてもよい。 Alternatively, although not shown in FIG. 16, both the dark part holding parameter and the bright part holding parameter may be controlled by the user moving his / her finger in an oblique direction on the displayed original image.
尚、ここでは、視認性パラメータ、暗部保持パラメータ及び明部保持パラメータを独立にユーザインタラクションにより決定したが、この限りではない。即ち、視認性パラメータのみをタップ操作又はダブルタップ操作により決定してもよい。そして、暗部保持パラメータ及び明部保持パラメータについては、指を左右方向又は上下方向に移動させなくても、決定された視認性パラメータと数式13及び数式16とにより決定するようにしてよい。 Here, the visibility parameter, the dark part holding parameter, and the bright part holding parameter are independently determined by user interaction. However, the present invention is not limited to this. That is, only the visibility parameter may be determined by a tap operation or a double tap operation. The dark part holding parameter and the bright part holding parameter may be determined by the determined visibility parameter and Expressions 13 and 16 without moving the finger in the horizontal direction or the vertical direction.
第2の方法は、プリンタドライバ等のUIに表示された選択肢の選択に応じて、各パラメータを決定する方法である。 The second method is a method of determining each parameter according to selection of an option displayed on the UI such as a printer driver.
例えば、図17では、視認性パラメータに対応する項目「視認性」、暗部保持パラメータに対応する項目「ノイズ抑制」及び明部保持パラメータに対応する項目「白飛び抑制」のそれぞれについて、3段階の強度「高」、「中」、「小」を選択肢として表示している。これに対して、ユーザは、各項目に対し、3段階の強度の何れかを選択する。図17のように強度を選択すると、視認性パラメータの強度を大きくし、暗部保持パラメータの強度を中程度にし、明部保持パラメータを小さくする。このようにユーザが各パラメータについて選択肢の1つを選択することにより、ユーザの好みを反映しつつ、視認性と暗部ノイズ及び白飛びの抑制とが両立される。 For example, in FIG. 17, each of the item “visibility” corresponding to the visibility parameter, the item “noise suppression” corresponding to the dark portion retention parameter, and the item “whiteout suppression” corresponding to the bright portion retention parameter is divided into three stages. Intensity “High”, “Medium”, and “Small” are displayed as options. On the other hand, the user selects one of three levels of intensity for each item. When the strength is selected as shown in FIG. 17, the strength of the visibility parameter is increased, the strength of the dark portion retention parameter is set to medium, and the bright portion retention parameter is decreased. In this way, when the user selects one of the options for each parameter, both visibility and suppression of dark part noise and whiteout are achieved while reflecting the user's preference.
尚、ここでは、視認性パラメータ、暗部保持パラメータ及び明部保持パラメータを独立にユーザインタラクションにより決定したが、この限りではない。即ち、視認性パラメータについてのみ3段階の強度を選択肢として表示し、視認性パラメータのみを選択肢の選択により決定してもよい。そして、暗部保持パラメータ及び明部保持パラメータについては、3段階の強度を選択肢として表示しなくても、決定された視認性パラメータと数式13及び数式16とにより決定するようにしてよい。 Here, the visibility parameter, the dark part holding parameter, and the bright part holding parameter are independently determined by user interaction. However, the present invention is not limited to this. That is, only three visibility levels may be displayed as options for the visibility parameter, and only the visibility parameter may be determined by selecting the option. Then, the dark part holding parameter and the bright part holding parameter may be determined by the determined visibility parameter and Expressions 13 and 16 without displaying three levels of intensity as options.
本実施の形態では、強調度合いを設定する設定手段の一例として、ユーザパラメータ決定部16を設けている。 In the present embodiment, the user parameter determination unit 16 is provided as an example of a setting unit that sets the enhancement degree.
加えて、図15では、ユーザパラメータ決定部16が、第2の実施の形態の変形例として、視認性パラメータ、暗部保持パラメータ及び明部保持パラメータをユーザインタラクションにより決定するものとしたが、この限りではない。第1の実施の形態の変形例として、視認性パラメータ及び明暗部保持パラメータをユーザインタラクションにより決定するものとしてもよい。そして、その場合も、視認性パラメータをユーザインタラクションにより決定し、明暗部保持パラメータについては、決定された視認性パラメータと数式7とにより決定するようにしてよい。 In addition, in FIG. 15, the user parameter determination unit 16 determines the visibility parameter, the dark part holding parameter, and the bright part holding parameter by user interaction as a modification of the second embodiment. is not. As a modification of the first embodiment, the visibility parameter and the bright / dark part retention parameter may be determined by user interaction. In this case as well, the visibility parameter may be determined by user interaction, and the bright / dark portion retention parameter may be determined by the determined visibility parameter and Equation 7.
[第1乃至第3の実施の形態の動作]
図18は、本発明の第1乃至第3の実施の形態における画像処理装置10の動作例を表すフローチャートである。尚、この動作例では、視認性パラメータに応じて明暗部保持パラメータ、暗部保持パラメータ、明部保持パラメータ等を制御する場合について説明する。
[Operation of the first to third embodiments]
FIG. 18 is a flowchart showing an operation example of the image processing apparatus 10 in the first to third embodiments of the present invention. In this operation example, a case will be described in which the bright / dark part holding parameter, the dark part holding parameter, the bright part holding parameter, and the like are controlled according to the visibility parameter.
原画像が入力されると、まず、照明推定部11が、図2及び図4に示したように、原画像から、複数の平滑化された画像を含む多層画像を生成し、これらの多層画像を用いて、照明推定画像を生成する(ステップ101)。 When the original image is input, first, the illumination estimation unit 11 generates a multilayer image including a plurality of smoothed images from the original image as shown in FIGS. 2 and 4, and these multilayer images Is used to generate an illumination estimation image (step 101).
次に、反射率推定部12が、原画像と、ステップ101で生成された照明推定画像とに基づいて、反射率推定画像を生成する(ステップ102)。 Next, the reflectance estimation unit 12 generates a reflectance estimation image based on the original image and the illumination estimation image generated in step 101 (step 102).
次いで、画像処理装置10は、暗部及び明部の少なくとも何れか一方の保持パラメータを決定する(ステップ103)。 Next, the image processing apparatus 10 determines a holding parameter for at least one of the dark part and the bright part (step 103).
ここで、「暗部及び明部の少なくとも何れか一方の保持パラメータ」とは、第1の実施の形態では、明暗部保持パラメータである。即ち、第1の実施の形態では、明暗部保持パラメータ決定部13が、原画像と視認性パラメータとに基づいて、明暗部保持パラメータを決定する。 Here, the “holding parameter of at least one of the dark part and the bright part” is a bright and dark part holding parameter in the first embodiment. That is, in the first embodiment, the light / dark part holding parameter determination unit 13 determines the light / dark part holding parameter based on the original image and the visibility parameter.
また、「暗部及び明部の少なくとも何れか一方の保持パラメータ」とは、第2の実施の形態では、暗部保持パラメータ及び明部保持パラメータである。即ち、第2の実施の形態では、暗部保持パラメータ決定部14が、原画像と視認性パラメータとに基づいて、暗部保持パラメータを決定すると共に、明部保持パラメータ決定部15が、原画像と視認性パラメータとに基づいて、明部保持パラメータを決定する。 In addition, the “holding parameter of at least one of the dark part and the bright part” is a dark part holding parameter and a bright part holding parameter in the second embodiment. That is, in the second embodiment, the dark part retention parameter determination unit 14 determines the dark part retention parameter based on the original image and the visibility parameter, and the bright part retention parameter determination unit 15 determines the original image and the visual recognition. The bright part retention parameter is determined based on the sex parameter.
更に、「暗部及び明部の少なくとも何れか一方の保持パラメータ」とは、第3の実施の形態では、明暗部保持パラメータ、暗部保持パラメータ、明部保持パラメータの何れでもよい。但し、ユーザパラメータ決定部16が、ユーザインタラクションにより、視認性パラメータを決定し、この視認性パラメータと原画像とを用いた計算により、明暗部保持パラメータ、暗部保持パラメータ、明部保持パラメータの何れかを決定する。 Further, the “holding parameter of at least one of the dark part and the bright part” may be any of the bright and dark part holding parameter, the dark part holding parameter, and the bright part holding parameter in the third embodiment. However, the user parameter determination unit 16 determines a visibility parameter by user interaction, and any one of the bright and dark part holding parameter, the dark part holding parameter, and the bright part holding parameter is calculated by using the visibility parameter and the original image. To decide.
最後に、画像再現部17が、原画像と、ステップ102で生成された反射率推定画像と、視認性パラメータと、ステップ103で決定された暗部及び明部の少なくとも何れか一方の保持パラメータとに基づいて、再現画像を生成する(ステップ104)。尚、ここでは、数式4を用いて再現画像を生成する場合を想定して原画像を用いることとしたが、数式5を用いて再現画像を生成する場合は、ステップ104で原画像を用いなくてもよい。 Finally, the image reproduction unit 17 converts the original image, the reflectance estimation image generated in step 102, the visibility parameter, and the retention parameter of at least one of the dark part and the bright part determined in step 103. Based on this, a reproduced image is generated (step 104). Here, it is assumed that the original image is used on the assumption that the reproduction image is generated using Equation 4, but when the reproduction image is generated using Equation 5, the original image is not used in Step 104. May be.
[第4の実施の形態]
本実施の形態は、原画像から抽出した人の肌を表す領域(以下、「肌領域」という)において、全画素に同じ肌部保持パラメータを適用する実施の形態である。以下では、疑似輪郭を発生させる領域として肌領域を例にとって説明するが、これに限るものではない。
[Fourth Embodiment]
This embodiment is an embodiment in which the same skin part retention parameter is applied to all pixels in a region representing human skin extracted from an original image (hereinafter referred to as “skin region”). Hereinafter, a skin region will be described as an example of a region for generating a pseudo contour, but the present invention is not limited to this.
図19は、本発明の第4の実施の形態における画像処理装置10の機能構成例を表すブロック図である。図示するように、本実施の形態における画像処理装置10は、照明推定部11と、反射率推定部12と、画像再現部17と、肌領域抽出部18と、肌部保持パラメータ決定部19とを備える。ここで、照明推定部11及び反射率推定部12については、第1の実施の形態と同じなので説明を省略し、以下では、肌領域抽出部18、肌部保持パラメータ決定部19及び画像再現部17についてのみ説明する。 FIG. 19 is a block diagram illustrating a functional configuration example of the image processing apparatus 10 according to the fourth embodiment of the present invention. As illustrated, the image processing apparatus 10 according to the present embodiment includes an illumination estimation unit 11, a reflectance estimation unit 12, an image reproduction unit 17, a skin region extraction unit 18, and a skin part retention parameter determination unit 19. Is provided. Here, since the illumination estimation unit 11 and the reflectance estimation unit 12 are the same as those in the first embodiment, the description thereof will be omitted. Hereinafter, the skin region extraction unit 18, the skin part holding parameter determination unit 19, and the image reproduction unit will be described. Only 17 will be described.
肌領域抽出部18は、原画像中から人の肌領域を抽出する。肌領域の抽出は、原画像をRGBからHSVへ変換して代表的な肌の値に近い画素を抽出する方法や、オブジェクト認識等で人間を認識してその情報と色情報とを用いて抽出する方法等、如何なる方法を用いて行ってもよい。 The skin region extraction unit 18 extracts a human skin region from the original image. Extraction of the skin area is done by converting the original image from RGB to HSV and extracting pixels close to typical skin values, or by using the information and color information by recognizing humans by object recognition and the like. Any method may be used such as
本実施の形態では、原画像の疑似輪郭を発生させる色として予め定められた特定色の部分の一例として、肌領域を用いており、特定色の部分を抽出する抽出手段の一例として、肌領域抽出部18を設けている。 In the present embodiment, a skin region is used as an example of a specific color portion that is predetermined as a color that generates a pseudo contour of the original image, and the skin region is used as an example of an extraction unit that extracts the specific color portion. An extraction unit 18 is provided.
より詳細には、本実施の形態では、原画像においてレティネックス処理を行ったときに疑似輪郭が発生し易い領域を特定し、その特定した領域における代表的な色を「特定色」と呼んでいる。尚、疑似輪郭とは、一般に、画像処理により原画像の濃淡が強調されて段差が生じ、輪郭のような疑似的な線が生じて見える現象のことをいう。 More specifically, in the present embodiment, an area in which a pseudo contour is likely to occur when Retinex processing is performed on the original image is specified, and a representative color in the specified area is called a “specific color”. Yes. Note that the pseudo contour generally refers to a phenomenon in which the density of an original image is emphasized by image processing to generate a step, and a pseudo line such as a contour appears.
撮影画像においては、撮影時の光源と被写体との関係で被写体の一部に陰影が生じることがよくある。このような場合、撮影画像では、本来近い色で構成されている被写体であるにも関わらず、その中で大きな濃淡差ができてしまうことになる。このように本来近い色であるにも関わらず、撮影画像にした結果、陰影により大きな濃淡ができてしまう領域を、本実施の形態では疑似輪郭が発生し易い領域としている。 In a photographed image, a shadow is often generated on a part of the subject due to the relationship between the light source and the subject at the time of photographing. In such a case, although the photographed image is a subject that is essentially composed of colors, a large shade difference is generated in the photographed image. In this embodiment, a region in which a large shade is generated as a result of making a photographed image even though the color is originally close is a region in which pseudo contour is likely to occur in this embodiment.
ここで、特定色、つまり疑似輪郭が発生し易い領域における代表的な色を決定する方法には様々な方法があるが、基本的には原画像における疑似輪郭が発生し易い領域に属する画素群(の各々の色値)の中から「代表的な色」の値を決定する。そのため、例えば疑似輪郭が発生し易い領域が人の顔の部分と特定された場合であって、その領域内に「光の当たっている領域」と「影になっている領域」の両方が含まれる場合には、そのどちらの領域に属する画素の色も「特定色」として抽出され得る。尚、上記画素群の中からどの色値を「代表的な色」として抽出するかについても複数の方法があるが、一例として、例えば「疑似輪郭が発生し易い領域」を「肌領域」と予め定めておいた上で、肌を示す色として尤もらしい色値を予め記憶しておき、その記憶しておいた肌色を示す色値に最も近い色値を持つ画素(の色)を「代表的な色」として抽出する方法も考えられる。 Here, there are various methods for determining a specific color, that is, a representative color in a region where a pseudo contour is likely to occur. Basically, a group of pixels belonging to a region where a pseudo contour is likely to occur in an original image. The “representative color” value is determined from (color values). Therefore, for example, when an area where pseudo contour is likely to occur is identified as a human face part, both the "lighted area" and the "shadowed area" are included in the area. In such a case, the color of the pixel belonging to either area can be extracted as a “specific color”. There are a plurality of methods for extracting which color value from the pixel group as a “representative color”. As an example, for example, “a region where a pseudo contour easily occurs” is referred to as a “skin region”. Predetermined, a color value that is likely to be a skin color is stored in advance, and a pixel having a color value closest to the stored color value indicating the skin color is designated as “representative”. It is also possible to extract it as a “natural color”.
例えば、人の身体的な特徴上、顔の輪郭と首との境界や、手足を曲げた部分等には陰影ができ易い。そこで、それらの領域を代表する色として、本実施の形態では「肌領域」を「特定色」として用いている。肌領域以外であっても、太陽光等の特定環境下で撮影された立体物等には陰影ができ易いため、この立体物が例えば水色であれば、特定色として水色を抽出することになる。 For example, due to human physical characteristics, it is easy to create shadows on the boundary between the contour of the face and the neck, the bent limbs, and the like. Therefore, in this embodiment, “skin area” is used as a “specific color” as a color representing these areas. Even if it is outside the skin region, a solid object or the like photographed under a specific environment such as sunlight is likely to be shaded. Therefore, if this three-dimensional object is light blue, for example, light blue is extracted as the specific color. .
肌部保持パラメータ決定部19は、視認性パラメータに応じて肌部保持パラメータを決定する。具体的には、視認性パラメータをα、肌部保持パラメータをδ(α)とすると、δ(α)は例えば数式19で表されるものとすればよい。 The skin part holding parameter determination unit 19 determines a skin part holding parameter according to the visibility parameter. Specifically, if the visibility parameter is α and the skin part retention parameter is δ (α), δ (α) may be expressed by, for example, Equation 19.
図20に、このときの視認性パラメータαと肌部保持パラメータδ(a)との関係を示す。視認性パラメータαが大きいほど、肌領域の疑似輪郭が目立つため、δ(α)を小さくすることで、原画像の重みを高くする。関数としては、αの増加に応じてδ(α)が減少する関数であれば、どのようなものを用いても構わない。 FIG. 20 shows the relationship between the visibility parameter α and the skin part retention parameter δ (a) at this time. As the visibility parameter α is larger, the pseudo contour of the skin region is more conspicuous. Therefore, by reducing δ (α), the weight of the original image is increased. Any function may be used as long as δ (α) decreases as α increases.
本実施の形態では、原画像の反射率成分の強調度合いの一例として、視認性パラメータを用いている。また、原画像の特定色の部分の保持度合いである第1の保持度合いの一例として、肌部保持パラメータを用いており、強調度合いを用いて第1の保持度合いを決定する第1の決定手段の一例として、肌部保持パラメータ決定部19を設けている。但し、第1の保持度合いが高いと、特定色において反射率推定画像よりも原画像の重みが高くなるので、肌部保持パラメータの値は小さくなる。 In the present embodiment, the visibility parameter is used as an example of the enhancement degree of the reflectance component of the original image. Further, as an example of the first holding degree that is the holding degree of the specific color portion of the original image, a skin part holding parameter is used, and a first determination unit that determines the first holding degree using the enhancement degree. As an example, a skin holding parameter determination unit 19 is provided. However, if the first holding degree is high, the weight of the original image is higher than that of the reflectance estimation image in the specific color, so the value of the skin part holding parameter becomes small.
画像再現部17は、抽出した肌領域と肌領域以外とで処理を変える。肌領域の画素値は、肌部保持パラメータ決定部19で決定した肌部保持パラメータδ(α)を用いて数式20で算出する。肌領域以外の画素値は、δ(α)を用いずに数式21で算出する。但し、0≦α≦1、0≦δ(α)≦1とする。 The image reproduction unit 17 changes processing between the extracted skin region and other than the skin region. The pixel value of the skin area is calculated by Equation 20 using the skin part holding parameter δ (α) determined by the skin part holding parameter determining unit 19. Pixel values other than the skin area are calculated by Equation 21 without using δ (α). However, 0 ≦ α ≦ 1 and 0 ≦ δ (α) ≦ 1.
ここで、I(x,y)は原画像の画素値を表し、IR(x,y)は反射率推定画像の画素値を表し、I^(x,y)は再現画像の画素値を表す。このように、肌領域には、視認性パラメータαに応じて、1以下の肌部保持パラメータδ(α)を乗算する。これにより、反射率推定画像の画素値の重みを低下させ、原画像の画素値の重みを高めることで、疑似輪郭の発生を抑制する。 Here, I (x, y) represents the pixel value of the original image, I R (x, y) represents the pixel value of the reflectance estimated image, and I ^ (x, y) represents the pixel value of the reproduced image. Represent. Thus, the skin region is multiplied by a skin part retention parameter δ (α) of 1 or less in accordance with the visibility parameter α. Thereby, the weight of the pixel value of the reflectance estimation image is reduced, and the weight of the pixel value of the original image is increased, thereby suppressing the occurrence of the pseudo contour.
本実施の形態では、原画像の反射率成分が強調された強調画像の一例として、再現画像を用いており、強調画像を生成する強調画像生成手段の一例として、画像再現部17を設けている。 In the present embodiment, a reproduced image is used as an example of an enhanced image in which the reflectance component of the original image is enhanced, and an image reproduction unit 17 is provided as an example of an enhanced image generation unit that generates an enhanced image. .
[第5の実施の形態]
本実施の形態は、肌部保持と暗部保持と明部保持とを組み合わせた実施の形態である。
[Fifth Embodiment]
This embodiment is an embodiment in which skin part holding, dark part holding, and bright part holding are combined.
図21は、本発明の第5の実施の形態における画像処理装置10の機能構成例表すブロック図である。図示するように、本実施の形態における画像処理装置10は、照明推定部11と、反射率推定部12と、暗部保持パラメータ決定部14と、明部保持パラメータ決定部15と、画像再現部17と、肌領域抽出部18と、肌部保持パラメータ決定部19とを備える。ここで、照明推定部11及び反射率推定部12については、第1の実施の形態と同じであり、暗部保持パラメータ決定部14及び明部保持パラメータ決定部15については、第2の実施の形態と同じであり、肌領域抽出部18及び肌部保持パラメータ決定部19については、第4の実施の形態と同じなので説明を省略し、以下では、画像再現部17についてのみ説明する。 FIG. 21 is a block diagram illustrating a functional configuration example of the image processing apparatus 10 according to the fifth embodiment of the present invention. As shown in the figure, the image processing apparatus 10 according to the present embodiment includes an illumination estimation unit 11, a reflectance estimation unit 12, a dark part retention parameter determination unit 14, a bright part retention parameter determination unit 15, and an image reproduction unit 17. And a skin region extraction unit 18 and a skin part retention parameter determination unit 19. Here, the illumination estimator 11 and the reflectance estimator 12 are the same as those of the first embodiment, and the dark part retention parameter determination unit 14 and the bright part retention parameter determination part 15 are the second embodiment. Since the skin area extraction unit 18 and the skin part retention parameter determination unit 19 are the same as those in the fourth embodiment, description thereof will be omitted, and only the image reproduction unit 17 will be described below.
画像再現部17は、抽出した肌領域と肌領域以外とで処理を変える。肌領域の画素値は、肌部保持パラメータ決定部19で決定した肌部保持パラメータδ(α)を用いて数式22で算出する。肌領域以外の画素値は、δ(α)を用いずに数式23で算出する。但し、0≦α≦1、0≦β≦1、0≦γ≦1、0≦δ(α)≦1とする。 The image reproduction unit 17 changes processing between the extracted skin region and other than the skin region. The pixel value of the skin area is calculated by Expression 22 using the skin part holding parameter δ (α) determined by the skin part holding parameter determining unit 19. Pixel values other than the skin region are calculated by Equation 23 without using δ (α). However, 0 ≦ α ≦ 1, 0 ≦ β ≦ 1, 0 ≦ γ ≦ 1, and 0 ≦ δ (α) ≦ 1.
ここで、数式22と数式23との違いについて、図22を参照して説明する。肌領域以外については、第2の実施の形態と同じ処理となるため、実線のような関数形状のパラメータが最終的な再現パラメータとして決定される。一方、肌領域については、δ(α)を乗算するため、原画像の寄与が高まり、破線のような関数形状のパラメータが最終的な再現パラメータとして決定される。これにより、暗部と明部を保持しつつ肌部の疑似輪郭も抑制する。 Here, the difference between Formula 22 and Formula 23 will be described with reference to FIG. Since the processing other than the skin region is the same as that of the second embodiment, the function shape parameter such as a solid line is determined as the final reproduction parameter. On the other hand, since the skin region is multiplied by δ (α), the contribution of the original image is increased, and a function-shaped parameter such as a broken line is determined as a final reproduction parameter. Thereby, the pseudo contour of a skin part is also suppressed, holding a dark part and a bright part.
また、図22の肌領域についてのパラメータの関数形状が視認性パラメータαを高めた場合にどのように変化するかを図23に示す。図23の2つの破線の関数形状のうち下側の関数形状がαを高めた場合の関数形状である。αが高いほど、暗部ノイズ、明部の白飛び及び肌部の疑似輪郭が目立ち易くなるため、矢印で示すように、原画像の寄与を高くする。これにより、視認性パラメータαに応じて、暗部と明部を保持しつつ肌部の疑似輪郭も抑制する。尚、δ(α)は、数式19のようにαの増加に応じて減少するような関数で算出すればよい。 FIG. 23 shows how the function shape of the parameter for the skin region in FIG. 22 changes when the visibility parameter α is increased. The function shape on the lower side of the two broken line function shapes in FIG. 23 is a function shape when α is increased. As α is higher, dark part noise, bright part whiteout, and pseudo contour of the skin part become more conspicuous, and the contribution of the original image is increased as shown by the arrows. Thereby, according to the visibility parameter (alpha), the pseudo contour of a skin part is also suppressed, holding a dark part and a bright part. Note that δ (α) may be calculated by a function that decreases as α increases as shown in Equation 19.
本実施の形態では、原画像の反射率成分が強調された強調画像の一例として、再現画像を用いており、強調画像を生成する強調画像生成手段の一例として、画像再現部17を設けている。 In the present embodiment, a reproduced image is used as an example of an enhanced image in which the reflectance component of the original image is enhanced, and an image reproduction unit 17 is provided as an example of an enhanced image generation unit that generates an enhanced image. .
尚、本実施の形態では、暗部保持パラメータ決定部14及び明部保持パラメータ決定部15を設け、画像再現部17が、視認性パラメータ及び肌部保持パラメータに加え、暗部保持パラメータ及び明部保持パラメータを用いて、反射率成分を強調した再現画像を生成するようにしたが、この限りではない。暗部保持パラメータ決定部14及び明部保持パラメータ決定部15に代えて、第1の実施の形態の明暗部保持パラメータ決定部13を設け、画像再現部17が、視認性パラメータ及び肌部保持パラメータに加え、明暗部保持パラメータを用いて、反射率成分を強調した再現画像を生成するようにしてもよい。或いは、暗部保持パラメータ決定部14及び明部保持パラメータ決定部15の何れか一方を設け、画像再現部17が、視認性パラメータ及び肌部保持パラメータに加え、暗部保持パラメータ及び明部保持パラメータの何れか一方を用いて、反射率成分を強調した再現画像を生成するようにしてもよい。この意味で、暗部保持パラメータ及び明部保持パラメータは、原画像の暗部及び明部の少なくとも何れか一方の保持度合いである第2の保持度合いの一例であり、暗部保持パラメータ決定部14及び明部保持パラメータ決定部15は、原画像と強調度合いとを用いて第2の保持度合いを決定する第2の決定手段の一例である。 In this embodiment, the dark part retention parameter determination unit 14 and the bright part retention parameter determination unit 15 are provided, and the image reproduction unit 17 includes the dark part retention parameter and the bright part retention parameter in addition to the visibility parameter and the skin part retention parameter. A reproduction image in which the reflectance component is emphasized is generated using, but this is not restrictive. In place of the dark part retention parameter determination unit 14 and the bright part retention parameter determination unit 15, the bright / dark part retention parameter determination unit 13 of the first embodiment is provided, and the image reproduction unit 17 uses the visibility parameter and the skin part retention parameter. In addition, a reproduction image in which the reflectance component is emphasized may be generated using the bright and dark part holding parameter. Alternatively, either one of the dark part holding parameter determination unit 14 and the bright part holding parameter determination unit 15 is provided, and the image reproduction unit 17 selects any one of the dark part holding parameter and the bright part holding parameter in addition to the visibility parameter and the skin part holding parameter. One of them may be used to generate a reproduction image in which the reflectance component is emphasized. In this sense, the dark part holding parameter and the bright part holding parameter are an example of a second holding degree that is a holding degree of at least one of the dark part and the bright part of the original image. The retention parameter determination unit 15 is an example of a second determination unit that determines the second retention degree using the original image and the enhancement degree.
[第4及び第5の実施の形態の動作]
図24は、本発明の第4及び第5の実施の形態における画像処理装置10の動作例を表すフローチャートである。尚、この動作例では、視認性パラメータに応じて明暗部保持パラメータ、暗部保持パラメータ、明部保持パラメータ等を制御する場合について説明する。
[Operation of the fourth and fifth embodiments]
FIG. 24 is a flowchart showing an operation example of the image processing apparatus 10 in the fourth and fifth embodiments of the present invention. In this operation example, a case will be described in which the bright / dark part holding parameter, the dark part holding parameter, the bright part holding parameter, and the like are controlled according to the visibility parameter.
原画像が入力されると、まず、照明推定部11が、図2及び図4に示したように、原画像から、複数の平滑化された画像を含む多層画像を生成し、これらの多層画像を用いて、照明推定画像を生成する(ステップ151)。 When the original image is input, first, the illumination estimation unit 11 generates a multilayer image including a plurality of smoothed images from the original image as shown in FIGS. 2 and 4, and these multilayer images Is used to generate an illumination estimation image (step 151).
次に、反射率推定部12が、原画像と、ステップ151で生成された照明推定画像とに基づいて、反射率推定画像を生成する(ステップ152)。 Next, the reflectance estimation unit 12 generates a reflectance estimation image based on the original image and the illumination estimation image generated in step 151 (step 152).
次いで、画像処理装置10は、暗部及び明部の少なくとも何れか一方の保持パラメータを決定する(ステップ153)。 Next, the image processing apparatus 10 determines a holding parameter for at least one of the dark part and the bright part (step 153).
但し、第4の実施の形態では、このステップ153は実行しないものとする。 However, in the fourth embodiment, step 153 is not executed.
また、「暗部及び明部の少なくとも何れか一方の保持パラメータ」とは、第5の実施の形態では、暗部保持パラメータ及び明部保持パラメータである。即ち、第5の実施の形態では、暗部保持パラメータ決定部14が、原画像と視認性パラメータとに基づいて、暗部保持パラメータを決定すると共に、明部保持パラメータ決定部15が、原画像と視認性パラメータとに基づいて、明部保持パラメータを決定する。 In addition, the “holding parameter of at least one of the dark part and the bright part” is a dark part holding parameter and a bright part holding parameter in the fifth embodiment. That is, in the fifth embodiment, the dark part holding parameter determination unit 14 determines the dark part holding parameter based on the original image and the visibility parameter, and the bright part holding parameter determination unit 15 determines the original image and the visual recognition. The bright part retention parameter is determined based on the sex parameter.
更に、「暗部及び明部の少なくとも何れか一方の保持パラメータ」とは、第5の実施の形態で暗部保持パラメータ決定部14及び明部保持パラメータ決定部15に代えて第1の実施の形態の明暗部保持パラメータ決定部13を設けた変形例では、明暗部保持パラメータである。即ち、第5の実施の形態のこの変形例では、明暗部保持パラメータ決定部13が、原画像と視認性パラメータとに基づいて、明暗部保持パラメータを決定する。 Furthermore, “at least one holding parameter of the dark part and the bright part” is the same as that of the first embodiment instead of the dark part holding parameter determination unit 14 and the bright part holding parameter determination unit 15 in the fifth embodiment. In the modification in which the bright / dark part holding parameter determining unit 13 is provided, the bright / dark part holding parameter is used. That is, in this modification of the fifth embodiment, the light / dark part holding parameter determining unit 13 determines the light / dark part holding parameter based on the original image and the visibility parameter.
次に、肌領域抽出部18が、原画像から肌領域を抽出する(ステップ154)。 Next, the skin region extraction unit 18 extracts a skin region from the original image (step 154).
次いで、肌部保持パラメータ決定部19が、視認性パラメータに基づいて、肌部保持パラメータを決定する(ステップ155)。 Next, the skin holding parameter determination unit 19 determines the skin holding parameter based on the visibility parameter (step 155).
最後に、画像再現部17が、原画像と、ステップ152で生成された反射率推定画像と、視認性パラメータと、ステップ153で決定された暗部及び明部の少なくとも何れか一方の保持パラメータと、肌領域については、更に、ステップ155で決定された肌部保持パラメータとに基づいて、再現画像を生成する(ステップ156)。尚、ここでは、数式4を用いて再現画像を生成する場合を想定して原画像を用いることとしたが、数式5を用いて再現画像を生成する場合は、ステップ156で原画像を用いなくてもよい。 Finally, the image reproduction unit 17 includes the original image, the reflectance estimation image generated in step 152, the visibility parameter, and the retention parameter of at least one of the dark part and the bright part determined in step 153, For the skin region, a reproduction image is further generated based on the skin part retention parameter determined in step 155 (step 156). Here, it is assumed that the original image is used on the assumption that the reproduction image is generated using Expression 4, but when the reproduction image is generated using Expression 5, the original image is not used in Step 156. May be.
[画像処理装置のハードウェア構成]
本実施の形態における画像処理装置10は、例えばPCにインストールされた画像処理ソフトウェアとしても実現され得るが、典型的には、画像読取り及び画像形成を行う画像処理装置10として実現される。
[Hardware configuration of image processing apparatus]
The image processing apparatus 10 according to the present embodiment can be realized, for example, as image processing software installed in a PC, but is typically realized as an image processing apparatus 10 that performs image reading and image formation.
図25は、このような画像処理装置10のハードウェア構成例を示した図である。図示するように、画像処理装置10は、CPU(Central Processing Unit)21と、RAM(Random Access Memory)22と、ROM(Read Only Memory)23と、HDD(Hard Disk Drive)24と、操作パネル25と、画像読取部26と、画像形成部27と、通信インターフェース(以下、「通信I/F」と表記する)28とを備える。 FIG. 25 is a diagram illustrating a hardware configuration example of such an image processing apparatus 10. As illustrated, the image processing apparatus 10 includes a central processing unit (CPU) 21, a random access memory (RAM) 22, a read only memory (ROM) 23, a hard disk drive (HDD) 24, and an operation panel 25. An image reading unit 26, an image forming unit 27, and a communication interface (hereinafter referred to as “communication I / F”) 28.
CPU21は、ROM23等に記憶された各種プログラムをRAM22にロードして実行することにより、後述する各機能を実現する。 The CPU 21 implements various functions to be described later by loading various programs stored in the ROM 23 and the like into the RAM 22 and executing them.
RAM22は、CPU21の作業用メモリ等として用いられるメモリである。 The RAM 22 is a memory used as a working memory for the CPU 21.
ROM23は、CPU21が実行する各種プログラム等を記憶するメモリである。 The ROM 23 is a memory that stores various programs executed by the CPU 21.
HDD24は、画像読取部26が読み取った画像データや画像形成部27における画像形成にて用いる画像データ等を記憶する例えば磁気ディスク装置である。 The HDD 24 is, for example, a magnetic disk device that stores image data read by the image reading unit 26 and image data used for image formation in the image forming unit 27.
操作パネル25は、各種情報の表示やユーザからの操作入力の受付を行うタッチパネルである。ここで、操作パネル25は、各種情報が表示されるディスプレイと、指やスタイラスペン等で指示された位置を検出する位置検出シートとからなる。 The operation panel 25 is a touch panel that displays various types of information and receives operation inputs from the user. Here, the operation panel 25 includes a display on which various types of information are displayed, and a position detection sheet that detects a position designated by a finger, a stylus pen, or the like.
画像読取部26は、紙等の記録媒体に記録された画像を読み取る。ここで、画像読取部26は、例えばスキャナであり、光源から原稿に照射した光に対する反射光をレンズで縮小してCCD(Charge Coupled Devices)で受光するCCD方式や、LED光源から原稿に順に照射した光に対する反射光をCIS(Contact Image Sensor)で受光するCIS方式のものを用いるとよい。 The image reading unit 26 reads an image recorded on a recording medium such as paper. Here, the image reading unit 26 is, for example, a scanner, and a CCD system in which reflected light with respect to light irradiated from a light source to a document is reduced by a lens and received by a CCD (Charge Coupled Devices), or an LED light source is sequentially irradiated onto a document. It is preferable to use a CIS system in which reflected light with respect to the received light is received by a CIS (Contact Image Sensor).
画像形成部27は、記録媒体に画像を形成する。ここで、画像形成部27は、例えばプリンタであり、感光体に付着させたトナーを記録媒体に転写して像を形成する電子写真方式や、インクを記録媒体上に吐出して像を形成するインクジェット方式のものを用いるとよい。 The image forming unit 27 forms an image on a recording medium. Here, the image forming unit 27 is, for example, a printer, and forms an image by transferring the toner attached to the photosensitive member to a recording medium to form an image, or ejecting ink onto the recording medium. An ink jet type may be used.
通信I/F28は、ネットワークを介して他の装置との間で各種情報の送受信を行う。 The communication I / F 28 transmits / receives various information to / from other devices via the network.
尚、本実施の形態を実現するプログラムは、通信手段により提供することはもちろん、CD−ROM等の記録媒体に格納して提供することも可能である。 The program for realizing the present embodiment can be provided not only by communication means but also by storing it in a recording medium such as a CD-ROM.
10…画像処理装置、11…照明推定部、12…反射率推定部、13…明暗部保持パラメータ決定部、14…暗部保持パラメータ決定部、15…明部保持パラメータ決定部、16…ユーザパラメータ決定部、17…画像再現部、18…肌領域抽出部、19…肌部保持パラメータ決定部 DESCRIPTION OF SYMBOLS 10 ... Image processing apparatus, 11 ... Illumination estimation part, 12 ... Reflectance estimation part, 13 ... Bright / dark part holding parameter determination part, 14 ... Dark part holding parameter determination part, 15 ... Bright part holding parameter determination part, 16 ... User parameter determination , 17 ... Image reproduction unit, 18 ... Skin region extraction unit, 19 ... Skin part retention parameter determination unit
Claims (14)
前記原画像と、当該原画像の反射率成分の強調度合いとを用いて、当該原画像の暗部及び明部の少なくとも何れか一方の保持度合いを決定する決定手段と、
前記反射率画像と、前記強調度合いと、前記保持度合いとを用いて、前記原画像の反射率成分が強調された強調画像を生成する強調画像生成手段と
を備えたことを特徴とする画像処理装置。 A reflectance image generating means for generating a reflectance image having the reflectance component of the original image as a pixel value from the original image;
Determining means for determining a retention degree of at least one of a dark part and a bright part of the original image using the original image and the enhancement degree of the reflectance component of the original image;
Image processing comprising: an enhanced image generating unit configured to generate an enhanced image in which the reflectance component of the original image is enhanced using the reflectance image, the enhancement degree, and the retention degree. apparatus.
前記原画像の反射率成分の強調度合いを用いて、当該原画像の疑似輪郭を発生させる色として予め定められた特定色の部分の保持度合いである第1の保持度合いを決定する第1の決定手段と、
前記反射率画像と、前記強調度合いと、前記第1の保持度合いとを用いて、前記原画像の反射率成分が強調された強調画像を生成する強調画像生成手段と
を備えたことを特徴とする画像処理装置。 A reflectance image generating means for generating a reflectance image having the reflectance component of the original image as a pixel value from the original image;
A first determination for determining a first holding degree, which is a holding degree of a specific color portion predetermined as a color for generating a pseudo contour of the original image, using the enhancement degree of the reflectance component of the original image. Means,
Emphasized image generating means for generating an enhanced image in which the reflectance component of the original image is enhanced using the reflectance image, the enhancement degree, and the first retention degree. An image processing apparatus.
前記強調画像生成手段は、前記原画像の前記特定色の部分が前記第1の保持度合いを用いて強調され、かつ、前記原画像の前記特定色の部分以外が前記第1の保持度合いを用いて強調されない前記強調画像を生成することを特徴とする請求項9に記載の画像処理装置。 An extraction means for extracting the specific color portion from the original image;
The enhanced image generating means emphasizes the specific color portion of the original image using the first retention degree, and uses the first retention degree for portions other than the specific color portion of the original image. The image processing apparatus according to claim 9, wherein the emphasized image that is not emphasized is generated.
前記強調画像生成手段は、前記第2の保持度合いを更に用いて、前記強調画像を生成することを特徴とする請求項9に記載の画像処理装置。 Using the original image and the enhancement degree, further comprising a second determining means for determining a second holding degree that is a holding degree of at least one of a dark part and a bright part of the original image;
The image processing apparatus according to claim 9, wherein the enhanced image generation unit generates the enhanced image by further using the second holding degree.
原画像から、当該原画像の反射率成分を画素値とする反射率画像を生成する機能と、
前記原画像と、当該原画像の反射率成分の強調度合いとを用いて、当該原画像の暗部及び明部の少なくとも何れか一方の保持度合いを決定する機能と、
前記反射率画像と、前記強調度合いと、前記保持度合いとを用いて、前記原画像の反射率成分が強調された強調画像を生成する機能と
を実現させるためのプログラム。 On the computer,
A function to generate a reflectance image having the reflectance component of the original image as a pixel value from the original image;
Using the original image and the enhancement degree of the reflectance component of the original image, a function of determining the retention degree of at least one of the dark part and the bright part of the original image,
A program for realizing a function of generating an enhanced image in which the reflectance component of the original image is enhanced using the reflectance image, the enhancement degree, and the retention degree.
原画像から、当該原画像の反射率成分を画素値とする反射率画像を生成する機能と、
前記原画像の反射率成分の強調度合いを用いて、当該原画像の疑似輪郭を発生させる色として予め定められた特定色の部分の保持度合いである第1の保持度合いを決定する機能と、
前記反射率画像と、前記強調度合いと、前記第1の保持度合いとを用いて、前記原画像の反射率成分が強調された強調画像を生成する機能と
を実現させるためのプログラム。 On the computer,
A function to generate a reflectance image having the reflectance component of the original image as a pixel value from the original image;
A function of determining a first holding degree that is a holding degree of a portion of a specific color that is predetermined as a color that generates a pseudo contour of the original image, using the enhancement degree of the reflectance component of the original image;
A program for realizing a function of generating an enhanced image in which a reflectance component of the original image is enhanced using the reflectance image, the enhancement degree, and the first retention degree.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US15/226,221 US9881364B2 (en) | 2015-08-10 | 2016-08-02 | Image processing apparatus, image processing method and computer readable medium for image enhancement |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015158194 | 2015-08-10 | ||
| JP2015158194 | 2015-08-10 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2017037622A true JP2017037622A (en) | 2017-02-16 |
| JP6627530B2 JP6627530B2 (en) | 2020-01-08 |
Family
ID=58049483
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016012547A Active JP6627530B2 (en) | 2015-08-10 | 2016-01-26 | Image processing device and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6627530B2 (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2019146122A1 (en) * | 2018-01-29 | 2019-08-01 | Eizo株式会社 | Image processing device, image processing method, and image processing program |
| CN116542883A (en) * | 2023-07-07 | 2023-08-04 | 四川大学华西医院 | Magnetic control capsule gastroscope image focus mucosa enhancement system |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007174482A (en) * | 2005-12-26 | 2007-07-05 | Konica Minolta Holdings Inc | Imaging apparatus, image processing method, and image processing program |
| JP2011086976A (en) * | 2009-10-13 | 2011-04-28 | Victor Co Of Japan Ltd | Image processor and image processing method |
| JP2012108898A (en) * | 2010-10-29 | 2012-06-07 | Jvc Kenwood Corp | Image processing device and image processing method |
| JP2012175310A (en) * | 2011-02-21 | 2012-09-10 | Jvc Kenwood Corp | Image processing apparatus and image processing method |
| JP2013210709A (en) * | 2012-03-30 | 2013-10-10 | Eizo Corp | Image display apparatus and method for the same |
| JP2015075793A (en) * | 2013-10-04 | 2015-04-20 | 富士ゼロックス株式会社 | Image processor and program |
-
2016
- 2016-01-26 JP JP2016012547A patent/JP6627530B2/en active Active
Patent Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007174482A (en) * | 2005-12-26 | 2007-07-05 | Konica Minolta Holdings Inc | Imaging apparatus, image processing method, and image processing program |
| JP2011086976A (en) * | 2009-10-13 | 2011-04-28 | Victor Co Of Japan Ltd | Image processor and image processing method |
| JP2012108898A (en) * | 2010-10-29 | 2012-06-07 | Jvc Kenwood Corp | Image processing device and image processing method |
| JP2012175310A (en) * | 2011-02-21 | 2012-09-10 | Jvc Kenwood Corp | Image processing apparatus and image processing method |
| JP2013210709A (en) * | 2012-03-30 | 2013-10-10 | Eizo Corp | Image display apparatus and method for the same |
| US20150123985A1 (en) * | 2012-03-30 | 2015-05-07 | Eizo Corporation | Device or method for displaying image |
| JP2015075793A (en) * | 2013-10-04 | 2015-04-20 | 富士ゼロックス株式会社 | Image processor and program |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2019146122A1 (en) * | 2018-01-29 | 2019-08-01 | Eizo株式会社 | Image processing device, image processing method, and image processing program |
| JPWO2019146122A1 (en) * | 2018-01-29 | 2020-10-22 | Eizo株式会社 | Image processing device, image processing method and image processing program |
| US11238570B2 (en) | 2018-01-29 | 2022-02-01 | Eizo Corporation | Image processing device, image processing method, and image processing program |
| CN116542883A (en) * | 2023-07-07 | 2023-08-04 | 四川大学华西医院 | Magnetic control capsule gastroscope image focus mucosa enhancement system |
| CN116542883B (en) * | 2023-07-07 | 2023-09-05 | 四川大学华西医院 | A Magnetically Controlled Capsule Gastroscopy Image Lesion Mucosal Enhancement System |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6627530B2 (en) | 2020-01-08 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4870617B2 (en) | Image data automatic mapping method and image processing device | |
| US8164594B2 (en) | Image processing device, image processing method, program, storage medium and integrated circuit | |
| US20090201310A1 (en) | Adjusting color attribute of an image in a non-uniform way | |
| JP6303816B2 (en) | Image processing apparatus and program | |
| JP6357881B2 (en) | Image processing apparatus and program | |
| JP2008148308A (en) | Apparatus and method for adaptive saturation adjustment with noise reduction function | |
| KR102221116B1 (en) | A device and method for removing the noise on the image using cross-kernel type median filter | |
| JP2007241424A (en) | Image processing apparatus and image processing method | |
| JP6690125B2 (en) | Image processing device and program | |
| JP6160426B2 (en) | Image processing apparatus and program | |
| US9595082B2 (en) | Image processor and non-transitory computer readable medium for generating a reproduction image which is reproduced so that visibility of an original image is enhanced | |
| JP2009025862A (en) | Image processing apparatus, image processing method, image processing program, and image display apparatus | |
| US9881364B2 (en) | Image processing apparatus, image processing method and computer readable medium for image enhancement | |
| JP6627530B2 (en) | Image processing device and program | |
| JP6844295B2 (en) | Image processing equipment and programs | |
| JP2006114005A (en) | Gradation conversion device, program, electronic camera, and method thereof | |
| JP5234127B2 (en) | Gradation conversion device, program, electronic camera, and method thereof | |
| JP4804271B2 (en) | Image processing apparatus and control method thereof | |
| JP6160425B2 (en) | Image processing apparatus and program | |
| JP5381354B2 (en) | Image processing apparatus, image processing method, program, and storage medium | |
| JP6273750B2 (en) | Image processing apparatus and program | |
| CN110402455B (en) | Image display device | |
| JP5050141B2 (en) | Color image exposure evaluation method | |
| JP4359662B2 (en) | Color image exposure compensation method | |
| JP2017130721A (en) | Image processing apparatus and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181122 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190924 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191105 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191118 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6627530 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |