[go: up one dir, main page]

JP2006180185A - Color adjustment method, color adjustment apparatus, and program - Google Patents

Color adjustment method, color adjustment apparatus, and program Download PDF

Info

Publication number
JP2006180185A
JP2006180185A JP2004371000A JP2004371000A JP2006180185A JP 2006180185 A JP2006180185 A JP 2006180185A JP 2004371000 A JP2004371000 A JP 2004371000A JP 2004371000 A JP2004371000 A JP 2004371000A JP 2006180185 A JP2006180185 A JP 2006180185A
Authority
JP
Japan
Prior art keywords
color
target
feature amount
adjustment
target color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004371000A
Other languages
Japanese (ja)
Inventor
Makoto Sasaki
信 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2004371000A priority Critical patent/JP2006180185A/en
Publication of JP2006180185A publication Critical patent/JP2006180185A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technique determining a target color in response to the attribute of an object for color adjustment and a scene represented by a color image. <P>SOLUTION: This color adjustment apparatus is provided with: a scene feature quantity calculation section 11 for analyzing the color image and calculating a scene feature quantity for digitizing the attribute of the color adjustment object and a scene represented by the color image; a target color definition generating section 21 for generating a target color definition for cross-referencing the scene feature quantity with the target color; a target color calculation section 12 for calculating the target color on the basis of the calculated scene feature quantity and the generated target color definition; an adjustment object color calculation section 31 for calculating the color of the adjustment object; and a color adjustment section 32 for adjusting the adjustment target color to the target color. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、カラー画像の特定の対象の色を調整する色調整方法等に関する。   The present invention relates to a color adjustment method for adjusting a specific target color of a color image.

デジタルカメラ等で撮影された自然画像に対し、色調整を行う場合がある。画像全体のカラーバランスや明度等を補正したり、調整対象となる特定の領域や特定の色を補正したりする色調整である。このうち、後者のような部分的な色調整の典型的なものとしては、特定の対象の色を、その対象の色のイメージとして多くの人が記憶している色(以下、「記憶色」という)に近づける調整がある。例えば、人物の肌は、自然画像では黄土色等の不健康そうな色となってしまうこともあるが、そのような場合に、健康そうな肌の色にする調整を行うことがある。また、空の色は、快晴であっても、自然画像では水色に近い青色となるのが普通であるが、プリントされる画像としては、快晴の時の空の色として多くの人がイメージしているような真っ青な色にした方が見栄えがよくなるので、このような色へと補正することも多い。   Color adjustment may be performed on a natural image taken by a digital camera or the like. Color adjustment is to correct the color balance, brightness, etc. of the entire image, or to correct a specific area or a specific color to be adjusted. Of these, typical examples of partial color adjustments such as the latter include a color that is stored by many people as an image of a specific target color (hereinafter referred to as `` memory color ''). Adjustment) For example, a person's skin may become an unhealthy color such as ocher in a natural image, but in such a case, an adjustment may be made to make the skin color look healthy. Also, even if the sky is clear, it is normal that the natural image is blue, which is close to light blue. However, as a printed image, many people imagine it as the color of the sky when it is clear. Since it looks better when it is a bright blue color, it is often corrected to such a color.

この種の色調整については、従来技術として幾つかの手法が提案されている。
まず、階調逆転が起きたり、色の連続性が損なわれたりしないように色調整を行う従来技術がある(例えば、特許文献1参照)。この特許文献1では、調整対象となる対象色と調整目標となる目標色とを包含した調整対象色空間内で、対象色から目標色に向かって階調逆転のない点の移動を行うことにより、指定された特定の色調整を可能としている。点の移動は、調整対象色空間内のみで行われるので、他の色に影響を及ぼすことはない。
また、色調整の結果が、原画像からかけ離れたものとならないように色調整を行う従来技術もある(例えば、特許文献2参照)。この特許文献2では、与えられた目標色をそのまま用いるのではなく、原画像に対して自然な色になるように、与えられた目標色を最適な目標色に変換して、この最適目標色を色調整の目標としている。具体的には、原画像から抽出された調整対象となる領域の色と目標色との距離を算出し、距離に対する抑制関数によって、最適な目標色となるように制御している。
For this type of color adjustment, several methods have been proposed as conventional techniques.
First, there is a conventional technique for performing color adjustment so that gradation inversion does not occur and color continuity is not impaired (see, for example, Patent Document 1). In this Patent Document 1, by moving a point without gradation reversal from the target color to the target color in the adjustment target color space including the target color to be adjusted and the target color to be adjusted. Allows specific color adjustments specified. Since the movement of the point is performed only in the adjustment target color space, it does not affect other colors.
There is also a conventional technique for performing color adjustment so that the result of color adjustment is not far from the original image (see, for example, Patent Document 2). In this Patent Document 2, the given target color is not used as it is, but the given target color is converted into the optimum target color so that it becomes a natural color with respect to the original image, and this optimum target color is converted. Is the goal of color adjustment. Specifically, the distance between the color of the region to be adjusted extracted from the original image and the target color is calculated, and control is performed so that the optimum target color is obtained by a suppression function for the distance.

特開2004−112694号公報(第7−12頁、第1−6図)Japanese Unexamined Patent Publication No. 2004-112694 (pages 7-12, FIGS. 1-6) 特開2004−254303号公報(第7−9頁、第3−6図)JP 2004-254303 A (pages 7-9, FIG. 3-6)

ところで、色調整の目標となる目標色としては、対象物に応じて固定的に決まった色を設定すればよいといったものではない。目標色は、色調整の対象となる対象物の属性や、画像が表すシーンに応じて変化することもある。例えば、人物の肌の色は、性別や人種等の属性によって異なることもあるし、その人物の周囲の情景等のシーンによって異なることもある。
しかしながら、特許文献1、2に記載の技術は、あらかじめ与えられた目標色に対して制御を行うだけであり、目標色そのものをシーンに応じて適切に決定できないという問題点があった。
By the way, as a target color that is a target of color adjustment, it is not necessary to set a fixed color according to an object. The target color may change depending on the attribute of the object to be color-adjusted and the scene represented by the image. For example, the skin color of a person may vary depending on attributes such as gender and race, and may vary depending on scenes such as a scene around the person.
However, the techniques described in Patent Documents 1 and 2 only control a target color given in advance, and there is a problem that the target color itself cannot be appropriately determined according to the scene.

本発明は、以上のような技術的課題を解決するためになされたものであって、その目的は、色調整の対象となる対象物の属性や、カラー画像が表すシーンに応じて、目標色を決定できるようにすることにある。   The present invention has been made to solve the above technical problem, and its purpose is to achieve a target color according to the attribute of the object to be color-adjusted and the scene represented by the color image. Is to be able to determine.

かかる目的のもと、本発明では、カラー画像が表すシーン等に応じて目標色を決定するようにした。即ち、本発明の色調整方法は、カラー画像の色を調整する方法であって、カラー画像の内容に関する特徴量を取得するステップと、取得した特徴量に基づいて、カラー画像における色調整の目標となる目標色を決定するステップとを含んでいる。
ここで、目標色の決定は、次のような方法により行うことができる。
第一に、基準となる目標色と、取得した特徴量とに基づいて、カラー画像における色調整の目標となる目標色を決定するという方法である。
第二に、カラー画像の内容に関する特徴量とその特徴量が取得されたカラー画像における色調整の目標とすべき目標色との対応を定義した定義情報と、取得した特徴量とに基づいて、カラー画像における色調整の目標となる目標色を決定するという方法である。
For this purpose, in the present invention, the target color is determined according to the scene or the like represented by the color image. That is, the color adjustment method of the present invention is a method for adjusting the color of a color image, the step of acquiring a feature amount relating to the content of the color image, and a target for color adjustment in the color image based on the acquired feature amount. Determining a target color.
Here, the target color can be determined by the following method.
The first method is to determine a target color as a color adjustment target in a color image based on a reference target color and an acquired feature amount.
Second, based on the definition information that defines the correspondence between the feature amount related to the content of the color image and the target color that should be the target of color adjustment in the color image from which the feature amount was acquired, and the acquired feature amount, This is a method of determining a target color that is a target of color adjustment in a color image.

また、本発明は、カラー画像が表すシーン等に応じて目標色を決定する装置として捉えることもできる。その場合、本発明の色調整装置は、カラー画像の色を調整する装置であって、カラー画像の内容に関する特徴量を取得する特徴量取得部と、この特徴量取得部により取得された特徴量に基づいて、カラー画像における色調整の目標となる目標色を決定する目標色決定部とを備えている。
ここで、目標色の決定は、次のような方法により行うことができる。
第一に、目標色決定部が、基準となる目標色と、特徴量取得部により取得された特徴量とに基づいて、カラー画像における色調整の目標となる目標色を決定するという方法である。
第二に、目標色決定部が、カラー画像の内容に関する特徴量とその特徴量が取得されたカラー画像における色調整の目標とすべき目標色との対応を定義した定義情報と、特徴量取得部により取得された特徴量とに基づいて、カラー画像における色調整の目標となる目標色を決定するという方法である。
The present invention can also be understood as an apparatus that determines a target color according to a scene or the like represented by a color image. In this case, the color adjustment device of the present invention is a device that adjusts the color of a color image, a feature amount acquisition unit that acquires a feature amount related to the content of the color image, and a feature amount acquired by the feature amount acquisition unit. And a target color determining unit that determines a target color that is a target of color adjustment in the color image.
Here, the target color can be determined by the following method.
First, the target color determination unit determines a target color that is a target of color adjustment in a color image based on the reference target color and the feature amount acquired by the feature amount acquisition unit. .
Second, the target color determination unit defines definition information that defines the correspondence between the feature amount related to the content of the color image and the target color that should be the target of color adjustment in the color image from which the feature amount is acquired, and the feature amount acquisition. This is a method of determining a target color as a color adjustment target in a color image based on the feature amount acquired by the unit.

一方、本発明は、所定の機能をコンピュータに実現するためのプログラムとして捉えることもできる。その場合、本発明のプログラムは、コンピュータに、カラー画像の内容に関する特徴量を取得する機能と、取得した特徴量に基づいて、カラー画像における色調整の目標となる目標色を決定する機能とを実現させるためのものである。
ここで、目標色の決定は、次のような方法により行うことができる。
第一に、基準となる目標色と、取得した特徴量とに基づいて、カラー画像における色調整の目標となる目標色を決定するという方法である。
第二に、カラー画像の内容に関する特徴量とその特徴量が取得されたカラー画像における色調整の目標とすべき目標色との対応を定義した定義情報と、取得した特徴量とに基づいて、カラー画像における色調整の目標となる目標色を決定するという方法である。
On the other hand, the present invention can also be understood as a program for realizing a predetermined function in a computer. In that case, the program of the present invention has a function of acquiring a feature amount related to the contents of the color image in a computer and a function of determining a target color as a target of color adjustment in the color image based on the acquired feature amount. It is for realizing.
Here, the target color can be determined by the following method.
The first method is to determine a target color as a color adjustment target in a color image based on a reference target color and an acquired feature amount.
Second, based on the definition information that defines the correspondence between the feature amount related to the content of the color image and the target color that should be the target of color adjustment in the color image from which the feature amount was acquired, and the acquired feature amount, This is a method of determining a target color that is a target of color adjustment in a color image.

本発明によれば、色調整の対象となる対象物の属性や、カラー画像が表すシーンに応じて、目標色を決定できるようになる。   According to the present invention, the target color can be determined according to the attribute of the target object to be color adjusted and the scene represented by the color image.

以下、添付図面を参照して、本発明を実施するための最良の形態(以下、「実施の形態」という)について詳細に説明する。尚、本実施の形態では、「シーン」との文言を、色調整の対象の周囲の情景に加え、その対象の属性をも包含する概念として用いるものとする。   The best mode for carrying out the present invention (hereinafter referred to as “embodiment”) will be described below in detail with reference to the accompanying drawings. In the present embodiment, the term “scene” is used as a concept that includes not only the scene around the color adjustment target but also the attributes of the target.

(第1の実施の形態)
図1は、本発明の第1の実施の形態における色調整装置の機能構成を示した図である。
図示するように、本実施の形態の色調整装置は、シーン特徴量算出部11と、目標色算出部12とを備える。
シーン特徴量算出部11は、カラー画像に関するシーンを解析し、シーンを数値化したシーン特徴量を算出する機能を有する部分であり、計算によって求めることに限定しなければ、特徴量取得部として把握することもできる部分である。また、目標色算出部12は、シーン特徴量の度合いに応じた目標色を算出する機能を有する部分であり、計算によって求めることに限定しなければ、目標色決定部として把握することもできる部分である。
尚、これらの各機能は、ハードウェアのみによっても実現可能であるが、ハードウェアとソフトウェアの組み合わせによっても実現可能である。後者の場合は、色調整装置の図示しないCPUが、例えば、図示しないメモリに記憶されたプログラムを読み込んで実行することにより各機能が実現される。
(First embodiment)
FIG. 1 is a diagram showing a functional configuration of the color adjustment apparatus according to the first embodiment of the present invention.
As shown in the figure, the color adjustment apparatus according to the present embodiment includes a scene feature amount calculation unit 11 and a target color calculation unit 12.
The scene feature amount calculation unit 11 has a function of analyzing a scene related to a color image and calculating a scene feature amount obtained by quantifying the scene. It is also a part that can be done. In addition, the target color calculation unit 12 is a part having a function of calculating a target color according to the degree of the scene feature amount, and can be grasped as a target color determination unit if not limited to calculation. It is.
Each of these functions can be realized only by hardware, but can also be realized by a combination of hardware and software. In the latter case, each function is realized by a CPU (not shown) of the color adjustment apparatus reading and executing a program stored in a memory (not shown), for example.

次に、このような機能構成を有する色調整装置の動作について詳細に説明する。
まず、シーン特徴量算出部11の動作について説明する。
シーン特徴量算出部11は、初めに、カラー画像の入力を受け付ける。
図2は、このようなカラー画像の一例を示した図である。尚、色調整を行う対象としては、種々のものが考えられるが、本実施の形態では、人物の肌の色について調整を行うものとする。従って、入力されるカラー画像としては、図2に示すように、人物が写っているものを想定する。
尚、本実施の形態では、説明を簡単にするために、画像中の人物は1人だけであるとする。例えば、シーン特徴量算出部11の前段に画像解析部を設け、入力されたカラー画像に人物が1人だけ写っているかどうかを公知の手法により判定するようにしてもよい。この場合、1人の人物が写っているカラー画像である場合のみ、そのカラー画像をシーン特徴量算出部11に入力するようにする。
Next, the operation of the color adjustment apparatus having such a functional configuration will be described in detail.
First, the operation of the scene feature quantity calculation unit 11 will be described.
The scene feature amount calculation unit 11 first receives an input of a color image.
FIG. 2 is a diagram showing an example of such a color image. Although various objects can be considered for color adjustment, in this embodiment, the color of the person's skin is adjusted. Accordingly, it is assumed that the color image to be input includes a person as shown in FIG.
In the present embodiment, it is assumed that there is only one person in the image in order to simplify the description. For example, an image analysis unit may be provided in the preceding stage of the scene feature amount calculation unit 11 to determine whether or not only one person is included in the input color image by a known method. In this case, only when the color image includes one person, the color image is input to the scene feature amount calculation unit 11.

シーン特徴量算出部11は、このようなカラー画像を入力し、シーンの解析を行う。シーンの解析は、領域分割とニューラルネットワークの組み合わせ等、公知の手法により部分領域ごとの判定を行えばよい。例えば、図2では、雲、空、山、人物の顔、椅子といった部分領域を抽出することにより解析を行っている。
このようなシーン解析の結果を数値化すると、図3(a)のようなシーン特徴量が得られる。ここでは、特徴の種類として、「性別」、「人種」、「情景」を選択している。
The scene feature amount calculation unit 11 inputs such a color image and analyzes the scene. The scene analysis may be performed for each partial region by a known method such as a combination of region division and a neural network. For example, in FIG. 2, the analysis is performed by extracting partial areas such as clouds, sky, mountains, human faces, and chairs.
When the scene analysis result is digitized, a scene feature amount as shown in FIG. 3A is obtained. Here, “sex”, “race”, and “scene” are selected as the feature types.

ここで、性別、人種、情景についてのシーン特徴量の算出手法について、簡単に説明しておく。
まず、性別は、例えば、顔の色、髪型によって判定することが可能である。即ち、検出すべき対象物(顔、髪の毛等)の色範囲にある画素の連結成分を抽出し、その中で連結成分内の色の勾配が所定の閾値を超えるものを除外する等により、対象物の領域を特定する。そして、例えば、顔の色が薄い方に偏っていれば女性、濃い方に偏っていれば男性、といった判定を行う。或いは、髪の毛が長ければ女性、短ければ男性、といった判定を行うことも可能である。また、顔の色、髪型その他の要素を総合的に考慮して性別を判定するようにしてもよい。
Here, a method for calculating a scene feature amount for gender, race, and scene will be briefly described.
First, gender can be determined by, for example, the face color and hairstyle. That is, by extracting the connected components of the pixels in the color range of the target object (face, hair, etc.) to be detected and excluding those in which the color gradient in the connected component exceeds a predetermined threshold Identify the area of the object. Then, for example, the determination is made such that a woman is biased when the face color is biased toward a lighter color and a male is biased toward a darker color. Alternatively, it is possible to make a determination such that a woman has a long hair and a man has a short hair. Further, gender may be determined in consideration of the face color, hairstyle and other factors.

また、人種も、性別と同様、顔の色を手がかりにある程度判別することが可能である。
一方、情景は、図2の例であれば、雲、空、山の存在により、屋外で撮影された画像である可能性が高いことが推認される。尚、雲、空、山等の検出は、検出すべき対象物(雲、空、山等)の色範囲にある画素の連結成分を抽出し、その中で連結成分内の色の勾配が所定の閾値を超えるものを除外する等により、抽出することができる。
Also, the race can be discriminated to some extent by using the color of the face as a clue, like gender.
On the other hand, in the example of FIG. 2, it is assumed that the scene is likely to be an image taken outdoors due to the presence of clouds, sky, and mountains. For detection of clouds, sky, mountains, etc., the connected components of the pixels in the color range of the object to be detected (clouds, sky, mountains, etc.) are extracted, and the gradient of the color in the connected components among them is predetermined. It can be extracted by excluding those exceeding the threshold value.

尚、シーン特徴量は、必ずしも「0」か「1」かの2値で表す必要はない。性別の場合であれば、男性である確率が100%である場合を「0」、女性である確率が100%である場合を「1」とし、男性である可能性、女性である可能性がどの程度であるかを、「0」と「1」の間の数値で表すようにしてよい。このような場合の性別、人種、情景に関する度合いを示す尺度を図3(b)に示す。図3(b)の「性別度」、「人種度」、「情景度」のそれぞれにおいて、「0」と「1」の間に、性別、人種、情景に対するシーン特徴量が存在することになる。図2では、日本人女性が屋外で写っているので、性別度は女性に近い値を示し、人種度は日本人に近い値を示し、情景度は屋外に近い値となる。   Note that the scene feature amount is not necessarily represented by a binary value of “0” or “1”. In the case of gender, “0” is set when the probability of being 100% is male, and “1” is set when the probability of being 100% is female, and there is a possibility of being male or female. The degree may be expressed by a numerical value between “0” and “1”. A scale indicating the degree of sex, race, and scene in such a case is shown in FIG. In each of “gender degree”, “race degree”, and “scene degree” in FIG. 3B, scene feature values for gender, race, and scene exist between “0” and “1”. become. In FIG. 2, since a Japanese woman is photographed outdoors, the gender degree shows a value close to that of a woman, the racial degree shows a value close to that of a Japanese person, and the scene degree becomes a value close to the outdoors.

また、図3のように特徴の種類が3種類であれば、シーン特徴量を3次元のベクトルで表すことができる。但し、シーン特徴量は、特徴の種類の数に応じた次元で表せばよく、特徴の種類が1種類の場合は、ベクトルではなくスカラーとすればよい。
更に、特徴の種類としては、「性別」、「人種」、「情景」に限らず、原画像が意味するものであれば、どのようなものでも採用することができる。図3では、情景は、屋内であるか屋外であるかを示すものであったが、夜景であるかどうか、海での画像であるかどうか、といった細かなシーンを採用してもよい。
If there are three types of features as shown in FIG. 3, the scene feature amount can be represented by a three-dimensional vector. However, the scene feature amount may be represented by a dimension corresponding to the number of feature types, and when the feature type is one, it may be a scalar instead of a vector.
Furthermore, the types of features are not limited to “gender”, “race”, and “scene”, and any feature can be used as long as the original image means. In FIG. 3, the scene indicates whether it is indoor or outdoor, but a fine scene such as whether it is a night view or an image at the sea may be adopted.

次に、目標色算出部12の動作について説明する。
図4は、目標色算出部12の動作の流れの一例を示したフローチャートである。
図3に示したように、シーン特徴量が複数の特徴の種類について得られている場合、まず、目標色算出部12は、ユーザに対し、目標色の決定に用いる特徴の種類の選択を促す(ステップ101)。そして、特徴の種類がユーザによって選択されると、シーン特徴量算出部11が算出したシーン特徴量の中から、その特徴の種類に対するシーン特徴量を取得する(ステップ102)。例えば、特徴の種類として「性別」が選択されたとすると、図3(a)のシーン特徴量の中から性別度「0.95」を取得する。
Next, the operation of the target color calculation unit 12 will be described.
FIG. 4 is a flowchart showing an example of the operation flow of the target color calculation unit 12.
As illustrated in FIG. 3, when scene feature amounts are obtained for a plurality of feature types, first, the target color calculation unit 12 prompts the user to select a feature type used for determining the target color. (Step 101). When the feature type is selected by the user, the scene feature amount corresponding to the feature type is acquired from the scene feature amounts calculated by the scene feature amount calculation unit 11 (step 102). For example, if “gender” is selected as the feature type, the gender degree “0.95” is acquired from the scene feature amount of FIG.

一方、目標色算出部12は、シーン特徴量が「0」である場合に設定すべき第1の目標色と、シーン特徴量が「1」である場合に設定すべき第2の目標色とを保持している。この保持する情報と、ステップ102で取得したシーン特徴量とに基づいて、第1の目標色と第2の目標色とを採用する割合を求める(ステップ103)。
そして、この求めた割合に応じて、目標色の値を算出する(ステップ104)。
On the other hand, the target color calculation unit 12 sets the first target color to be set when the scene feature amount is “0” and the second target color to be set when the scene feature amount is “1”. Holding. Based on the information to be held and the scene feature value acquired in step 102, a ratio of adopting the first target color and the second target color is obtained (step 103).
Then, a target color value is calculated according to the obtained ratio (step 104).

例えば、特徴の種類として「性別」が選択されたとすると、目標色算出部12は、図5に示すような情報に基づいて目標色の値を算出する。
図5(a)は、人物の肌について、男性用の目標色と女性用の目標色とを定義した情報を示した図である。ここでは、L空間のa平面上に、これらの目標色の色度を設定している。
また、図5(b)は、ステップ102で取得した性別度の値と、女性用目標色にどの程度近い目標色を採用するかを示す女性用目標色採用率との関係を示した図である。性別度が「0」であれば、女性用目標色採用率は「0」となり、男性用目標色が採用されることになる。逆に、性別度が「1」であれば、女性用目標色採用率は「1」となり、女性用目標色が採用されることになる。また、図3(a)のように性別度が「0.95」であれば、図5(b)に示すように、女性用目標色採用率は「Y」となる。この場合、図5(a)において、男性用目標色を表す点と女性用目標色を表す点とを結ぶ線分を、Y:1−Yに内分した点(黒丸で示す)に対応する色を採用すべき目標色とする。
For example, if “gender” is selected as the feature type, the target color calculation unit 12 calculates a target color value based on information as shown in FIG.
FIG. 5A is a diagram showing information defining a target color for men and a target color for women for a person's skin. Here, the chromaticity of these target colors is set on the a * b * plane of the L * a * b * space.
FIG. 5B is a diagram showing the relationship between the gender degree value acquired in step 102 and the female target color adoption rate indicating how close the target color is adopted to the female target color. is there. If the gender degree is “0”, the female target color adoption rate is “0”, and the male target color is adopted. Conversely, if the gender degree is “1”, the female target color adoption rate is “1”, and the female target color is adopted. Further, if the gender degree is “0.95” as shown in FIG. 3A, the target color adoption rate for women is “Y” as shown in FIG. 5B. In this case, in FIG. 5A, the line segment connecting the point representing the male target color and the point representing the female target color corresponds to a point (indicated by a black circle) obtained by internally dividing Y: 1−Y. The color is the target color that should be adopted.

そして、最後に、目標色算出部12は、算出された目標色の値を図示しない記憶装置に出力する(ステップ105)。
以上により、第1の実施の形態の動作を終了する。
Finally, the target color calculation unit 12 outputs the calculated target color value to a storage device (not shown) (step 105).
Thus, the operation of the first embodiment is completed.

尚、本実施の形態では、性別度に着目したため、男性用目標色と女性用目標色とを基準の目標色とした。しかしながら、他の特徴の種類に着目した場合は、その種類に応じて適宜目標色も設定すればよい。特に分かり易い例で示すと、海で撮影したと考えられる度合いが高ければ小麦色に近い肌色を目標色とし、海で撮影したと考えられる度合いが低ければ薄い肌色を目標色とするといった設定等である。
また、本実施の形態では、図5の情報を目標色算出部12が保持することとしたが、図示しない記憶装置に記憶しておき、そこから目標色算出部12が読み出すようにしてもよい。
In this embodiment, since the degree of gender is focused, the male target color and the female target color are used as reference target colors. However, if attention is paid to other types of features, a target color may be set as appropriate according to the type. In a particularly easy-to-understand example, settings such as setting the skin color close to wheat as the target color if the degree considered to have been taken in the sea are high, and setting the light skin color as the target color if the degree considered to be taken in the sea are low It is.
In the present embodiment, the target color calculation unit 12 holds the information of FIG. 5, but the information may be stored in a storage device (not shown) and read from there by the target color calculation unit 12. .

(第2の実施の形態)
図6は、本発明の第2の実施の形態における色調整装置の機能構成を示した図である。
図示するように、本実施の形態の色調整装置は、シーン特徴量算出部11と、目標色算出部12と、目標色定義生成部21とを備える。
シーン特徴量算出部11は、第1の実施の形態と同様、カラー画像に関するシーンを解析し、シーンを数値化したシーン特徴量を算出する機能を有する部分であり、計算によって求めることに限定しなければ、特徴量取得部として把握することもできる部分である。また、目標色算出部12は、後述する目標色定義を用いて目標色を算出する機能を有する部分であり、計算によって求めることに限定しなければ、目標色決定部として把握することもできる部分である。また、目標色定義生成部21は、シーンと目標色とを対応付けた目標色定義を生成し、図示しない記憶装置に記憶する機能を有する部分である。
尚、これらの各機能は、ハードウェアのみによっても実現可能であるが、ハードウェアとソフトウェアの組み合わせによっても実現可能である。後者の場合は、色調整装置の図示しないCPUが、例えば、図示しないメモリに記憶されたプログラムを読み込んで実行することにより各機能が実現される。
(Second embodiment)
FIG. 6 is a diagram showing a functional configuration of the color adjustment apparatus according to the second embodiment of the present invention.
As shown in the figure, the color adjustment apparatus according to the present embodiment includes a scene feature amount calculation unit 11, a target color calculation unit 12, and a target color definition generation unit 21.
As in the first embodiment, the scene feature quantity calculation unit 11 is a part having a function of analyzing a scene related to a color image and calculating a scene feature quantity obtained by quantifying the scene, and is limited to being obtained by calculation. Otherwise, it is a part that can be grasped as a feature amount acquisition unit. Further, the target color calculation unit 12 has a function of calculating a target color using a target color definition described later, and can be grasped as a target color determination unit if not limited to calculation. It is. The target color definition generation unit 21 has a function of generating a target color definition in which a scene and a target color are associated with each other and storing the target color definition in a storage device (not shown).
Each of these functions can be realized only by hardware, but can also be realized by a combination of hardware and software. In the latter case, each function is realized by a CPU (not shown) of the color adjustment apparatus reading and executing a program stored in a memory (not shown), for example.

ここで、目標色定義生成部21により生成される目標色定義の例を説明しておく。
図7は、シーン特徴量に対する目標色を学習するニューラルネットワークの例である。ここでは、n個のシーン特徴量に対し、目標色をL色空間で与えている。例えば、学習後のニューラルネットワークの結合係数を目標色定義とすることができる。
図8は、シーン特徴量と目標色との対応を格納したルックアップテーブルの例である。ここでも、n個のシーン特徴量に対し、目標色をL色空間で与えている。
尚、図7、8では、特に具体例を示していないが、シーン特徴量としては、図3と同様、性別、人種、情景といったものを含んでもよいし、或いは、その他のシーン特徴量を採用してもよい。
Here, an example of the target color definition generated by the target color definition generation unit 21 will be described.
FIG. 7 is an example of a neural network that learns a target color for a scene feature amount. Here, the target color is given in the L * a * b * color space for n scene feature values. For example, the neural network connection coefficient after learning can be used as the target color definition.
FIG. 8 is an example of a look-up table that stores the correspondence between scene feature amounts and target colors. Again, the target colors are given in the L * a * b * color space for n scene feature values.
7 and 8, no specific example is shown, but the scene feature amount may include gender, race, scene, etc., as in FIG. 3, or other scene feature amounts may be included. It may be adopted.

次に、このような機能構成を有する色調整装置の動作について詳細に説明する。尚、シーン特徴量算出部11の動作は、第1の実施の形態と同様であるので説明を省略し、目標色算出部12の動作についてのみ説明する。
図9は、目標色算出部12の動作の流れの一例を示したフローチャートである。
まず、目標色算出部12は、シーン特徴量算出部11が算出したシーン特徴量を取得する(ステップ201)。シーン特徴量がn個あれば、それらを全て取得する。
次に、目標色算出部12は、図示しない記憶装置から、目標色定義生成部21が生成した目標色定義を読み込む(ステップ202)。
そして、ステップ201で取得したシーン特徴量のn個の組み合わせに基づいて、対応する目標色を取得する(ステップ203)。図7のニューラルネットワークを用いた場合であれば、n個のシーン特徴量の組み合わせをニューラルネットワークに与えることにより、目標色が得られる。また、図8のルックアップテーブルを用いた場合であれば、n個のシーン特徴量の組み合わせをキーとしてルックアップテーブルを検索することにより、目標色が得られる。
以上により、第2の実施の形態の動作を終了する。
Next, the operation of the color adjustment apparatus having such a functional configuration will be described in detail. The operation of the scene feature amount calculation unit 11 is the same as that of the first embodiment, and thus the description thereof will be omitted. Only the operation of the target color calculation unit 12 will be described.
FIG. 9 is a flowchart showing an example of the operation flow of the target color calculation unit 12.
First, the target color calculation unit 12 acquires the scene feature value calculated by the scene feature value calculation unit 11 (step 201). If there are n scene feature amounts, all of them are acquired.
Next, the target color calculation unit 12 reads the target color definition generated by the target color definition generation unit 21 from a storage device (not shown) (step 202).
A corresponding target color is acquired based on the n combinations of scene feature values acquired in step 201 (step 203). If the neural network of FIG. 7 is used, a target color can be obtained by giving a combination of n scene feature amounts to the neural network. If the lookup table of FIG. 8 is used, a target color can be obtained by searching the lookup table using a combination of n scene feature amounts as a key.
Thus, the operation of the second embodiment is completed.

尚、図8の例では、シーン特徴量を「0」か「1」の2値とし、これらのn個の組み合わせに対し、目標色を設定するようした。ところが、第1の実施の形態において、図3(a)に示したように、シーン特徴量は、必ずしも「0」か「1」の2値で表されるものではなく、その中間の値をとることも考えられる。
以下、この場合の目標色の求め方について簡単に説明しておく。
例えば、シーン特徴量iをFと表記することとし、(F,F,…,F)をシーン特徴量の組み合わせとして取得したとする。この場合、まず、目標色算出部12は、n次元空間において、このシーン特徴量の組み合わせに相当する点Fを内包する超立方体を求める。そして、この超立方体の2個の格子点に対応する目標色を求め、線形補間によってFに対応する目標色を算出する。
In the example of FIG. 8, the scene feature amount is binary of “0” or “1”, and the target color is set for these n combinations. However, in the first embodiment, as shown in FIG. 3A, the scene feature amount is not necessarily represented by a binary value of “0” or “1”, and an intermediate value thereof is used. It can also be taken.
Hereinafter, how to obtain the target color in this case will be briefly described.
For example, it is assumed that the scene feature quantity i is expressed as F i and (F 1 , F 2 ,..., F n ) is acquired as a combination of scene feature quantities. In this case, first, the target color calculation unit 12 obtains a hypercube including a point F corresponding to the combination of the scene feature amounts in the n-dimensional space. Then, target colors corresponding to 2 n lattice points of the hypercube are obtained, and a target color corresponding to F is calculated by linear interpolation.

(第3の実施の形態)
図10は、本発明の第3の実施の形態における色調整装置の機能構成を示した図である。
図示するように、本実施の形態の色調整装置は、シーン特徴量算出部11と、目標色算出部12と、目標色定義生成部21と、調整対象色算出部31と、色調整部32とを備える。
シーン特徴量算出部11、目標色算出部12、目標色定義生成部21については、第1の実施の形態又は第2の実施の形態で述べたものと同様であるので、説明を省略する。一方、調整対象色算出部31は、調整対象となる色を算出する機能を有する部分である。例えば、人物の肌の色を調整する場合は、公知の技術を用いて、顔領域などの人物に関わる肌色を特定すればよい。色調整部32は、このようにして決定された調整対象色に対し、第1の実施の形態又は第2の実施の形態で算出され、図示しない記憶装置に記憶された目標色へ向かって色調整を行う。この場合、例えば、特許文献1(特開2002−112694号公報)に記載された方法を用いて、階調逆転のない部分的な色調整を行うことができる。
尚、これらの各機能は、ハードウェアのみによっても実現可能であるが、ハードウェアとソフトウェアの組み合わせによっても実現可能である。後者の場合は、色調整装置の図示しないCPUが、例えば、図示しないメモリに記憶されたプログラムを読み込んで実行することにより各機能が実現される。
以上により、第3の実施の形態の説明を終了する。
(Third embodiment)
FIG. 10 is a diagram showing a functional configuration of the color adjustment apparatus according to the third embodiment of the present invention.
As shown in the figure, the color adjustment apparatus according to the present embodiment includes a scene feature amount calculation unit 11, a target color calculation unit 12, a target color definition generation unit 21, an adjustment target color calculation unit 31, and a color adjustment unit 32. With.
Since the scene feature amount calculation unit 11, the target color calculation unit 12, and the target color definition generation unit 21 are the same as those described in the first embodiment or the second embodiment, description thereof will be omitted. On the other hand, the adjustment target color calculation unit 31 is a part having a function of calculating a color to be adjusted. For example, when adjusting the skin color of a person, a skin color relating to the person such as a face region may be specified using a known technique. The color adjustment unit 32 calculates the color toward the target color calculated in the first embodiment or the second embodiment and stored in a storage device (not shown) with respect to the adjustment target color thus determined. Make adjustments. In this case, for example, partial color adjustment without gradation inversion can be performed using the method described in Patent Document 1 (Japanese Patent Laid-Open No. 2002-112694).
Each of these functions can be realized only by hardware, but can also be realized by a combination of hardware and software. In the latter case, each function is realized by a CPU (not shown) of the color adjustment apparatus reading and executing a program stored in a memory (not shown), for example.
This is the end of the description of the third embodiment.

尚、以上述べた第1乃至第3の実施の形態では、簡単のために、1人の人物が写ったカラー画像を入力することとしたが、複数の人物が写ったカラー画像を入力することとしてもよい。その場合、どの人物の肌の色を調整するのかを、ユーザの指示により、又は、システムの判断により、決定するようにしてもよい。
また、人物の肌の色の他に、例えば、空の色、草の色等、様々な対象物の色を調整することが可能である。但し、人の肌の色を調整する場合と、空の色を調整する場合と、草の色を調整する場合とでは、シーン特徴量を算出する特徴の種類が異なることが考えられる。その場合、第1の実施の形態又は第2の実施の形態で述べたシーン特徴量算出部11の動作に先立ち、ユーザの指示により、又は、システムの判断により、色調整の対象を決定し、その対象に相応しい特徴量の種類を特定する処理を行ってもよい。
In the first to third embodiments described above, for the sake of simplicity, a color image showing a single person is input. However, a color image showing a plurality of persons is input. It is good. In that case, which person's skin color is to be adjusted may be determined based on a user instruction or based on system judgment.
In addition to the skin color of a person, it is possible to adjust the colors of various objects such as the sky color and grass color. However, it is conceivable that the type of feature for calculating the scene feature amount differs between the case of adjusting the color of human skin, the case of adjusting the sky color, and the case of adjusting the color of grass. In that case, prior to the operation of the scene feature amount calculation unit 11 described in the first embodiment or the second embodiment, a color adjustment target is determined by a user instruction or by system judgment, You may perform the process which specifies the kind of feature-value suitable for the object.

更に、本実施の形態では、画像を解析することによりシーン特徴量を解析した。しかしながら、デジタルカメラ等での撮影時に画像データに付加される付随情報から画像の内容に関する特徴を取得し、それを数値化することによりシーン特徴量を算出してもよい。この場合の付随情報としては、Exif(Exchangeable Image File Format)ファイルにおいて本画像に付加された情報を採用することが可能である。尚、Exifとは、富士写真フィルム株式会社が提唱し、JEIDA(日本電子工業振興協会)によって標準化されているデジタルカメラ用の画像ファイルの規格である。   Further, in the present embodiment, the scene feature amount is analyzed by analyzing the image. However, the scene feature amount may be calculated by acquiring a feature related to the content of the image from the accompanying information added to the image data at the time of photographing with a digital camera or the like and digitizing the feature. As the accompanying information in this case, information added to the main image in an Exif (Exchangeable Image File Format) file can be employed. Exif is an image file standard for a digital camera proposed by Fuji Photo Film Co., Ltd. and standardized by JEIDA (Japan Electronics Industry Promotion Association).

また、本実施の形態では、画像処理を行うハードウェアを特に限定して述べなかったが、例えば、パーソナルコンピュータ等のコンピュータにおいて実現するようにしてもよいし、画像形成装置の画像処理部(IPS)において実現するようにしてもよい。前者の場合は、コンピュータ上で動作するアプリケーションプログラムに対し、本発明の画像処理装置の機能を組み込んで実現するようにしてもよいし、印刷対象の画像データを受けたプリンタドライバが本発明の色調整処理を行うようにしてもよい。また、後者の場合は、スキャンされた画像データ又は通信回線を介して受信した画像データを画像形成装置のIPSが受け取り、色調整処理を行い、その色調整処理後の画像データに基づき画像形成を行うようにすればよい。   In the present embodiment, hardware for performing image processing is not particularly limited. However, for example, it may be realized by a computer such as a personal computer, or may be realized by an image processing unit (IPS) of the image forming apparatus. ) May be realized. In the former case, the function of the image processing apparatus of the present invention may be incorporated into an application program that runs on a computer, and the printer driver that receives the image data to be printed may have the color of the present invention. Adjustment processing may be performed. In the latter case, scanned image data or image data received via a communication line is received by the IPS of the image forming apparatus, color adjustment processing is performed, and image formation is performed based on the image data after the color adjustment processing. You just have to do it.

このように、本発明の第1乃至第3の実施の形態では、画像全体が表すシーンの特徴量から目標色を導き出すための情報を定義又は生成しておくことにより、そのような特徴量に相応しい目標色を決定することができる。   As described above, in the first to third embodiments of the present invention, by defining or generating information for deriving the target color from the feature amount of the scene represented by the entire image, such feature amount is obtained. A suitable target color can be determined.

本発明の第1の実施の形態の機能構成を示したブロック図である。It is the block diagram which showed the function structure of the 1st Embodiment of this invention. 本発明の第1乃至第3の実施の形態で入力するカラー画像の一例を示した図である。It is the figure which showed an example of the color image input in the 1st thru | or 3rd Embodiment of this invention. 本発明の第1乃至第3の実施の形態で算出されるシーン特徴量について説明するための図である。It is a figure for demonstrating the scene feature-value calculated in the 1st thru | or 3rd Embodiment of this invention. 本発明の第1の実施の形態における目標色算出部の動作を示したフローチャートである。It is the flowchart which showed operation | movement of the target color calculation part in the 1st Embodiment of this invention. 本発明の第1の実施の形態における目標色算出部で保持される情報の一例を示した図である。It is the figure which showed an example of the information hold | maintained at the target color calculation part in the 1st Embodiment of this invention. 本発明の第2の実施の形態の機能構成を示したブロック図である。It is the block diagram which showed the function structure of the 2nd Embodiment of this invention. 本発明の第2の実施の形態における目標色算出部が参照する目標色定義の第1の例を示した図である。It is the figure which showed the 1st example of the target color definition which the target color calculation part in the 2nd Embodiment of this invention refers. 本発明の第2の実施の形態における目標色算出部が参照する目標色定義の第2の例を示した図である。It is the figure which showed the 2nd example of the target color definition which the target color calculation part in the 2nd Embodiment of this invention refers. 本発明の第2の実施の形態における目標色算出部の動作を示したフローチャートである。It is the flowchart which showed operation | movement of the target color calculation part in the 2nd Embodiment of this invention. 本発明の第3の実施の形態の機能構成を示したブロック図である。It is the block diagram which showed the function structure of the 3rd Embodiment of this invention.

符号の説明Explanation of symbols

11…シーン特徴量算出部、12…目標色算出部、21…目標色定義生成部、31…調整対象色算出部、32…色調整部 DESCRIPTION OF SYMBOLS 11 ... Scene feature-value calculation part, 12 ... Target color calculation part, 21 ... Target color definition production | generation part, 31 ... Adjustment object color calculation part, 32 ... Color adjustment part

Claims (12)

カラー画像の色を調整する色調整方法において、
前記カラー画像の内容に関する特徴量を取得するステップと、
取得した前記特徴量に基づいて、前記カラー画像における色調整の目標となる目標色を決定するステップと
を含むことを特徴とする色調整方法。
In a color adjustment method for adjusting the color of a color image,
Obtaining a feature amount relating to the content of the color image;
Determining a target color that is a target of color adjustment in the color image based on the acquired feature amount.
前記決定するステップでは、基準となる目標色と、取得した前記特徴量とに基づいて、前記カラー画像における色調整の目標となる目標色を決定することを特徴とする請求項1記載の色調整方法。   The color adjustment according to claim 1, wherein in the determining step, a target color that is a target of color adjustment in the color image is determined based on a target color that is a reference and the acquired feature amount. Method. 前記決定するステップでは、前記カラー画像の内容に関する特徴量と当該特徴量が取得された当該カラー画像における色調整の目標とすべき目標色との対応を定義した定義情報と、取得した前記特徴量とに基づいて、当該カラー画像における色調整の目標となる目標色を決定することを特徴とする請求項1記載の色調整方法。   In the determining step, definition information defining a correspondence between a feature amount related to the content of the color image and a target color to be a color adjustment target in the color image from which the feature amount is acquired, and the acquired feature amount The color adjustment method according to claim 1, further comprising: determining a target color as a color adjustment target in the color image based on the above. 前記定義情報は、前記カラー画像の内容に関する特徴量と当該特徴量が取得された当該カラー画像における色調整の目標とすべき目標色との対応を学習したニューラルネットワークであることを特徴とする請求項3記載の色調整方法。   The definition information is a neural network in which a correspondence between a feature amount related to the content of the color image and a target color to be a color adjustment target in the color image from which the feature amount is acquired is learned. Item 4. The color adjustment method according to Item 3. 前記定義情報は、前記カラー画像の内容に関する特徴量と当該特徴量が取得された当該カラー画像における色調整の目標とすべき目標色との対応を格納したルックアップテーブルであることを特徴とする請求項3記載の色調整方法。   The definition information is a look-up table storing a correspondence between a feature amount related to the content of the color image and a target color to be a color adjustment target in the color image from which the feature amount is acquired. The color adjustment method according to claim 3. 前記特徴量は、前記カラー画像が表すシーンを数値化したものであることを特徴とする請求項1記載の色調整方法。   The color adjustment method according to claim 1, wherein the feature amount is a numerical value of a scene represented by the color image. カラー画像の色を調整する色調整装置において、
前記カラー画像の内容に関する特徴量を取得する特徴量取得部と、
前記特徴量取得部により取得された前記特徴量に基づいて、前記カラー画像における色調整の目標となる目標色を決定する目標色決定部と
を備えたことを特徴とする色調整装置。
In a color adjustment device that adjusts the color of a color image,
A feature amount acquisition unit for acquiring a feature amount related to the content of the color image;
A color adjustment apparatus comprising: a target color determination unit that determines a target color that is a target of color adjustment in the color image based on the feature amount acquired by the feature amount acquisition unit.
前記目標色決定部は、基準となる目標色と、前記特徴量取得部により取得された前記特徴量とに基づいて、前記カラー画像における色調整の目標となる目標色を決定することを特徴とする請求項7記載の色調整装置。   The target color determination unit determines a target color to be a color adjustment target in the color image based on a reference target color and the feature amount acquired by the feature amount acquisition unit. The color adjusting device according to claim 7. 前記目標色決定部は、前記カラー画像の内容に関する特徴量と当該特徴量が取得された当該カラー画像における色調整の目標とすべき目標色との対応を定義した定義情報と、前記特徴量取得部により取得された前記特徴量とに基づいて、当該カラー画像における色調整の目標となる目標色を決定することを特徴とする請求項7記載の色調整装置。   The target color determination unit defines definition information defining a correspondence between a feature amount related to the content of the color image and a target color to be a color adjustment target in the color image from which the feature amount is acquired, and the feature amount acquisition The color adjustment device according to claim 7, wherein a target color that is a target of color adjustment in the color image is determined based on the feature amount acquired by the unit. 前記特徴量は、前記カラー画像が表すシーンを数値化したものであることを特徴とする請求項7記載の色調整装置。   The color adjustment apparatus according to claim 7, wherein the feature amount is a numerical value of a scene represented by the color image. コンピュータに、
カラー画像の内容に関する特徴量を取得する機能と、
取得した前記特徴量に基づいて、前記カラー画像における色調整の目標となる目標色を決定する機能と
を実現させるためのプログラム。
On the computer,
A function for acquiring feature values related to the contents of a color image;
A program for realizing a function of determining a target color that is a target of color adjustment in the color image based on the acquired feature amount.
前記特徴量は、前記カラー画像が表すシーンを数値化したものであることを特徴とする請求項11記載のプログラム。   12. The program according to claim 11, wherein the feature amount is a numerical value of a scene represented by the color image.
JP2004371000A 2004-12-22 2004-12-22 Color adjustment method, color adjustment apparatus, and program Pending JP2006180185A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004371000A JP2006180185A (en) 2004-12-22 2004-12-22 Color adjustment method, color adjustment apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004371000A JP2006180185A (en) 2004-12-22 2004-12-22 Color adjustment method, color adjustment apparatus, and program

Publications (1)

Publication Number Publication Date
JP2006180185A true JP2006180185A (en) 2006-07-06

Family

ID=36733863

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004371000A Pending JP2006180185A (en) 2004-12-22 2004-12-22 Color adjustment method, color adjustment apparatus, and program

Country Status (1)

Country Link
JP (1) JP2006180185A (en)

Similar Documents

Publication Publication Date Title
CN110163810B (en) Image processing method, device and terminal
JP4574249B2 (en) Image processing apparatus and method, program, and imaging apparatus
JP5032911B2 (en) Image processing apparatus and image processing method
US8743272B2 (en) Image processing apparatus and method of controlling the apparatus and program thereof
US20140198234A1 (en) Image processing apparatus, program, image processing method, and imaging apparatus
US9846826B2 (en) Image processing to generate a tone curve for processing an image by associating a model parameter of the image with another model parameter of a reference image
US8390905B2 (en) Image processing device extracting desired region to be used as model for image correction
US8861849B2 (en) Image processing
CN102301392A (en) Color image processing method, color image processing device and recording medium
JP2009038524A (en) Image processing apparatus, image processing method, computer program, and storage medium
JP2010072934A (en) Album creation device and album creation method
CN113450266A (en) Image processing apparatus, image processing system, and image processing method
JP2010003118A (en) Image processing apparatus, image processing method and image processing program
US8203772B2 (en) Image output method, apparatus, and program using one or more attention levels
JP2009038737A (en) Image processing device
JP6202938B2 (en) Image recognition apparatus and image recognition method
US8311323B2 (en) Image processor for converting image by using image retrieved based on keyword
JP2008140107A (en) Image processing apparatus, image processing method, control program, and recording medium
KR102334030B1 (en) Method for dyeing hair by using computer device
US8159716B2 (en) Image processing device performing image correction by using a plurality of sample images
JP4340842B2 (en) Image processing method, image processing apparatus, image processing program, and storage medium
JP2009169620A (en) Image processing apparatus, image processing method, program, and recording medium
JP2006180185A (en) Color adjustment method, color adjustment apparatus, and program
JP2003248825A (en) Image processing apparatus, image processing method, image processing program, and storage medium
JP4708866B2 (en) Lookup table creation device and method, and lookup table creation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091111

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100112