[go: up one dir, main page]

JP2003022441A - Method and program for area extraction, computer- readable recording medium with recorded program for area extraction, and device for area extraction. - Google Patents

Method and program for area extraction, computer- readable recording medium with recorded program for area extraction, and device for area extraction.

Info

Publication number
JP2003022441A
JP2003022441A JP2001206478A JP2001206478A JP2003022441A JP 2003022441 A JP2003022441 A JP 2003022441A JP 2001206478 A JP2001206478 A JP 2001206478A JP 2001206478 A JP2001206478 A JP 2001206478A JP 2003022441 A JP2003022441 A JP 2003022441A
Authority
JP
Japan
Prior art keywords
area
image
window
face
image information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001206478A
Other languages
Japanese (ja)
Inventor
Yusuke Nakano
雄介 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP2001206478A priority Critical patent/JP2003022441A/en
Publication of JP2003022441A publication Critical patent/JP2003022441A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To make a processing speed fast and to prevent erroneous detection. SOLUTION: An area extracting method includes a step (S1) for inputting an image, a step (S2) for setting a window area which is at least part of the inputted image, a step for computing image information in the window area, a step (S4) for judging by the computed image information whether the window area is an object to be processed, and a step (S8) for detecting an area which represents a face in the window judged as the object to be processed at the judgment step.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は画像抽出方法、画
像抽出プログラム、画像抽出プログラムを記録したコン
ピュータ読取可能な記録媒体、および画像抽出装置に関
し、特に、画像中から特定のオブジェクトが表された領
域を抽出するための領域抽出方法、領域抽出プログラ
ム、領域抽出プログラムを記録したコンピュータ読取可
能な記録媒体、および領域抽出装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image extracting method, an image extracting program, a computer-readable recording medium recording the image extracting program, and an image extracting apparatus, and more particularly to a region in which a specific object is represented in an image. The present invention relates to a region extraction method for extracting a region, a region extraction program, a computer-readable recording medium recording the region extraction program, and a region extraction device.

【0002】[0002]

【従来の技術】従来、画像中にさまざまな背景を有する
画像から人物の顔が表わされた領域を検出する技術が開
発されている。特開平8−339445号公報には、画
像内で矩形領域を規定し、矩形領域内に顔を含むかどう
かを解析する技術が記載されている。矩形領域内に顔を
含むかどうかの解析は、矩形領域内の画素値をベクトル
化し、主成分空間に射影する。そして、ベクトルの主成
分空間までの距離(DFFS:Distance From Feature
Space)と主成分空間内での距離(DIFS:Distance
In Feature Space)が計算されて、この2つの処理に基
づいて矩形領域内に顔が表わされた領域が含まれるかど
うかが判断される。矩形領域を画像全体で徐々に移動さ
せて、それぞれの位置で解析することにより、画像中で
顔を含むとされた位置の矩形領域が抽出される。
2. Description of the Related Art Conventionally, there has been developed a technique for detecting a region in which an image of a person is represented in an image having various backgrounds. Japanese Patent Application Laid-Open No. 8-339445 discloses a technique of defining a rectangular area in an image and analyzing whether or not a face is included in the rectangular area. To analyze whether or not a face is included in the rectangular area, pixel values in the rectangular area are vectorized and projected onto the principal component space. Then, the distance to the principal component space of the vector (DFFS: Distance From Feature
Space) and the distance in the principal component space (DIFS: Distance)
In Feature Space) is calculated, and it is determined based on these two processes whether or not the rectangular area includes the area in which the face is represented. By gradually moving the rectangular area in the entire image and analyzing it at each position, the rectangular area at the position where the face is included in the image is extracted.

【0003】また、堀「統計的手法による画像からの顔
領域の抽出」、「情報学会誌」1999,Vol.4
0,NO.8では、各矩形領域に対して平面当てはめ正
規化および輝度ヒストグラムの平滑化の後、矩形領域内
の画素値がベクトル化され、主成分分析と正準判別分析
の拡張手法であるFKL(Fisher−Karhunen−Loeve)
法を用いて低次元の判別空間に射影し、擬似顔か真顔か
を識別する方法が記載されている。
In addition, Hori "Extraction of Face Area from Image by Statistical Method", "Journal of the Information Society of Japan", 1999, Vol. Four
0, NO. In Fig. 8, after the plane fitting normalization and the smoothing of the luminance histogram for each rectangular area, the pixel values in the rectangular area are vectorized, and FKL (Fisher-Fisher-Fisher- Karhunen-Loeve)
A method is described in which a pseudo face or a true face is discriminated by projecting onto a low-dimensional discriminant space using the method.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、従来の
いずれの方法においても矩形領域に顔が表わされている
か否かを判断するために、画像全体を走査するすべての
矩形領域に対して、主成分空間または判別空間等の特徴
空間へ射影する処理、または、輝度ヒストグラムを平滑
化する処理が行なわれる。このため、矩形領域に顔が表
わされているか否かを判断する処理に多大な時間が必要
となるという問題があった。
However, in any of the conventional methods, in order to determine whether or not a face is represented in a rectangular area, the main area is scanned for all rectangular areas that scan the entire image. A process of projecting onto a feature space such as a component space or a discriminant space or a process of smoothing a luminance histogram is performed. For this reason, there has been a problem that a lot of time is required for the process of determining whether or not the face is represented in the rectangular area.

【0005】また、矩形領域に顔が表された領域が含ま
れておらず背景の一部が表わされた領域が含まれている
場合、矩形領域に対して輝度ヒストグラムの平滑化処理
を施すことにより画像が強調される。その結果、矩形領
域に人の目、鼻あるいは口が表わされた画像と同じよう
な特徴が現われる場合があり、誤って顔領域として検出
してしまうといった問題があった。
Further, when the rectangular area does not include the area where the face is represented but the area where a part of the background is represented, the luminance histogram is smoothed on the rectangular area. This enhances the image. As a result, there are cases where features similar to those of an image showing human eyes, nose, or mouth appear in the rectangular area, and there is a problem that the area is mistakenly detected as a face area.

【0006】この発明は上述の問題点を解決するために
なされたもので、この発明の目的の1つは、処理速度を
高速化し、かつ、誤検出を防止することが可能な領域抽
出方法、領域抽出プログラム、領域抽出プログラムを記
録したコンピュータ読取可能な記録媒体、および領域抽
出装置を提供することである。
The present invention has been made in order to solve the above-mentioned problems, and one of the objects of the present invention is to increase the processing speed and to prevent an erroneous detection. An object is to provide an area extraction program, a computer-readable recording medium recording the area extraction program, and an area extraction device.

【0007】[0007]

【課題を解決するための手段】上述の目的を達成するた
めにこの発明のある局面によれば、領域抽出方法は、画
像中から所定のオブジェクトを含む領域を抽出する領域
抽出方法であって、画像の入力を受付けるステップと、
入力された画像の少なくとも一部の領域を設定するステ
ップと、設定された領域の画像情報を算出するステップ
と、算出された画像情報に基づいて、設定された領域を
処理対象とするか否かを判断するステップと、判断ステ
ップにより処理対象として判断された領域において、所
定のオブジェクトを検出するステップとを含む。
According to one aspect of the present invention for achieving the above object, an area extracting method is an area extracting method for extracting an area including a predetermined object from an image, A step of accepting input of an image,
Setting at least a partial area of the input image, calculating image information of the set area, and whether to set the set area as a processing target based on the calculated image information. And a step of detecting a predetermined object in the area determined as the processing target by the determination step.

【0008】この発明に従えば、処理対象と判断された
領域において、所定のオブジェクトを含む画像であるか
が検出されるので、所定のオブジェクトを検出する処理
の対象となる領域の数を減らすことができる。また、明
らかに所定のオブジェクトを含まない領域は処理対象と
されないので、所定のオブジェクトを含む領域を誤って
検出することがない。その結果、処理速度を高速化し、
かつ、誤検出を防止した領域抽出方法を提供することが
できる。
According to the present invention, it is detected whether or not the image is an image including a predetermined object in the area determined to be processed. Therefore, it is possible to reduce the number of areas to be processed for detecting the predetermined object. You can Further, since the area obviously not including the predetermined object is not set as the processing target, the area including the predetermined object is not erroneously detected. As a result, the processing speed is increased,
In addition, it is possible to provide a region extraction method that prevents erroneous detection.

【0009】好ましくは、画像情報は、設定された領域
に含まれる画素の数に対する画素値が所定の範囲内に含
まれる画素の数の割合である。
Preferably, the image information is a ratio of the number of pixels having a pixel value within a predetermined range to the number of pixels included in the set area.

【0010】好ましくは、設定された領域に含まれる所
定の色相を有する画素の割合である。
Preferably, it is the ratio of pixels having a predetermined hue included in the set area.

【0011】好ましくは、画像情報は、設定された領域
に含まれる画素の輝度値の平均である。
Preferably, the image information is an average of luminance values of pixels included in the set area.

【0012】好ましくは、画像情報は、設定された領域
に含まれる画素の輝度値の分散である。
[0012] Preferably, the image information is a variance of the luminance values of the pixels included in the set area.

【0013】好ましくは、画像情報は、設定された領域
に含まれる画素の輝度値の平均と分散であり、判断ステ
ップは、算出された平均と分散とが所定の関係にある場
合に、設定された領域を処理対象と判断するステップを
含む。
Preferably, the image information is an average and a variance of the luminance values of the pixels included in the set area, and the determining step is set when the calculated average and the variance have a predetermined relationship. The step of determining the processed area as the processing target is included.

【0014】好ましくは、画像情報を算出するステップ
は、設定された領域の輝度値に近似する平面を算出する
ステップを含み、画像情報は、算出された近似平面を定
める係数に基づいて算出される値である。
Preferably, the step of calculating the image information includes the step of calculating a plane that approximates the brightness value of the set area, and the image information is calculated based on a coefficient that defines the calculated approximate plane. It is a value.

【0015】この発明の他の局面によれば、領域抽出プ
ログラムは、画像から所定のオブジェクトを含む領域を
抽出する処理をコンピュータに実行させるための領域抽
出プログラムであって、画像の入力を受付けるステップ
と、入力された画像の少なくとも一部の領域を設定する
ステップと、設定された領域の画像情報を算出するステ
ップと、算出された画像情報に基づいて、設定された領
域を処理対象とするか否かを判断するステップと、判断
ステップにより処理対象として判断された領域におい
て、所定のオブジェクトを検出するステップとをコンピ
ュータに実行させる。
According to another aspect of the present invention, the area extracting program is an area extracting program for causing a computer to execute a process of extracting an area including a predetermined object from an image, and a step of receiving an input of the image. And a step of setting at least a partial area of the input image, a step of calculating image information of the set area, and whether the set area is to be processed based on the calculated image information. The computer is caused to execute a step of determining whether or not there is a step and a step of detecting a predetermined object in the area determined as the processing target by the determination step.

【0016】この発明に従えば、コンピュータで実行さ
れることにより、処理速度を高速化し、かつ誤検出を防
止することが可能な領域抽出プログラムまたは領域抽出
プログラムを記録したコンピュータ読取可能な記録媒体
を提供することができる。
According to the present invention, there is provided a computer-readable recording medium having an area extraction program or an area extraction program, which can be executed by a computer to increase the processing speed and prevent erroneous detection. Can be provided.

【0017】この発明のさらに他の局面によれば、領域
抽出装置は、画像中から所定のオブジェクトを含む領域
を抽出する領域抽出装置であって、画像の入力を受付け
る手段と、入力された画像の少なくとも一部の領域を設
定する手段と、設定された領域の画像情報を算出する手
段と、算出された画像情報に基づいて、設定された領域
を処理対象とするか否かを判断する手段と、判断手段に
より処理対象として判断された領域において、所定のオ
ブジェクトを検出する手段とを備える。
According to still another aspect of the present invention, an area extracting device is an area extracting device for extracting an area including a predetermined object from an image, and means for accepting input of the image and the input image. Means for setting at least a part of the area, means for calculating image information of the set area, and means for determining whether or not the set area is to be processed based on the calculated image information. And a means for detecting a predetermined object in the area determined as the processing target by the determination means.

【0018】この発明に従えば、処理速度を高速化し、
かつ誤検出を防止することが可能な領域抽出装置を提供
することができる。
According to the invention, the processing speed is increased,
Further, it is possible to provide a region extraction device capable of preventing erroneous detection.

【0019】[0019]

【発明の実施の形態】以下、本発明の実施の形態を図面
を参照して説明する。なお、図中同一符号は同一または
相当する部材を示し、重複する説明を繰返さない。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings. In the drawings, the same reference numerals indicate the same or corresponding members, and the duplicated description will not be repeated.

【0020】図1は、本発明の実施の形態の1つにおけ
る領域抽出装置の概略構成を示すブロック図である。領
域抽出装置100は、パーソナルコンピュータやワーク
ステーション等で構成される。図1を参照して、領域抽
出装置100は、領域抽出装置100の全体を制御する
ための制御部101と、データを入力するための入力部
105と、データを記憶するための記憶部103と、デ
ータを出力するための出力部107と、制御部101で
実行するためのプログラムとを記憶するための外部記憶
装置109とを含む。
FIG. 1 is a block diagram showing a schematic configuration of a region extraction device according to one of the embodiments of the present invention. The area extraction device 100 is composed of a personal computer, a workstation, or the like. Referring to FIG. 1, the area extraction device 100 includes a control unit 101 for controlling the entire area extraction device 100, an input unit 105 for inputting data, and a storage unit 103 for storing data. , An output unit 107 for outputting data, and an external storage device 109 for storing a program to be executed by the control unit 101.

【0021】制御部101は、中央演算装置(CPU)
と、このCPUで実行するためのプログラムを記憶する
ための読出専用メモリ(ROM)と、CPUでプログラ
ムを実行する際に作業エリアとして用いられるランダム
アクセスメモリ(RAM)とを有する。
The control unit 101 is a central processing unit (CPU)
And a read-only memory (ROM) for storing a program to be executed by this CPU, and a random access memory (RAM) used as a work area when the program is executed by the CPU.

【0022】入力部105は、人物の顔を撮影して2次
元の画像をデジタルデータとして出力する画像入力装置
を含む。画像入力装置は、直接人物を撮影可能なデジタ
ルカメラ、デジタルビデオカメラの他、人物の顔が写さ
れた写真を読取るためのイメージスキャナ等も含まれ
る。また、人物が表わされた領域を含む画像のデジタル
データを保存した記録媒体から画像のデジタルデータを
読み取るための読取装置であってもよい。
The input unit 105 includes an image input device for photographing a person's face and outputting a two-dimensional image as digital data. The image input device includes a digital camera capable of directly photographing a person, a digital video camera, and an image scanner for reading a photograph showing a person's face. Further, it may be a reading device for reading the digital data of the image from a recording medium in which the digital data of the image including the area in which the person is represented is stored.

【0023】さらに、入力部105は、マウスまたはキ
ーボードを含む。マウスまたはキーボードから、領域抽
出装置100の使用者が、文字、数字または指示コマン
ドの入力が可能である。
Further, the input section 105 includes a mouse or a keyboard. The user of the area extraction device 100 can input characters, numbers, or instruction commands from a mouse or a keyboard.

【0024】出力部107は、液晶表示装置または陰極
線管等のディスプレイとプリンタを含む。また、出力部
107は、外部のコンピュータとネットワークを介して
接続するためのネットワークインターフェイスを含む。
このため、所定のデータをディスプレイに表示したり、
プリンタから印刷したり、または、外部のコンピュータ
へ送信したりすることができる。
The output unit 107 includes a display such as a liquid crystal display device or a cathode ray tube and a printer. The output unit 107 also includes a network interface for connecting to an external computer via a network.
Therefore, it is possible to display certain data on the display,
It can be printed from a printer or sent to an external computer.

【0025】記憶部103は、磁気記録装置、光磁気記
録装置である。記憶部103は、後述する基底ベクトル
データベースおよび識別データベース(図2参照)を記
憶する。また、記憶部103は、制御部101からの指
示に基づいて、必要な情報を記憶する。
The storage unit 103 is a magnetic recording device or a magneto-optical recording device. The storage unit 103 stores a base vector database and an identification database (see FIG. 2) described later. The storage unit 103 also stores necessary information based on an instruction from the control unit 101.

【0026】外部記憶装置109は、コンピュータ読取
可能な記録媒体111に記録されたプログラムやデータ
を読込み、制御部101に送信する。また、制御部10
1からの指示により、コンピュータ読取可能な記録媒体
111に必要なプログラムやデータを書込む。
The external storage device 109 reads the program and data recorded in the computer-readable recording medium 111 and sends them to the control unit 101. In addition, the control unit 10
According to the instruction from 1, the necessary programs and data are written in the computer-readable recording medium 111.

【0027】コンピュータ読取可能な記録媒体111と
しては、磁気テープやカセットテープなどのテープ系、
磁気ディスク(フレキシブルディスク、ハードディスク
装置等)や光ディスク(CD−ROM/MO/MD/D
VD等)などのディスク系、ICカード(メモリカード
を含む)や光カードなどのカード系、あるいはマスクR
OM、EPROM、フラッシュメモリなどの半導体メモ
リ等の固定的にプログラムを担持する媒体である。ま
た、記録媒体111を、ネットワークからプログラムが
ダウンロードされるように流動的にプログラムを担持す
る媒体とすることもできる。
As the computer-readable recording medium 111, a tape system such as a magnetic tape or a cassette tape,
Magnetic disks (flexible disks, hard disk drives, etc.) and optical disks (CD-ROM / MO / MD / D)
Disk system such as VD), card system such as IC card (including memory card) and optical card, or mask R
The medium is a medium such as a semiconductor memory such as an OM, EPROM, or flash memory that carries a program in a fixed manner. Further, the recording medium 111 may be a medium that fluidly carries the program so that the program may be downloaded from a network.

【0028】制御部101は、記録媒体111に記録さ
れた領域抽出プログラムを外部記憶装置109で読取る
ことにより、読取ったプログラムを実行することが可能
である。
The control unit 101 can execute the read program by reading the area extraction program recorded in the recording medium 111 with the external storage device 109.

【0029】プログラムとは、中央演算装置により直接
実行可能なプログラムだけでなく、ソースプログラム形
式のプログラム、圧縮処理されたプログラム、暗号化さ
れたプログラム等を含む概念である。
The program is a concept including not only a program directly executable by the central processing unit, but also a program in a source program format, a compressed program, an encrypted program and the like.

【0030】図2は、本実施の形態における領域抽出装
置100の制御部101の機能の概略を示す機能ブロッ
ク図である。図2を参照して、制御部101は、入力部
105より受信した画像の一部の矩形領域(以下「ウィ
ンドウ」という)を設定するためのウィンドウ切出し部
120と、設定されたウィンドウにマスキング等の前処
理を施すための前処理部121と、前処理の施されたウ
ィンドウ内の画素値をベクトル化し、基底ベクトルデー
タベース131で定義される特徴空間に射影する射影部
122と、射影部により算出されたパラメータを識別デ
ータベース132に記憶された基準値を用いて顔が表わ
された領域か否かを判断する比較部123と、比較部1
23により顔が表わされたと判断された複数のウィンド
ウを統合して1つのウィンドウを決定する後処理部12
4とを含む。
FIG. 2 is a functional block diagram showing an outline of the function of the control unit 101 of the area extraction device 100 in this embodiment. Referring to FIG. 2, the control unit 101 includes a window cutout unit 120 for setting a rectangular region (hereinafter, referred to as “window”) of a part of an image received from the input unit 105, masking for the set window, and the like. The preprocessing unit 121 for performing the preprocessing of the above, the projection unit 122 for vectorizing the pixel values in the preprocessed window and projecting the pixel values into the feature space defined by the base vector database 131, and the projection unit The comparison unit 123 that determines whether or not the face is an area where the face is represented by using the reference value stored in the identification database 132 as the generated parameter, and the comparison unit 1
The post-processing unit 12 that integrates a plurality of windows determined to represent a face by 23 and determines one window
Including 4 and.

【0031】記憶部103は、基底ベクトルデータベー
ス131と識別データベース132とを記憶する。基底
ベクトルデータベース131は、人の顔が表された画像
の特徴を表す空間を記憶する。特徴空間は、主成分分析
空間の正規直交化された基底ベクトルの組で定義され
る。特徴空間は次のようにして求められる。まず、人の
顔が表わされた領域を含む画像を複数準備し、各画像の
画素値をベクトル化する。そして、複数の画像から求め
られた複数のベクトルに対して主成分分析を行なって、
主成分分析空間の正規直交化された基底ベクトルの組を
算出する。算出された基底ベクトルの組が特徴空間を定
義する。なお、特徴空間としては、主成分分析空間の他
に、線形判別空間などを用いることができる。
The storage unit 103 stores a base vector database 131 and an identification database 132. The base vector database 131 stores a space representing the characteristics of an image showing a human face. The feature space is defined by a set of orthonormalized basis vectors in the principal component analysis space. The feature space is obtained as follows. First, a plurality of images including a region showing a human face are prepared, and pixel values of each image are vectorized. Then, a principal component analysis is performed on a plurality of vectors obtained from a plurality of images,
A set of orthonormalized basis vectors in the principal component analysis space is calculated. The set of calculated basis vectors defines the feature space. In addition to the principal component analysis space, a linear discriminant space or the like can be used as the feature space.

【0032】識別データベース132は、判定基準とな
るしきい値を記憶する。また、判定に判別関数を用いる
場合には、判別関数に関する情報を記憶する。
The identification database 132 stores a threshold value serving as a criterion. When a discriminant function is used for determination, information on the discriminant function is stored.

【0033】ウィンドウ切出し部120は、入力部10
5より受信した画像中におけるウィンドウの位置を設定
し、設定された位置のウィンドウに含まれる画像(以下
「ウィンドウ領域」という)を前処理部へ送信する。ウ
ィンドウは、縦方向および横方向それぞれの画素数が2
0画素からなる矩形の領域である。
The window cutout unit 120 is provided in the input unit 10.
The position of the window in the image received from 5 is set, and the image included in the window at the set position (hereinafter referred to as "window area") is transmitted to the preprocessing unit. The window has two vertical and horizontal pixels.
It is a rectangular area consisting of 0 pixels.

【0034】ウィンドウ切出し部120は、ウィンドウ
の画像の位置を縦方向および横方向に1画素ずつ移動さ
せることにより、画像を走査する。移動したそれぞれの
位置のウィンドウで特定されるウィンドウ領域が、前処
理部121に送信される。なお、ここでは、ウインドウ
の移動量を1画素としたが、これに限らず、複数画素と
してもよい。
The window cutout unit 120 scans the image by moving the position of the window image by one pixel in the vertical and horizontal directions. The window area specified by the moved window at each position is transmitted to the preprocessing unit 121. Although the window movement amount is one pixel here, the window movement amount is not limited to this and may be a plurality of pixels.

【0035】また、ウィンドウ切出し部120は、ウィ
ンドウ内の全体に人の顔が含まれるように、画像を拡大
または縮小する。拡大または縮小された画像に対してウ
インドウを走査する。なお、画像を拡大または縮小する
のに代えて、ウィンドウの大きさを変更するようにして
もよい。
Further, the window cutout unit 120 enlarges or reduces the image so that the whole face contains the human face. Scan the window for a magnified or reduced image. The size of the window may be changed instead of enlarging or reducing the image.

【0036】前処理部121は、ウィンドウ切出し部1
20で設定されたウィンドウで特定されるウィンドウ領
域に対し、顔の特徴と関係のない背景の影響を除くため
にマスキングする。マスキングに用いられるマスクは、
人の顔の輪郭を模った予め定められた形状である。マス
キングにより、ウィンドウ領域の縁の領域がマスキング
される。
The preprocessing section 121 is a window cutout section 1
The window area specified by the window set in 20 is masked to remove the influence of the background unrelated to facial features. The mask used for masking is
It is a predetermined shape that imitates the contour of a human face. The masking masks the area at the edge of the window area.

【0037】また、前処理部121は、ウィンドウ領域
内のマスキングされていない部分の画像に対して、人の
顔が表わされた領域が含まれるか否かの粗い判定を行な
う。この判定により、ウィンドウ領域内に人の顔を表わ
した領域が含まれないと判断された場合には、そのウィ
ンドウ領域を射影部122へ送信することなく、次のウ
ィンドウの切出しを行なうための指示をウィンドウ切出
し部120へ送信する。逆に、ウィンドウ領域内に人の
顔を表わした領域が含まれないと判断されないときは、
ウインドウ領域のマスキングされていない領域を射影部
122へ送信する。
Further, the preprocessing unit 121 makes a rough judgment as to whether or not the image of the unmasked portion in the window area includes the area in which the human face is represented. If it is determined by this determination that the window area does not include an area representing a human face, an instruction for cutting out the next window without transmitting the window area to the projection unit 122. Is transmitted to the window cutout unit 120. On the contrary, when it is not determined that the window area does not include the area representing the human face,
The unmasked area of the window area is transmitted to the projection unit 122.

【0038】射影部122は、前処理部121より受信
したウィンドウ領域の画像について、画素値をベクトル
化し、基底ベクトルデータベース131に記憶された基
底ベクトルで定義される特徴空間に射影する。これによ
り、ウィンドウ領域の画像に対応する特徴空間における
パラメータが求められる。求められたパラメータは、比
較部123へ送信される。
The projecting unit 122 vectorizes the pixel values of the image of the window area received from the preprocessing unit 121, and projects the pixel values into the feature space defined by the basis vectors stored in the basis vector database 131. Thereby, the parameter in the feature space corresponding to the image in the window area is obtained. The obtained parameter is transmitted to the comparison unit 123.

【0039】比較部123は、射影部122より受信し
たパラメータを用いて、DFFSまたはDIFSを計算
し、識別データベース132に記憶されているしきい値
と比較する。DFFSまたはDIFSがしきい値の範囲
内にあれば、ウィンドウ内に人の顔が表わされた領域を
含むと判断し、後処理部124にウィンドウ領域の画像
を出力するために、記憶部103にウィンドウ領域の画
像中の位置とサイズとを記憶する。ウィンドウ領域の位
置は、ウィンドウ領域の重心位置である。逆に、DFF
SまたはDIFSがしきい値の範囲内になければ、ウィ
ンドウ切出し部120に次のウィンドウを切出す指示を
送信する。
The comparing section 123 calculates DFFS or DIFS using the parameters received from the projecting section 122 and compares it with the threshold value stored in the identification database 132. If DFFS or DIFS is within the threshold range, it is determined that the window includes an area in which a human face is represented, and the storage section 103 outputs the window area image to the post-processing section 124. The position and size of the window area in the image are stored in. The position of the window area is the center of gravity of the window area. Conversely, DFF
If S or DIFS is not within the threshold range, an instruction to cut out the next window is transmitted to the window cutout unit 120.

【0040】また、DFFSまたはDIFSを計算する
代わりに、判別空間内での判別関数によって、ウィンド
ウ領域内の画像が顔が表わされた領域を含むか否かを判
定するようにしてもよい。このとき用いられる判別関数
に関する情報は、識別データベース132に予め記憶さ
れる。
Further, instead of calculating DFFS or DIFS, it may be determined whether or not the image in the window area includes the area in which the face is represented, by the discrimination function in the discrimination space. Information on the discriminant function used at this time is stored in advance in the identification database 132.

【0041】比較部123により、画像中で表された1
つの顔に対して複数のウィンドウ領域が、顔が表された
領域を含むと判断される。これは、顔の異なる部分を1
部に含むウインドウ領域がそれぞれ顔が表された領域と
判断されるからである。また、画像を拡大または縮小し
た場合は、顔が表された領域と判断されたウインドウに
は、同じ顔が異なる大きさで表されたものが存在するこ
とになる。
1 represented in the image by the comparison unit 123
It is determined that the plurality of window areas for one face include the area in which the face is represented. This is one for different parts of the face
This is because it is determined that the window areas included in the copy are areas in which the face is represented. Further, when the image is enlarged or reduced, in the window determined to be the area in which the face is represented, there are windows in which the same face is represented in different sizes.

【0042】後処理部124では、同じ顔が表された複
数のウインドウ領域から1つの検出枠を決定する。検出
枠を決定する処理は、位置の近いウィンドウ領域を同じ
顔が表わされた領域であると仮定し、位置の近い複数の
ウィンドウ領域それぞれの重心の位置を平均して平均位
置を求め、位置の近い複数のウインドウ領域のサイズを
平均して平均サイズを求める。このようにして、求めら
れた平均位置と平均サイズとで検出枠が定まる。
The post-processing unit 124 determines one detection frame from a plurality of window areas in which the same face is displayed. In the process of determining the detection frame, it is assumed that the window regions with close positions are the regions in which the same face is represented, and the average position is calculated by averaging the positions of the centers of gravity of the window regions with close positions. The average size is obtained by averaging the sizes of a plurality of window areas close to each other. In this way, the detection frame is determined by the calculated average position and average size.

【0043】ウインドウ領域のサイズは、20×20画
素で同じであったが、画像を拡大または縮小した倍率を
用いてウィンドウ領域のサイズが求められる。そして、
決定された位置とサイズで定まる検出枠と重なるウィン
ドウ領域の位置とサイズとが記憶部103から消去され
る。位置とサイズで定まる検出枠で囲まれた領域の画像
は、出力部107へ出力される。
Although the size of the window area is the same for 20 × 20 pixels, the size of the window area is obtained by using the magnification of the image enlarged or reduced. And
The position and size of the window area overlapping the detection frame determined by the determined position and size are deleted from the storage unit 103. The image of the area surrounded by the detection frame defined by the position and the size is output to the output unit 107.

【0044】出力部107では、入力部105より受信
された画像をディスプレイに表示するとともに、表示さ
れた画像に重ねて後処理部124で決定された検出枠を
表示する。これにより、入力部105より入力された画
像中で、人の顔が表わされた領域が、外枠で特定されて
表示される。
The output unit 107 displays the image received from the input unit 105 on the display, and also displays the detection frame determined by the post-processing unit 124 on the displayed image. As a result, in the image input from the input unit 105, the area in which the human face is represented is specified by the outer frame and displayed.

【0045】図3は、本実施の形態における領域抽出装
置100で実行される領域抽出処理の流れを示すフロー
チャートである。図3を参照して、領域抽出処理では、
まず、入力部105より入力される画像が受付けられる
(ステップS1)。
FIG. 3 is a flowchart showing the flow of the area extraction processing executed by the area extraction device 100 according to this embodiment. Referring to FIG. 3, in the area extraction processing,
First, the image input from the input unit 105 is received (step S1).

【0046】次のステップS2では、入力された画像の
一部分を選択するために、ウィンドウ切出し部120に
おいてウィンドウが設定される。設定されたウィンドウ
で特定されるウィンドウ領域が前処理部121へ送信さ
れる。本実施の形態における領域抽出処理においては、
ステップS2で設定されたウィンドウで特定されるウィ
ンドウ領域について、ステップS3〜ステップS10ま
での処理が行われる。画像全体にわたってウィンドウを
設定するために、ここでは、画像全体を走査する。この
ため、ウィンドウを1画素ずつ縦方向または横方向に移
動させて設定する。そして設定されたそれぞれのウィン
ドウで特定されるウィンドウ領域に対して、ステップS
3〜ステップS10の処理がそれぞれ行なわれる。
In the next step S2, a window is set in the window cutout unit 120 in order to select a part of the input image. The window area specified by the set window is transmitted to the preprocessing unit 121. In the area extraction processing in the present embodiment,
The processes of steps S3 to S10 are performed on the window area specified by the window set in step S2. To set the window across the image, we now scan the entire image. Therefore, the window is set by moving it by one pixel in the vertical direction or the horizontal direction. Then, for the window area specified by each set window, step S
The processing from 3 to step S10 is performed respectively.

【0047】なお、本実施の形態においては、ウィンド
ウ領域を1つの入力画像に対して1画素ずつ移動させて
設定する例を示すが、実際には、ウィンドウ領域が顔が
表わされた領域を含むようにするため、入力された画像
をサンプリングして縮小した画像、または線形補間して
拡大した画像をいくつか生成し、それぞれの縮小または
拡大された画像に対して領域抽出処理を行なうことにな
る。
In the present embodiment, an example in which the window area is set by moving it by one pixel for one input image is shown. However, in reality, the window area is an area in which a face is represented. In order to include it, it is necessary to sample the input image and reduce it, or to generate some enlarged images by linear interpolation, and perform area extraction processing for each reduced or enlarged image. Become.

【0048】次のステップS3では、ウィンドウ領域に
対して、顔が表わされた領域とは関係のない背景の領域
を除くため、ウィンドウ領域の縁の部分をマスキングす
る。このマスキングに用いるマスクの形状は、予め定め
られた形状である。特に、人の顔の輪郭の形状に類似し
たマスクを用いることが好ましい。ここで用いるマスク
では、顔が表わされた領域以外の背景の領域を除くこと
を目的とするため、完全に背景の領域がマスクされる必
要はない。マスキングによって一部に背景の領域が含ま
れていてもかまわない。
In the next step S3, the edge portion of the window area is masked in order to exclude the background area unrelated to the area in which the face is displayed. The shape of the mask used for this masking is a predetermined shape. In particular, it is preferable to use a mask that resembles the contour shape of a human face. Since the mask used here is intended to remove the background area other than the area where the face is represented, it is not necessary to completely mask the background area. The background area may be included in part by masking.

【0049】次のステップS4では、ウィンドウ領域の
マスキングされていない部分の画像を用いて非顔領域判
別処理が行なわれる。この非顔領域判別処理については
後で詳しく説明する。非顔領域判別処理は、ウィンドウ
領域に顔が表された領域が含まれないことを判別する処
理である。換言すれば、顔が表されていないことが明ら
かなウィンドウ領域を判別する処理であり、顔が表され
ているか否かの粗い判定を行なう処理である。非顔領域
判別処理は、ウィンドウ領域が顔が表されていないウィ
ンドウ領域(非顔領域)か、顔が表されたウインドウ領
域(顔領域)かの粗い判定を行なう。
In the next step S4, non-face area discrimination processing is performed using the image of the unmasked portion of the window area. This non-face area discrimination processing will be described in detail later. The non-face area determination processing is processing for determining that the window area does not include an area in which a face is represented. In other words, it is a process of determining a window area in which it is clear that a face is not represented, and a process of performing a rough determination of whether or not a face is represented. The non-face area determination process roughly determines whether the window area is a window area in which no face is displayed (non-face area) or a window area in which a face is displayed (face area).

【0050】ステップS5では、ステップS4の非顔領
域判別処理により、ウィンドウ領域が非顔領域と判定さ
れたか否かが判断される。非顔領域と判断された場合に
はステップS11へ進み、そうでない場合にはステップ
S6へ進む。
In step S5, it is determined whether or not the window area is determined to be a non-face area by the non-face area determination processing in step S4. If it is determined to be a non-face area, the process proceeds to step S11, and if not, the process proceeds to step S6.

【0051】ステップS6では、ウィンドウ領域内のマ
スキングされていない部分の画像に対して、輝度ヒスト
グラムの平坦化処理が行なわれる。輝度ヒストグラムの
平坦化処理は、輝度ヒストグラムのすべての輝度レベル
における度数が同じになるように画素値を変換する処理
である。
In step S6, the luminance histogram is flattened for the image of the unmasked portion in the window area. The brightness histogram flattening process is a process of converting pixel values so that the frequencies are the same at all brightness levels of the brightness histogram.

【0052】なお、ステップS2〜ステップS6の処理
は、前処理部121で実行される。次のステップS7で
は、ステップS5で輝度ヒストグラムの平坦化処理が実
行された画素値がベクトル化され、特徴空間へ射影され
る(ステップS7)。この射影により、ウィンドウ領域
に対応するパラメータが算出される。
The processing of steps S2 to S6 is executed by the preprocessing unit 121. In the next step S7, the pixel values subjected to the luminance histogram flattening process in step S5 are vectorized and projected onto the feature space (step S7). By this projection, the parameter corresponding to the window area is calculated.

【0053】特徴空間は、記憶部103の基底ベクトル
データベース131に記憶される基底ベクトルにより定
義される空間である。この特徴空間としては、主成分分
析空間や線形判別空間などが用いられる。たとえば、特
徴空間を主成分分析空間を用いる場合には、ウィンドウ
領域内の画素値のベクトルを、入力ベクトルxとし、主
成分分析空間の正規直交化された基底ベクトルの組を
{e1,e2,…,en}とすれば、射影ベクトルyは、
(1)式で表わされる。ここで、(,)はベクトルの内
積を表わし、x0は平均ベクトルを表わしている。
The feature space is a space defined by the basis vectors stored in the basis vector database 131 of the storage unit 103. As the feature space, a principal component analysis space or a linear discriminant space is used. For example, when the principal component analysis space is used as the feature space, a vector of pixel values in the window area is set as an input vector x, and a set of orthonormalized basis vectors in the principal component analysis space is {e 1 , e 2 , ..., E n }, the projection vector y is
It is expressed by equation (1). Here, (,) represents the inner product of the vectors, and x 0 represents the average vector.

【0054】次のステップS8において、特徴空間へ射
影された射影ベクトルyに対して、比較部123におい
て、DFFSが(2)式を用いて計算され、しきい値ε
と比較される。計算されたDFFSが、しきい値εより
大きい場合には、非顔領域と判定されてステップS11
へ進み、しきい値εより小さい場合には顔領域と判定さ
れてステップS10へ進む(ステップS9)。
In the next step S8, the DFFS is calculated using the equation (2) in the comparison unit 123 for the projection vector y projected onto the feature space, and the threshold ε
Compared to. If the calculated DFFS is larger than the threshold value ε, it is determined as a non-face area and step S11 is performed.
If it is smaller than the threshold value ε, it is determined to be a face area and the process proceeds to step S10 (step S9).

【0055】[0055]

【数1】 [Equation 1]

【0056】なお、DFFSを用いた比較に代えて、あ
るいはDFFSに加えて主成分空間内での距離DIFS
を用いて比較するようにしてもよい。さらに、顔が表わ
された領域の画像と、顔が表わされていない擬似顔の領
域を含む画像とを複数用いて作成された判別空間を用い
て、真顔クラスと擬似顔クラスの分布状況に基づいて予
め計算された判別関数によって顔の領域を含むか否かを
判定するようにしてもよい。これらの判別空間と判別関
数あるいはしきい値は、識別データベース132に記憶
しておくようにすればよい。
Instead of the comparison using the DFFS, or in addition to the DFFS, the distance DIFS in the principal component space
May be used for comparison. Furthermore, using a discriminant space created by using a plurality of images of a region in which a face is represented and images including a pseudoface region in which a face is not represented, the distribution status of the true face class and the pseudo face class Whether or not the face area is included may be determined by a discriminant function calculated in advance based on the above. The discriminant space and discriminant function or threshold value may be stored in the discrimination database 132.

【0057】ステップS10では、顔が表わされた領域
を含むと判断されたウィンドウ領域の画像中の位置とそ
のサイズとを記憶部103に記憶する。そして、ステッ
プS11へ進む。ここでのウィンドウ領域のサイズは、
画像を拡大または縮小した倍率で表される。
In step S10, the position and size in the image of the window area determined to include the area in which the face is represented are stored in the storage unit 103. Then, the process proceeds to step S11. The size of the window area here is
It is represented by the magnification of the image enlarged or reduced.

【0058】ステップS11では、ウィンドウが画像全
体を走査したか否かが判断される。画像全体を走査した
場合にはステップS12へ進み、そうでない場合にはス
テップS2へ戻る。
In step S11, it is determined whether the window has scanned the entire image. If the entire image has been scanned, the process proceeds to step S12, and if not, the process returns to step S2.

【0059】ステップS2では、ウィンドウを1画素縦
方向または横方向に移動させて、新たなウィンドウが設
定され、設定された新たなウィンドウで特定されるウィ
ンドウ領域に対してステップS3〜ステップS10まで
の処理が実行される。
In step S2, the window is moved by one pixel in the vertical direction or the horizontal direction to set a new window. For the window area specified by the set new window, steps S3 to S10 are performed. The process is executed.

【0060】ステップS11で、画像全体の走査が終了
したと判断された場合には、記憶部103に、複数のウ
ィンドウ領域の位置とそのサイズとが記憶されている。
ステップS12では、記憶部103に記憶されている顔
が表わされた領域を含むとされたウィンドウ領域の位置
とサイズを読出し、読出されたウィンドウ領域から検出
枠を決定する(ステップS12)。検出枠の決定は、具
体的には、位置の近いウィンドウ領域の位置とサイズの
平均値を求め、求められた平均の位置と平均のサイズと
で定まる検出枠が決定される。そして、この決定された
検出枠に重なるウィンドウ領域の位置とサイズが、記憶
部103より削除される。なお、ステップS12におけ
る検出枠の決定処理により、画像全体において複数の検
出枠が決定される場合がある。
When it is determined in step S11 that the scanning of the entire image is completed, the storage unit 103 stores the positions and sizes of the plurality of window areas.
In step S12, the position and size of the window area, which is said to include the area in which the face is represented, stored in the storage unit 103 is read, and the detection frame is determined from the read window area (step S12). To determine the detection frame, specifically, the average value of the position and the size of the window regions close to each other is calculated, and the detection frame determined by the calculated average position and the average size is determined. Then, the position and size of the window area overlapping the determined detection frame are deleted from the storage unit 103. Note that a plurality of detection frames may be determined in the entire image by the detection frame determination processing in step S12.

【0061】ステップS13では、ステップS12で決
定された検出枠を、ステップS1で入力された画像上に
付加した画像を出力部107に送信する。これにより、
出力部107のディスプレイでは、入力部105で入力
された画像が表示されるとともに、表示されている画像
上に、ステップS12で決定された検出枠がたとえば白
色の輪郭で表示される。このため、領域抽出装置100
の使用者は、抽出された顔が表わされた領域を含む検出
枠を、ディスプレイで確認することができる。
In step S13, the image obtained by adding the detection frame determined in step S12 to the image input in step S1 is transmitted to the output unit 107. This allows
On the display of the output unit 107, the image input by the input unit 105 is displayed, and the detection frame determined in step S12 is displayed by, for example, a white outline on the displayed image. Therefore, the region extraction device 100
The user of can check the detection frame including the area where the extracted face is displayed on the display.

【0062】図4は、図3のステップS4で実行される
非顔領域判別処理の流れを示すフローチャートである。
図4を参照して、ウィンドウ領域内のマスキングされて
いない部分の画像に対し、照明による光と影の影響を少
なくするため、平面当てはめ正規化処理が行われる(ス
テップS21)。平面当てはめ正規化処理は、ウィンド
ウ領域内の輝度値に近似する平面を最小二乗法を用いて
求め、求められた近似平面の画素値をウィンドウ領域内
の画素値から差し引く処理である。この平面当てはめ正
規化処理を施すことにより、照明勾配が補正される。な
お、照明による光と影の影響を少なくするための処理で
あれば、平面当てはめ正規化処理に限定されるものでは
ない。
FIG. 4 is a flow chart showing the flow of the non-face area discrimination processing executed in step S4 of FIG.
Referring to FIG. 4, a plane fitting normalization process is performed on the image of the unmasked portion in the window region in order to reduce the influence of light and shadow due to illumination (step S21). The plane fitting normalization process is a process in which a plane approximate to the brightness value in the window area is obtained by using the least square method, and the pixel value of the obtained approximate plane is subtracted from the pixel value in the window area. By performing this plane fitting normalization process, the illumination gradient is corrected. Note that the process is not limited to the plane fitting normalization process as long as it is a process for reducing the influence of light and shadow due to illumination.

【0063】平面当てはめ正規化処理は、ウィンドウ領
域内の座標(x,y)、その座標に対応する画素の輝度
値をI(x,y)とすれば、(3)式を満たす係数a,
b,cによって定義される平面で輝度分布が近似され
る。(3)式において、Mは、ウィンドウ領域内のマス
キングされていない部分を示す。
In the plane fitting normalization process, if the coordinates (x, y) in the window area and the luminance value of the pixel corresponding to the coordinates are I (x, y), the coefficient a, which satisfies the equation (3),
The luminance distribution is approximated by the plane defined by b and c. In the equation (3), M indicates an unmasked portion in the window area.

【0064】(3)式は特異値分解やLU分解法などで
解くことになる。(3)式に基づき計算された平面をウ
ィンドウ領域内のマスキングされていない部分(原画
像)から差し引くと、輝度値が負の値となる画素が現わ
れるため、適当なオフセット値を画素値に加算すること
により可視化することができる。ここでは、画素値を0
〜255で表される値とし、オフセット値を127とす
る。
Equation (3) can be solved by singular value decomposition or LU decomposition method. Subtracting the plane calculated based on equation (3) from the unmasked portion (original image) in the window area causes pixels with negative luminance values to appear, so add an appropriate offset value to the pixel value. It is possible to visualize by doing. Here, the pixel value is 0
˜255, and the offset value is 127.

【0065】ステップS21で平面当てはめ正規化処理
された画像に対し、輝度ヒストグラムが生成される(ス
テップS22)。輝度ヒストグラムは、横軸を輝度値と
し、縦軸を度数とする。
A luminance histogram is generated for the image subjected to the plane fitting and normalizing process in step S21 (step S22). In the brightness histogram, the horizontal axis represents the brightness value and the vertical axis represents the frequency.

【0066】次に、生成された輝度ヒストグラムの形状
を用いて、ウィンドウ領域内のマスキングされていない
部分に顔が表わされた領域を含むか否かが判断される
(ステップS23)。具体的には、輝度レベルがα以上
β以下の範囲([α,β])に含まれる画素数の合計を
計算し、計算された画素数の合計が、所定の範囲内にあ
るか否かが判断される(ステップS23)。所定の範囲
内にある場合にはステップS24へ進み、そうでない場
合にはステップS25へ進む。
Next, using the shape of the generated brightness histogram, it is determined whether or not the unmasked portion in the window area includes the area where the face is represented (step S23). Specifically, the total number of pixels included in the range ([α, β]) in which the brightness level is α or more and β or less is calculated, and whether or not the calculated total number of pixels is within a predetermined range. Is determined (step S23). If it is within the predetermined range, the process proceeds to step S24, and if not, the process proceeds to step S25.

【0067】なお、ステップS23では、ウィンドウ領
域内のマスキングされていない部分の画素数に対し、画
素値が所定の範囲内にある画素数の割合で判定するよう
にしてもよい。
In step S23, the number of pixels whose pixel value is within a predetermined range may be determined with respect to the number of pixels in the unmasked portion in the window area.

【0068】なお、背景が一様の場合には、輝度値が1
27近傍の画素の度数が高くなるため、ウィンドウ領域
内のマスキングされていない部分の画素数の1/3以上
が127近傍に集中している場合に所定の範囲内にない
と判断し、ステップS25へ進むようにする。この場
合、α=117,β=137,ε1=M/3とすればよ
い。ここで、Mはウィンドウ領域内でマスキングされて
いない部分の画素数を表わしている。
When the background is uniform, the brightness value is 1
Since the frequency of the pixels in the vicinity of 27 becomes high, it is determined that when 1/3 or more of the number of pixels in the unmasked portion in the window area is concentrated in the vicinity of 127, it is determined not to be within the predetermined range, and step S25 To proceed to. In this case, α = 117, β = 137, ε 1 = M / 3. Here, M represents the number of pixels in the unmasked portion in the window area.

【0069】ステップS23では、所定の範囲([α,
β])内の画素数がしきい値ε2を超えるか否かも判断
される。しきい値ε2を超える場合にはステップS24
へ進み、そうでない場合にはステップS25へ進む。
In step S23, a predetermined range ([α,
It is also determined whether the number of pixels in β]) exceeds the threshold ε 2 . If the threshold ε 2 is exceeded, step S24
Otherwise, to step S25.

【0070】ステップS24ではウィンドウ領域を顔が
表わされた領域(顔候補領域)と判定し、ステップS2
5ではウィンドウ領域を顔が表わされていない領域(非
顔領域)と判定する。
In step S24, the window area is determined to be an area in which a face is represented (face candidate area), and step S2
In 5, the window area is determined to be an area in which no face is displayed (non-face area).

【0071】本実施の形態における領域判別装置におい
ては、輝度ヒストグラムの形状に基づきウィンドウ領域
に顔が表わされた領域を含むか否かを、輝度ヒストグラ
ムの平坦化処理、または、顔か否かの判別処理(ステッ
プS8)を実行する前に判断する。このため、輝度ヒス
トグラムの平坦化処理(ステップS6)および顔か否か
の判別処理(ステップS8)で複雑な計算をすることな
く、次のウィンドウ領域について、顔が表わされた領域
を含むか否かの処理に進むことができる。このため、計
算量を少なくすることができ、処理速度を速めることが
できる。さらに、顔が表わされた領域を含まないウィン
ドウ領域に対して輝度ヒストグラムの平坦化処理を行な
うと、画像が強調されて誤判別する場合があるが、ステ
ップS4で顔が表わされた領域を含まないウィンドウ領
域に対して顔か否かの判別処理(ステップS8)を行な
わないので、誤判別するのを防止することができる。
In the area discriminating apparatus according to the present embodiment, whether or not the window area includes an area in which a face is represented based on the shape of the brightness histogram is determined by the brightness histogram flattening process or whether the area is a face. It is determined before the determination process (step S8). Therefore, whether or not the area in which the face is represented is included in the next window area without performing complicated calculations in the luminance histogram flattening processing (step S6) and the face determination processing (step S8). It is possible to proceed to the process of whether or not. Therefore, the amount of calculation can be reduced and the processing speed can be increased. Further, if the brightness histogram is flattened in a window area that does not include the area in which the face is displayed, the image may be emphasized and misjudgment may occur. Since the window area that does not include is not subjected to the process of determining whether or not it is a face (step S8), it is possible to prevent erroneous determination.

【0072】<非顔領域判別処理の変形例>次に、図3
のステップS4で実行される別の非顔領域判別処理につ
いて説明する。図5は、図3のステップS4で実行され
る別の非顔領域判別処理の流れを示すフローチャートで
ある。
<Modification of Non-Face Area Discrimination Processing> Next, referring to FIG.
Another non-face area determination process executed in step S4 will be described. FIG. 5 is a flowchart showing the flow of another non-face area determination process executed in step S4 of FIG.

【0073】図5を参照して、ステップS31では、ウ
ィンドウ領域内のマスキングされていない部分の画像に
対し、肌色の画素の数が計数され、マスキングされてい
ない部分の画素数に対する割合が求められる。肌色の画
素数を求める方法は、たとえば、ステップS1で入力さ
れた画像を、画素ごとにRGB空間から均等知覚色空間
Luvに変換し、(u,v)座標の値から肌色の画素を
抽出する方法を用いることができる。また、孤立した点
を除去し、肌色の領域を連結するためにモルフォロジー
処理を施すのが好ましい。
Referring to FIG. 5, in step S31, the number of skin-colored pixels is counted in the image of the unmasked portion in the window area, and the ratio to the number of pixels in the unmasked portion is obtained. . As a method for obtaining the number of pixels of skin color, for example, the image input in step S1 is converted pixel by pixel from the RGB space to the uniform perceptual color space Luv, and the pixels of skin color are extracted from the value of the (u, v) coordinate. Any method can be used. In addition, it is preferable to perform morphological processing in order to remove isolated points and connect the skin color areas.

【0074】次に、ステップS31で計数された肌色の
画素値を有する画素の画素数の割合が所定の値以上か否
かが判断される(ステップS32)。割合が所定の値以
上の場合にはステップS33へ進み、そうでない場合に
はステップS41へ進む。肌色の画素数の割合が、所定
の値よりも小さい場合には、顔が表わされた領域が含ま
れる確率が低いからである。
Next, it is judged whether or not the ratio of the number of pixels having the pixel value of the skin color counted in step S31 is a predetermined value or more (step S32). If the ratio is greater than or equal to the predetermined value, the process proceeds to step S33, and if not, the process proceeds to step S41. This is because when the ratio of the number of pixels of skin color is smaller than a predetermined value, the probability that the region in which the face is expressed is included is low.

【0075】次に、ウィンドウ領域内のマスキングされ
ていない部分の画像に含まれる画素の輝度値の平均が計
算される(ステップS33)。そして、平均輝度値が所
定の範囲内か否かが判断される(ステップS34)。平
均輝度値が所定の範囲内である場合にはステップS35
へ進み、そうでない場合にはステップS41へ進む。平
均輝度値が低い画像は、極端に暗い画像であり、平均輝
度値が高い画像は極端に明るい画像である。このような
画像は、顔を表わした領域である確率が低いので、非顔
領域と判定するものである。なお、所定の範囲は60以
上200以下([60,200])とするのが好まし
い。
Next, the average of the luminance values of the pixels included in the image of the unmasked portion in the window area is calculated (step S33). Then, it is determined whether the average brightness value is within a predetermined range (step S34). If the average brightness value is within the predetermined range, step S35.
Otherwise, to step S41. An image having a low average luminance value is an extremely dark image, and an image having a high average luminance value is an extremely bright image. Since such an image has a low probability of being an area representing a face, it is determined to be a non-face area. The predetermined range is preferably 60 or more and 200 or less ([60,200]).

【0076】次のステップS35では、平面当てはめ正
規化処理がウィンドウ領域のマスキングされていない部
分の画像に対して実行される(ステップS35)。
In the next step S35, the plane fitting normalization process is executed on the image of the unmasked portion of the window area (step S35).

【0077】そして、近似平面の傾きにより求められた
値が所定の範囲内か否かが判断される(ステップS3
6)。所定の範囲内にあるとされた場合にはステップS
37へ進み、そうでない場合にはステップS41へ進
む。ここでは、近似平面の傾きが大きい場合に所定の範
囲内にないとし、近似平面の傾きが大きくない場合に所
定の範囲内にあるとする例を示す。
Then, it is judged whether or not the value obtained from the inclination of the approximate plane is within a predetermined range (step S3).
6). If it is determined to be within the predetermined range, step S
If not, the process proceeds to step S41. Here, an example is shown in which when the inclination of the approximate plane is large, it is not within the predetermined range, and when the inclination of the approximate plane is not large, it is within the predetermined range.

【0078】近似平面の傾きが大きいか否か判断は、
(3)式の係数a,bを用いて定められる値(a2
2)が用いられる。この値が、所定のしきい値ε3より
大きい場合は、近似平面の傾きが大きいと判断し、そう
でない場合には近似平面の傾きが大きいとは判断しな
い。近似平面の傾きが大きい場合は、顔が表わされた領
域である確率が低いため、そのようなウィンドウ領域
は、後の処理を実行することなく非顔領域と判定するた
めである。
Whether or not the inclination of the approximate plane is large is determined by
A value (a 2 + determined by using the coefficients a and b of the equation (3)
b 2 ) is used. If this value is larger than the predetermined threshold value ε 3, it is determined that the inclination of the approximate plane is large, and if not, it is not determined that the inclination of the approximate plane is large. This is because when the inclination of the approximate plane is large, the probability that it is a region in which a face is represented is low, and such a window region is determined as a non-face region without performing subsequent processing.

【0079】次に、ステップS36で非顔領域と判定さ
れなかったウィンドウ領域のマスキングされていない部
分の画像に対して、輝度値の分散が計算される(ステッ
プS37)。そして、計算された分散が、所定の範囲内
にあるか否かが判断される(ステップS38)。所定の
範囲内にあるとされた場合にはステップS39に進み、
そうでない場合にはステップS41へ進む。分散が所定
の範囲内にないとされる場合には、輝度値の変化が激し
い画像であり、そのような画像は顔が表わされた領域で
ある確率が低い。そのため、そのような画像はこの段階
で顔が含まれた領域を含まない非顔領域に処理対象とな
っているウィンドウ領域を判定するものである。分散V
arに関する所定の範囲とは、分散が90以上1700
以下の範囲(90≦Var≦1700)とするのが好ま
しい。
Next, the variance of the brightness value is calculated for the image of the unmasked part of the window area which is not determined to be the non-face area in step S36 (step S37). Then, it is determined whether the calculated variance is within a predetermined range (step S38). If it is determined to be within the predetermined range, the process proceeds to step S39,
If not, the process proceeds to step S41. If the variance is not within the predetermined range, it is an image with a large change in luminance value, and such an image is unlikely to be a region in which a face is represented. Therefore, in such an image, the window area to be processed is determined to be a non-face area that does not include an area including a face at this stage. Distributed V
The predetermined range for ar is a variance of 90 or more and 1700
The following range (90 ≦ Var ≦ 1700) is preferable.

【0080】次のステップS39では、輝度値の平均と
分散とが所定の関係にあるか否かが判断される。所定の
関係にあるとされた場合には、ステップS40へ進み、
そうでない場合にはステップS41へ進む。平均と分散
とが所定の関係にない場合には、ウィンドウ領域に顔が
表わされた領域が含まれない可能性が高いため、そのよ
うなウィンドウ領域を非顔領域と判定するためである。
平均と分散との所定の関係は、平均をAve、分散をV
arとして(4)式で表わされる。
In the next step S39, it is determined whether or not the average and the variance of the brightness values have a predetermined relationship. If it is determined that there is a predetermined relationship, the process proceeds to step S40,
If not, the process proceeds to step S41. This is because when the average and the variance are not in a predetermined relationship, it is highly likely that the window region does not include the region in which the face is represented, and such a window region is determined as the non-face region.
The predetermined relationship between the average and the variance is Ave for the average and V for the variance.
It is represented by equation (4) as ar.

【0081】これにより、後の処理を行なうことなく、
ウィンドウ領域を処理対象の画像から除外することがで
き、処理速度を速めることができる。
As a result, without performing the subsequent processing,
The window area can be excluded from the image to be processed, and the processing speed can be increased.

【0082】ステップS40では、ウィンドウ領域を顔
が表わされた領域を含む顔候補領域と判定し、ステップ
S5へ進む。一方、ステップS41では、ウィンドウ領
域を顔が表わされた領域を含まない非顔領域と判定して
ステップS5へ進む。
In step S40, the window area is determined to be a face candidate area including the area in which the face is expressed, and the process proceeds to step S5. On the other hand, in step S41, the window area is determined to be a non-face area that does not include the area in which the face is represented, and the process proceeds to step S5.

【0083】[0083]

【数2】 [Equation 2]

【0084】図6は、顔領域と判別されたウィンドウ領
域の画素値の平均および分散の関係の一例を示す図であ
る。図6を参照して、○印および×印は、図3のステッ
プS4における非顔領域の判別処理をすることなく、領
域抽出処理を実行した結果、顔領域と判定されたウィン
ドウ領域の画素値の平均と分散とを示している。○印
は、実際に顔が表されたウィンドウ領域の分散と平均を
示す。×印は、実際には顔が表されていないウィンドウ
領域の分散と平均を示す。
FIG. 6 is a diagram showing an example of the relationship between the average and variance of the pixel values of the window area determined as the face area. Referring to FIG. 6, circles and crosses indicate the pixel values of the window area determined as the face area as a result of the area extraction processing without performing the non-face area determination processing in step S4 of FIG. The mean and variance of are shown. The circles indicate the variance and average of the window area in which the face is actually displayed. The crosses indicate the variance and average of the window areas where no face is actually represented.

【0085】○印は、分散Varが90以上1700以
下の範囲([90,1700])の領域にほとんど含ま
れている。また、○印は、平均Aveが200以下の領
域にほとんど含まれている。さらに、○印は、平均Av
eと分散Varとが(4)式に示す関係で定まる範囲の
領域にほとんど含まれている。×印は、分散Varが9
0以上1700以下の範囲([90,1700])の領
域外にほとんど含まれている。また、平均Aveが20
0以下の領域外にほとんど含まれている。さらに、平均
Aveと分散Varとが(4)式に示す関係で定まる範
囲の領域外にほとんど含まれている。
The circles are almost included in the region where the dispersion Var is 90 or more and 1700 or less ([90,1700]). Also, the circles are almost included in the region where the average Ave is 200 or less. In addition, ○ indicates the average Av
Most of e and the dispersion Var are included in the region of the range determined by the relationship shown in the equation (4). The x mark indicates that the dispersion Var is 9
It is mostly included outside the range of 0 to 1700 ([90,1700]). Also, the average Ave is 20
It is mostly contained outside the region of 0 or less. Further, the average Ave and the variance Var are almost included outside the range of the range defined by the relationship shown in the equation (4).

【0086】以上説明したように、本実施の形態におけ
る領域抽出処理においては、輝度ヒストグラムの形状
で、ウィンドウ領域を非顔領域と判定する。また、ウィ
ンドウ領域の平均輝度値、分散がそれぞれ所定の範囲内
にない場合に非顔領域と判定する。さらに、平均と分散
とが所定の関係ない場合に非顔領域と判定する。さら
に、平面当てはめ正規化で求められた近似平面を定める
係数が極めて大きい場合に、非顔領域と判定する。これ
らの判定は、図3に示した輝度ヒストグラムの平坦化処
理(ステップS6)、特徴空間への射影処理(S7)お
よび顔か否かの判別処理(S8)の処理を行なう前に実
行されるもので、これらの処理に比べて簡単な処理であ
る。このため、計算量の多い処理を行なう前にウィンド
ウ領域が非顔領域か顔候補領域かを判定するようにした
ので、非顔領域と判定されたウィンドウ領域について
は、後の負荷の大きい計算処理を行なう必要がなくな
る。その結果、処理速度を速めることができる。
As described above, in the area extraction processing of this embodiment, the window area is determined to be the non-face area based on the shape of the brightness histogram. Further, when the average luminance value and the variance of the window area are not within the predetermined range, the window area is determined to be a non-face area. Furthermore, when the average and the variance do not have a predetermined relationship, it is determined as a non-face area. Furthermore, when the coefficient that determines the approximate plane obtained by plane fitting normalization is extremely large, it is determined as a non-face area. These determinations are performed before performing the brightness histogram flattening process (step S6), the feature space projection process (S7), and the face determination process (S8) shown in FIG. This is a simpler process than these processes. For this reason, it is determined whether the window area is a non-face area or a face candidate area before performing a process that requires a large amount of calculation. You don't have to. As a result, the processing speed can be increased.

【0087】また、顔が表わされていない領域に対し
て、輝度ヒストグラムの平坦化処理(S6)を実行する
ことにより、画像が強調されて顔か否かの判別処理(S
8)において誤判別を行なう可能性がある。輝度ヒスト
グラムの平坦化処理(S6)を行なう前に、明らかに顔
が表わされた領域を含まないウィンドウ領域を非顔領域
と判定して、ステップS6以降の処理を行なわないよう
にしたので、誤判別するのを防止することができる。
Further, by performing the brightness histogram flattening process (S6) on the area where the face is not represented, it is determined whether the image is emphasized and the face is a face (S6).
8) There is a possibility of making an erroneous determination. Before performing the brightness histogram flattening process (S6), it is determined that a window region that does not include a region in which a face is clearly displayed is a non-face region, and the processes after step S6 are not performed. Misjudgment can be prevented.

【0088】なお、図5のステップS37およびステッ
プS38で分散を用いて非顔領域か否かを判定するよう
にしたが、図4に示すステップS22およびステップS
23に示す輝度ヒストグラムの形状を用いて非顔領域か
否かを判定する処理に置換えることができる。
Although it is determined in step S37 and step S38 in FIG. 5 whether or not the area is a non-face area by using variance, step S22 and step S in FIG.
It can be replaced with a process of determining whether or not it is a non-face area by using the shape of the luminance histogram shown in FIG.

【0089】また、本実施の形態においては、領域抽出
装置について説明したが、図3および図4または図5に
示した処理実行するための領域判別方法、および、図3
および図4または図5の処理をコンピュータに実行させ
るための領域判別プログラムとして発明をとらえること
ができるのはいうまでもない。
Further, although the area extracting apparatus has been described in the present embodiment, the area discriminating method for executing the processing shown in FIG. 3 and FIG. 4 or FIG.
It goes without saying that the invention can be understood as an area determination program for causing a computer to execute the processing of FIG. 4 or 5.

【0090】今回開示された実施の形態はすべての点で
例示であって制限的なものではないと考えられるべきで
ある。本発明の範囲は上記した説明ではなくて特許請求
の範囲によって示され、特許請求の範囲と均等の意味お
よび範囲内でのすべての変更が含まれることが意図され
る。
The embodiments disclosed this time are to be considered as illustrative in all points and not restrictive. The scope of the present invention is shown not by the above description but by the claims, and is intended to include meanings equivalent to the claims and all modifications within the scope.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の実施の形態の1つにおける領域抽出
装置の概略構成を示すブロック図である。
FIG. 1 is a block diagram showing a schematic configuration of a region extraction device according to an embodiment of the present invention.

【図2】 本実施の形態における領域抽出装置の制御部
の機能の概略を示す機能ブロック図である。
FIG. 2 is a functional block diagram showing an outline of functions of a control unit of the area extraction device according to the present embodiment.

【図3】 本実施の形態における領域抽出装置で実行さ
れる領域抽出処理の流れを示すフローチャートである。
FIG. 3 is a flowchart showing a flow of region extraction processing executed by the region extraction device according to the present embodiment.

【図4】 図3のステップS4で実行される非顔領域判
別処理の流れを示すフローチャートである。
FIG. 4 is a flowchart showing a flow of non-face area determination processing executed in step S4 of FIG.

【図5】 図3のステップS4で実行される別の非顔領
域判別処理の流れを示すフローチャートである。
FIG. 5 is a flowchart showing the flow of another non-face area determination process executed in step S4 of FIG.

【図6】 顔領域と判別されたウィンドウ領域の画素値
の平均および分散の関係の一例を示す図である。
FIG. 6 is a diagram showing an example of a relationship between averages and variances of pixel values in a window area determined as a face area.

【符号の説明】[Explanation of symbols]

100 領域抽出装置、101 制御部、103 記憶
部、105 入力部、107 出力部、109 外部記
憶装置、111 記録媒体、120 ウィンドウ切出し
部、121 前処理部、122 射影部、123 比較
部、124 後処理部、131 基底ベクトルデータベ
ース、132 識別データベース。
100 area extraction device, 101 control unit, 103 storage unit, 105 input unit, 107 output unit, 109 external storage device, 111 recording medium, 120 window cutout unit, 121 preprocessing unit, 122 projection unit, 123 comparison unit, 124 after Processing unit, 131 basis vector database, 132 identification database.

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 画像中から所定のオブジェクトを含む領
域を抽出する領域抽出方法であって、 画像の入力を受付けるステップと、 入力された画像の少なくとも一部の領域を設定するステ
ップと、 設定された前記領域の画像情報を算出するステップと、 算出された前記画像情報に基づいて、設定された前記領
域を処理対象とするか否かを判断するステップと、 前記判断ステップにより処理対象として判断された前記
領域で、前記所定のオブジェクトを検出するステップと
を含む、領域抽出方法。
1. A region extraction method for extracting a region including a predetermined object from an image, the step of receiving an input of an image, the step of setting at least a partial region of the input image, A step of calculating the image information of the area, a step of determining whether or not the set area is a processing target based on the calculated image information, and a step of determining the processing target by the determination step. And a step of detecting the predetermined object in the area.
【請求項2】 前記画像情報は、前記設定された領域に
含まれる画素の数に対する画素値が所定の範囲内に含ま
れる画素の数の割合である、請求項1に記載の領域抽出
方法。
2. The area extraction method according to claim 1, wherein the image information is a ratio of the number of pixels having a pixel value within a predetermined range to the number of pixels included in the set area.
【請求項3】 前記画像情報は、前記設定された領域に
含まれる所定の色相を有する画素の割合である、請求項
1に記載の領域抽出方法。
3. The area extraction method according to claim 1, wherein the image information is a ratio of pixels having a predetermined hue included in the set area.
【請求項4】 前記画像情報は、前記設定された領域に
含まれる画素の輝度値の平均である、請求項1に記載の
領域抽出方法。
4. The area extraction method according to claim 1, wherein the image information is an average of luminance values of pixels included in the set area.
【請求項5】 前記画像情報は、前記設定された領域に
含まれる画素の輝度値の分散である、請求項1に記載の
領域抽出方法。
5. The area extraction method according to claim 1, wherein the image information is a variance of luminance values of pixels included in the set area.
【請求項6】 前記画像情報は、前記設定された領域に
含まれる画素の輝度値の平均と分散であり、前記判断ス
テップは、算出された前記平均と前記分散とが所定の関
係にある場合に、前記設定された領域を処理対象と判断
するステップを含む、請求項1に記載の領域抽出方法。
6. The image information is an average and a variance of luminance values of pixels included in the set area, and the determining step includes a case where the calculated average and the variance have a predetermined relationship. The method according to claim 1, further comprising: determining the set area as a processing target.
【請求項7】 前記画像情報を算出するステップは、前
記設定された領域の輝度値に近似する平面を算出するス
テップを含み、 前記画像情報は、前記算出された近似平面を定める係数
に基づいて算出される値である、請求項1に記載の領域
抽出方法。
7. The step of calculating the image information includes the step of calculating a plane that approximates the brightness value of the set region, and the image information is based on a coefficient that defines the calculated approximate plane. The area extraction method according to claim 1, wherein the area extraction method is a calculated value.
【請求項8】 画像から所定のオブジェクトを含む領域
を抽出する処理をコンピュータに実行させるための領域
抽出プログラムであって、 画像の入力を受付けるステップと、 入力された前記画像の少なくとも一部の領域を設定する
ステップと、 設定された前記領域の画像情報を算出するステップと、 算出された前記画像情報に基づいて、設定された前記領
域を処理対象とするか否かを判断するステップと、 前記判断ステップにより処理対象として判断された前記
領域において、前記所定のオブジェクトを検出するステ
ップとをコンピュータに実行させる領域抽出プログラ
ム。
8. A region extraction program for causing a computer to execute a process of extracting a region including a predetermined object from an image, the step of receiving an input of the image, and the region of at least a part of the input image. Setting a step, calculating image information of the set area, determining whether to set the set area on the basis of the calculated image information, An area extraction program for causing a computer to execute the step of detecting the predetermined object in the area determined to be processed by the determination step.
【請求項9】 請求項8に記載の領域抽出プログラムを
記録したコンピュータ読取可能な記録媒体。
9. A computer-readable recording medium in which the area extraction program according to claim 8 is recorded.
【請求項10】 画像中から所定のオブジェクトを含む
領域を抽出する領域抽出装置であって、 画像の入力を受付ける手段と、 入力された前記画像の少なくとも一部の領域を設定する
手段と、 設定された前記領域の画像情報を算出する手段と、 算出された前記画像情報に基づいて、設定された前記領
域を処理対象とするか否かを判断する手段と、 前記判断手段により処理対象として判断された前記領域
において、前記所定のオブジェクトを検出する手段とを
備えた、領域抽出装置。
10. An area extraction device for extracting an area including a predetermined object from an image, comprising means for receiving an input of the image, means for setting at least a partial area of the input image, and setting. Means for calculating image information of the area, a means for judging whether or not the set area is to be processed based on the calculated image information, and a judgment means for judging the processing object A region extraction device, comprising means for detecting the predetermined object in the generated region.
JP2001206478A 2001-07-06 2001-07-06 Method and program for area extraction, computer- readable recording medium with recorded program for area extraction, and device for area extraction. Pending JP2003022441A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001206478A JP2003022441A (en) 2001-07-06 2001-07-06 Method and program for area extraction, computer- readable recording medium with recorded program for area extraction, and device for area extraction.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001206478A JP2003022441A (en) 2001-07-06 2001-07-06 Method and program for area extraction, computer- readable recording medium with recorded program for area extraction, and device for area extraction.

Publications (1)

Publication Number Publication Date
JP2003022441A true JP2003022441A (en) 2003-01-24

Family

ID=19042598

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001206478A Pending JP2003022441A (en) 2001-07-06 2001-07-06 Method and program for area extraction, computer- readable recording medium with recorded program for area extraction, and device for area extraction.

Country Status (1)

Country Link
JP (1) JP2003022441A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006072829A (en) * 2004-09-03 2006-03-16 Fujifilm Software Co Ltd Image recognition system and image recognition method
JP2009169957A (en) * 2003-11-21 2009-07-30 Siemens Corporate Res Inc How to test image pairs

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06309433A (en) * 1993-04-20 1994-11-04 Sony Corp Picture identification system
JPH10232934A (en) * 1997-02-18 1998-09-02 Toshiba Corp Face image registration apparatus and method
JPH11261812A (en) * 1998-03-10 1999-09-24 Fuji Photo Film Co Ltd Extraction method for primary object
JPH11283033A (en) * 1998-03-27 1999-10-15 Ricoh System Kaihatsu Kk Method for utilizing feature amount for image identification and recording medium for storing program therefor
JPH11306348A (en) * 1998-04-21 1999-11-05 Toshiba Tec Corp Object detection apparatus and object detection method
JP2000149018A (en) * 1998-09-10 2000-05-30 Fuji Photo Film Co Ltd Image processing method, and device and recording medium thereof
JP2001014457A (en) * 1999-06-29 2001-01-19 Minolta Co Ltd Image processor

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06309433A (en) * 1993-04-20 1994-11-04 Sony Corp Picture identification system
JPH10232934A (en) * 1997-02-18 1998-09-02 Toshiba Corp Face image registration apparatus and method
JPH11261812A (en) * 1998-03-10 1999-09-24 Fuji Photo Film Co Ltd Extraction method for primary object
JPH11283033A (en) * 1998-03-27 1999-10-15 Ricoh System Kaihatsu Kk Method for utilizing feature amount for image identification and recording medium for storing program therefor
JPH11306348A (en) * 1998-04-21 1999-11-05 Toshiba Tec Corp Object detection apparatus and object detection method
JP2000149018A (en) * 1998-09-10 2000-05-30 Fuji Photo Film Co Ltd Image processing method, and device and recording medium thereof
JP2001014457A (en) * 1999-06-29 2001-01-19 Minolta Co Ltd Image processor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009169957A (en) * 2003-11-21 2009-07-30 Siemens Corporate Res Inc How to test image pairs
JP2006072829A (en) * 2004-09-03 2006-03-16 Fujifilm Software Co Ltd Image recognition system and image recognition method

Similar Documents

Publication Publication Date Title
US6389155B2 (en) Image processing apparatus
JP4903854B2 (en) Object detection method in digital image
EP1596573B1 (en) Image correction apparatus
JP3999964B2 (en) Multi-mode digital image processing method for eye detection
JP4234381B2 (en) Method and computer program product for locating facial features
US6920237B2 (en) Digital image processing method and computer program product for detecting human irises in an image
JP4345622B2 (en) Eye color estimation device
JP3684017B2 (en) Image processing apparatus and method
US9092868B2 (en) Apparatus for detecting object from image and method therefor
US6965693B1 (en) Image processor, image processing method, and recorded medium
US8295593B2 (en) Method of detecting red-eye objects in digital images using color, structural, and geometric characteristics
CN1355680A (en) Skin imaging and analysis system and method
JP2002342756A (en) Method for detecting position of eye and mouth in digital image
JP2000048184A (en) Image processing method and face region extraction method and apparatus
JP3534009B2 (en) Outline extraction method and apparatus
CN114758384A (en) Face detection method, device, equipment and storage medium
JP4599110B2 (en) Image processing apparatus and method, imaging apparatus, and program
JP4619762B2 (en) Image processing method, apparatus, and program
JPH09305743A (en) Human face motion detection method
JP2003022441A (en) Method and program for area extraction, computer- readable recording medium with recorded program for area extraction, and device for area extraction.
JP2005165983A (en) Human face jaw detection method, jaw detection system, and jaw detection program
JP2007025902A (en) Image processing apparatus and image processing method
JP2006323779A (en) Image processing method and image processing apparatus
JP2000163562A (en) Feature amount extraction device, method, and computer-readable storage medium
JP2010271922A (en) Talking person detection method, talking person detection device, and talking person detection program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050613

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080425

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100914

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101207

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110412