JPH0935070A - Face image processing device - Google Patents
Face image processing deviceInfo
- Publication number
- JPH0935070A JPH0935070A JP7179036A JP17903695A JPH0935070A JP H0935070 A JPH0935070 A JP H0935070A JP 7179036 A JP7179036 A JP 7179036A JP 17903695 A JP17903695 A JP 17903695A JP H0935070 A JPH0935070 A JP H0935070A
- Authority
- JP
- Japan
- Prior art keywords
- face
- image
- area
- center
- gravity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】
【課題】 運転者の2値化された顔画像領域の重心と顔
画像の代表点を通る直線の傾きより運転者の顔画像の傾
きを求め、更に、傾き角度に基づいて顔画像の回転処理
を行い、傾きのない顔画像を得る。
【解決手段】 運転者の顔画像を入力する顔画像入力手
段と、顔画像より目、鼻、口等の顔の特徴点の候補領域
を抽出する特徴候補領域抽出手段と、特徴候補領域を2
値化する2値化手段と、2値化画像において顔を含む領
域の重心を算出する顔領域重心算出手段と、顔部分領域
の代表点を算出する部分領域代表点算出手段と、前記重
心と部分領域代表点の2点を通る直線と一定の基準線と
のなす角度を顔の傾き角度として検出する傾き角度検出
手段とを備えている。
(57) Abstract: The inclination of a driver's face image is obtained from the inclination of a straight line passing through the center of gravity of the driver's binarized face image area and a representative point of the face image, and based on the inclination angle. The face image is rotated to obtain a face image without inclination. SOLUTION: A face image input means for inputting a face image of a driver, a feature candidate area extracting means for extracting a candidate area of a face feature point such as an eye, a nose, or a mouth from the face image, and two feature candidate areas are provided.
Binarizing means for binarizing, face area centroid calculating means for calculating the centroid of the area including the face in the binarized image, partial area representative point calculating means for calculating representative points of the face partial area, and the centroid. An inclination angle detecting means for detecting an angle formed by a straight line passing through two partial area representative points and a constant reference line as an inclination angle of the face.
Description
【発明の詳細な説明】Detailed Description of the Invention
【0001】[0001]
【発明の属する技術分野】この発明は画像処理を用いて
顔画像の傾きを検出・判定し、顔画像を傾きの無い位置
に補正する機能を備えた顔画像処理装置に関するもので
ある。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a face image processing apparatus having a function of detecting and determining the inclination of a face image by using image processing and correcting the face image to a position without inclination.
【0002】[0002]
【従来の技術】従来の運転者の顔画像処理装置として
は、例えば特開平6−227278号公報に示されたも
のがある。図29は従来装置の構成を示すブロック図で
ある。画像入力手段55により装置に取り込んだ画像デ
ータは2値化手段50にによって2値化され、眼球存在
領域設定手段57によって顔画像中の眼球存在領域が設
定される。運転者状態判定手段59では開閉眼検出手段
58検出された眼球存在領域中の開閉眼のパターンに基
づいて運転者の状態を判断する構成になっている。また
開閉眼検出手段58の検出結果は誤検出判定手段61に
も送られ、誤検出と判断されたならば再設定手段60に
て眼球存在領域の再設定を行う。眼球存在領域の設定
は、横幅、縦幅の順で行われる。2. Description of the Related Art A conventional driver face image processing apparatus is disclosed in, for example, Japanese Patent Application Laid-Open No. 6-227278. FIG. 29 is a block diagram showing the configuration of a conventional device. The image data taken into the apparatus by the image input means 55 is binarized by the binarizing means 50, and the eyeball existing area setting means 57 sets the eyeball existing area in the face image. The driver state determining means 59 is configured to determine the driver's state based on the pattern of the open / closed eyes in the eyeball presence region detected by the open / closed eye detecting means 58. The detection result of the open / closed eye detection means 58 is also sent to the erroneous detection determination means 61, and if it is determined that the detection is erroneous, the resetting means 60 resets the eyeball existing area. The setting of the eyeball existing area is performed in the order of the horizontal width and the vertical width.
【0003】図30はその横幅設定における画像走査の
説明図、図31はその縦幅設定における画像走査の説明
図である。図32の走査開始ライン(画像のX座標の中
央)62を境にした左右領域で左右方向の連続白色画素
数から判断して横幅を設定し、図33の黒色画素63、
64を検索して縦幅を設定する。図34の破線部65は
図30及び図31の画像走査方法で横幅及び縦幅が設定
された眼球存在領域である。横幅設定方法は図30のフ
ローチャートで説明されるように、顔のほぼ中心より上
方に向けて顔横方向の白色画素の連続数をカウントす
る。FIG. 30 is an explanatory diagram of image scanning in the horizontal width setting, and FIG. 31 is an explanatory diagram of image scanning in the vertical width setting. The horizontal width is set by judging from the number of continuous white pixels in the left and right direction in the left and right regions with the scan start line (center of the X coordinate of the image) 62 of FIG. 32 as a boundary, and the black pixel 63 of FIG.
64 is searched and the vertical width is set. A broken line portion 65 in FIG. 34 is an eyeball existing region in which the horizontal width and the vertical width are set by the image scanning method of FIGS. 30 and 31. The horizontal width setting method counts the number of consecutive white pixels in the lateral direction of the face upwards from approximately the center of the face, as described in the flowchart of FIG.
【0004】次に、カウント最大時のX座標(顔の横方
向座標)を記憶する。縦方向に向けて顔横方向の白色画
素をカウントした結果、左右の白色画素の連続数の和が
例えば200以上であれば、記憶されたカウント最大時
のX座標より眼球存在領域の横方向を設定する。しか
し、連続数の和が200以下の場合は更に上方に向けて
横方向の白色画素の連続数をカウントする。Next, the X coordinate (horizontal coordinate of the face) at the maximum count is stored. As a result of counting the white pixels in the horizontal direction of the face in the vertical direction, if the sum of the number of consecutive white pixels on the left and right is, for example, 200 or more, the horizontal direction of the eyeball existing region is determined from the stored X coordinate at the maximum count. Set. However, when the total number of consecutive pixels is 200 or less, the number of consecutive white pixels in the horizontal direction is counted upward.
【0005】眼球存在領域の縦幅設定は図31のフロー
チャートに示すように、縦方向の黒色領域を黒色画素数
より検索する。この時、最初に一番目の黒色領域の画素
数の最大値を記憶する。以降、眉毛の間に向けて縦方向
に黒色領域の画素の最大値を記憶し、前回の最大値と比
較して行く。従って、縦方向の黒色領域の検索が眉毛の
間に至ると、黒色領域が無くなりるため、一番目の最大
値の座標値と眉毛の間に至る直前の最大値の座標値の間
が眼球存在領域の縦方向として設定される。この結果、
図34に示すように左右の眼球存在領域が設定される。To set the vertical width of the eyeball existing area, as shown in the flow chart of FIG. 31, a black area in the vertical direction is searched from the number of black pixels. At this time, first, the maximum value of the number of pixels in the first black area is stored. After that, the maximum value of the pixels in the black area is stored vertically between the eyebrows and compared with the previous maximum value. Therefore, when the search for the black area in the vertical direction reaches between the eyebrows, the black area disappears, so that there is an eyeball between the coordinate value of the first maximum value and the coordinate value of the maximum value immediately before reaching the eyebrows. It is set as the vertical direction of the area. As a result,
As shown in FIG. 34, the left and right eyeball existing regions are set.
【0006】[0006]
【発明が解決しようとする課題】従来の顔画像処理装置
は、以上のように運転者の顔を常に一定の位置に置き、
その顔の画像より眼球の位置を捉えようとしているが、
運転者は常に同じ姿勢で運転するわけではなく、顔が傾
く姿勢で運転することもしばしばある。ところが、上記
の従来の運転者の顔画像処理装置では顔画像の傾きを補
正する機能はなく、そのため、大きく傾いた顔画像を処
理して眼球存在領域を検出しようとすると、検出された
眼球存在領域は、実際の位置とはずれた位置に設定され
てしてしまう可能性が高い。As described above, the conventional face image processing apparatus always places the driver's face at a fixed position,
I am trying to capture the position of the eyeball from the image of the face,
Drivers do not always drive in the same posture, and often drive in a leaning posture. However, the conventional driver's face image processing device does not have a function of correcting the inclination of the face image, and therefore, if an attempt is made to process a face image that is greatly inclined and an eye presence region is detected, the presence of the detected eye presence is detected. The area is likely to be set at a position deviated from the actual position.
【0007】その結果、眼球存在領域にある眼球画像を
処理して目の開閉判断を行っても正確な目の開閉判断が
行えず、開閉状態検出を誤ってしまうこともあるため、
眼球画像の処理結果より居眠り検出を行っても誤検出さ
れてしまうという問題点があった。As a result, even if the eyeball image in the eyeball existing area is processed to make the eye open / closed determination, the eye open / closed determination cannot be accurately made, and the open / closed state may be erroneously detected.
There is a problem that even if the doze detection is performed, it is erroneously detected based on the processing result of the eyeball image.
【0008】従って、頭部の動きを認識する事は必要不
可欠となってくるが、図28に示されるように人間の頭
部を球としたとき、X軸を顔の横軸方向、Y軸を顔の縦
軸方向、そしてZ軸を顔の前後軸方向とした場合、顔を
X軸を中心に回転(例えば、うつむき加減)、或いはY
軸を中心に回転(顔を左右に向ける)に対する顔の方向
を画像処理で検出するのが一般的であった。(信学会春
季全大 D−541,1990 等を参照)Therefore, it is indispensable to recognize the movement of the head. When the human head is a sphere as shown in FIG. 28, the X axis is the horizontal axis of the face and the Y axis is the face. Is the vertical axis direction of the face, and the Z axis is the front-back axis direction of the face, the face is rotated about the X axis (for example, the amount of face down), or Y
It has been common to detect the direction of the face with respect to rotation about the axis (turning the face left and right) by image processing. (Refer to Shin-Gakkai Spring University D-541, 1990, etc.)
【0009】しかし、z軸まわりの回転(顔を左右に傾
ける)に対する顔の傾き検出方法はあまりみられず、目
の開閉状態の誤検出を解消するには至らなかった。However, the method of detecting the inclination of the face with respect to the rotation around the z axis (tilting the face to the left and right) has not been found so often, and the erroneous detection of the open / closed state of the eyes cannot be eliminated.
【0010】この発明は、上記のような問題点を解決す
るためになされたもので、眼球存在領域を設定する前
に、顔画像の傾きを検出・判断し、その傾きを補正して
傾きのない顔画像を得ることができる顔画像処理装置を
提供するものである。The present invention has been made in order to solve the above-mentioned problems. Prior to setting the eyeball existing region, the inclination of the face image is detected and judged, and the inclination is corrected to determine the inclination. A face image processing device capable of obtaining a non-existing face image.
【0011】[0011]
【課題を解決するための手段】請求項1の発明に係る顔
画像処理装置は、運転者の顔画像を入力する顔画像入力
手段、入力した運転者の顔画像内における眉、目、鼻、
口等の顔の特徴点の候補領域を抽出する特徴候補領域抽
出手段、特徴候補領域を抽出した画像を2値化する2値
化手段、2値画像内での顔を含む領域に対する重心
(x,y)を算出する顔領域重心算出手段、算出された
顔領域の重心を基に顔の一部分を含む領域を設定する顔
部分領域設定手段、顔部分領域に対する代表点を算出す
る部分領域代表点算出手段、前記の顔領域重心(x,
y)と部分領域代表点の2点を通る直線と一方の画像軸
のなす角度を顔の傾きとして検出する傾き検出手段を備
えたものである。According to a first aspect of the present invention, there is provided a face image processing apparatus for inputting a face image of a driver, face image input means, eyebrows, eyes, a nose in the input face image of the driver,
Feature candidate region extraction means for extracting candidate regions of face feature points such as mouth, binarization means for binarizing the image from which the feature candidate regions have been extracted, and the center of gravity (x for the region including the face in the binary image (x , Y), a face area center of gravity calculating means, a face part area setting means for setting an area including a part of the face based on the calculated center of gravity of the face area, and a partial area representative point for calculating a representative point for the face part area. Calculating means, the center of gravity (x,
y) and a straight line that passes through the two representative points of the partial area and the angle formed by one of the image axes is detected as the inclination detecting means.
【0012】請求項2の発明に係る顔画像処理装置は、
運転者の顔画像を入力する顔画像入力手段、入力した運
転者の顔画像内における眉、目、鼻、口等の顔の特徴点
の候補領域を抽出する特徴候補領域抽出手段、特徴候補
領域を抽出した画像を2値化する2値化手段、2値画像
内での顔を含む領域に対する重心(x,y)を算出する
顔領域重心算出手段、上記顔領域重心算出手段により算
出された顔領域重心(x,y)の横軸方向重心xを基
に、顔縦方向上部領域を設定する顔部分領域設定手段、
設定された顔縦方向上部領域の重心を算出し、それを代
表点とする部分領域代表点算出手段、前記の顔領域重心
(x,y)と部分領域代表点の2点を通る直線と一方の
画像軸のなす角度を顔の傾きとして検出する傾き検出手
段を備えたものである。A face image processing apparatus according to the invention of claim 2 is
Face image inputting means for inputting a driver's face image, feature candidate area extracting means for extracting candidate areas of feature points of the face such as eyebrows, eyes, nose, mouth in the input driver's face image, feature candidate area Binarizing means for binarizing the extracted image, face area centroid calculating means for calculating the centroid (x, y) for the area including the face in the binary image, and face area centroid calculating means for calculating A face part area setting means for setting an upper area in the vertical direction of the face based on the center of gravity x of the face area center of gravity (x, y).
The set center of gravity of the upper region in the vertical direction of the face is calculated, and the partial region representative point calculating means using the calculated center of gravity as the representative point, and the straight line passing through the two points of the face region center of gravity (x, y) and the partial region representative point Inclination detection means for detecting the angle formed by the image axis of 1 as the inclination of the face is provided.
【0013】請求項3の発明に係る顔画像処理装置は、
運転者の顔画像を入力する顔画像入力手段、入力した運
転者の顔画像内における眉、目、鼻、口等の顔の特徴点
の候補領域を抽出する特徴候補領域抽出手段、特徴候補
領域を抽出した画像を2値化する2値化手段、2値画像
内での顔を含む領域に対する重心(x,y)を算出する
顔領域重心算出手段、上記顔領域重心算出手段により算
出された顔領域重心(x,y)の横軸方向重心xを基
に、顔縦方向上部領域を設定し、さらに顔縦方向上部領
域を顔領域重心(x,y)の縦軸方向重心yを基に分割
して顔上部左右領域を設定する顔部分領域設定手段、設
定された顔上部左領域、顔上部右領域それぞれの重心を
算出し、その中点を代表点とする部分領域代表点算出手
段、前記の顔領域重心(x,y)と部分領域代表点の2
点を通る直線と一方の画像軸のなす角度を顔の傾きとし
て検出する傾き検出手段を備えたものである。A face image processing apparatus according to the invention of claim 3 is
Face image inputting means for inputting a driver's face image, feature candidate area extracting means for extracting candidate areas of feature points of the face such as eyebrows, eyes, nose, mouth in the input driver's face image, feature candidate area Binarizing means for binarizing the extracted image, face area centroid calculating means for calculating the centroid (x, y) for the area including the face in the binary image, and face area centroid calculating means for calculating Based on the horizontal center of gravity x of the face area center of gravity (x, y), the upper face vertical direction area is set, and the upper vertical face area is based on the vertical center of gravity y of the face area center of gravity (x, y). Face part area setting means for dividing the upper left and right areas into face areas, calculating the center of gravity of each of the set upper face left area and the upper face right area, and a partial area representative point calculating means whose midpoint is the representative point , The face area center of gravity (x, y) and the partial area representative point 2
A tilt detecting means for detecting an angle between a straight line passing through a point and one of the image axes as a tilt of the face is provided.
【0014】請求項4の発明に係る顔画像処理装置は、
運転者の顔画像を入力する顔画像入力手段、入力した運
転者の顔画像内における眉、目、鼻、口等の顔の特徴点
の候補領域を抽出する特徴候補領域抽出手段、特徴候補
領域を抽出した画像を2値化する2値化手段、2値画像
内での特徴候補領域をグループ化する特徴候補領域グル
ープ化手段、特徴候補領域グループ内で鼻孔領域を抽出
する鼻孔領域抽出手段、鼻孔領域内の各鼻孔に対する重
心を算出する鼻孔領域重心算出手段、算出された鼻孔領
域の各鼻孔に対する重心を通る直線と一方の画像軸のな
す角度を顔の傾きとして検出する傾き検出手段を備えた
ものである。A face image processing apparatus according to a fourth aspect of the invention is
Face image inputting means for inputting a driver's face image, feature candidate area extracting means for extracting candidate areas of feature points of the face such as eyebrows, eyes, nose, mouth in the input driver's face image, feature candidate area Binarizing means for binarizing the extracted image, feature candidate area grouping means for grouping feature candidate areas in the binary image, nostril area extracting means for extracting nostril areas in the feature candidate area group, Nostril region center of gravity calculating means for calculating the center of gravity for each nostril in the nostril region, inclination detecting means for detecting the angle between the straight line passing through the center of gravity for each nostril of the calculated nostril region and one image axis as the inclination of the face It is a thing.
【0015】請求項5の発明に係る顔画像処理装置は、
運転者の顔画像を入力する顔画像入力手段、入力した運
転者の顔画像内における眉、目、鼻、口等の顔の特徴点
の候補領域を抽出する特徴候補領域抽出手段、特徴候補
領域を抽出した画像を2値化する2値化手段、2値画像
内での特徴候補領域をグループ化する特徴候補領域グル
ープ化手段、特徴候補領域グループ内で鼻孔領域を抽出
する鼻孔領域抽出手段、各特徴候補領域グループに対す
る重心を算出する特徴領域重心算出手段、前記特徴領域
重心算出手段により算出された重心の内、鼻孔領域抽出
手段により設定された領域に対する重心を鼻孔間の中心
とする鼻孔間中心設定手段、前記鼻孔領域を除く各特徴
候補領域の重心と鼻孔間中心との2点を通る直線と一方
の画像軸のなす角度の平均を顔の傾きとして検出する傾
き検出手段を備えたものである。A face image processing apparatus according to the invention of claim 5 is
Face image inputting means for inputting a driver's face image, feature candidate area extracting means for extracting candidate areas of feature points of the face such as eyebrows, eyes, nose, mouth in the input driver's face image, feature candidate area Binarizing means for binarizing the extracted image, feature candidate area grouping means for grouping feature candidate areas in the binary image, nostril area extracting means for extracting nostril areas in the feature candidate area group, Feature area center of gravity calculating means for calculating the center of gravity for each feature candidate area group, between nostrils with the center of gravity for the area set by the nostril area extracting means as the center between the nostrils among the center of gravity calculated by the characteristic area center of gravity calculating means Center setting means, inclination detection means for detecting an average of angles formed by a straight line passing through two points of the center of gravity of each of the feature candidate areas excluding the nostril area and the center of the nostril and one image axis as the inclination of the face It is intended.
【0016】請求項6の発明に係る顔画像処理装置は、
運転者の顔画像を入力する顔画像入力手段、入力した運
転者の顔画像内における眉、目、鼻、口等の顔の特徴点
の候補領域を抽出する特徴候補領域抽出手段、特徴候補
領域を抽出した画像を2値化する2値化手段、2値画像
内での顔を含む領域に対する重心(x,y)を算出する
顔領域重心算出手段、2値画像内での特徴候補領域をグ
ループ化する特徴候補領域グループ化手段、特徴候補領
域グループ内で鼻孔領域を抽出する鼻孔領域抽出手段、
抽出された鼻孔領域の鼻孔間の中心を算出する鼻孔間中
心算出手段、前記鼻孔間中心と顔領域重心(x,y)の
2点を通る直線と一方の画像軸のなす角度を顔の傾きと
して検出する傾き検出手段を備えたものである。A face image processing apparatus according to the invention of claim 6 is
Face image inputting means for inputting a driver's face image, feature candidate area extracting means for extracting candidate areas of feature points of the face such as eyebrows, eyes, nose, mouth in the input driver's face image, feature candidate area Binarizing means for binarizing the extracted image, face area barycenter calculating means for calculating the barycenter (x, y) for the area including the face in the binary image, and the feature candidate area in the binary image Feature candidate area grouping means for grouping, nostril area extracting means for extracting nostril areas in the feature candidate area group,
Inter-nostril center calculating means for calculating the center of the extracted nostrils between the nostrils, the angle between the straight line passing through the two points of the center of the nostrils and the center of gravity (x, y) of the face area and one image axis, and the inclination of the face. Inclination detecting means for detecting
【0017】請求項7の発明に係る顔画像処理装置は、
請求項1ないし6のいずれかに記載の顔画像処理装置に
おいて、上記傾き検出手段により検出された顔の傾き補
正のための顔画像の回転中心を設定する回転中心設定手
段、前記回転中心設定手段により設定した回転中心を基
準に回転により顔画像の傾きを補正する回転手段を備え
たものである。A face image processing apparatus according to a seventh aspect of the invention is
The face image processing apparatus according to any one of claims 1 to 6, wherein a rotation center setting unit that sets a rotation center of a face image for correcting the face inclination detected by the inclination detection unit, and the rotation center setting unit. The rotation means is provided to correct the inclination of the face image by rotation based on the rotation center set by.
【0018】請求項8の発明に係る顔画像処理装置は、
請求項7に記載の顔画像処理装置において、回転中心設
定手段は、2値画像における顔領域重心(x,y)を回
転中心と設定するものである。A face image processing apparatus according to the invention of claim 8 is
In the face image processing apparatus according to claim 7, the rotation center setting means sets the face area center of gravity (x, y) in the binary image as the rotation center.
【0019】請求項9の発明に係る顔画像処理装置は、
請求項7に記載の顔画像処理装置において、回転中心設
定手段は、鼻孔間中心を回転中心と設定するものであ
る。A face image processing apparatus according to the invention of claim 9 is
In the face image processing apparatus according to the seventh aspect, the rotation center setting means sets the center between the nostrils as the rotation center.
【0020】請求項10の発明に係る顔画像処理装置
は、請求項7に記載の顔画像処理装置において、顔画像
が傾いているか否かを判定する傾き判定手段を備え、顔
画像が傾いていないと判断されるまで前記回転手段によ
る画像回転処理を続けるものである。A face image processing apparatus according to a tenth aspect of the present invention is the face image processing apparatus according to the seventh aspect, further comprising inclination determining means for determining whether or not the face image is inclined, and the face image is inclined. The image rotation process by the rotating means is continued until it is determined that there is no such image.
【0021】請求項11の発明に係る顔画像処理装置
は、請求項10に記載の顔画像処理装置において、傾き
判定手段は、2値画像内での顔横方向を画像縦(y)
軸、顔縦方向を画像横(x)軸とし、画像横軸方向の各
座標における画像縦軸方向に存在する黒色画素数を示す
画像縦軸方向ヒストグラムを作成し、その画像縦軸方向
ヒストグラムの形状およびピーク数から顔画像が傾いて
いる否かを判定するものである。A facial image processing apparatus according to an eleventh aspect of the present invention is the facial image processing apparatus according to the tenth aspect, wherein the inclination determining means determines the lateral direction of the face in the binary image as the image vertical (y).
The vertical axis of the image is the horizontal (x) axis of the image, and an image vertical direction histogram showing the number of black pixels existing in the vertical axis of the image at each coordinate of the horizontal axis of the image is created. It is determined from the shape and the number of peaks whether or not the face image is tilted.
【0022】請求項12の発明に係る顔画像処理装置
は、請求項10に記載の顔画像処理装置において、傾き
判定手段は、2値画像内での顔横方向を画像縦(y)
軸、顔縦方向を画像横(x)軸とし、画像縦軸上の各座
標において画像横軸方向に存在する黒色画素数を示す画
像横軸方向ヒストグラムを作成し、その画像横軸方向ヒ
ストグラムの対称性から顔画像が傾いているか否かを判
定するものである。A face image processing apparatus according to a twelfth aspect of the present invention is the face image processing apparatus according to the tenth aspect, wherein the inclination determining means determines the horizontal direction of the face in the binary image as the image vertical (y).
The horizontal axis of the image and the vertical direction of the face are defined as the horizontal (x) axis of the image, and an image horizontal axis direction histogram indicating the number of black pixels existing in the image horizontal axis direction at each coordinate on the image vertical axis is created. It is determined from the symmetry whether or not the face image is tilted.
【0023】請求項13の発明に係る顔画像処理装置
は、請求項10に記載の顔画像処理装置において、傾き
判定手段は、2値画像内での特徴候補領域重心算出手段
により得られた各特徴候補領域グループに対する重心
(xi,yi)の横軸方向重心xiの並びから顔画像が
傾いている否かを判定するものである。A face image processing apparatus according to a thirteenth aspect of the present invention is the face image processing apparatus according to the tenth aspect, wherein the inclination determining means obtains each of the feature candidate area centroid calculating means in the binary image. Whether or not the face image is tilted is determined from the arrangement of the center of gravity (xi) of the center of gravity (xi, yi) for the feature candidate region group.
【0024】請求項14の発明に係る顔画像処理装置
は、請求項10に記載の顔画像処理装置において、上記
傾き検出手段により検出された角度θに応じて、顔画像
を回転させる角度を設定する回転角度設定手段、前記回
転角度の限界角度を設定する回転限界角度設定手段を備
え、上記回転手段で顔画像を回転させると共に上記傾き
判定手段により顔画像が傾いていないと判定された時、
或いは前記回転限界角度に達するまで上記回転手段によ
る画像回転処理を続けるものである。A face image processing apparatus according to a fourteenth aspect of the present invention is the face image processing apparatus according to the tenth aspect, wherein an angle for rotating the face image is set according to the angle θ detected by the tilt detecting means. Rotation angle setting means, which comprises a rotation limit angle setting means for setting a limit angle of the rotation angle, when it is determined that the face image is not tilted by the tilt determination means while rotating the face image by the rotation means,
Alternatively, the image rotation processing by the rotating means is continued until the rotation limit angle is reached.
【0025】[0025]
【発明の実施の形態】発明の実施の形態は以下のようで
ある。 1.運転者の2値化された顔画像領域の重心と顔画像の
代表点を通る直線の傾きを求め、この傾きに基づいて顔
画像の回転処理を行って傾きのない顔画像を得る。BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the invention are as follows. 1. The inclination of a straight line passing through the center of gravity of the binarized face image area of the driver and the representative point of the face image is obtained, and the face image is rotated based on this inclination to obtain a face image without inclination.
【0026】2.運転者の2値化された顔画像領域の重
心とこの重心を境に設定した顔画像領域の顔縦方向上部
領域に代表点を求め、重心と代表点を通る直線の傾きに
基づいて顔画像の回転処理を行い傾きのない顔画像を得
る。2. A representative point is found in the upper center area of the face image area of the face image area set with the center of gravity of the binarized face image area of the driver as a boundary, and the face image is obtained based on the inclination of a straight line passing through the center of gravity and the representative point. Rotation processing is performed to obtain a face image without inclination.
【0027】3.運転者の2値化された顔画像領域の重
心と、この重心を境に設定した顔画像領域の顔上部左領
域と右領域の重心間の中点を代表点とし、重心と代表点
を通る直線の傾きに基づいて顔画像の回転処理を行い傾
きのない顔画像を得る。3. The midpoint between the center of gravity of the driver's binarized face image area and the center of gravity of the face upper left and right areas of the face image area set with this center of gravity as the representative point, and the center of gravity passes through the representative point. The face image is rotated based on the inclination of the straight line to obtain a face image without inclination.
【0028】4.運転者の顔画像領域より抽出されて2
値化された鼻孔領域内の各鼻孔に対する重心を算出し、
各重心を通る直線の傾きに基づいて顔画像の回転処理を
行う。4. 2 extracted from the driver's face image area
Calculate the center of gravity for each nostril in the quantized nostril region,
The face image is rotated based on the inclination of the straight line passing through each center of gravity.
【0029】5.運転者の顔画像領域より顔の各特徴点
の候補領域を抽出して特徴候補領域を2値化してグルー
プ化した後に、鼻孔を含む特徴候補領域では算出された
重心を鼻孔間の中心点とし、この中心点と他の各特徴候
補領域で算出された重心とを通る直線の傾きの平均に基
づいて顔画像の回転処理を行う。5. After extracting candidate regions for each feature point of the face from the driver's face image region and binarizing and grouping the feature candidate regions, the calculated center of gravity is set as the center point between the nostrils in the feature candidate region including nostrils. The face image rotation processing is performed based on the average of the inclinations of the straight lines passing through the center point and the center of gravity calculated in each of the other feature candidate areas.
【0030】6.2値化された顔領域の重心を算出する
と共に、運転者の顔画像領域より顔の各特徴点の候補領
域を抽出して特徴候補領域を2値化してグループ化した
後に、鼻孔を含む特徴候補領域では算出された重心を鼻
孔間の中心点とし、この中心点と算出された重心とを通
る直線の傾きに基づいて顔画像の回転処理を行う。6. After calculating the center of gravity of the binarized face area, extracting candidate regions of each feature point of the face from the driver's face image region, binarizing the feature candidate regions and grouping them In the feature candidate area including the nostrils, the calculated center of gravity is set as the center point between the nostrils, and the face image is rotated based on the inclination of the straight line passing through the center point and the calculated center of gravity.
【0031】7.所定の座標位置を顔画像の回転中心位
置とし、この回転中心位置を基準として顔画像を直線の
傾き角度だけ傾き方向と逆方向に回転させる。7. A predetermined coordinate position is set as a rotation center position of the face image, and the face image is rotated by a tilt angle of a straight line in a direction opposite to the tilt direction with reference to the rotation center position.
【0032】8.回転中心位置を顔領域の重心とし、こ
の重心を基準として顔画像を直線の傾き角度だけ傾き方
向と逆方向に回転させる。8. The center of rotation is set as the center of gravity of the face area, and the face image is rotated in the direction opposite to the tilt direction by the tilt angle of the straight line with the center of gravity as the reference.
【0033】9.回転中心位置を鼻孔間の中心とし、こ
の中心を基準として顔画像を直線の傾き角度だけ傾き方
向と逆方向に回転させる。9. The center of rotation is set as the center between the nostrils, and the face image is rotated in the direction opposite to the tilt direction by the tilt angle of the straight line with reference to this center.
【0034】10.傾き判断手段で顔画像が傾いている
かいないかを判定し、顔画像が傾いていないと判断され
るまで前記回転手段による画像回転処理を続ける。10. The tilt determination means determines whether the face image is tilted, and the image rotation processing by the rotation means is continued until it is determined that the face image is not tilted.
【0035】11.2値画像内での顔横方向を画像縦
(y)軸、顔縦方向を画像横(x)軸とし、画像横軸方
向の各座標における画像縦軸方向に存在する黒色画素数
を示す画像縦軸方向ヒストグラムを作成し、その画像縦
軸方向ヒストグラムの形状およびピーク数から顔画像が
傾いている否かを判定する11. A black color existing in the vertical axis direction of the image at each coordinate in the horizontal axis direction of the image is the horizontal axis of the image in the horizontal direction of the image and the vertical direction of the face is the horizontal axis of the image. An image vertical axis direction histogram showing the number of pixels is created, and it is determined whether or not the face image is tilted based on the shape and peak number of the image vertical axis direction histogram.
【0036】12.2値画像内での顔横方向を画像縦
(y)軸、顔縦方向を画像横(x)軸とし、画像横軸方
向の各座標における画像横軸方向に存在する黒色画素数
を示す画像横軸方向ヒストグラムを作成し、その画像横
軸方向ヒストグラムの対称性から顔画像が傾いている否
かを判定する。12. In the binary image, the horizontal direction of the face is the image vertical (y) axis, and the vertical direction of the face is the horizontal image (x) axis. Black that exists in the image horizontal axis direction at each coordinate in the image horizontal axis direction. An image horizontal axis direction histogram showing the number of pixels is created, and whether or not the face image is tilted is determined from the symmetry of the image horizontal axis direction histogram.
【0037】13.2値画像内での特徴候補領域重心算
出手段により得られた各特徴候補領域グループに対する
重心(xi,yi)の横軸方向重心xiの並びから顔画
像が傾いている否かを判定する。13. Whether or not the face image is tilted from the arrangement of the centroids xi in the horizontal axis of the centroids (xi, yi) for each feature candidate area group obtained by the feature candidate area centroid calculating means in the binary image To judge.
【0038】14.回転手段で顔画像を回転させると共
に上記傾き判定手段により顔画像が傾いていないと判定
された時、或いは前記回転限界角度に達するまで上記回
転手段による画像回転処理を続ける。14. The rotation means rotates the face image, and the image rotation processing by the rotation means is continued when the inclination determination means determines that the face image is not inclined or until the rotation limit angle is reached.
【0039】以下、各実施の形態を詳細に説明する。 実施の形態1.以下、本実施の形態を図に従って説明す
る。図1は本実施の形態における顔画像処理装置の構成
を示すブロック図である。本実施の形態の顔画像処理装
置は、運転者の顔画像を撮影するCCDカメラ1と、C
CDカメラ1から出力された顔画像の画像データを記憶
する画像メモリ2と、画像メモリ2のデータを基に画像
処理を行うCPU3で構成される。図2は図1における
CPU3の画像処理の概要を示すフローチャートであ
る。Hereinafter, each embodiment will be described in detail. Embodiment 1. Hereinafter, the present embodiment will be described with reference to the drawings. FIG. 1 is a block diagram showing the configuration of the face image processing apparatus according to this embodiment. The face image processing apparatus according to the present embodiment includes a CCD camera 1 for capturing a face image of a driver, a C
The image memory 2 stores the image data of the face image output from the CD camera 1, and the CPU 3 that performs image processing based on the data in the image memory 2. FIG. 2 is a flowchart showing an outline of image processing of the CPU 3 in FIG.
【0040】まず、図2のフローチャートを沿って画像
処理の概要を説明する。CPU3は顔画像入力手段4で
画像メモリ2より運転者の顔画像の画像データを入力
し、入力された顔画像の特徴点の候補領域を特徴候補領
域抽出手段5で抽出する。特徴候補領域抽出手段5で抽
出された顔画像の候補領域は2値化手段6で2値化され
る。First, an outline of image processing will be described with reference to the flowchart of FIG. The CPU 3 inputs the image data of the face image of the driver from the image memory 2 by the face image input means 4, and the feature candidate area extraction means 5 extracts the candidate regions of the feature points of the input face image. The candidate region of the face image extracted by the feature candidate region extracting means 5 is binarized by the binarizing means 6.
【0041】2値化された顔画像内の顔を含む候補領域
の重心は顔領域重心算出手段7で算出された後、顔領域
重心をもとに顔部分領域設定手段8により顔領域内で新
たに顔部分領域を設定する。部分領域代表点算出手段9
では設定された顔部分領域における代表点と顔領域重心
を結ぶ直線と、一方の画像軸とがなす角度を傾き検出手
段10で求め、回転により顔領域の傾きを補正する。回
転中心は回転中心設定手段11により設定し、回転は回
転手段12により行う。The center of gravity of the candidate area including the face in the binarized face image is calculated by the face area center of gravity calculating means 7, and then the face part area setting means 8 calculates the center of gravity within the face area based on the face area center of gravity. A face part area is newly set. Partial area representative point calculation means 9
Then, the angle formed by the straight line connecting the representative point in the set face area and the center of gravity of the face area and one of the image axes is obtained by the inclination detecting means 10, and the inclination of the face area is corrected by rotation. The rotation center is set by the rotation center setting means 11, and the rotation is performed by the rotation means 12.
【0042】以下、図2のフローチャートに示した各手
段を、各図にて詳細に説明する。図3は運転者の顔画像
であり、同図(a)はCCDカメラ1により撮影された
運転者の顔画像13を示したものである。同図(b)は
特徴候補領域抽出手段5、2値化手段6による処理を行
った後の顔画像14であり、特徴候補領域が2値化され
ている。図5(a)、(b)は本実施の形態における特
徴候補領域抽出手段5、2値化手段6の説明図である。
また、図4(a)、(b)、(c)は特徴候補領域抽出
手段5に用いるmax/minフィルタの説明図であ
る。Each means shown in the flow chart of FIG. 2 will be described in detail below with reference to each drawing. FIG. 3 is a face image of the driver, and FIG. 3A shows a face image 13 of the driver captured by the CCD camera 1. FIG. 3B shows the face image 14 after the processing by the feature candidate area extracting means 5 and the binarizing means 6, in which the feature candidate areas are binarized. 5A and 5B are explanatory diagrams of the feature candidate area extracting unit 5 and the binarizing unit 6 in the present embodiment.
4A, 4B, and 4C are explanatory diagrams of the max / min filter used in the feature candidate area extracting unit 5.
【0043】まず、max/minフィルタについて説
明する。図4(a)にある入力画像の一部分の画像信号
15にmaxフィルタをかけた後の画像信号が16であ
り、この画像信号16にminフィルタをかけた後の画
像信号を17で示す。図4(b)の18〜20は画像信
号15〜17の輝度値をそれぞれ模式化した画素に対応
させたものを示す。ここでは輝度値を囲む1枠は1画素
を表し、簡単のため輝度値を0〜20までの値とした。First, the max / min filter will be described. The image signal 15 after the max filter is applied to the image signal 15 of a part of the input image shown in FIG. 4A is 16, and the image signal 17 after the min filter is applied to this image signal 16 is shown. Reference numerals 18 to 20 in FIG. 4B correspond to the pixels in which the brightness values of the image signals 15 to 17 are respectively modeled. Here, one frame surrounding the brightness value represents one pixel, and the brightness value is set to a value of 0 to 20 for simplicity.
【0044】最初に入力画像にmaxフィルタをかける
が、maxフィルタは所定の長さ(画素数a、以下フィ
ルターサイズとする)をもち、フィルタ中央の画素の輝
度値をフィルタ内の最大輝度値に変換するものである。
例えば画素数aを5とし、図4(b)18の□部分にm
axフィルタをかけると、ここでは最大輝度は10であ
るのでフィルタの中央にある画素18bの輝度値は8か
ら10に変換される。First, the max filter is applied to the input image. The max filter has a predetermined length (number of pixels a, hereinafter referred to as filter size), and the brightness value of the pixel at the center of the filter is set to the maximum brightness value in the filter. It is to convert.
For example, the number of pixels a is set to 5, and the squares in FIG.
When the ax filter is applied, since the maximum brightness is 10 here, the brightness value of the pixel 18b in the center of the filter is converted from 8 to 10.
【0045】1画素ずつ右にシフトして同様にmaxフ
ィルタをかけると、図4(b)の18は同(b)の19
のように変換される。次に、maxフィルタ処理後の画
像にminフィルタをかける。minフィルタもmax
フィルタと同様のフィルターサイズ(画素数a)をも
ち、フィルタ中央の画素の輝度値をフィルタ内の最小輝
度値に変換するものである。When shifting by one pixel to the right and applying the max filter in the same manner, 18 in FIG. 4B is changed to 19 in FIG.
Is converted to. Next, a min filter is applied to the image after the max filter processing. min filter is also max
The filter has the same filter size (number of pixels a) as the filter, and the brightness value of the pixel at the center of the filter is converted into the minimum brightness value in the filter.
【0046】前記maxフィルタ処理後の図4(b)の
19の□部分にminフィルタをかけると、ここでは最
小輝度値は10であるのでフィルタの中央にある画素1
9cの輝度値は12から10に変換される。1画素ずつ
右にシフトして同様にminフィルタをかけると図4
(b)の19の□部分は20のように変換される。When the min filter is applied to the square portion 19 in FIG. 4 (b) after the max filter processing, the minimum luminance value is 10 here, so that the pixel 1 in the center of the filter is
The luminance value of 9c is converted from 12 to 10. When shifting to the right one pixel at a time and applying the min filter in the same manner,
The □ part of 19 in (b) is converted into 20.
【0047】ただし、maxフィルタ、minフィルタ
は共に、最初にかけたフィルタの中央位置から変換がは
じまり、最後にかけたフィルタの中央位置で変換が終わ
る。つまり、maxフィルタ処理後のデータは図4
(b)の19d〜19e、minフィルタ処理後のデー
タは図4の(b)20f〜20gであり、max/mi
nフィルタ処理後の画像は結局、処理開始位置、処理終
了位置よりそれぞれa−1画素ずつ小さくなる。However, in both the max filter and the min filter, the conversion starts from the center position of the filter applied first, and the conversion ends at the center position of the filter applied last. That is, the data after the max filter processing is shown in FIG.
The data after 19d to 19e and min filter processing of (b) are 20f to 20g of (b) of FIG. 4, and max / mi
The image after the n-filter processing is eventually smaller by a-1 pixel from the processing start position and the processing end position.
【0048】このようにして得られたmax/minフ
ィルタ処理後の画像から入力画像をひくと所定長以下の
輝度の低い領域が抽出される。図4(b)の20から1
8をひくと図4(d)が得られる。画像信号になおすと
同図(c)のようになる。When the input image is subtracted from the image thus obtained after the max / min filter processing, a region having a predetermined brightness or less and a low luminance is extracted. 20 to 1 in FIG. 4 (b)
When 8 is subtracted, FIG. 4 (d) is obtained. When converted into an image signal, it becomes as shown in FIG.
【0049】上記の方法は特徴領域を抽出するのに用い
られる。本実施の形態では、画像横軸(X軸)にそって
一行ずつ処理を行う(処理方向:図3(a)の矢印23
の方向)。図5(a)の21は入力画像に特徴領域の幅
に対応した長さのmax/minフィルタをかけた後の
画像信号である。顔の特徴領域は周囲との輝度差が大き
いため、差分後の輝度値が大きくなる(21a)。The above method is used to extract the feature regions. In the present embodiment, processing is performed line by line along the horizontal axis (X axis) of the image (processing direction: arrow 23 in FIG. 3A).
Direction). Reference numeral 21 in FIG. 5A is an image signal after the input image has been subjected to a max / min filter having a length corresponding to the width of the characteristic region. Since the difference in brightness between the characteristic region of the face and the surroundings is large, the brightness value after the difference is large (21a).
【0050】それに対し、影や衣服などは周囲との輝度
差が小さい(21b)。そこで図5(a)の22のよう
に差分後の結果に対して閾値を設定し、これをもとに2
値化を行う。図5(b)は2値化後の信号である。以上
の処理によって得られた画像を示したものが図3(b)
である。On the other hand, shadows and clothes have a small difference in brightness from the surroundings (21b). Therefore, as shown by 22 in FIG. 5A, a threshold is set for the result after the difference, and based on this, 2
Quantify. FIG. 5B shows the signal after binarization. The image obtained by the above processing is shown in FIG.
It is.
【0051】図6(a)、(b)、(c)は顔領域重心
設定手段7、顔部分領域設定手段8、部分領域代表点算
出手段9の説明図である。顔領域重心設定手段7では、
まず図6(a)に示す画像14の全領域に対する重心2
4を算出する。重心算出は画像14の黒領域(xj,y
j)の全画素数をtotal、全yjの画素数の和をY
t、全xjの画素数の和をXtとすると重心24の座標
点(X,Y)は以下の(1)式で求められる。FIGS. 6A, 6B and 6C are explanatory views of the face area center of gravity setting means 7, the face partial area setting means 8 and the partial area representative point calculating means 9. In the face area center of gravity setting means 7,
First, the center of gravity 2 for the entire area of the image 14 shown in FIG.
Calculate 4. The center of gravity is calculated in the black area (xj, y
j) is the total number of pixels, and the sum of the number of all yj pixels is Y.
Assuming that the sum of the pixel numbers of t and all xj is Xt, the coordinate point (X, Y) of the center of gravity 24 is obtained by the following equation (1).
【0052】[0052]
【数1】 [Equation 1]
【0053】重心24を算出後、顔部分領域設定手段8
はこの座標点(X,Y)を基に顔を含む領域25を設定
する(以下、顔を含む領域は顔領域という)。顔領域2
5は入力画像に対する顔の占める割合が大きいことと、
顔の重心はほぼ顔中心で鼻と目の間にあるということを
考慮し、顔領域25は顔の特徴量(少なくとも目と鼻)
を含むような長方形とする。顔領域25に対する顔領域
重心26(座標(a,b))は重心24と同様に上記
(1)式を用いて算出する。After calculating the center of gravity 24, the face part area setting means 8
Sets an area 25 including a face based on this coordinate point (X, Y) (hereinafter, an area including a face is referred to as a face area). Face area 2
5 is that the ratio of the face to the input image is large,
Considering that the center of gravity of the face is almost centered between the face and between the nose and the eyes, the face region 25 has the face feature amount (at least the eyes and the nose).
It is a rectangle that includes. The face area center of gravity 26 (coordinates (a, b)) for the face area 25 is calculated using the above equation (1) as in the case of the center of gravity 24.
【0054】次に、顔部分領域設定手段8について説明
する。算出した顔領域重心26の座標(a,b)のaを
基に顔領域25を顔縦方向上部(少なくとも目を含む)
領域と顔縦方向下部領域に分割する。ここでは上部領域
を顔部分領域27として採用する。顔部分領域代表点算
出手段9による処理は顔部分領域27に対して行う。本
実施の形態では顔部分領域代表点28(座標(c,
d))は図6(c)に示すように、上記(1)式により
求めた顔部分領域27に対する重心とする。Next, the face part area setting means 8 will be described. Based on a of the calculated coordinates (a, b) of the center of gravity 26 of the face area, the face area 25 is vertically upper part (including at least eyes) in the face direction.
It is divided into an area and a vertically lower area of the face. Here, the upper area is adopted as the face portion area 27. The processing by the face part area representative point calculating means 9 is performed on the face part area 27. In the present embodiment, the face part area representative point 28 (coordinates (c,
As shown in FIG. 6C, d)) is the center of gravity for the face portion area 27 obtained by the above equation (1).
【0055】図7は傾き検出手段10の説明図である。
傾き検出手段10は、上記のような処理を実行して得ら
れた顔領域重心26(a,b)と顔部分領域代表点28
(c,d)を通る直線29を求め、一方の座標軸、本実
施の形態ではX軸、となす角度θを求める。角度θは以
下の(2)式で求められる。FIG. 7 is an explanatory diagram of the inclination detecting means 10.
The inclination detecting means 10 executes the above-described processing to obtain the face area center of gravity 26 (a, b) and the face portion area representative point 28.
A straight line 29 passing through (c, d) is obtained, and an angle θ with one coordinate axis, which is the X axis in this embodiment, is obtained. The angle θ is calculated by the following equation (2).
【0056】[0056]
【数2】 [Equation 2]
【0057】図8は回転後の2値画像を示す。回転中心
設定手段11により顔領域重心26を回転中心とおき、
顔領域25を回転手段12により反時計回りにθ回転さ
せる。この場合、黒地で表した長方形の領域は回転前の
顔領域25であり、顔領域25の各画素の座標は全体的
に(e,f)で表される。中間色で表した長方形の領域
は回転後の顔領域25であり、顔領域25の各画素の座
標は全体的に(E,F)で表される。顔領域25の回転
処理には(3)式を利用する。ただし、回転後の座標
(E,F)が画像から出る部分(図8の30a)はカッ
トし、回転前の座標(e,f)が存在しない部分(図8
の30b)は輝度値0とする。FIG. 8 shows the binary image after rotation. The center of gravity 26 of the face area is set as the rotation center by the rotation center setting means 11,
The face area 25 is rotated by θ in the counterclockwise direction by the rotating means 12. In this case, the rectangular area represented by the black background is the face area 25 before rotation, and the coordinates of each pixel of the face area 25 are generally represented by (e, f). The rectangular area represented by the intermediate color is the rotated face area 25, and the coordinates of each pixel in the face area 25 are generally represented by (E, F). Expression (3) is used for the rotation processing of the face area 25. However, a portion (30a in FIG. 8) where the rotated coordinate (E, F) appears from the image is cut, and the unrotated coordinate (e, f) does not exist (FIG. 8).
The luminance value of 30b) is 0.
【0058】[0058]
【数3】 (Equation 3)
【0059】実施の形態2.上記、実施の形態1では顔
領域の重心を含む顔部分領域の上部領域に顔部分領域代
表点を求め、この顔部分領域代表点と重心とを結ぶ直線
と、座標軸とがなす角度θを顔領域の補正回転角度とし
たが、顔部分領域代表点を大まかに決めた画像データに
ノイズ等が乗ると変位する可能性があるので、本実施の
形態では更に精度良く顔部分領域代表点を求めるため
に、部分領域設定手段8および部分領域代表点算出手段
9を以下のように変更する。Embodiment 2 In the above-described first embodiment, the face part region representative point is obtained in the upper part of the face part region including the center of gravity of the face region, and the angle θ formed by the straight line connecting the face part region representative point and the center of gravity and the coordinate axis is set to the face. Although the corrected rotation angle of the area is used, the face area representative point may be displaced more accurately in the present embodiment because it may be displaced if noise or the like is added to the image data in which the facial area representative point is roughly determined. Therefore, the partial area setting means 8 and the partial area representative point calculating means 9 are changed as follows.
【0060】変更した顔部分領域設定手段8について説
明する。本実施の形態では、上記顔領域重心算出手段7
で算出した顔領域重心26(a,b)のaを基に設定し
た顔部分領域27を、更にbを境に図9に示す顔左右領
域31、32に分割する。この顔左右領域31、32の
2つの領域を顔部分領域として採用する。顔部分領域代
表点算出手段9による処理は顔左右領域31、32に対
して行う。本実施の形態では顔部分領域代表点は図9に
示すように、上記(1)式により求めた、領域31、3
2それぞれに対する重心33a、33bの中点34
(e,f)とする。The changed face part area setting means 8 will be described. In the present embodiment, the face area center of gravity calculating means 7
The face part area 27 set based on a of the face area center of gravity 26 (a, b) calculated in step 3 is further divided into the left and right face areas 31 and 32 shown in FIG. Two areas, that is, the left and right areas 31 and 32 of the face are adopted as the face part area. The processing by the face part area representative point calculating means 9 is performed on the right and left areas 31 and 32 of the face. In the present embodiment, the face part area representative points are, as shown in FIG. 9, areas 31 and 3 obtained by the above equation (1).
Center point 34 of the center of gravity 33a, 33b for each of the two
(E, f).
【0061】このように、顔部分領域代表点34が求め
られたならば、図示しないが顔領域重心26と顔部分領
域代表点34とを結ぶ直線と、一方の座標軸、本実施の
形態ではX軸、となす角度θを求める。角度θは上記の
(2)式で求められる。そして、回転中心設定手段11
により顔領域重心26を回転中心とおき、顔領域25を
回転手段12により反時計回りにθ回転させる。When the face portion area representative point 34 is obtained in this way, a straight line connecting the face area center of gravity 26 and the face portion area representative point 34 (not shown), one coordinate axis, X in the present embodiment. The angle θ with the axis is calculated. The angle θ is obtained by the above equation (2). Then, the rotation center setting means 11
Thus, the center of gravity 26 of the face area is set as the center of rotation, and the face area 25 is rotated counterclockwise by the rotating means 12.
【0062】実施の形態3.図10のフローチャートを
もとに実施の形態3の処理の概要を説明する。本実施の
形態は特徴候補領域の中で最も精度高く座標値化できる
2点の鼻孔の領域を特徴候補領域とするものである。C
PU3は顔画像入力手段4で画像メモリ2より画像デー
タを入力し、入力された顔画像の特徴候補領域を特徴候
補領域抽出手段5で抽出する。特徴候補領域で抽出され
た画像は2値化手段6で2値化される。2値化された画
像内で特徴候補領域を特徴候補領域グループ化手段35
で図13に示すように複数にグループ化する。Embodiment 3 An outline of the processing of the third embodiment will be described based on the flowchart of FIG. In the present embodiment, the region of two nostrils that can be converted into coordinate values with the highest accuracy among the feature candidate regions is used as the feature candidate region. C
The PU 3 inputs the image data from the image memory 2 by the face image input means 4, and the feature candidate area extraction means 5 extracts the feature candidate area of the input face image. The image extracted in the feature candidate area is binarized by the binarizing means 6. The feature candidate area grouping means 35 sets the feature candidate areas in the binarized image.
13. As shown in FIG. 13, it is grouped into a plurality of groups.
【0063】グループ化された特徴候補領域グループの
中から鼻孔領域抽出手段36で鼻孔を抽出する。そし
て、鼻孔領域重心算出手段37で各鼻孔領域の重心を算
出する。鼻孔領域重心2点を通る直線と、一方の画像軸
のなす角度を傾き検出手段10で求め、回転により傾き
を補正する。回転中心は回転中心設定手段11により各
鼻孔領域重心の中点に設定し、この回転中心を基準に回
転手段12は顔領域25の回転を、顔領域の傾き方向と
逆方向に行う。The nostril region extracting means 36 extracts the nostrils from the grouped feature candidate region groups. Then, the nostril region center of gravity calculating means 37 calculates the center of gravity of each nostril region. The angle formed by the straight line that passes through the two points of the center of gravity of the nostril region and one of the image axes is calculated by the tilt detecting means 10, and the tilt is corrected by rotation. The center of rotation is set at the center of the center of gravity of each nostril region by the center of rotation setting means 11, and the rotating means 12 rotates the face area 25 in the direction opposite to the tilt direction of the face area with reference to this center of rotation.
【0064】以下、図10のフローチャートに示した各
手段について詳細に説明する。顔画像入力手段4、特徴
候補領域抽出手段5、2値化手段6は上記実施の形態1
で説明したので省き、特徴候補領域グループ化手段35
から説明する。図11(a),(b),(c)は特徴候
補領域グループ化手段35の動作を説明する図、図12
(a),(b)は鼻孔領域抽出手段36の動作を説明す
る図、図14(a),(b)は鼻孔領域重心算出手段3
7の説明図である。また、図13は特徴候補領域グルー
プ化手段36の処理後の画像である。Hereinafter, each means shown in the flow chart of FIG. 10 will be described in detail. The face image input means 4, the feature candidate area extraction means 5, and the binarization means 6 are the same as those in the first embodiment.
Since it has been described above, the feature candidate area grouping unit 35 will be omitted.
Let's start with. 11 (a), (b), and (c) are views for explaining the operation of the feature candidate area grouping unit 35, and FIG.
14A and 14B are diagrams for explaining the operation of the nostril region extracting means 36, and FIGS. 14A and 14B are the nostril region centroid calculating means 3
It is explanatory drawing of 7. Further, FIG. 13 is an image after the processing by the feature candidate area grouping means 36.
【0065】特徴候補領域グループ化手段35は2値化
後の顔画像に対して画像縦軸方向の黒色画素数を各X座
標についてカウントし、図11(a)に示すような縦軸
が黒色画素数で横軸がX座標の画像縦軸方向ヒストグラ
ムを作成する。次にヒストグラムの内から図11(b)
に示すように黒色画素数の極大点が38a以上のピーク
を探し、各ピークに対し、黒色画素数が38e以上で極
大点からの距離が38b以下のピーク開始位置38c
i、ピーク終了位置38diを設定する。The feature candidate region grouping means 35 counts the number of black pixels in the vertical axis direction of the binarized face image for each X coordinate, and the vertical axis as shown in FIG. 11A is black. An image vertical direction histogram in which the number of pixels and the horizontal axis are X coordinates is created. Next, from the histogram, FIG.
As shown in, a peak with a maximum number of black pixels of 38a or more is searched for, and for each peak, a peak start position 38c with a number of black pixels of 38e or more and a distance from the maximum point of 38b or less.
i and the peak end position 38di are set.
【0066】今度は設定したピーク開始位置38ciか
らピーク終了位置38diまでの帯状領域39aiそれ
ぞれに対し、画像横軸方向の黒色画素数を各Y座標につ
いてカウントし、図12(a)に示すような縦軸がY座
標で横軸が黒色画素数の画像横方向ヒストグラムを作成
する。画像横方向のヒストグラムでは上記特徴候補領域
抽出手段5の特性上、所定長以下の領域のみ抽出される
ため、場合によっては目の一部、眉の一部がカットされ
ることがある。This time, the number of black pixels in the direction of the horizontal axis of the image is counted for each Y coordinate for each of the band-shaped areas 39ai from the set peak start position 38ci to peak end position 38di, and as shown in FIG. 12 (a). An image horizontal direction histogram in which the vertical axis is the Y coordinate and the horizontal axis is the number of black pixels is created. In the histogram in the horizontal direction of the image, because of the characteristics of the feature candidate area extracting unit 5, only the area having a predetermined length or less is extracted, so that a part of the eye or a part of the eyebrow may be cut in some cases.
【0067】そこで、図12(b)に示すような距離3
9c以上黒色画素数39b以下の部分を除いた、39c
iと39diで囲まれる部分でかつ同じ帯状領域39a
iに属するものを特徴候補領域グループ40iとする。Therefore, the distance 3 as shown in FIG.
39c except 9c or more and 39b or less black pixels
i and 39di and the same strip-shaped region 39a
A feature candidate region group 40i belongs to i.
【0068】鼻孔領域抽出手段36では、特徴候補領域
グループ40iのなかで図14(a)に示すようにほぼ
同じ幅のグループが2つ並び、その間とグループの幅が
他に比べて狭いものを鼻孔領域42とする。鼻孔領域重
心算出手段37では、図14(b)に示す鼻孔領域42
の2つのグループ内の各黒領域に対する重心43a
(a,b)、43b(c,d)を上記(3)式によって
求める。In the nostril region extracting means 36, two groups having almost the same width are arranged in the feature candidate region group 40i as shown in FIG. 14A, and the width between the two groups is narrower than the others. Let it be the nostril region 42. In the nostril region center of gravity calculating means 37, the nostril region 42 shown in FIG.
Center of gravity 43a for each black region in the two groups of
(A, b) and 43b (c, d) are obtained by the above equation (3).
【0069】次に図15に示すように、傾き検出手段1
0において、上記のような処理を実行して得られた鼻孔
領域重心43a(a,b)、43b(c,d)を通る直
線44を求め、一方の座標軸、本実施の形態ではY軸と
なす角度θを求める。角度θは上記(2)式で求められ
る。回転中心設定手段11により鼻孔領域重心43a、
43bの中点45を回転中心とおき、顔領域を回転手段
12により反時計回りにθ回転させる。回転手段12は
実施の形態1と同様で、上記(3)式を利用する。Next, as shown in FIG. 15, the inclination detecting means 1
At 0, a straight line 44 passing through the nostril region centroids 43a (a, b) and 43b (c, d) obtained by executing the above-described processing is obtained, and one of the coordinate axes, that is, the Y axis in the present embodiment, is obtained. Find the angle θ. The angle θ is obtained by the above equation (2). By the rotation center setting means 11, the center of gravity 43a of the nostril region,
The midpoint 45 of 43b is set as the center of rotation, and the face area is rotated counterclockwise by the rotation means 12 by θ. The rotating means 12 is similar to that of the first embodiment, and uses the above formula (3).
【0070】実施の形態4.上記、実施の形態3では特
徴候補領域グループの1つである鼻孔領域の重心を通る
単一の直線の傾き角度をもとに顔領域を回転させて傾き
を補正した。本実施の形態では、実施の形態3で求めた
中点と各特徴候補領域の重心を結ぶ各直線の傾き角度求
めて傾き角度の平均値を算出して回転角度θとする。図
16のフローチャートをもとに本実施の形態の処理の概
要を説明する。Embodiment 4 In the third embodiment, the inclination is corrected by rotating the face area based on the inclination angle of a single straight line passing through the center of gravity of the nostril area, which is one of the feature candidate area groups. In the present embodiment, the inclination angle of each straight line connecting the midpoint obtained in the third embodiment and the center of gravity of each feature candidate area is obtained, and the average value of the inclination angles is calculated as the rotation angle θ. The outline of the processing of this embodiment will be described based on the flowchart of FIG.
【0071】CPU3は顔画像入力手段4で画像メモリ
2より画像データを入力し、入力した画像データ中の顔
画像の特徴候補領域を特徴候補領域抽出手段5で抽出す
る。特徴候補領域で抽出された顔画像は2値化手段6で
2値化される。2値化された顔画像内で特徴候補領域を
特徴候補領域グループ化手段35によりグループ化す
る。グループ化された特徴候補領域グループの中から鼻
孔を鼻孔領域抽出手段36で抽出する。The CPU 3 inputs the image data from the image memory 2 by the face image input means 4, and the feature candidate area extracting means 5 extracts the feature candidate area of the face image in the input image data. The face image extracted in the feature candidate area is binarized by the binarizing means 6. The feature candidate regions in the binarized face image are grouped by the feature candidate region grouping means 35. Nostrils are extracted by the nostril region extracting means 36 from the grouped feature candidate region groups.
【0072】特徴領域重心算出手段46は特徴候補領域
グループ化手段35により設定した各グループの重心を
算出する。鼻孔間中心設定手段47で設定した鼻孔間中
心と鼻孔領域を除く各特徴候補領域重心の2点を通る直
線と、一方の画像軸のなす角度の平均を傾き検出手段1
0で求める。回転中心は回転中心設定手段11により設
定する。顔画像は設定された回転中心を基準に回転手段
12により平均角度だけ回転させて傾きを補正する。The characteristic region center of gravity calculating means 46 calculates the center of gravity of each group set by the characteristic candidate area grouping means 35. The inclination detecting means 1 calculates the average of the angle between the straight line passing through the center of the nostril set by the internostril center setting means 47 and the center of gravity of each feature candidate area excluding the nostril area and one image axis.
Calculate with 0. The rotation center is set by the rotation center setting means 11. The face image is rotated by an average angle by the rotating means 12 with the center of rotation set as a reference to correct the inclination.
【0073】以下で図16のフローチャートに示した各
手段について、詳細を説明する。顔画像入力手段4、特
徴候補領域抽出手段5、2値化手段6、特徴候補領域グ
ループ化手段35、鼻孔領域抽出手段36は上記実施の
形態1、および実施の形態3で説明したので省き、特徴
領域重心算出手段46から説明する。特徴領域重心算出
手段46では、図17に示すような、同一帯状領域39
ai(i:1〜5)に存在するグループ40i内の黒領
域に対する重心48i(ci,di)を求める。重心算
出には上記(1)式を用いる。The details of each means shown in the flowchart of FIG. 16 will be described below. The face image inputting means 4, the feature candidate area extracting means 5, the binarizing means 6, the feature candidate area grouping means 35, and the nostril area extracting means 36 have been described in the first embodiment and the third embodiment, and are omitted. The characteristic region center of gravity calculating means 46 will be described. In the characteristic region center of gravity calculating means 46, as shown in FIG.
The center of gravity 48i (ci, di) for the black area in the group 40i existing in ai (i: 1-5) is calculated. The above equation (1) is used to calculate the center of gravity.
【0074】鼻孔間中心設定手段47では鼻孔領域抽出
手段36により、予め求めてある鼻孔領域42に対する
特徴候補領域重心48iを鼻孔間中心49(a,b)と
する。In the center-of-nostril setting means 47, the center of inter-nostril center 49 (a, b) is set as the feature candidate area center of gravity 48i for the nostril area 42, which is previously obtained by the nostril area extracting means 36.
【0075】次に図18に示すように、傾き検出手段1
0において、上記のような処理を実行して得られた各特
徴候補領域重心48i(ci,di)と鼻孔間中心49
(a,b)の2点を通る直線と、一方の座標軸、本実施
の形態ではX軸となす角度を求め、その平均値を角度θ
とする。角度θは下記の(4)式で求められる。回転中
心設定手段11により鼻孔間中心49(a,b)を回転
中心とおき、回転手段12により反時計回りにθ回転さ
せる。回転手段12は実施の形態1と同様で、上記
(3)式を利用する。Next, as shown in FIG. 18, the inclination detecting means 1
At 0, the center of gravity 48i (ci, di) of each feature candidate area and the center 49 between the nostrils obtained by executing the above-described processing.
An angle formed between a straight line passing through two points (a, b) and one coordinate axis, which is the X axis in the present embodiment, is calculated, and the average value is calculated as the angle θ.
And The angle θ is calculated by the following equation (4). The center 49 (a, b) between the nostrils is set as the center of rotation by the rotation center setting means 11, and is rotated counterclockwise by the rotation means 12. The rotating means 12 is similar to that of the first embodiment, and uses the above formula (3).
【0076】[0076]
【数4】 (Equation 4)
【0077】実施の形態5.上記、実施の形態14では
グループ化された各特徴候補領域において重心を求めて
鼻孔間中心と直線で結んだが、処理を簡素化するために
鼻孔間中心と顔領域の重心を結んだ直線の傾き角度で傾
き補正角度を決めても良い。図19のフローチャートを
もとに本実施の形態の処理の概要を説明する。CPU3
は顔画像入力手段4で画像メモリ2より画像データを入
力し、入力された画像データ中の顔画像の特徴候補領域
を特徴候補領域抽出手段5で抽出する。特徴候補領域で
抽出された顔画像を2値化手段6で2値化する。2値化
された顔画像内の顔を含む領域に対する重心を顔領域重
心算出手段7で算出した後、2値化された顔画像内の特
徴候補領域を特徴候補領域グループ化手段35によりグ
ループ化する。グループ化された特徴候補領域グループ
の中から鼻孔を鼻孔領域抽出手段36で抽出する。Embodiment 5 In the above-described fourteenth embodiment, the center of gravity of each grouped feature candidate region is obtained and connected to the center of the nostril by a straight line, but the inclination of the straight line connecting the center of the nostril and the center of gravity of the face region is simplified to simplify the process. The tilt correction angle may be determined by the angle. The outline of the processing of this embodiment will be described based on the flowchart of FIG. CPU3
The face image input means 4 inputs the image data from the image memory 2, and the feature candidate area extracting means 5 extracts the feature candidate area of the face image in the input image data. The face image extracted in the feature candidate area is binarized by the binarizing means 6. After calculating the center of gravity for the area including the face in the binarized face image by the face area center of gravity calculating means 7, the feature candidate areas in the binarized face image are grouped by the feature candidate area grouping means 35. To do. Nostrils are extracted by the nostril region extracting means 36 from the grouped feature candidate region groups.
【0078】抽出した鼻孔領域に対し鼻孔間中心算出手
段50で鼻孔間中心を算出する。鼻孔間中心と顔領域重
心の2点を通る直線と、一方の画像軸のなす角度を傾き
検出手段10で求める。回転中心設定手段11により設
定された回転中心を基準に顔画像を回転手段12で回転
させ、顔画像の傾き補正を行う。The internostril center calculation means 50 calculates the internostril center for the extracted nostril region. The angle between the straight line passing through the two points of the center of the nostril and the center of gravity of the face area and one of the image axes is calculated by the inclination detecting means 10. The face image is rotated by the rotating unit 12 on the basis of the center of rotation set by the center of rotation setting unit 11, and the inclination of the face image is corrected.
【0079】以下で図19のフローチャートに示した各
手段について、詳細を説明する。顔画像入力手段4、特
徴候補領域抽出手段5、2値化手段6、顔領域重心設定
手段7、特徴候補領域グループ化手段35、鼻孔領域抽
出手段36の各手段については上記実施の形態1、およ
び実施の形態3で説明したので省き、鼻孔間中心算出手
段50から説明する。ただし、算出された顔領域重心2
6は実施の形態1においては(a,b)としたが本実施
の形態では説明上(c,d)としておく。Details of each means shown in the flowchart of FIG. 19 will be described below. The face image input means 4, the feature candidate area extracting means 5, the binarizing means 6, the face area center of gravity setting means 7, the feature candidate area grouping means 35, and the nostril area extracting means 36 are the same as those in the first embodiment. Since it has been described in the third embodiment, it will be omitted, and the internostril center calculation means 50 will be described. However, the calculated face area center of gravity 2
6 is (a, b) in the first embodiment, but is (c, d) in the present embodiment.
【0080】鼻孔間中心算出手段50では、図20に示
すような、鼻孔領域抽出手段36によって抽出された同
一帯状領域に存在する鼻孔領域グループ内の黒領域に対
する重心51(a,b)を求める。重心算出には上記
(1)式を用いる。The inter-nostril center calculating means 50 obtains the center of gravity 51 (a, b) for the black area in the nostril area group existing in the same strip-shaped area extracted by the nostril area extracting means 36 as shown in FIG. . The above equation (1) is used to calculate the center of gravity.
【0081】次に、傾き検出手段10において、上記の
ような処理を実行して得られた顔領域重心26(c,
d)と鼻孔間中心51(a,b)の2点を通る直線と、
一方の座標軸、本実施の形態ではX軸、となす角度θを
求める。角度θは上記(2)式で求められる。回転中心
設定手段11により鼻孔間中心51(a,b)を回転中
心とおき、回転手段12により反時計回りにθ回転させ
る。回転手段12は実施の形態1と同様で、上記(2)
式を利用する。Next, in the inclination detecting means 10, the face area center of gravity 26 (c,
d) and a straight line passing through the nostril center 51 (a, b),
An angle θ with one coordinate axis, which is the X axis in this embodiment, is obtained. The angle θ is obtained by the above equation (2). The center 51 (a, b) between the nostrils is set as the center of rotation by the rotation center setting means 11, and is rotated counterclockwise by the rotation means 12. The rotating means 12 is the same as that of the first embodiment, and the above (2)
Use an expression.
【0082】実施の形態6.上記、実施の形態1〜5で
は顔領域の傾き判定を顔領域重心と代表点を算出した結
果に基づいて行ったが、処理を簡略するために2値化し
た特徴候補領域の黒色画素数のヒストグラムより直接顔
領域の傾きを判定し、傾きが判定されなければそこで全
ての処理を停止する。傾きが判定されれば上記各実施の
形態と同様の処理を行い顔画像の回転処理を行う。Sixth Embodiment In the above-described first to fifth embodiments, the inclination determination of the face area is performed based on the result of calculating the face area center of gravity and the representative point. However, in order to simplify the processing, the number of black pixels in the binarized feature candidate area The inclination of the face area is directly determined from the histogram, and if the inclination is not determined, all processing is stopped there. If the inclination is determined, the same processing as in each of the above-described embodiments is performed, and the facial image rotation processing is performed.
【0083】図21は本実施の形態の処理の概要を説明
したフローチャートである。図中、図2のフローチャー
トと同一ステップ番号は同一処理を示す。図において、
ステップ52は傾き判定手段52であり、2値化した特
徴候補領域の黒色画素数のヒストグラムより直接顔領域
の傾きの有無を判定する。そして、傾き有りと判定され
たならば顔領域重心算出手段7に進み、傾き無しと判定
されたならば全ての処理を停止する。FIG. 21 is a flow chart for explaining the outline of the processing of this embodiment. In the figure, the same step numbers as those in the flowchart of FIG. 2 indicate the same processing. In the figure,
In step 52, the inclination determining means 52 determines the presence / absence of inclination of the face area directly from the histogram of the number of black pixels in the binarized feature candidate area. Then, if it is determined that there is inclination, the process proceeds to the face area center of gravity calculating means 7, and if it is determined that there is no inclination, all processing is stopped.
【0084】傾き判定手段52では、2値化後の画像に
対して顔横方向を画像縦(y)軸、顔縦方向を画像横
(x)軸とし、画像縦軸方向の黒色画素数を各X座標に
ついてカウントし、縦軸が黒色画素数で横軸がX座標の
画像縦軸方向ヒストグラムを作成する。図22(a)は
傾いていない顔画像の画像縦軸方向ヒストグラムであ
り、図22(b)は傾いた顔画像の画像縦軸方向ヒスト
グラムである。In the inclination determining means 52, the horizontal face direction is the image vertical (y) axis, the vertical face direction is the image horizontal (x) axis in the binarized image, and the number of black pixels in the vertical image direction is Counting is performed for each X coordinate, and an image vertical axis direction histogram in which the vertical axis is the number of black pixels and the horizontal axis is the X coordinate is created. FIG. 22A is an image vertical direction histogram of a non-tilted face image, and FIG. 22B is an image vertical direction histogram of a tilted face image.
【0085】図からも分かるように傾いていない顔画像
はヒストグラムのピークがはっきりし、かつ黒色画素数
はほぼ顔の特徴領域の数と同じである(通常、まゆ・目
・鼻・口の4ピーク)。それに対して、傾いる画像のヒ
ストグラムはピークがはっきりせず、ピーク数は顔の特
徴領域の数と一致しない。以上、ヒストグラムの形状、
およびピーク数から傾いているかいないかを判定する。As can be seen from the figure, in a face image which is not tilted, the peak of the histogram is clear, and the number of black pixels is almost the same as the number of characteristic regions of the face (usually, eyebrows, eyes, nose, mouth are 4). peak). On the other hand, the histogram of the tilted image does not have clear peaks, and the number of peaks does not match the number of facial feature regions. Above, the shape of the histogram,
And it is judged whether it is inclined from the number of peaks.
【0086】実施の形態7.上記、実施の形態6では画
像縦軸方向の黒色画素数を各X座標についてカウントし
てヒストグラムを作成し、ピークの明確さから顔画像の
非傾きを判定したが、人間の顔は縦の中心線を境に左右
対称であることから、画像横軸方向の黒色画素数を各Y
座標についてカウントしてヒストグラムを作成し、ピー
ク値が等しい左右対称のピーク出現から顔画像の非傾き
を判定することができる。Embodiment 7 In the sixth embodiment described above, the number of black pixels in the vertical axis direction of the image is counted for each X coordinate to create a histogram, and the non-tilt of the face image is determined from the clarity of the peak. Since it is bilaterally symmetric with respect to the line, the number of black pixels in the horizontal direction of the image is set to Y.
It is possible to determine the non-tilt of the face image from the appearance of symmetrical peaks having the same peak value by creating a histogram by counting the coordinates.
【0087】図23(a)、(b)は判定基準を変更し
た傾き判定手段52の説明図である。傾き判定手段52
では、2値化後の画像に対して顔横方向を画像縦(y)
軸、顔縦方向を画像横(x)軸とし、画像横軸方向の黒
色画素数を各Y座標についてカウントし、縦軸が黒色画
素数で横軸がY座標の画像横軸方向ヒストグラムを作成
する。図23(a)は傾いていない画像の画像横軸方向
ヒストグラムであり、図23(b)は傾いた画像の画像
横軸方向ヒストグラムである。FIGS. 23 (a) and 23 (b) are explanatory views of the inclination determining means 52 in which the determination standard is changed. Tilt determination means 52
Then, with respect to the binarized image, the face horizontal direction is the image vertical (y)
The horizontal axis of the image is the horizontal axis of the image (x), the number of black pixels in the horizontal axis of the image is counted for each Y coordinate, and the histogram of the horizontal axis of the image in which the vertical axis is the number of black pixels and the horizontal axis is the Y coordinate is created. To do. FIG. 23A is an image horizontal axis direction histogram of an untilted image, and FIG. 23B is an image horizontal axis direction histogram of an inclined image.
【0088】図からもわかるように傾いていない画像は
ヒストグラムのピークがはっきりし、かつほぼ左右対称
である(通常、顔の中央で左右対称)。それに対して、
傾いている画像のヒストグラムはピークがはっきりせ
ず、左右対称でない。以上、ヒストグラムの形状、およ
び対称性から、顔画像が傾いているかいないかを判定す
る。As can be seen from the figure, the image which is not tilted has a clear histogram peak and is almost symmetrical (usually symmetrical at the center of the face). On the other hand,
The histogram of a tilted image has no clear peaks and is not symmetrical. As described above, it is determined from the shape and symmetry of the histogram whether the face image is tilted.
【0089】実施の形態8.図24は本実施の形態によ
る顔画像処理を説明するフローチャートである。図25
(a)、(b)は本実施の形態による傾き判定手段52
の説明図である。図24に示すように実施の形態4の特
徴領域重心算出手段46の後に傾き判定手段52を追加
し、判定の結果が傾きなしであれば全ての処理を停止
し、鼻孔間中心設定手段47から回転手段12までの処
理後、再び特徴候補領域抽出手段5にもどり、以下同じ
処理を繰り返す。Eighth Embodiment FIG. 24 is a flowchart illustrating the face image processing according to this embodiment. Figure 25
(A) and (b) are the inclination determination means 52 according to the present embodiment.
FIG. As shown in FIG. 24, a tilt determining unit 52 is added after the feature region center of gravity calculating unit 46 of the fourth embodiment, and if the result of the determination is that there is no tilt, all processing is stopped, and the internostril center setting unit 47 After the processing up to the rotation means 12, the process returns to the feature candidate area extraction means 5 again, and the same processing is repeated thereafter.
【0090】傾き判定手段52では、特徴領域重心算出
手段46で算出した重心の並びにより傾いているかいな
いかを判定する。図25(a)は傾いていない画像の重
心の並びであり、図25(b)は傾いた画像の重心の並
びである。図からもわかるように傾いていない画像は重
心がほぼ顔の縦方向中心線上に並ぶ。それに対して、傾
いる画像の重心は並びが一定でない。以上、特徴領域重
心の並びから傾いているかいないかを判定する。The inclination determining means 52 determines whether or not the center of gravity calculated by the characteristic region center of gravity calculating means 46 is more inclined. FIG. 25 (a) shows an array of centroids of an untilted image, and FIG. 25 (b) shows an array of centroids of an inclined image. As can be seen from the figure, in the non-tilted image, the center of gravity is almost aligned with the vertical centerline of the face. On the other hand, the center of gravity of the tilted images is not constant. As described above, it is determined whether or not the center of gravity of the characteristic regions is inclined.
【0091】実施の形態9.図27は本実施の形態にお
ける回転角度設定手段53a、回転限界角度設定手段5
3bの説明図である。図26に示すように実施の形態6
〜8の回転手段12の前に回転角度設定手段53a、回
転限界角度設定手段53bを追加し、検出角度θに応
じ、最低限回転させる角度βと最大限回転させることが
できる回転限界角度(θ+α)を設定する。Embodiment 9 FIG. FIG. 27 shows the rotation angle setting means 53a and the rotation limit angle setting means 5 in this embodiment.
It is explanatory drawing of 3b. Embodiment 6 as shown in FIG.
The rotation angle setting means 53a and the rotation limit angle setting means 53b are added in front of the rotation means 12 of 8 to 8, and the rotation limit angle (θ + α) is the minimum rotation angle β and the maximum rotation angle depending on the detected angle θ. ) Is set.
【0092】ただし、図27に示すように回転させる角
度βは回転限界角度(θ+α)を越えないもので、回転
限界角度(θ+α)は検出角度θを基に設定する。回転
手段12までの処理後、再び特徴候補領域抽出手段5に
もどり、以下同じ処理を繰り返す。繰り返す際は、回転
限界角度(θ+α)は常に一定にする。回転させる角度
βは特に一定でなくともよいが、検出角度θに近いほど
回転角度を小さくし、かつ、回転回数を多くする方が正
確な補正ができるものと思われる。以上の処理は傾き判
定手段52で画像が傾いていないと判断されるか、回転
限界角度(θ+α)に達するまで処理を続ける。However, as shown in FIG. 27, the rotation angle β does not exceed the rotation limit angle (θ + α), and the rotation limit angle (θ + α) is set based on the detection angle θ. After the processing up to the rotation means 12, the process returns to the feature candidate area extraction means 5 again, and the same processing is repeated thereafter. When repeating, the rotation limit angle (θ + α) is always constant. The rotation angle β does not have to be particularly constant, but it is considered that the closer the detection angle θ is, the smaller the rotation angle is and the more the number of rotations is, the more accurate the correction can be made. The above processing is continued until it is judged by the tilt judging means 52 that the image is not tilted or the rotation limit angle (θ + α) is reached.
【0093】この発明によれば以下のような効果があ
る。 1.運転者の顔画像を入力する顔画像入力手段、入力し
た運転者の顔画像内における眉、目、鼻、口等の顔の特
徴点の候補領域を抽出する特徴候補領域抽出手段、特徴
候補領域を抽出した画像を2値化する2値化手段、2値
画像内での顔を含む領域に対する重心(x,y)を算出
する顔領域重心算出手段、算出された顔領域の重心を基
に顔の一部分を含む領域を設定する顔部分領域設定手
段、顔部分領域に対する代表点を算出する部分領域代表
点算出手段、前記の顔領域重心(x,y)と部分領域代
表点の2点を通る直線と一方の画像軸のなす角度を顔の
傾きとして検出する傾き検出手段を備えたので、容易に
精度高く、且つ、高速に傾き角度を検出できると共に、
顔画像の傾きの補正精度が向上するという効果がある。The present invention has the following effects. 1. Face image inputting means for inputting a driver's face image, feature candidate area extracting means for extracting candidate areas of feature points of the face such as eyebrows, eyes, nose, mouth in the input driver's face image, feature candidate area Binarizing means for binarizing the extracted image, face area centroid calculating means for calculating the centroid (x, y) with respect to the area including the face in the binary image, based on the calculated centroid of the face area A face part region setting means for setting a region including a part of a face, a part region representative point calculation part for calculating a representative point for the face part region, and the face area center of gravity (x, y) and the part region representative point. Since the inclination detecting means for detecting the angle between the passing straight line and one of the image axes as the inclination of the face is provided, the inclination angle can be easily detected with high accuracy and at a high speed.
This has the effect of improving the accuracy of correcting the inclination of the face image.
【0094】2.運転者の顔画像を入力する顔画像入力
手段、入力した運転者の顔画像内における眉、目、鼻、
口等の顔の特徴点の候補領域を抽出する特徴候補領域抽
出手段、特徴候補領域を抽出した画像を2値化する2値
化手段、2値画像内での顔を含む領域に対する重心
(x,y)を算出する顔領域重心算出手段、上記顔領域
重心算出手段により算出された顔領域重心(x,y)の
横軸方向重心xを基に、顔縦方向上部領域を設定する顔
部分領域設定手段、設定された顔縦方向上部領域の重心
を算出し、それを代表点とする部分領域代表点算出手
段、前記の顔領域重心(x,y)と部分領域代表点の2
点を通る直線と一方の画像軸のなす角度を顔の傾きとし
て検出する傾き検出手段を備えたので、傾き角度を検出
するための直線を顔領域重心と共に通す部分領域代表点
を精度良く、しかも容易で高速に求めることができると
いう効果がある。2. Face image input means for inputting the face image of the driver, eyebrows, eyes, nose in the input face image of the driver,
Feature candidate region extraction means for extracting candidate regions of face feature points such as mouth, binarization means for binarizing the image from which the feature candidate regions have been extracted, and the center of gravity (x for the region including the face in the binary image (x , Y) for calculating a face area center of gravity, and a face portion for setting an upper area in the vertical direction of the face based on the center of gravity x in the horizontal axis of the face area center of gravity (x, y) calculated by the face area center of gravity calculating means. The area setting means, the center of gravity of the set face vertical direction upper area is calculated, and the partial area representative point calculation means using the calculated center of gravity as the representative point, the face area center of gravity (x, y) and the partial area representative point
Since the inclination detecting means for detecting the angle between the straight line passing through the point and one of the image axes as the inclination of the face is provided, the partial area representative point through which the straight line for detecting the inclination angle is passed together with the center of gravity of the face area accurately, and There is an effect that it can be easily obtained at high speed.
【0095】3.運転者の顔画像を入力する顔画像入力
手段、入力した運転者の顔画像内における眉、目、鼻、
口等の顔の特徴点の候補領域を抽出する特徴候補領域抽
出手段、特徴候補領域を抽出した画像を2値化する2値
化手段、2値画像内での顔を含む領域に対する重心
(x,y)を算出する顔領域重心算出手段、上記顔領域
重心算出手段により算出された顔領域重心(x,y)の
横軸方向重心xを基に、顔縦方向上部領域を設定し、さ
らに顔縦方向上部領域を顔領域重心(x,y)の縦軸方
向重心yを基に分割して顔上部左右領域を設定する顔部
分領域設定手段、設定された顔上部左領域、顔上部右領
域それぞれの重心を算出し、その中点を代表点とする部
分領域代表点算出手段、前記の顔領域重心(x,y)と
部分領域代表点の2点を通る直線と一方の画像軸のなす
角度を顔の傾きとして検出する傾き検出手段を備えたの
で、傾き角度を検出するための直線を顔領域重心と共に
通す部分領域代表点を更に精度良く、しかも容易で高速
に求めることができるという効果がある。3. Face image input means for inputting the face image of the driver, eyebrows, eyes, nose in the input face image of the driver,
Feature candidate region extraction means for extracting candidate regions of face feature points such as mouth, binarization means for binarizing the image from which the feature candidate regions have been extracted, and the center of gravity (x for the region including the face in the binary image (x , Y) for calculating the face area center of gravity, and based on the center of gravity x in the horizontal axis of the face area center of gravity (x, y) calculated by the face area center of gravity calculating means, an upper face vertical direction area is set, and Face part area setting means for setting the upper left and right areas of the face by dividing the upper area in the vertical direction of the face based on the vertical center of gravity y of the center of gravity (x, y) of the face area, the upper left area of the set face, the upper right of the face A center of gravity of each area is calculated, and a partial area representative point calculating means having a middle point as a representative point, a straight line passing through the two points of the face area center of gravity (x, y) and the partial area representative point, and one image axis Since the inclination detecting means for detecting the angle formed as the inclination of the face is provided, the inclination angle can be detected. Linear more accurately the partial area representative point through with the face area center of gravity, yet there is an effect that easy can be obtained at high speed for.
【0096】4.運転者の顔画像を入力する顔画像入力
手段、入力した運転者の顔画像内における眉、目、鼻、
口等の顔の特徴点の候補領域を抽出する特徴候補領域抽
出手段、特徴候補領域を抽出した画像を2値化する2値
化手段、2値画像内での特徴候補領域をグループ化する
特徴候補領域グループ化手段、特徴候補領域グループ内
で鼻孔領域を抽出する鼻孔領域抽出手段、鼻孔領域内の
各鼻孔に対する重心を算出する鼻孔領域重心算出手段、
算出された鼻孔領域の各鼻孔に対する重心を通る直線と
一方の画像軸のなす角度を顔の傾きとして検出する傾き
検出手段を備え、顔画像において位置が変わることない
2つの鼻孔を通る直線の傾き角度に基づいて顔画像の回
転処理をして画像補正行うため補正精度が向上するとい
う効果がある。4. Face image input means for inputting the face image of the driver, eyebrows, eyes, nose in the input face image of the driver,
Feature candidate region extracting means for extracting candidate regions of facial feature points such as mouth, binarizing means for binarizing the image from which the feature candidate regions are extracted, and feature for grouping feature candidate regions in a binary image Candidate area grouping means, nostril area extracting means for extracting a nostril area in the feature candidate area group, nostril area centroid calculating means for calculating the center of gravity for each nostril in the nostril area,
The calculated inclination of a straight line that passes through the center of gravity of each nostril region and an angle formed by one of the image axes is detected as the inclination of the face, and the inclination of the straight line that passes through the two nostrils whose position does not change in the face image. Since the face image is rotated based on the angle and the image is corrected, the correction accuracy is improved.
【0097】5.運転者の顔画像を入力する顔画像入力
手段、入力した運転者の顔画像内における眉、目、鼻、
口等の顔の特徴点の候補領域を抽出する特徴候補領域抽
出手段、特徴候補領域を抽出した画像を2値化する2値
化手段、2値画像内での特徴候補領域をグループ化する
特徴候補領域グループ化手段、特徴候補領域グループ内
で鼻孔領域を抽出する鼻孔領域抽出手段、各特徴候補領
域グループに対する重心を算出する特徴領域重心算出手
段、前記特徴領域重心算出手段により算出された重心の
内、鼻孔領域抽出手段により設定された領域に対する重
心を鼻孔間の中心とする鼻孔間中心設定手段、前記鼻孔
領域を除く各特徴候補領域の重心と鼻孔間中心との2点
を通る直線と一方の画像軸のなす角度の平均を顔の傾き
として検出する傾き検出手段を備えたので、傾き角度検
出精度が向上するという効果がある。[0097] 5. Face image input means for inputting the face image of the driver, eyebrows, eyes, nose in the input face image of the driver,
Feature candidate region extracting means for extracting candidate regions of facial feature points such as mouth, binarizing means for binarizing the image from which the feature candidate regions are extracted, and feature for grouping feature candidate regions in a binary image Candidate area grouping means, nostril area extracting means for extracting nostril areas in the characteristic candidate area group, characteristic area centroid calculating means for calculating the centroid of each characteristic candidate area group, and centroids calculated by the characteristic area centroid calculating means Among these, a nostril center setting means having a center of gravity for the area set by the nostril area extraction means as a center between the nostrils, a straight line passing through two points of the center of gravity and the center of the nostril of each feature candidate area excluding the nostril area, and one Since the inclination detecting means for detecting the average of the angles formed by the image axes as the inclination of the face is provided, there is an effect that the inclination angle detection accuracy is improved.
【0098】6.運転者の顔画像を入力する顔画像入力
手段、入力した運転者の顔画像内における眉、目、鼻、
口等の顔の特徴点の候補領域を抽出する特徴候補領域抽
出手段、特徴候補領域を抽出した画像を2値化する2値
化手段、2値画像内での顔を含む領域に対する重心
(x,y)を算出する顔領域重心算出手段、2値画像内
での特徴候補領域をグループ化する特徴候補領域グルー
プ化手段、特徴候補領域グループ内で鼻孔領域を抽出す
る鼻孔領域抽出手段、抽出された鼻孔領域の鼻孔間の中
心を算出する鼻孔間中心算出手段、前記鼻孔間中心と顔
領域重心(x,y)の2点を通る直線と一方の画像軸の
なす角度を顔の傾きとして検出する傾き検出手段を備え
たので、精度高くしかも容易に傾き角度を検出できると
いう効果がある。6. Face image input means for inputting the face image of the driver, eyebrows, eyes, nose in the input face image of the driver,
Feature candidate region extraction means for extracting candidate regions of face feature points such as mouth, binarization means for binarizing the image from which the feature candidate regions have been extracted, and the center of gravity (x for the region including the face in the binary image (x , Y), a face area centroid calculating means, a feature candidate area grouping means for grouping feature candidate areas in a binary image, a nostril area extracting means for extracting a nostril area in the feature candidate area group, extracted And a nostril center calculating means for calculating the center between the nostrils of the nostril region, and the angle between the straight line passing through the two points of the center of the nostril and the face area center of gravity (x, y) and one image axis is detected as the face inclination. Since the tilt detecting means is provided, the tilt angle can be detected with high accuracy and easily.
【0099】7.請求項1ないし6のいずれかに記載の
顔画像処理装置において、上記傾き検出手段により検出
された顔の傾き補正のために顔画像の回転中心を設定す
る回転中心設定手段、前記回転中心設定手段により設定
した回転中心を基準に回転により顔画像の傾きを補正す
る回転手段を備えたので、請求項1ないし6のいずれか
に記載の顔画像処理装置の効果に加えて、顔画像を傾き
のない顔画像に補正して処理するため画像処理品質が向
上するという効果がある。7. The face image processing apparatus according to any one of claims 1 to 6, wherein a rotation center setting unit that sets a rotation center of the face image for correcting the inclination of the face detected by the inclination detection unit, and the rotation center setting unit. Since the rotation means for correcting the inclination of the face image by rotation based on the rotation center set by the above is provided, in addition to the effect of the face image processing apparatus according to any one of claims 1 to 6, There is an effect that the image processing quality is improved because the face image is corrected and processed.
【0100】8.請求項7に記載の顔画像処理装置にお
いて、回転中心設定手段は、2値画像における顔領域重
心(x,y)を回転中心と設定するようにしたので、請
求項7の効果に加えて回転中心設定が容易になるという
効果がある。8. In the face image processing apparatus according to claim 7, the rotation center setting means sets the face area center of gravity (x, y) in the binary image as the rotation center. Therefore, in addition to the effect of claim 7, rotation is performed. This has the effect of facilitating center setting.
【0101】9.請求項7に記載の顔画像処理装置にお
いて、回転中心設定手段は、鼻孔間中心を回転中心と設
定するようにしたので、請求項7の効果に加えて回転中
心設定が容易にになると共に、中心設定精度が向上する
という効果がある。9. In the face image processing apparatus according to claim 7, since the rotation center setting means sets the center of the nostril as the rotation center, in addition to the effect of the seventh aspect, the rotation center can be easily set. This has the effect of improving the center setting accuracy.
【0102】10.請求項7に記載の顔画像処理装置に
おいて、顔画像が傾いているか否かを判定する傾き判定
手段を備え、顔画像が傾いていないと判断されるまで前
記回転手段による画像回転処理を続けるようにしたの
で、請求項7の効果に加えてキメ細かい傾き補正処理が
行え、補正精度が向上するという効果がある。10. The face image processing apparatus according to claim 7, further comprising a tilt determination unit that determines whether or not the face image is tilted, and the image rotation processing by the rotation unit is continued until it is determined that the face image is not tilted. Therefore, in addition to the effect of the seventh aspect, there is an effect that fine inclination correction processing can be performed and the correction accuracy is improved.
【0103】11.請求項10に記載の顔画像処理装置
において、傾き判定手段は、2値画像内での顔横方向を
画像縦(y)軸、顔縦方向を画像横(x)軸とし、画像
横軸方向の各座標における画像縦軸方向に存在する黒色
画素数を示す画像縦軸方向ヒストグラムを作成し、その
画像縦軸方向ヒストグラムの形状およびピーク数から顔
画像が傾いている否かを判定するようにしたので、傾き
判定処理が簡易化されるという効果がある。11. 11. The face image processing apparatus according to claim 10, wherein the inclination determination means sets the horizontal face direction in the binary image as the image vertical (y) axis, the vertical face direction as the image horizontal (x) axis, and the horizontal image direction. An image vertical axis direction histogram indicating the number of black pixels existing in the vertical axis direction of the image at each coordinate is created, and it is determined whether or not the face image is tilted based on the shape and peak number of the image vertical axis direction histogram. Therefore, there is an effect that the inclination determination process is simplified.
【0104】12.請求項10に記載の顔画像処理装置
において、傾き判定手段は、2値画像内での顔横方向を
画像縦(y)軸、顔縦方向を画像横(x)軸とし、画像
縦軸上の各座標において画像横軸方向に存在する黒色画
素数を示す画像横軸方向ヒストグラムを作成し、その画
像横軸方向ヒストグラムの対称性から顔画像が傾いてい
るか否かを判定するようにしたので、視覚的に傾き判定
が行えるため傾き判定処理が更に簡易化されるという効
果がある。12. 11. The face image processing device according to claim 10, wherein the inclination determination means sets the face horizontal direction in the binary image as the image vertical (y) axis, the face vertical direction as the image horizontal (x) axis, and on the image vertical axis. Since the image horizontal axis direction histogram showing the number of black pixels existing in the image horizontal axis direction at each coordinate is created, it is determined whether or not the face image is tilted based on the symmetry of the image horizontal axis direction histogram. Since the tilt determination can be visually performed, the tilt determination process is further simplified.
【0105】13.請求項10に記載の顔画像処理装置
において、傾き判定手段は、2値画像内での特徴候補領
域重心算出手段により得られた各特徴候補領域グループ
に対する重心(xi,yi)の横軸方向重心xiの並び
から顔画像が傾いている否かを判定するようにしたの
で、傾き判定処理が簡易化されるとう効果がある。13. 11. The face image processing apparatus according to claim 10, wherein the inclination determining unit determines the center of gravity (xi, yi) of the center of gravity (xi, yi) for each feature candidate region group obtained by the feature candidate region center of gravity calculating unit in the binary image. Since it is determined whether or not the face image is tilted based on the arrangement of xi, there is an effect that the tilt determination process is simplified.
【0106】14.請求項10に記載の顔画像処理装置
において、上記傾き検出手段により検出された角度θに
応じて、顔画像を回転させる角度を設定する回転角度設
定手段、前記回転角度の限界角度を設定する回転限界角
度設定手段を備え、上記回転手段で顔画像を回転させる
と共に上記傾き判定手段により顔画像が傾いていないと
判定された時、或いは前記回転限界角度に達するまで上
記回転手段による画像回転処理を続けるようにしたの
で、傾き補正をするための回転範囲を限定できるため、
無駄な回転を抑え、且つ、大きな誤回転を回避できると
いう効果がある。14. The face image processing apparatus according to claim 10, wherein a rotation angle setting unit that sets an angle for rotating the face image according to the angle θ detected by the tilt detection unit, and a rotation that sets a limit angle of the rotation angle. When the face image is rotated by the rotating unit and the tilt determining unit determines that the face image is not inclined, the image rotation process by the rotating unit is performed until the rotation limit angle is reached. Since I tried to continue, it is possible to limit the rotation range for tilt correction,
There is an effect that wasteful rotation can be suppressed and large erroneous rotation can be avoided.
【図1】 この発明の一実施の形態の構成を示す図であ
る。FIG. 1 is a diagram showing a configuration of an embodiment of the present invention.
【図2】 実施の形態1、2の処理の流れを示すフロー
チャートである。FIG. 2 is a flowchart showing a processing flow of the first and second embodiments.
【図3】 画像処理した顔の図である。FIG. 3 is a diagram of a face subjected to image processing.
【図4】 max/minフィルタの説明図である。FIG. 4 is an explanatory diagram of a max / min filter.
【図5】 2値化処理の説明図である。FIG. 5 is an explanatory diagram of binarization processing.
【図6】 実施の形態1の処理の流れの一部を示す図で
ある。FIG. 6 is a diagram showing a part of the flow of processing according to the first embodiment.
【図7】 傾き検出手段、回転中心設定手段、回転手段
の説明図である。FIG. 7 is an explanatory diagram of an inclination detection unit, a rotation center setting unit, and a rotation unit.
【図8】 傾き補正後の顔画像である。FIG. 8 is a face image after tilt correction.
【図9】 実施の形態2の処理の流れの一部を示す図で
ある。FIG. 9 is a diagram showing a part of the flow of processing according to the second embodiment.
【図10】 実施の形態3の処理の流れを示すフローチ
ャートである。FIG. 10 is a flowchart showing a flow of processing according to the third embodiment.
【図11】 画像縦軸方向ヒストグラムの説明図であ
る。FIG. 11 is an explanatory diagram of an image vertical axis direction histogram.
【図12】 画像横軸方向ヒストグラムの説明図であ
る。FIG. 12 is an explanatory diagram of an image horizontal axis direction histogram.
【図13】 特徴候補領域グループ化処理後の顔画像で
ある。FIG. 13 is a face image after the feature candidate region grouping process.
【図14】 鼻孔領域抽出手段の説明図である。FIG. 14 is an explanatory diagram of a nostril region extracting means.
【図15】 実施の形態3の傾き検出手段、回転中心設
定手段、回転手段の説明図である。FIG. 15 is an explanatory diagram of an inclination detection unit, a rotation center setting unit, and a rotation unit according to the third embodiment.
【図16】 実施の形態4の処理の流れを示すフローチ
ャートである。FIG. 16 is a flowchart showing a processing flow of the fourth embodiment.
【図17】 特徴領域重心算出手段手段の説明図であ
る。FIG. 17 is an explanatory diagram of a characteristic region centroid calculation means.
【図18】 実施の形態4の傾き検出手段、回転中心設
定手段、回転手段の説明図である。FIG. 18 is an explanatory diagram of a tilt detecting unit, a rotation center setting unit, and a rotating unit according to the fourth embodiment.
【図19】 実施の形態5の処理の流れを示すフローチ
ャートである。FIG. 19 is a flowchart showing the flow of processing according to the fifth embodiment.
【図20】 鼻孔間中心算出手段の説明図である。FIG. 20 is an explanatory diagram of a nostril center calculating means.
【図21】 実施の形態6、7の処理の流れを示すフロ
ーチャートである。FIG. 21 is a flow chart showing the flow of processing in the sixth and seventh embodiments.
【図22】 画像の画像縦軸方向ヒストグラムである。FIG. 22 is an image vertical axis histogram of an image.
【図23】 画像の画像横軸方向ヒストグラムである。FIG. 23 is an image horizontal axis direction histogram of an image.
【図24】 実施の形態8の処理の流れを示すフローチ
ャートである。FIG. 24 is a flowchart showing the flow of processing of the eighth embodiment.
【図25】 画像の重心の並びを示す図である。FIG. 25 is a diagram showing an arrangement of centroids of an image.
【図26】 実施の形態9の処理の流れを示すフローチ
ャートである。FIG. 26 is a flowchart showing the flow of processing in the ninth embodiment.
【図27】 回転角度設定出手段の説明図である。FIG. 27 is an explanatory diagram of rotation angle setting output means.
【図28】 顔の傾く方向を座標で表現した図である。FIG. 28 is a diagram in which a direction in which a face is tilted is expressed by coordinates.
【図29】 従来例の構成を示すブロック図である。FIG. 29 is a block diagram showing a configuration of a conventional example.
【図30】 従来例の眼球存在領域横方向設定の流れを
示すフローチャートである。FIG. 30 is a flowchart showing a flow of lateral direction setting of an eyeball existing region in a conventional example.
【図31】 従来例の眼球存在領域縦方向設定の流れを
示すフローチャートである。FIG. 31 is a flowchart showing a flow of setting a vertical direction of an eyeball existing region in a conventional example.
【図32】 従来例の眼球存在領域の処理の流れの一部
を示した図である。FIG. 32 is a diagram showing a part of the processing flow of an eyeball existing region in a conventional example.
【図33】 従来例の眼球存在領域の処理の流れの一部
を示した図である。FIG. 33 is a diagram showing a part of the flow of processing of an eyeball existing region in a conventional example.
【図34】 従来例の眼球存在領域の処理の流れの一部
を示した図である。FIG. 34 is a diagram showing a part of the flow of processing of an eyeball existing region in a conventional example.
1 カメラ、2 画像メモリ、3 CPU、4 顔画像
入力手段、5 特徴候補領域抽出手段、6 2値化手
段、7 顔領域重心算出手段、8 顔部分領域設定手
段、9 部分領域代表点算出手段、10 傾き検出手
段、11 回転中心設定手段、12 回転手段。1 camera, 2 image memory, 3 CPU, 4 face image input means, 5 feature candidate area extracting means, 6 binarizing means, 7 face area centroid calculating means, 8 face part area setting means, 9 partial area representative point calculating means 10 tilt detection means, 11 rotation center setting means, 12 rotation means.
Claims (14)
段、入力した運転者の顔画像内における眉、目、鼻、口
等の顔の特徴点の候補領域を抽出する特徴候補領域抽出
手段、 特徴候補領域を抽出した画像を2値化する2値化手段、 2値画像内での顔を含む領域に対する重心(x,y)を
算出する顔領域重心算出手段、 算出された顔領域の重心を基に顔の一部分を含む領域を
設定する顔部分領域設定手段、 顔部分領域に対する代表点を算出する部分領域代表点算
出手段、 前記の顔領域重心(x,y)と部分領域代表点の2点を
通る直線と一方の画像軸のなす角度を顔の傾きとして検
出する傾き検出手段を備えたことを特徴とする顔画像処
理装置。1. A face image input means for inputting a face image of a driver, and feature candidate region extraction for extracting candidate regions of face feature points such as eyebrows, eyes, nose and mouth in the input face image of the driver. Means, binarizing means for binarizing the image in which the feature candidate area is extracted, face area centroid calculating means for calculating the centroid (x, y) for the area including the face in the binary image, calculated face area Face area setting means for setting an area including a part of a face based on the center of gravity of the face, partial area representative point calculating means for calculating a representative point for the face area, the center of gravity (x, y) of the face area and the partial area representative A face image processing apparatus comprising a tilt detecting unit that detects an angle formed by a straight line passing through two points and one image axis as a tilt of a face.
段、 入力した運転者の顔画像内における眉、目、鼻、口等の
顔の特徴点の候補領域を抽出する特徴候補領域抽出手
段、 特徴候補領域を抽出した画像を2値化する2値化手段、 2値画像内での顔を含む領域に対する重心(x,y)を
算出する顔領域重心算出手段、 上記顔領域重心算出手段により算出された顔領域重心
(x,y)の横軸方向重心xを基に、顔縦方向上部領域
を設定する顔部分領域設定手段、 設定された顔縦方向上部領域の重心を算出し、それを代
表点とする部分領域代表点算出手段、 前記の顔領域重心(x,y)と部分領域代表点の2点を
通る直線と一方の画像軸のなす角度を顔の傾きとして検
出する傾き検出手段を備えたことを特徴とする顔画像処
理装置。2. Face image input means for inputting a driver's face image, and feature candidate region extraction for extracting candidate regions of facial feature points such as eyebrows, eyes, nose, mouth in the input driver's face image. Means, binarizing means for binarizing the image in which the feature candidate area is extracted, face area centroid calculating means for calculating the centroid (x, y) for the area including the face in the binary image, face area centroid calculation Based on the center of gravity x of the face area center of gravity (x, y) calculated by the means, the face part area setting means for setting the upper area of the face in the vertical direction, and the center of gravity of the set upper area of the face in the vertical direction are calculated. , A partial area representative point calculating means using that as a representative point, and an angle formed by a straight line passing through the two points of the face area center of gravity (x, y) and the partial area representative point and one image axis is detected as a face inclination. A face image processing apparatus comprising inclination detecting means.
段、 入力した運転者の顔画像内における眉、目、鼻、口等の
顔の特徴点の候補領域を抽出する特徴候補領域抽出手
段、 特徴候補領域を抽出した画像を2値化する2値化手段、 2値画像内での顔を含む領域に対する重心(x,y)を
算出する顔領域重心算出手段、 上記顔領域重心算出手段により算出された顔領域重心
(x,y)の横軸方向重心xを基に、顔縦方向上部領域
を設定し、さらに顔縦方向上部領域を顔領域重心(x,
y)の縦軸方向重心yを基に分割して顔上部左右領域を
設定する顔部分領域設定手段、 設定された顔上部左領域、顔上部右領域それぞれの重心
を算出し、その中点を代表点とする部分領域代表点算出
手段、 前記の顔領域重心(x,y)と部分領域代表点の2点を
通る直線と一方の画像軸のなす角度を顔の傾きとして検
出する傾き検出手段を備えたことを特徴とする顔画像処
理装置。3. Face image input means for inputting a driver's face image, and feature candidate region extraction for extracting candidate regions of facial feature points such as eyebrows, eyes, nose, mouth in the input driver's face image. Means, binarizing means for binarizing the image in which the feature candidate area is extracted, face area centroid calculating means for calculating the centroid (x, y) for the area including the face in the binary image, face area centroid calculation Based on the horizontal center of gravity x of the face area center of gravity (x, y) calculated by the means, an upper face vertical direction area is set, and the upper face vertical direction area is defined as the face area center of gravity (x, y).
y) The face part area setting means for setting the upper left and right areas of the face by dividing based on the vertical center of gravity y, the center of gravity of each of the set upper left area of the face and the upper right area of the face, and calculating the midpoint Partial area representative point calculating means as a representative point, inclination detecting means for detecting an angle formed by a straight line passing through two points of the face area center of gravity (x, y) and the partial area representative point and one image axis as the inclination of the face A face image processing apparatus comprising:
段、 入力した運転者の顔画像内における眉、目、鼻、口等の
顔の特徴点の候補領域を抽出する特徴候補領域抽出手
段、 特徴候補領域を抽出した画像を2値化する2値化手段、 2値画像内での特徴候補領域をグループ化する特徴候補
領域グループ化手段、 特徴候補領域グループ内で鼻孔領域を抽出する鼻孔領域
抽出手段、 鼻孔領域内の各鼻孔に対する重心を算出する鼻孔領域重
心算出手段、 算出された鼻孔領域の各鼻孔に対する重心を通る直線と
一方の画像軸のなす角度を顔の傾きとして検出する傾き
検出手段を備えたことを特徴とする顔画像処理装置。4. A face image input means for inputting a face image of a driver, and feature candidate region extraction for extracting candidate regions of face feature points such as eyebrows, eyes, nose and mouth in the input face image of the driver. Means, binarizing means for binarizing the image from which the feature candidate areas are extracted, feature candidate area grouping means for grouping the feature candidate areas in the binary image, extracting nostril areas within the feature candidate area group Nostril region extracting means, nostril region centroid calculating means for calculating the center of gravity for each nostril in the nostril region, and detecting the angle between the straight line passing through the center of gravity for each nostril in the calculated nostril region and one image axis as the face inclination A face image processing apparatus comprising inclination detecting means.
段、 入力した運転者の顔画像内における眉、目、鼻、口等の
顔の特徴点の候補領域を抽出する特徴候補領域抽出手
段、 特徴候補領域を抽出した画像を2値化する2値化手段、 2値画像内での特徴候補領域をグループ化する特徴候補
領域グループ化手段、 特徴候補領域グループ内で鼻孔領域を抽出する鼻孔領域
抽出手段、 各特徴候補領域グループに対する重心を算出する特徴領
域重心算出手段、 前記特徴領域重心算出手段により算出された重心の内、
鼻孔領域抽出手段により設定された領域に対する重心を
鼻孔間の中心とする鼻孔間中心設定手段、 前記鼻孔領域を除く各特徴候補領域の重心と鼻孔間中心
との2点を通る直線と一方の画像軸のなす角度の平均を
顔の傾きとして検出する傾き検出手段を備えたことを特
徴とする顔画像処理装置。5. A face image input means for inputting a face image of a driver, and feature candidate region extraction for extracting candidate regions of face feature points such as eyebrows, eyes, nose and mouth in the input face image of the driver. Means, binarizing means for binarizing the image in which the feature candidate areas are extracted, feature candidate area grouping means for grouping the feature candidate areas in the binary image, and nostril areas in the feature candidate area group Nostril region extracting means, characteristic region center of gravity calculating means for calculating the center of gravity for each characteristic candidate region group, of the center of gravity calculated by the characteristic region center of gravity calculating means,
An inter-nostril center setting unit having a center of gravity for the region set by the nostril region extraction unit as a center between the nostrils, a straight line passing through two points of the center of gravity and the center of the nostrils of each feature candidate region excluding the nostril region, and one image A face image processing apparatus comprising a tilt detecting means for detecting an average of angles formed by axes as a tilt of a face.
段、 入力した運転者の顔画像内における眉、目、鼻、口等の
顔の特徴点の候補領域を抽出する特徴候補領域抽出手
段、 特徴候補領域を抽出した画像を2値化する2値化手段、 2値画像内での顔を含む領域に対する重心(x,y)を
算出する顔領域重心算出手段、 2値画像内での特徴候補領域をグループ化する特徴候補
領域グループ化手段、 特徴候補領域グループ内で鼻孔領域を抽出する鼻孔領域
抽出手段、 抽出された鼻孔領域の鼻孔間の中心を算出する鼻孔間中
心算出手段、 前記鼻孔間中心と顔領域重心(x,y)の2点を通る直
線と一方の画像軸のなす角度を顔の傾きとして検出する
傾き検出手段を備えたことを特徴とする顔画像処理装
置。6. A face image input means for inputting a face image of a driver, and a feature candidate region extraction for extracting candidate regions of facial feature points such as eyebrows, eyes, nose and mouth in the input face image of the driver. Means, binarizing means for binarizing the image in which the feature candidate area is extracted, face area centroid calculating means for computing the centroid (x, y) for the area including the face in the binary image, in the binary image Feature candidate region grouping means for grouping the feature candidate regions, Nostril region extracting means for extracting nostril regions in the feature candidate region group, Inter-nostril center calculating means for calculating the center between the nostrils of the extracted nostril region, A face image processing apparatus, comprising inclination detecting means for detecting an angle formed by a straight line passing through two points of the center of the nostril and the face area center of gravity (x, y) and one image axis as the inclination of the face.
傾き補正のための顔画像の回転中心を設定する回転中心
設定手段、 前記回転中心設定手段により設定した回転中心を基準に
回転により顔画像の傾きを補正する回転手段を備えたこ
とを特徴とする請求項1ないし6のいずれかに記載の顔
画像処理装置。7. A rotation center setting means for setting a rotation center of a face image for correcting the inclination of the face detected by the inclination detection means, and a face image by rotation based on the rotation center set by the rotation center setting means. 7. The face image processing apparatus according to claim 1, further comprising a rotating unit that corrects a tilt of the face image.
顔領域重心(x,y)を回転中心と設定することを特徴
とする請求項7に記載の顔画像処理装置。8. The face image processing apparatus according to claim 7, wherein the rotation center setting means sets the center of gravity (x, y) of the face area in the binary image as the rotation center.
中心と設定することを特徴とする請求項7に記載の顔画
像処理装置。9. The face image processing apparatus according to claim 7, wherein the rotation center setting means sets a center between the nostrils as a rotation center.
き判定手段を備え、顔画像が傾いていないと判断される
まで前記回転手段による画像回転処理を続けることを特
徴とする請求項7に記載の顔画像処理装置。10. A tilt determining means for determining whether or not the face image is tilted, and the image rotating processing by the rotating means is continued until it is judged that the face image is not tilted. The face image processing device according to.
方向を画像縦(y)軸、顔縦方向を画像横(x)軸と
し、画像横軸方向の各座標における画像縦軸方向に存在
する黒色画素数を示す画像縦軸方向ヒストグラムを作成
し、その画像縦軸方向ヒストグラムの形状およびピーク
数から顔画像が傾いている否かを判定することを特徴と
する請求項10に記載の顔画像処理装置。11. The tilt determining means uses the image horizontal (y) axis as the face horizontal direction and the image vertical (x) axis as the face vertical direction in the binary image, and the image vertical axis at each coordinate in the image horizontal axis direction. 11. The image vertical axis direction histogram showing the number of black pixels existing in the direction is created, and it is determined whether or not the face image is tilted from the shape and peak number of the image vertical axis direction histogram. The described face image processing apparatus.
方向を画像縦(y)軸、顔縦方向を画像横(x)軸と
し、画像縦軸上の各座標において画像横軸方向に存在す
る黒色画素数を示す画像横軸方向ヒストグラムを作成
し、その画像横軸方向ヒストグラムの対称性から顔画像
が傾いているか否かを判定することを特徴とする請求項
10に記載の顔画像処理装置。12. The inclination determining means sets the horizontal face direction in the binary image as the image vertical (y) axis and the vertical face direction as the image horizontal (x) axis, and the image horizontal axis at each coordinate on the vertical axis of the image. 11. The image horizontal axis direction histogram showing the number of black pixels existing in the direction is created, and whether or not the face image is tilted is determined from the symmetry of the image horizontal axis direction histogram. Face image processing device.
候補領域重心算出手段により得られた各特徴候補領域グ
ループに対する重心(xi,yi)の横軸方向重心xi
の並びから顔画像が傾いている否かを判定することを特
徴とする請求項10に記載の顔画像処理装置。13. The inclination determining means uses the center of gravity (xi, yi) of the center of gravity (xi, yi) of each feature candidate area group obtained by the feature center of gravity calculating means in the binary image in the horizontal axis direction xi.
The face image processing apparatus according to claim 10, wherein it is determined whether or not the face image is tilted based on the arrangement.
度θに応じて、顔画像を回転させる角度を設定する回転
角度設定手段、前記回転角度の限界角度を設定する回転
限界角度設定手段を備え、上記回転手段で顔画像を回転
させると共に上記傾き判定手段により顔画像が傾いてい
ないと判定された時、或いは前記回転限界角度に達する
まで上記回転手段による画像回転処理を続けることを特
徴とする請求項10に記載の顔画像処理装置。14. A rotation angle setting means for setting an angle for rotating the face image according to the angle θ detected by the inclination detection means, and a rotation limit angle setting means for setting a limit angle of the rotation angle, The image rotation processing is continued by the rotating means when the face image is rotated by the rotating means and when the inclination determining means determines that the face image is not inclined or until the rotation limit angle is reached. Item 10. The face image processing device according to item 10.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP17903695A JP3355068B2 (en) | 1995-07-14 | 1995-07-14 | Face image processing device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP17903695A JP3355068B2 (en) | 1995-07-14 | 1995-07-14 | Face image processing device |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPH0935070A true JPH0935070A (en) | 1997-02-07 |
| JP3355068B2 JP3355068B2 (en) | 2002-12-09 |
Family
ID=16059004
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP17903695A Expired - Lifetime JP3355068B2 (en) | 1995-07-14 | 1995-07-14 | Face image processing device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP3355068B2 (en) |
Cited By (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH11136498A (en) * | 1997-08-29 | 1999-05-21 | Eastman Kodak Co | Computer program matter for red eye detection |
| WO2001015086A1 (en) * | 1999-08-19 | 2001-03-01 | Sony Corporation | Image processor, image processing method, and recorded medium |
| KR100390569B1 (en) * | 1999-10-14 | 2003-07-07 | 주식회사 드림미르 | Scale and Rotation Invariant Intelligent Face Detection |
| US7098812B2 (en) | 2002-08-08 | 2006-08-29 | Nissan Motor Co., Ltd. | Operator identifying device |
| KR100779171B1 (en) * | 2006-08-18 | 2007-11-26 | 학교법인 포항공과대학교 | Real time accurate face detection device and method |
| JP2008165705A (en) * | 2007-01-05 | 2008-07-17 | Matsushita Electric Ind Co Ltd | Image processing apparatus and image processing method |
| JP2008194309A (en) * | 2007-02-14 | 2008-08-28 | Toyota Motor Corp | Eye detection device, dozing detection device, and method of eye detection device |
| JP2008234209A (en) * | 2007-03-19 | 2008-10-02 | Toyota Central R&D Labs Inc | Eye tilt detection device and program |
| US9230184B2 (en) | 2004-03-31 | 2016-01-05 | Fujifilm Corporation | Image display control apparatus and method, and program for controlling image display control apparatus |
| WO2020095529A1 (en) * | 2018-11-09 | 2020-05-14 | 株式会社Jvcケンウッド | Video detection device, video detection method, and video detection program |
| KR20200129602A (en) * | 2019-05-09 | 2020-11-18 | 가천대학교 산학협력단 | Method And System For Deducting Facial Asymmetry Information |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH04101280A (en) * | 1990-08-20 | 1992-04-02 | Nippon Telegr & Teleph Corp <Ntt> | Face picture collating device |
| JPH04281578A (en) * | 1991-03-11 | 1992-10-07 | Nippon Telegr & Teleph Corp <Ntt> | Direction detection processing system for material body |
| JPH0883344A (en) * | 1994-09-14 | 1996-03-26 | Mitsubishi Electric Corp | Image processing apparatus and person state determination apparatus |
-
1995
- 1995-07-14 JP JP17903695A patent/JP3355068B2/en not_active Expired - Lifetime
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH04101280A (en) * | 1990-08-20 | 1992-04-02 | Nippon Telegr & Teleph Corp <Ntt> | Face picture collating device |
| JPH04281578A (en) * | 1991-03-11 | 1992-10-07 | Nippon Telegr & Teleph Corp <Ntt> | Direction detection processing system for material body |
| JPH0883344A (en) * | 1994-09-14 | 1996-03-26 | Mitsubishi Electric Corp | Image processing apparatus and person state determination apparatus |
Cited By (15)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH11136498A (en) * | 1997-08-29 | 1999-05-21 | Eastman Kodak Co | Computer program matter for red eye detection |
| JP4604439B2 (en) * | 1999-08-19 | 2011-01-05 | ソニー株式会社 | Image processing apparatus, image processing method, and recording medium |
| WO2001015086A1 (en) * | 1999-08-19 | 2001-03-01 | Sony Corporation | Image processor, image processing method, and recorded medium |
| US6965693B1 (en) | 1999-08-19 | 2005-11-15 | Sony Corporation | Image processor, image processing method, and recorded medium |
| KR100730500B1 (en) * | 1999-08-19 | 2007-06-27 | 소니 가부시끼 가이샤 | Image processing apparatus and image processing method and recording medium |
| KR100390569B1 (en) * | 1999-10-14 | 2003-07-07 | 주식회사 드림미르 | Scale and Rotation Invariant Intelligent Face Detection |
| US7098812B2 (en) | 2002-08-08 | 2006-08-29 | Nissan Motor Co., Ltd. | Operator identifying device |
| US9230184B2 (en) | 2004-03-31 | 2016-01-05 | Fujifilm Corporation | Image display control apparatus and method, and program for controlling image display control apparatus |
| KR100779171B1 (en) * | 2006-08-18 | 2007-11-26 | 학교법인 포항공과대학교 | Real time accurate face detection device and method |
| JP2008165705A (en) * | 2007-01-05 | 2008-07-17 | Matsushita Electric Ind Co Ltd | Image processing apparatus and image processing method |
| JP2008194309A (en) * | 2007-02-14 | 2008-08-28 | Toyota Motor Corp | Eye detection device, dozing detection device, and method of eye detection device |
| JP2008234209A (en) * | 2007-03-19 | 2008-10-02 | Toyota Central R&D Labs Inc | Eye tilt detection device and program |
| WO2020095529A1 (en) * | 2018-11-09 | 2020-05-14 | 株式会社Jvcケンウッド | Video detection device, video detection method, and video detection program |
| JP2020077338A (en) * | 2018-11-09 | 2020-05-21 | 株式会社Jvcケンウッド | Video detection device, video detection method and video detection program |
| KR20200129602A (en) * | 2019-05-09 | 2020-11-18 | 가천대학교 산학협력단 | Method And System For Deducting Facial Asymmetry Information |
Also Published As
| Publication number | Publication date |
|---|---|
| JP3355068B2 (en) | 2002-12-09 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US6526161B1 (en) | System and method for biometrics-based facial feature extraction | |
| KR100374708B1 (en) | Non-contact type human iris recognition method by correction of rotated iris image | |
| WO2017133605A1 (en) | Method and device for facial tracking and smart terminal | |
| US7912253B2 (en) | Object recognition method and apparatus therefor | |
| JP4307496B2 (en) | Facial part detection device and program | |
| US6633655B1 (en) | Method of and apparatus for detecting a human face and observer tracking display | |
| US8154591B2 (en) | Eyelid opening level determination device and computer readable medium storing computer program thereof | |
| JPH0944685A (en) | Face image processing device | |
| JPH096964A (en) | Face image processing method and face image processing apparatus | |
| JP4912206B2 (en) | Image processing method, image processing apparatus, image processing system, and computer program | |
| KR19990013317A (en) | Facial image processing device | |
| JP2000339476A (en) | Eye position and face position detection device | |
| JPH0935070A (en) | Face image processing device | |
| JP2007272435A (en) | Facial feature extraction apparatus and facial feature extraction method | |
| CN105608448A (en) | LBP characteristic extraction method based on face key points and LBP characteristic extraction device based on face key points | |
| JP2003150942A (en) | Eye position tracing method | |
| JP2005165984A (en) | Human face top detection method, head top detection system, and head top detection program | |
| JP4082203B2 (en) | Open / close eye determination device | |
| CN112507767B (en) | Face recognition method and related computer system | |
| JP2005011097A (en) | Face presence / absence determination device and face presence / absence determination program | |
| CN115731537B (en) | Mine car driver facial posture recognition method and system | |
| JP4996943B2 (en) | Facial feature point detection apparatus, facial feature point detection method, and program | |
| US11335123B2 (en) | Live facial recognition system and method | |
| KR101998361B1 (en) | Method of facial recognition in camera image | |
| CN115307743A (en) | Rapid self-adaptive body temperature measuring method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080927 Year of fee payment: 6 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080927 Year of fee payment: 6 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090927 Year of fee payment: 7 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090927 Year of fee payment: 7 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100927 Year of fee payment: 8 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110927 Year of fee payment: 9 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110927 Year of fee payment: 9 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120927 Year of fee payment: 10 |