[go: up one dir, main page]

JP2008112462A - Face area-tracing method by using face image, and device therefor - Google Patents

Face area-tracing method by using face image, and device therefor Download PDF

Info

Publication number
JP2008112462A
JP2008112462A JP2007329638A JP2007329638A JP2008112462A JP 2008112462 A JP2008112462 A JP 2008112462A JP 2007329638 A JP2007329638 A JP 2007329638A JP 2007329638 A JP2007329638 A JP 2007329638A JP 2008112462 A JP2008112462 A JP 2008112462A
Authority
JP
Japan
Prior art keywords
template
face
tracking
image
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007329638A
Other languages
Japanese (ja)
Other versions
JP4660534B2 (en
Inventor
Tsugumi Yamada
貢己 山田
Akiko Nakajima
朗子 中島
Atsuto Maki
淳人 牧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2007329638A priority Critical patent/JP4660534B2/en
Publication of JP2008112462A publication Critical patent/JP2008112462A/en
Application granted granted Critical
Publication of JP4660534B2 publication Critical patent/JP4660534B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】高速で精密な顔領域追跡装置を提供する。
【解決手段】画像入力部2と、正面顔検出部3と、正面顔辞書格納部4と、正面顔評価部5と、顔テンプレートマップ格納部6と、テンプレート設定部7と、追跡テンプレート情報格納部8と、テンプレート追跡部9から構成され、前回パラメタ値を中心とし、中心が密となるような探索を行うことで、顔の速い動きに対しては荒いが高速な追跡を行い、顔のゆっくりした動きに対しては精密な追跡ができる。
【選択図】 図1
A high-speed and precise face area tracking device is provided.
An image input unit, a front face detection unit, a front face dictionary storage unit, a front face evaluation unit, a face template map storage unit, a template setting unit, and tracking template information storage. 8 and a template tracking unit 9, and by performing a search that is centered on the previous parameter value and having a dense center, rough but fast tracking is performed for fast movement of the face. Precise tracking is possible for slow movements.
[Selection] Figure 1

Description

本発明は、画像中における人物の顔領域を、高頑健性且つ高精度且つ高速に顔領域追跡を行う、顔画像による顔領域追跡方法及びその装置に関する。   The present invention relates to a face region tracking method using a face image and a device for tracking a face region of a person in an image with high robustness, high accuracy, and high speed.

手が不自由な場合や、荷物などで手がふさがっている場合などに、顔の動きを用いた能動的なインタフェースが有用となる。通常の生活における人間のコミュニケーション手段として、言葉や身振り手振りに加えて、顔を縦に振ることで肯定を表現したり、何かを指し示す意味でその方向に顔を向けて合図を送ることがある。このことは、計算機の入力インタフェースの場合にもこのような顔を動かすしぐさによる入力支援方法が有用であることを示している。   An active interface using facial movement is useful when the hand is handicapped or when the hand is full of luggage. As a means of human communication in normal life, in addition to words and gesture gestures, there is a case of expressing affirmation by shaking the face vertically or pointing the face in the direction in the sense of pointing something . This indicates that such an input support method using the gesture of moving the face is also useful for the input interface of a computer.

顔の動きを捉えることができれば、能動的な操作方法として用いられるだけでなく、その人の興味/注意の対象、嗜好(市場調査)、精神状態を把握するためにも使用可能である。   If the movement of the face can be captured, it can be used not only as an active operation method but also for grasping the object of interest / attention, preference (market research), and mental state of the person.

ここで、顔の動きを認識するには、まず画像から顔を検出し、検出された顔を追跡しなければならない。これまでは、顔の位置の制約やカメラの個数、スピードが遅い、検出精度が低いなどの問題点があり、速い顔の動きを精密に追跡することが難しかった。   Here, in order to recognize the movement of the face, it is necessary to first detect the face from the image and track the detected face. Until now, there were problems such as restrictions on the position of the face, the number of cameras, slow speed, low detection accuracy, etc., and it was difficult to accurately track fast face movements.

一方、顔を追跡せずに頭部動作を検出する方法がある。顔と髪のコントラストに基づいて頭の3次元的な動きを検出する方法である(非特許文献1参照)。しかしながら、この方法は、画像の濃淡を利用しているため照明条件の変化の影響を受け易く、また、変化しない背景画像が必要である。さらに、頭髪が耳付近に掛かっているかどうかの影響を受けてしまう。   On the other hand, there is a method for detecting head movement without tracking a face. This is a method for detecting the three-dimensional movement of the head based on the contrast between the face and the hair (see Non-Patent Document 1). However, since this method uses the density of the image, it is easily affected by changes in illumination conditions, and a background image that does not change is required. Furthermore, it is influenced by whether the hair is hanging near the ear.

また、ステレオカメラを用い、顔の特徴点を手入力で登録して、正規化相関マッチングで特徴点を追跡して顔向きと視線方向を求める手法がある(非特許文献2参照)。しかしながら、カメラが複数必要であり、また、顔向き変化による特徴点パターンの変形の影響を考慮していなかった。   In addition, there is a method of using a stereo camera to manually register facial feature points and tracking the feature points by normalized correlation matching to obtain the face direction and line-of-sight direction (see Non-Patent Document 2). However, a plurality of cameras are necessary, and the influence of the deformation of the feature point pattern due to the change in the face direction is not taken into consideration.

顔向き角度毎に顔のテンプレートを用意して、様々な顔向きに対応して顔を検出させる手法がある(非特許文献3参照)。しかしながら、顔向き角度は予め設定された角度で撮影した顔画像を用いなければならず、顔画像そのものから顔向き角度毎に分類してテンプレートを作成することはできない。   There is a method of preparing a face template for each face orientation angle and detecting a face corresponding to various face orientations (see Non-Patent Document 3). However, a face image taken at a preset angle must be used as the face orientation angle, and a template cannot be created by classifying each face orientation angle from the face image itself.

追跡する対象をテンプレートを用いて追跡する手法は、主として画像上を左上から右下に順次全走査するラスタスキャン型のパターンサーチに基づく(例えば、非特許文献4参照)。さらに、テンプレートを対象画像に対応させる際の拡大倍率(縮小倍率)を変化させながらパターンを追跡したり、探索したりする手法は確立されていない。このことは、顔領域の追跡を行う際に非常に計算時間を要する一因となっている。
「ヘッドリーダ:画像による頭部動作の実時間検出」 電子情報通信学会論文誌、Vol.J74-D-II, No.3, pp.398-406, 1991年3月 「An algorithm for real-time stereo vision implementation of head pose and gaze direction measurement」. In Proc. of the Int'l Conf. on Automatic Face andGesture Recognition, 2000 「View-based and modular eigenspaces for face recognition」. In Proc. IEEE Conf. on Computer Vision and Pattern Recognition,p.84, 1994) 岡崎彰夫著、「はじめての画像処理技術」, 工業調査会, 2000
The method of tracking an object to be tracked using a template is mainly based on a raster scan type pattern search in which full scanning is sequentially performed on the image from the upper left to the lower right (see, for example, Non-Patent Document 4). Furthermore, no method has been established for tracking or searching for a pattern while changing the enlargement magnification (reduction magnification) when the template is associated with the target image. This is one factor that requires a very long calculation time when tracking the face area.
"Head reader: Real-time detection of head movement by image" IEICE Transactions, Vol.J74-D-II, No.3, pp.398-406, March 1991 `` An algorithm for real-time stereo vision implementation of head pose and gaze direction measurement ''. In Proc. Of the Int'l Conf. On Automatic Face and Gesture Recognition, 2000 “View-based and modular eigenspaces for face recognition”. In Proc. IEEE Conf. On Computer Vision and Pattern Recognition, p.84, 1994) Akio Okazaki, “First Image Processing Technology”, Industrial Research Committee, 2000

そこで本発明は、上記事情を考慮してなされたもので、高速で精密な顔領域追跡方法及びその装置を提供することにある。   Accordingly, the present invention has been made in view of the above circumstances, and it is an object of the present invention to provide a fast and precise face area tracking method and apparatus.

本発明は、所定の画素数のテンプレートと入力された画像とを比較して、画像とテンプレートとの一致度合いを検出する顔画像による顔領域追跡方法であって、テンプレートを対応させる入力画像上の位置を(x,y)とし、画像上の任意の大きさの領域に対してテンプレートを対応させるためのテンプレートの拡大または縮小の倍率をrとし、画像上で回転した対象領域に対してテンプレートを対応させるためのテンプレートの回転角をφとし、前回の追跡結果における(x,y,r,φ)の値を中心として、探索点の中心が密の分布をするように(x,y)、r、または、φを変動させたテンプレートを対応させることにより、対象領域を追跡する、顔画像による顔領域追跡方法である。   The present invention relates to a face region tracking method based on a face image that compares a template having a predetermined number of pixels with an input image and detects the degree of coincidence between the image and the template. The position is (x, y), the magnification of the template for making the template correspond to a region of an arbitrary size on the image is r, and the template is applied to the target region rotated on the image. The rotation angle of the template for correspondence is φ, and the center of the search points is densely distributed around the value of (x, y, r, φ) in the previous tracking result (x, y), This is a face area tracking method based on a face image in which a target area is tracked by associating a template in which r or φ is changed.

本発明によれば、前回位置を中心とする、中心が密な分布に従って追跡を行うことで、高速で精密な顔領域追跡を行える。   According to the present invention, high-speed and precise face area tracking can be performed by performing tracking according to a dense distribution centered on the previous position.

以下、図面を参照しながら本発明の一実施形態を説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

本実施形態では、顔画像による顔領域追跡方法を説明する。図1は本実施形態に係る顔画像を用いた顔領域追跡方法及びこれを実現するためのシステムの一例を示す構成図である。図2は同実施形態に係る顔テンプレートマップを説明する概念図である。図3は同実施形態に係る顔領域追跡処理の流れを説明する流れ図である。   In the present embodiment, a face area tracking method using a face image will be described. FIG. 1 is a configuration diagram showing an example of a face area tracking method using a face image according to the present embodiment and a system for realizing the method. FIG. 2 is a conceptual diagram illustrating a face template map according to the embodiment. FIG. 3 is a flowchart for explaining the flow of the face area tracking process according to the embodiment.

図1に示す顔領域追跡システム1は、システム内部に、顔テンプレートマップ格納部6を有し、逐次、顔テンプレートマップを学習・更新する機能を持つことが大きな特徴である。顔領域追跡システム1は、画像入力部2と、正面顔検出部3と、正面顔辞書格納部4と、正面顔評価部5と、顔テンプレートマップ格納部6と、テンプレート設定部7と、追跡テンプレート情報格納部8と、テンプレート追跡部9から構成されている。このような構成要素を具備することにより、顔領域追跡システム1は、画像が入力されると、顔領域の位置、顔向き情報、顔領域追跡計算の結果などの情報を出力するとともに、学習・更新によりシステム内部に顔テンプレートマップを構築する。   A major feature of the face area tracking system 1 shown in FIG. 1 is that it has a face template map storage 6 inside the system and has a function of learning and updating the face template map sequentially. The face area tracking system 1 includes an image input unit 2, a front face detection unit 3, a front face dictionary storage unit 4, a front face evaluation unit 5, a face template map storage unit 6, a template setting unit 7, a tracking It comprises a template information storage unit 8 and a template tracking unit 9. By including such components, the face area tracking system 1 outputs information such as the position of the face area, face orientation information, and results of face area tracking calculation when an image is input. Build a face template map inside the system by updating.

画像入力部2は、システム外部からビデオカメラ等で撮影された被験者の画像を受け取り、画像処理し易いようにデジタル形式の電子データに変換して、その電子データを正面顔検出部3とテンプレート追跡部9へ送る。   The image input unit 2 receives an image of a subject photographed by a video camera or the like from the outside of the system, converts it into digital data so that it can be easily processed, and converts the electronic data to the front face detection unit 3 and template tracking. Send to part 9.

正面顔検出部3は、人物の正面画像検出のためのテンプレートが格納された正面顔辞書格納部4から正面顔検出の為のテンプレートを受け取り、画像入力部2から入力された画像とそのテンプレートとを比較することにより、入力画像中から人物の顔画像を検出する。例えば、人物画像の目、鼻孔領域の画像をパターン照合と円形分離度フィルタで検出し、それと顔全体パターン照合との併用による顔検出を行わせる方法を用いることができる。この場合、テンプレートとは、顔と目と鼻それぞれに対応した部分空間法の辞書パターンのことである。   The front face detection unit 3 receives a template for front face detection from the front face dictionary storage unit 4 in which a template for detecting a front image of a person is stored. The image input from the image input unit 2 and its template Are compared to detect a human face image from the input image. For example, it is possible to use a method in which images of human eyes and nostril regions are detected by pattern matching and a circularity separation filter, and face detection is performed by using this in combination with whole face pattern matching. In this case, the template is a dictionary pattern of the subspace method corresponding to each of the face, eyes, and nose.

正面顔評価部5は、正面顔検出部3から人物の顔画像と検出された顔領域の位置情報を受け取り、顔テンプレートマップ格納部6から正面顔テンプレート13を受け取り、検出された顔領域のデータが正面顔テンプレート13としてより適しているときには、顔テンプレートマップ格納部6の中の正面顔テンプレート13を更新する。また、検出された顔領域の位置情報をテンプレート設定部7へ送る。   The front face evaluation unit 5 receives the face image of the person and the position information of the detected face region from the front face detection unit 3, receives the front face template 13 from the face template map storage unit 6, and detects the detected face region data. Is more suitable as the front face template 13, the front face template 13 in the face template map storage 6 is updated. The detected face area position information is sent to the template setting unit 7.

正面顔テンプレートとしてより適してかどうかの判断は、例えば、テンプレートマッチングの類似度の値、目と鼻孔の座標の配置等に基づいて判断することができる。   The determination as to whether or not it is more suitable as a front face template can be made based on, for example, the similarity value of template matching, the arrangement of coordinates of eyes and nostrils, and the like.

顔テンプレートマップ格納部6は、図2に示されるように、顔向き角度によって異なる大小の顔テンプレートが、上向き、横向きの角度と対応づけて格納されており、全体として顔テンプレートマップを構成している。ここで大の顔テンプレートとは、両眼、口等の顔の特徴部分を含む顔全体の画像テンプレートであり、小の顔テンプレートとは、立体的に検出可能な顔の特徴部分(例えば鼻など)を含む画像のテンプレートである。   As shown in FIG. 2, the face template map storage unit 6 stores large and small face templates that differ depending on the face orientation angle in association with the upward and lateral angles, and constitutes a face template map as a whole. Yes. Here, the large face template is an image template of the entire face including facial features such as both eyes and mouth, and the small face template is a facial feature portion (for example, nose) that can be detected three-dimensionally. ).

顔テンプレートマップ格納部6に格納される顔テンプレートマップは、例えば初期状態では、顔向き角度毎の各テンプレートがそれぞれブランク(空欄)となっているが、まず正面顔評価部5で正面顔画像に適すると判定された画像を利用して、大小の顔テンプレートが作成され、正面顔テンプレート13が生成される。次に、テンプレート設定部7の働きにより、様々な顔向きの顔画像が入力されるにつれて、正面顔以外の顔テンプレートが学習され、更新される。   In the face template map stored in the face template map storage unit 6, for example, in the initial state, each template for each face orientation angle is blank (blank). First, the front face evaluation unit 5 converts the template into a front face image. A large and small face template is created using an image determined to be suitable, and a front face template 13 is generated. Next, by the function of the template setting unit 7, face templates other than the front face are learned and updated as face images with various face orientations are input.

テンプレート設定部7は、正面顔評価部5から検出された正面顔の情報を受け取り、次回の顔領域追跡に利用する追跡テンプレート22を決定し、追跡テンプレート情報格納部8に格納する。   The template setting unit 7 receives front face information detected from the front face evaluation unit 5, determines a tracking template 22 to be used for the next face area tracking, and stores the tracking template 22 in the tracking template information storage unit 8.

ここでテンプレート設定部7は、大小の顔テンプレートの相対位置情報に基づき、検出された顔領域を新たに顔テンプレートとして登録するかどうかを判断する。これは例えば、被験者が横を向く等、顔向きが変化すると、それに伴い小さい顔テンプレートのマッチング位置が顔向き方向(例えば横方向)にシフトし、顔向きの角度が大きい程、そのシフトの度合い(正面位置からの相対位置)が大きくなるという性質を利用するものである。そしてあるしきい値よりもシフト量が大きくなった場合には、必要に応じて、この検出された顔領域を、左右、上下向き等の顔テンプレートとして顔テンプレートマップ格納部6に登録する。   Here, the template setting unit 7 determines whether or not to newly register the detected face area as a face template based on the relative position information of the large and small face templates. This is because, for example, when the face direction changes, such as when the subject faces sideways, the matching position of the small face template shifts in the face direction direction (for example, the horizontal direction), and the degree of shift increases as the face direction angle increases. This utilizes the property that (relative position from the front position) increases. If the shift amount becomes larger than a certain threshold value, the detected face area is registered in the face template map storage unit 6 as a face template such as left and right or up and down as necessary.

3種類以上の大きさの複数のテンプレートを用いて顔テンプレートマップを構築したり、顔領域追跡を行わせることもできる。図9、10、11に示されるように3種類の大きさ(大中小)のテンプレートを利用する場合は、例えば顔テンプレート(大)に対する顔テンプレート(中)の位置と、顔テンプレート(中)に対する顔テンプレート(小)の位置が、顔向き角度の大きさに関係しており、これらの値による総合判断に基づいて、検出された顔領域を、左右、上下向き等の顔テンプレートとして顔テンプレートマップ格納部6に登録する。総合判断する方法には、相対位置のシフトの大きさの加算和などを用いることができる。このようにテンプレートの個数を増やすことにより、より安定した頑健性の高い登録処理及び顔領域追跡を行わせることができる。   A face template map can be constructed by using a plurality of templates having three or more sizes, and face area tracking can be performed. As shown in FIGS. 9, 10, and 11, when three types of templates (large, medium, and small) are used, for example, the position of the face template (medium) with respect to the face template (large) and the face template (medium) The position of the face template (small) is related to the size of the face orientation angle. Based on the comprehensive judgment based on these values, the detected face area is used as a face template such as left and right, up and down, and the face template map. Register in the storage unit 6. As a method for comprehensive determination, an addition sum of relative magnitudes of shifts can be used. Thus, by increasing the number of templates, it is possible to perform more stable and robust registration processing and face area tracking.

追跡テンプレート情報格納部8は、テンプレート設定部から追跡用の顔テンプレートを受け取り、逐次更新される顔向きの追跡処理に用いる追跡テンプレート22を格納し、必要に応じて、テンプレート設定部7とテンプレート追跡部へ追跡テンプレート22を送る。   The tracking template information storage unit 8 receives the tracking face template from the template setting unit, stores the tracking template 22 used for the tracking processing of the face direction that is sequentially updated, and the template setting unit 7 and the template tracking as necessary. The tracking template 22 is sent to the department.

テンプレート追跡部9は、画像入力部2から入力画像を受け取り、追跡テンプレート情報格納部8から追跡テンプレート22を受け取り、入力画像と追跡テンプレートとを比較することにより、顔領域の追跡処理を行なう。追跡の処理結果(顔領域追跡の成功/失敗、顔領域の大きさ、位置、顔向き(角度)など)を出力するとともに、テンプレート設定部7へ顔領域の情報を送る。   The template tracking unit 9 receives the input image from the image input unit 2, receives the tracking template 22 from the tracking template information storage unit 8, and compares the input image with the tracking template to perform a face area tracking process. The tracking processing results (success / failure of face area tracking, face area size, position, face orientation (angle), etc.) are output, and face area information is sent to the template setting unit 7.

追跡処理は、図4で示されるように、例えば9画素×9画素=81画素からなる追跡テンプレート22を入力画像領域21上のある位置に対応させ、テンプレートマッチング処理によって類似度を計算することを、複数の探索位置と倍率とを変更することにより達成する。そして、最大類似度が所定の閾値を越えたときに、その位置と倍率のところに顔領域が検出されたと判断する。   In the tracking process, as shown in FIG. 4, for example, the tracking template 22 consisting of 9 pixels × 9 pixels = 81 pixels is made to correspond to a certain position on the input image area 21, and the similarity is calculated by the template matching process. This is achieved by changing a plurality of search positions and magnifications. When the maximum similarity exceeds a predetermined threshold value, it is determined that a face area has been detected at the position and magnification.

倍率とは画像の拡大、縮小率を示し、テンプレートが対応する画像領域の画素数が9×9画素ならちょうど1倍となるが、n×n画素ならば倍率はn/9倍となる。倍率が1でないときは、画像を拡大または縮小することで追跡テンプレートの一つ一つの画素と対応させることができる。ここでは、追跡テンプレートの画素数は9×9としたが、いくつでもよく、問題に応じて適切に設定すれば良い。   The magnification indicates the enlargement / reduction ratio of the image. If the number of pixels of the image area corresponding to the template is 9 × 9 pixels, the magnification is exactly 1 ×, but if it is n × n pixels, the magnification is n / 9 ×. When the magnification is not 1, it can be made to correspond to each pixel of the tracking template by enlarging or reducing the image. Although the number of pixels of the tracking template is 9 × 9 here, any number may be used, and it may be set appropriately according to the problem.

追跡処理における画像位置と倍率の探索は、計算時間の制約が有り、現実的にはある程度の間隔をおいてまばらに行わざるを得ないが、本実施例では、位置に関しては図5、7、8に示すような値について行い、倍率に関しては図6に示すような値について行うと、より効率よく探索処理を行なうことができる。   The search for the image position and the magnification in the tracking process is limited in calculation time. In practice, the search for the image position and the magnification must be performed sparsely with a certain interval, but in this embodiment, the position is shown in FIGS. If the value shown in FIG. 8 is used and the value shown in FIG. 6 is used for the magnification, the search process can be performed more efficiently.

具体的には、前回位置が(x,y)のとき、前回位置を基準として、その位置近傍を詳細に探索し、探索位置が遠ざかるにつれて探索処理を粗く行なう。例えば、追跡テンプレートを利用して入力画像の(x,y)を探索し(第0探索)、次に(x±1,y)、(x,y±1)、(x+1,y±1)、(x−1,y±1)を探索し(第1探索)、次に(x±3,y)、(x,y±3)、(x+3,y±3)、(x−3,y±3)を探索し(第2探索)ということを第n探索まで続ける。   Specifically, when the previous position is (x, y), the vicinity of the position is searched in detail using the previous position as a reference, and the search process is roughly performed as the search position moves away. For example, (x, y) of the input image is searched using the tracking template (0th search), then (x ± 1, y), (x, y ± 1), (x + 1, y ± 1) , (X−1, y ± 1) (first search), then (x ± 3, y), (x, y ± 3), (x + 3, y ± 3), (x−3, Search y ± 3) (second search) until the n-th search.

倍率の探索に関しても、具体的には前回倍率がrのとき、前回の探索倍率を基準として、その倍率近傍の画像を生成して詳細に探索する。例えば、ある小さな定数a(0<a<1)を用いて、まずr倍の大きさの追跡テンプレートを利用して入力画像を探索し(第0探索)、次にr*(1±a)の倍率の追跡テンプレートを利用して探索し(第1探索)、次にr*(1±3a)を探索し(第2探索)ということを第m探索まで続ける。   Regarding the magnification search, specifically, when the previous magnification is r, an image near the magnification is generated and searched in detail with the previous search magnification as a reference. For example, using a small constant a (0 <a <1), an input image is first searched using a tracking template of r times (0th search), and then r * (1 ± a) The search is performed using the tracking template with the magnification (first search), and then r * (1 ± 3a) is searched (second search) until the m-th search.

また回転の探索に関しても、前回の回転角を基準として、その回転角近傍の回転を施したテンプレートで詳細に探索し、その回転角からの回転変位が大きくなるに従って粗い探索を行なう。例えば前回のテンプレートの回転角がαであったとすると、αの回転処理を施された追跡テンプレートを用いて入力画像を探索し(0次探索)、次にα(1±a)の回転を施した追跡テンプレートを用いて探索し(1次探索)、更にα(1±3a)の回転を施した追跡テンプレートを用いて探索(2次探索)を続ける。   As for the search for rotation, a search is made in detail using a template that has been rotated in the vicinity of the previous rotation angle with reference to the previous rotation angle, and a coarse search is performed as the rotational displacement from the rotation angle increases. For example, if the rotation angle of the previous template is α, the input image is searched using the tracking template that has been subjected to the rotation processing of α (0th order search), and then the rotation of α (1 ± a) is performed. The search is performed using the tracking template (primary search), and the search (secondary search) is continued using the tracking template that is further rotated by α (1 ± 3a).

以上のように、前回パラメタ値を中心とし、中心が密となるような探索を行うことで、顔の速い動きに対しては荒いが高速な追跡を行い、顔のゆっくりした動きに対しては精密な追跡を行わせることができる。   As described above, by performing a search that centers on the previous parameter value and the center is dense, it performs rough but fast tracking for fast movement of the face, and for slow movement of the face Precise tracking can be performed.

図3は本実施形態における顔領域追跡方法の追跡手順を示す流れ図である。   FIG. 3 is a flowchart showing the tracking procedure of the face area tracking method in this embodiment.

最初に、被験者またはシステムからの入力等により、顔領域追跡を行うかどうかを判断し(ST1)、行わない場合には処理を終了する。顔領域追跡を行う場合は画像入力部からの入力画像を処理して正面顔検出とテンプレート追跡を行なう(ST2)。次に、前回の顔領域追跡処理が成功したか否か判断し(ST3)、前回成功のときはステップST8へ進み、前回失敗のときはステップST4へ進む。   First, it is determined whether or not to perform face area tracking based on input from the subject or the system (ST1), and if not, the process ends. When face area tracking is performed, an input image from the image input unit is processed to perform front face detection and template tracking (ST2). Next, it is determined whether or not the previous face area tracking process was successful (ST3). If the previous success, the process proceeds to step ST8, and if the previous failure, the process proceeds to step ST4.

ステップST4では正面顔検出部3が正面顔の検出処理を行い、正面顔が発見されたかどうか判断し(ST5)、発見された場合はステップST6へ進み、発見されなかった場合はステップST1へ戻る。   In step ST4, the front face detection unit 3 performs a front face detection process to determine whether a front face has been found (ST5). If found, the process proceeds to step ST6, and if not, the process returns to step ST1. .

ステップST6では、正面顔評価部5が正面テンプレート更新処理を行い、正面テンプレートを追跡テンプレート22へコピーし(ST7)、テンプレート追跡部が大小テンプレートの追跡処理を行う(ST8)。次に、テンプレート追跡が成功したかどうかを判断し(ST9)、失敗したときはステップST1へ戻るが、成功したときには顔位置情報を出力し(ST10)、大小テンプレートの相対位置変化の大きさに応じて(ST11)、大きいときには追跡テンプレート22の更新を行い、いずれの場合もステップST1に戻る。   In step ST6, the front face evaluation unit 5 performs front template update processing, copies the front template to the tracking template 22 (ST7), and the template tracking unit performs large / small template tracking processing (ST8). Next, it is determined whether or not the template tracking is successful (ST9). When the template tracking is unsuccessful, the process returns to step ST1, but when the template tracking is successful, the face position information is output (ST10). Accordingly, the tracking template 22 is updated when it is large, and in either case, the process returns to step ST1.

本発明の一実施形態に係る一例を示す構成図である。It is a block diagram which shows an example which concerns on one Embodiment of this invention. 同実施形態に係る顔テンプレートマップを説明する概念図である。It is a conceptual diagram explaining the face template map which concerns on the same embodiment. 同実施形態に係る顔領域追跡方法の処理の一例を示す流れ図である。It is a flowchart which shows an example of a process of the face area tracking method which concerns on the embodiment. 同実施形態に係る追跡テンプレートを利用した顔領域追跡を説明する概念図である。It is a conceptual diagram explaining face area tracking using the tracking template concerning the embodiment. 同実施形態に係る中心が密な分布に従った顔領域位置探索を説明する概念図である。It is a conceptual diagram explaining the face area position search according to the dense distribution according to the embodiment. 同実施形態に係る中心が密な分布に従った顔テンプレート倍率探索を説明する概念図である。It is a conceptual diagram explaining the face template magnification search according to the dense distribution according to the embodiment. 同実施形態に係る中心が密な分布に従った顔領域位置探索を説明する概念図である。It is a conceptual diagram explaining the face area position search according to the dense distribution according to the embodiment. 同実施形態に係る中心が密な分布に従った顔領域位置探索を説明する概念図である。It is a conceptual diagram explaining the face area position search according to the dense distribution according to the embodiment. 同実施形態に係る顔テンプレートマップを説明する概念図である。It is a conceptual diagram explaining the face template map which concerns on the same embodiment. 同実施形態に係る顔テンプレートマップを説明する概念図である。It is a conceptual diagram explaining the face template map which concerns on the same embodiment. 同実施形態に係る顔テンプレートマップを説明する概念図である。It is a conceptual diagram explaining the face template map which concerns on the same embodiment.

符号の説明Explanation of symbols

1 顔領域追跡システム
2 画像入力部
3 正面顔検出部
4 正面顔辞書格納部
5 正面顔評価部
6 顔テンプレートマップ格納部
7 テンプレート設定部
8 追跡テンプレート情報格納部
9 テンプレート追跡部
11 顔テンプレート(大)
12 顔テンプレート(小)
13 正面顔テンプレート
14 顔テンプレート(中)
21 入力画像領域
22 追跡テンプレート
DESCRIPTION OF SYMBOLS 1 Face area tracking system 2 Image input part 3 Front face detection part 4 Front face dictionary storage part 5 Front face evaluation part 6 Face template map storage part 7 Template setting part 8 Tracking template information storage part 9 Template tracking part 11 Face template (large )
12 Face template (small)
13 Front face template 14 Face template (middle)
21 Input image area 22 Tracking template

Claims (2)

所定の画素数のテンプレートと入力された画像とを比較して、画像とテンプレートとの一致度合いを検出する顔画像による顔領域追跡方法であって、
テンプレートを対応させる入力画像上の位置を(x,y)とし、画像上の任意の大きさの領域に対してテンプレートを対応させるためのテンプレートの拡大または縮小の倍率をrとし、画像上で回転した対象領域に対してテンプレートを対応させるためのテンプレートの回転角をφとし、前回の追跡結果における(x,y,r,φ)の値を中心として、探索点の中心が密の分布をするように(x,y)、r、または、φを変動させたテンプレートを対応させることにより、対象領域を追跡する、
顔画像による顔領域追跡方法。
Comparing a template with a predetermined number of pixels and an input image, a face region tracking method using a face image for detecting the degree of matching between the image and the template,
The position on the input image that corresponds to the template is (x, y), and the magnification of the template for making the template correspond to an area of an arbitrary size on the image is r, and the image is rotated on the image. The rotation angle of the template for associating the template with the target region is φ, and the centers of the search points are densely distributed around the value of (x, y, r, φ) in the previous tracking result. Tracking the region of interest by matching templates with varying (x, y), r, or φ,
A method for tracking a face area using a face image.
所定の画素数のテンプレートと入力された画像とを比較して、画像とテンプレートとの一致度合いを検出する顔画像による顔領域追跡装置であって、
テンプレートを対応させる入力画像上の位置を(x,y)とし、画像上の任意の大きさの領域に対してテンプレートを対応させるためのテンプレートの拡大または縮小の倍率をrとし、画像上で回転した対象領域に対してテンプレートを対応させるためのテンプレートの回転角をφとし、前回の追跡結果における(x,y,r,φ)の値を中心として、探索点の中心が密の分布をするように(x,y)、r、または、φを変動させたテンプレートを対応させることにより、対象領域を追跡する、
顔画像による顔領域追跡装置。
A face area tracking device using a face image that compares a template having a predetermined number of pixels with an input image and detects the degree of coincidence between the image and the template,
The position on the input image that corresponds to the template is (x, y), and the magnification of the template for making the template correspond to an area of an arbitrary size on the image is r, and the image is rotated on the image. The rotation angle of the template for associating the template with the target region is φ, and the centers of the search points are densely distributed around the value of (x, y, r, φ) in the previous tracking result. Tracking the region of interest by matching templates with varying (x, y), r, or φ,
Facial region tracking device based on facial images.
JP2007329638A 2007-12-21 2007-12-21 Method and apparatus for tracking face area based on face image Expired - Fee Related JP4660534B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007329638A JP4660534B2 (en) 2007-12-21 2007-12-21 Method and apparatus for tracking face area based on face image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007329638A JP4660534B2 (en) 2007-12-21 2007-12-21 Method and apparatus for tracking face area based on face image

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2002153321A Division JP2003346158A (en) 2002-05-28 2002-05-28 Face area tracking method using face images

Publications (2)

Publication Number Publication Date
JP2008112462A true JP2008112462A (en) 2008-05-15
JP4660534B2 JP4660534B2 (en) 2011-03-30

Family

ID=39444907

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007329638A Expired - Fee Related JP4660534B2 (en) 2007-12-21 2007-12-21 Method and apparatus for tracking face area based on face image

Country Status (1)

Country Link
JP (1) JP4660534B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010211485A (en) * 2009-03-10 2010-09-24 Nippon Telegr & Teleph Corp <Ntt> Gaze degree measurement device, gaze degree measurement method, gaze degree measurement program and recording medium with the same program recorded
JP2014186523A (en) * 2013-03-22 2014-10-02 Mega Chips Corp Person detection device
CN109189972A (en) * 2018-07-16 2019-01-11 高新兴科技集团股份有限公司 A kind of target whereabouts determine method, apparatus, equipment and computer storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07220076A (en) * 1994-01-28 1995-08-18 Sanyo Electric Co Ltd Image processing device
JP2001034756A (en) * 1999-07-21 2001-02-09 Nippon Hoso Kyokai <Nhk> Subject recognition device and recording medium
JP2001148015A (en) * 1999-11-22 2001-05-29 Matsushita Electric Works Ltd Method for aligning image positions

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07220076A (en) * 1994-01-28 1995-08-18 Sanyo Electric Co Ltd Image processing device
JP2001034756A (en) * 1999-07-21 2001-02-09 Nippon Hoso Kyokai <Nhk> Subject recognition device and recording medium
JP2001148015A (en) * 1999-11-22 2001-05-29 Matsushita Electric Works Ltd Method for aligning image positions

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010211485A (en) * 2009-03-10 2010-09-24 Nippon Telegr & Teleph Corp <Ntt> Gaze degree measurement device, gaze degree measurement method, gaze degree measurement program and recording medium with the same program recorded
JP2014186523A (en) * 2013-03-22 2014-10-02 Mega Chips Corp Person detection device
CN109189972A (en) * 2018-07-16 2019-01-11 高新兴科技集团股份有限公司 A kind of target whereabouts determine method, apparatus, equipment and computer storage medium

Also Published As

Publication number Publication date
JP4660534B2 (en) 2011-03-30

Similar Documents

Publication Publication Date Title
JP5629803B2 (en) Image processing apparatus, imaging apparatus, and image processing method
Heisele et al. Categorization by learning and combining object parts
JP4743823B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP5715833B2 (en) Posture state estimation apparatus and posture state estimation method
JP5529660B2 (en) Pupil detection device and pupil detection method
US8615135B2 (en) Feature point positioning apparatus, image recognition apparatus, processing method thereof and computer-readable storage medium
US20130051626A1 (en) Method And Apparatus For Object Pose Estimation
US20070189584A1 (en) Specific expression face detection method, and imaging control method, apparatus and program
CN114270417B (en) Face recognition system and method capable of updating registered face template
US20140163424A1 (en) Posture estimation device, posture estimation system, and posture estimation method
CN109937434B (en) Image processing method, device, terminal and storage medium
US7542591B2 (en) Target object detecting method, apparatus, and program
WO2012077286A1 (en) Object detection device and object detection method
CN102831441B (en) Comparing device
CN104050448A (en) Human eye positioning method and device and human eye region positioning method and device
JP2013215549A (en) Image processing device, image processing program, and image processing method
JP2003346158A (en) Face area tracking method using face images
TWI509466B (en) Object recognition method and object recognition apparatus using the same
JP2010123019A (en) Device and method for recognizing motion
JP2018088049A (en) Device, method and program for image processing
JP4660534B2 (en) Method and apparatus for tracking face area based on face image
JP2018036901A (en) Image processing apparatus, image processing method, and image processing program
CN116758628A (en) A human action recognition method and device based on multi-modal fusion
KR100977259B1 (en) Person Search and Tracking Method Using Multiple Gradient Histogram
JP2001331804A (en) Image region detecting apparatus and method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100813

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100824

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101022

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101130

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101228

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140107

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140107

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees