[go: up one dir, main page]

JP2001307107A - Image processor, its method and recording medium - Google Patents

Image processor, its method and recording medium

Info

Publication number
JP2001307107A
JP2001307107A JP2000120367A JP2000120367A JP2001307107A JP 2001307107 A JP2001307107 A JP 2001307107A JP 2000120367 A JP2000120367 A JP 2000120367A JP 2000120367 A JP2000120367 A JP 2000120367A JP 2001307107 A JP2001307107 A JP 2001307107A
Authority
JP
Japan
Prior art keywords
area
center
gravity
image
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000120367A
Other languages
Japanese (ja)
Inventor
Shinichiro Gomi
信一郎 五味
Kazuhiko Ueda
和彦 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000120367A priority Critical patent/JP2001307107A/en
Publication of JP2001307107A publication Critical patent/JP2001307107A/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To highly accurately recognize a body gesture or a hand gesture. SOLUTION: An intra-area movement distribution calculation part 71 calculates the standard deviation of movement distribution in an area having the smallest evaluation value and the number of pixels having up or down movement respectively. An area gravity center movement checking part 72 calculates a distance between the center of gravity of an area having the smallest evaluation value of a current frame and the center of gravity of an area selected one frame before and checks the locus of the center of gravity from the calculated result. A grasping operation recognition state machine 73 recognizes grasping operation on the basis of the standard deviation of distribution of movement in the area, the number of pixels of the up or down direction and the locus of the center of gravity respectively calculated by the calculation part 71 and the checking part 72.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像処理装置およ
び方法、並びに記録媒体に関し、特に、画像処理によ
り、ユーザの身振りや手振りを認識することができるよ
うにした画像処理装置および方法、並びに記録媒体に関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and method, and a recording medium, and more particularly to an image processing apparatus and method capable of recognizing a user's gesture and hand gesture by image processing, and recording. Regarding the medium.

【0002】[0002]

【従来の技術】従来、ユーザの身振りや手振りをコンピ
ュータグラフィックスとして取り入れることにより、人
とコンピュータとのインタフェースをとる手法がいくつ
か提案されている。
2. Description of the Related Art Heretofore, there have been proposed some techniques for interfacing a person with a computer by incorporating a gesture or a hand gesture of a user as computer graphics.

【0003】例えば、特開平11−195140号公報
には、データグローブを用いて身振りや手振りでコンピ
ュータを操作することにより、3次元コンピュータグラ
フィックスデータを編集する技術が開示されている。
For example, Japanese Patent Application Laid-Open No. H11-195140 discloses a technique for editing three-dimensional computer graphics data by operating a computer with gestures or hand gestures using a data glove.

【0004】また、例えば、特開平9−311759号
公報には、所定色に点灯・点滅するペンライトを用いて
ユーザがジェスチャし、そのペンライトをカメラで撮像
・画像認識することにより、コンピュータと人とのイン
タフェースを行う技術が開示されている。
[0004] For example, Japanese Patent Application Laid-Open No. 9-311759 discloses that a user makes a gesture by using a penlight that is turned on and blinks in a predetermined color, and the penlight is imaged and image-recognized by a camera. A technology for interfacing with a person is disclosed.

【0005】さらにまた、例えば、特開平9−1020
46号公報には、カメラで撮像したシルエット画像から
手の形状を推定、認識することにより、コンピュータと
人とのインタフェースを行う技術が開示されている。
Further, for example, Japanese Patent Application Laid-Open No. 9-1020
No. 46 discloses a technique for estimating and recognizing a hand shape from a silhouette image captured by a camera, thereby performing an interface between a computer and a person.

【0006】さらにまた、例えば、特開平8−2123
27号公報には、カメラで撮像した手の画像のオリエン
テーション一次元ヒストグラム、および、二次元空間時
間オリエンテーションヒストグラムを用いて身振りを認
識することにより、コンピュータと人とのインタフェー
スを行う技術が開示されている。
Further, for example, Japanese Patent Application Laid-Open No. H08-2123
No. 27 discloses a technique for performing an interface between a computer and a person by recognizing a gesture using an orientation one-dimensional histogram of a hand image captured by a camera and a two-dimensional spatio-temporal orientation histogram. I have.

【0007】さらにまた、例えば、特開平9−1799
88号公報には、2台のカメラを用いて手の三次元的な
姿勢、身振りを認識することにより、コンピュータと人
とのインタフェースを行う技術が開示されている。
Further, for example, Japanese Patent Application Laid-Open No. 9-1799
No. 88 discloses a technique for recognizing a three-dimensional posture and gesture of a hand using two cameras to perform an interface between a computer and a person.

【0008】[0008]

【発明が解決しようとする課題】データグローブを用い
る手法(特開平11−195140号公報)の場合、手
の形や手の動きを認識することができる反面、データグ
ローブの着脱が不便であり、かつ、データグローブとコ
ンピュータとを接続するケーブルが煩わしくなる課題が
あった。
In the case of the method using a data glove (Japanese Patent Laid-Open No. 11-195140), although the shape and movement of the hand can be recognized, the attachment and detachment of the data glove is inconvenient. In addition, there is a problem that a cable connecting the data glove and the computer becomes cumbersome.

【0009】そこで、ユーザの使い勝手を考慮して、ペ
ンライトを用いる手法(特開平9−311759号公
報)が提案されているが、ユーザがペンライトを持たな
ければならず、ユーザに対する煩わしさが依然として残
り、また、特殊なデバイス(ペンライト)を用いている
ため、汎用性に欠ける課題があった。
In view of the above, a technique using a penlight has been proposed in consideration of the usability of the user (Japanese Patent Application Laid-Open No. 9-311759). However, the user must have the penlight, which makes the user troublesome. There is a problem that lacks versatility because it still remains and uses a special device (penlight).

【0010】また、ユーザに対する煩わしさを軽減させ
るため、カメラで撮像した手の形状を画像認識する手法
が提案されている(特開平9−102046号公報、お
よび、特開平8−212327号公報)が、照明変化な
どにより、手の形状が正確に検出されない恐れがあり、
誤認識する課題があった。
[0010] Further, in order to reduce the inconvenience to the user, a technique for recognizing the shape of the hand picked up by a camera has been proposed (Japanese Patent Application Laid-Open Nos. 9-102046 and 8-212327). However, the shape of the hand may not be detected accurately due to changes in lighting, etc.
There was a problem of misrecognition.

【0011】そこで、誤認識を防止するため、複数台の
カメラを用いて画像認識する手法も提案されている(特
開平9−179988号公報)が、低コストで実現する
ことができない課題があった。
In order to prevent erroneous recognition, a method of recognizing an image using a plurality of cameras has been proposed (Japanese Patent Laid-Open No. 9-179988), but there is a problem that it cannot be realized at low cost. Was.

【0012】本発明はこのような状況に鑑みてなされた
ものであり、低コストで、かつ、高精度に、ユーザの身
振りや手振りを画像処理により認識することができるよ
うにするものである。
SUMMARY OF THE INVENTION The present invention has been made in view of such a situation, and it is an object of the present invention to be able to recognize a user's gesture and hand gesture at low cost and with high accuracy by image processing.

【0013】[0013]

【課題を解決するための手段】本発明の画像処理装置
は、身振りまたは手振りを行う対象物を撮像する撮像手
段と、撮像手段により撮像された画像を識別する識別手
段と、識別手段により識別された画像を所定の領域に分
割する領域分割手段と、領域分割手段により分割された
領域内の動き方向を検出する動き方向検出手段と、動き
方向検出手段の検出結果に基づいて、領域内の重心を算
出する重心算出手段と、領域内の評価値を算出する評価
値算出手段と、評価値算出手段の算出結果から、評価値
の最も小さい領域を選択する領域選択手段と、領域選択
手段により選択された領域内において、対象物の握り動
作を認識する握り動作認識手段と、領域選択手段により
選択された領域内の重心の軌跡に基づいて、対象物の振
り動作を認識する振り動作認識手段とを備えることを特
徴とする。
SUMMARY OF THE INVENTION An image processing apparatus according to the present invention is provided with an image pickup means for picking up an object to be gestured or shaken, an identification means for identifying an image picked up by the image pickup means, and an identification means for identifying the image. Dividing the divided image into predetermined regions, a moving direction detecting unit detecting a moving direction in the region divided by the region dividing unit, and a center of gravity in the region based on a detection result of the moving direction detecting unit. A center of gravity calculating means for calculating the evaluation value, an evaluation value calculating means for calculating an evaluation value in the area, an area selecting means for selecting an area having the smallest evaluation value from the calculation result of the evaluation value calculating means, and a selection by the area selecting means In the selected area, a gripping motion recognizing means for recognizing a gripping motion of the object, and a vibration for recognizing a swinging motion of the object based on a locus of the center of gravity in the area selected by the area selecting means. Characterized in that it comprises a motion recognizing means.

【0014】本発明の画像処理装置は、領域分割手段に
より分割された領域の外接枠を検出する外接枠検出手段
と、外接枠検出手段により検出された外接枠の縦横比を
算出する縦横比算出手段と、外接枠検出手段により検出
された外接枠内の画素数を計数することにより、領域の
面積を算出する面積算出手段と、動き方向検出手段の検
出結果に基づいて、動き方向の画素を計数する計数手段
とをさらに設けるようにすることができ、評価値算出手
段では、重心、縦横比、面積、および、動き方向の画素
数に基づいて、領域内の評価値を算出するようにするこ
とができる。
The image processing apparatus according to the present invention comprises a circumscribing frame detecting means for detecting a circumscribing frame of the area divided by the area dividing means, and an aspect ratio calculating for calculating an aspect ratio of the circumscribing frame detected by the circumscribing frame detecting means. Means, an area calculating means for calculating the area of the area by counting the number of pixels in the circumscribing frame detected by the circumscribing frame detecting means, and a pixel in the motion direction based on the detection result of the motion direction detecting means. A counting means for counting can be further provided, and the evaluation value calculating means calculates the evaluation value in the area based on the center of gravity, the aspect ratio, the area, and the number of pixels in the movement direction. be able to.

【0015】本発明の画像処理装置は、領域選択手段に
より選択された領域内の所定の方向の動き方向を有する
画素の標準偏差を算出する標準偏差算出手段をさらに設
けるようにすることができ、握り動作認識手段では、標
準偏差算出手段の算出結果、領域選択手段により選択さ
れた領域内の中心画素の動き方向、および、重心算出手
段の算出結果に基づいて、対象物の握り動作を認識する
ようにすることができる。
The image processing apparatus according to the present invention may further include a standard deviation calculating means for calculating a standard deviation of a pixel having a predetermined moving direction in the area selected by the area selecting means, The gripping motion recognizing means recognizes the gripping motion of the target object based on the calculation result of the standard deviation calculating means, the movement direction of the center pixel in the area selected by the area selecting means, and the calculation result of the center of gravity calculating means. You can do so.

【0016】識別手段では、画像の画素値が所定の範囲
内にあるものを識別するか、または、画像の画素値が所
定の範囲内にあり、かつ、画像の輝度値が所定の範囲内
にあるものを識別するようにすることができる。
The identifying means identifies an image whose pixel value is within a predetermined range, or determines whether the image pixel value is within a predetermined range and the image brightness value is within a predetermined range. Something can be identified.

【0017】動き方向検出手段では、領域内の中心画素
の輝度値に基づいて、領域内の動きの方向を検出するよ
うにすることができる。
The motion direction detecting means can detect the direction of motion in the area based on the luminance value of the central pixel in the area.

【0018】本発明の画像処理方法は、身振りまたは手
振りを行う対象物を撮像する撮像ステップと、撮像ステ
ップの処理により撮像された画像を識別する識別ステッ
プと、識別ステップの処理により識別された画像を所定
の領域に分割する領域分割ステップと、領域分割ステッ
プの処理により分割された領域内の動き方向を検出する
動き方向検出ステップと、動き方向検出ステップでの検
出結果に基づいて、領域内の重心を算出する重心算出ス
テップと、領域内の評価値を算出する評価値算出ステッ
プと、評価値算出ステップでの算出結果から、評価値の
最も小さい領域を選択する領域選択ステップと、領域選
択ステップの処理により選択された領域内において、対
象物の握り動作を認識する握り動作認識ステップと、領
域選択ステップの処理により選択された領域内の重心の
軌跡に基づいて、対象物の振り動作を認識する振り動作
認識ステップとを含むことを特徴とする。
According to the image processing method of the present invention, an image pickup step of picking up an object to be gestured or hand-held, an identification step for identifying an image captured by the image pickup step, and an image identified by the identification step processing Is divided into predetermined regions, a motion direction detecting step for detecting a motion direction in the region divided by the process of the region dividing step, and an area in the region based on a detection result in the motion direction detecting step. A center of gravity calculating step of calculating a center of gravity, an evaluation value calculating step of calculating an evaluation value in the area, an area selecting step of selecting an area having the smallest evaluation value from the calculation result in the evaluation value calculating step, and an area selecting step A grip operation recognition step of recognizing a grip operation of the object in the area selected by the processing of Based on the centroid trajectory of the selected by management area, characterized in that it comprises a swinging motion recognition step recognizes the swinging motion of the object.

【0019】本発明の記録媒体に記録されているプログ
ラムは、身振りまたは手振りを行う対象物を撮像する撮
像ステップと、撮像ステップの処理により撮像された画
像を識別する識別ステップと、識別ステップの処理によ
り識別された画像を所定の領域に分割する領域分割ステ
ップと、領域分割ステップの処理により分割された領域
内の動き方向を検出する動き方向検出ステップと、動き
方向検出ステップでの検出結果に基づいて、領域内の重
心を算出する重心算出ステップと、領域内の評価値を算
出する評価値算出ステップと、評価値算出ステップでの
算出結果から、評価値の最も小さい領域を選択する領域
選択ステップと、領域選択ステップの処理により選択さ
れた領域内において、対象物の握り動作を認識する握り
動作認識ステップと、領域選択ステップの処理により選
択された領域内の重心の軌跡に基づいて、対象物の振り
動作を認識する振り動作認識ステップとを含むことを特
徴とする。
[0019] The program recorded on the recording medium of the present invention includes an imaging step of imaging an object to be gestured or gestured, an identification step of identifying an image captured by the processing of the imaging step, and a processing of the identification step. Dividing the image identified by the above into predetermined regions, a motion direction detecting step of detecting a motion direction in the region divided by the process of the region dividing step, and a motion direction detecting step. A center of gravity calculating step of calculating a center of gravity in the area; an evaluation value calculating step of calculating an evaluation value in the area; and an area selecting step of selecting an area having the smallest evaluation value from the calculation results in the evaluation value calculating step. And a gripping motion recognition step of recognizing a gripping motion of an object in the area selected by the processing of the area selecting step. , Based on the trajectory of the center of gravity of the area selected by the process of area selection step, characterized in that it comprises a swinging motion recognition step recognizes the swinging motion of the object.

【0020】本発明の画像処理装置、画像処理方法、並
びに記録媒体に記録されているプログラムにおいては、
身振りまたは手振りを行う対象物が撮像され、撮像され
た画像が識別され、識別された画像が所定の領域に分割
され、分割された領域内の動き方向が検出され、領域内
の重心が算出され、領域内の評価値が算出され、その算
出結果から、最も評価値の小さい領域が選択され、選択
された領域内において、対象物の握り動作が認識され、
選択された領域内の重心の軌跡に基づいて、対象物の振
り動作が認識される。
In the image processing apparatus, the image processing method, and the program recorded on the recording medium according to the present invention,
An object to be gestured or gestured is imaged, the imaged image is identified, the identified image is divided into predetermined regions, the movement direction in the divided region is detected, and the center of gravity in the region is calculated. The evaluation value in the area is calculated, and the area with the lowest evaluation value is selected from the calculation result, and the gripping operation of the object is recognized in the selected area,
The swing motion of the object is recognized based on the locus of the center of gravity in the selected area.

【0021】[0021]

【発明の実施の形態】図1は、本発明に係る画像処理シ
ステムの一実施の形態を示すブロック図である。ビデオ
カメラ2は、ユーザ1の身振りや手振りを撮像し、撮像
された画像データをYUV,YCbCr,RGBなどの色データに
変換し、それを画像処理装置3に供給する。画像処理装
置3は、ビデオカメラ2より供給された画像データに対
して、画像処理およびジェスチャ認識処理などの所定の
処理を施し、表示・出力装置4に出力する。表示・出力
装置4は、画像処理装置3より供給された、ユーザ1の
身振りや手振りに対応する画像データに基づいて、画面
にアプリケーションを起動させたり、画面に表示されて
いるウィンドウを移動させたりする。
FIG. 1 is a block diagram showing an embodiment of an image processing system according to the present invention. The video camera 2 captures a gesture or hand gesture of the user 1, converts the captured image data into color data such as YUV, YCbCr, and RGB, and supplies the color data to the image processing device 3. The image processing device 3 performs predetermined processing such as image processing and gesture recognition processing on the image data supplied from the video camera 2, and outputs the processed data to the display / output device 4. The display / output device 4 starts an application on the screen or moves a window displayed on the screen based on image data corresponding to the gesture or hand gesture of the user 1 supplied from the image processing device 3. I do.

【0022】図2は、画像処理装置3の構成を示すブロ
ック図である。画像処理部11は、ビデオカメラ2より
供給された画像データに対して、肌色領域の抽出・分割
処理、および、重心・動き検出処理などを行い、その画
像処理結果をジェスチャ認識部12に供給する。ジェス
チャ認識部12は、画像処理部11より供給された画像
処理結果に基づいて、ジェスチャ認識処理を行い、その
認識結果を表示・出力装置4に供給する。
FIG. 2 is a block diagram showing the configuration of the image processing apparatus 3. The image processing unit 11 performs a skin color region extraction / division process, a center of gravity / motion detection process, and the like on the image data supplied from the video camera 2, and supplies the image processing result to the gesture recognition unit 12. . The gesture recognition unit 12 performs a gesture recognition process based on the image processing result supplied from the image processing unit 11, and supplies the recognition result to the display / output device 4.

【0023】図3は、画像処理部11の詳細な構成を示
すブロック図である。領域分割部21は、画像記憶部2
2に記憶されている1フレーム前の画像データを読み出
し、その1フレーム前の画像データとビデオカメラ2よ
り供給された現在のフレームの画像データとから、予
め、設定されている色の領域(肌色)の抽出・分割を行
い、抽出された領域毎にラベリングを行う。画像記憶部
22は、ビデオカメラ2より供給された画像データをフ
レーム毎に記憶する。
FIG. 3 is a block diagram showing a detailed configuration of the image processing unit 11. The area dividing unit 21 includes the image storage unit 2
2 is read out from the image data of the previous frame stored in the image data of the current frame supplied from the video camera 2 and the image data of the current frame supplied from the video camera 2. ) Is extracted and divided, and labeling is performed for each extracted region. The image storage unit 22 stores the image data supplied from the video camera 2 for each frame.

【0024】領域処理部23は、領域分割部21でラベ
リングされた領域毎に、重心・動きの方向の検出を行
い、検出結果をジェスチャ認識部12に供給するととも
に、領域記憶部24に記憶する。領域記憶部24は、領
域処理部23より供給された領域毎の重心・動きの方向
の検出結果を記憶する。
The area processing section 23 detects the center of gravity and the direction of movement for each area labeled by the area dividing section 21, supplies the detection result to the gesture recognition section 12, and stores the result in the area storage section 24. . The region storage unit 24 stores the detection result of the center of gravity and the direction of movement for each region supplied from the region processing unit 23.

【0025】図4は、ジェスチャ認識部12の詳細な構
成を示すブロック図である。握り動作認識部31は、画
像処理部11の領域処理部23より供給された検出結果
(重心・動きの方向)に基づいて、手の握り・開き動作
を認識し、認識結果を表示・出力装置4に供給する。な
お、握り動作認識部31は、後述する握り動作認識ステ
ートマシン73(図8)を動作させ、領域内の動き方向
の分布状況と領域記憶部24に記憶された数フレーム分
の重心の位置情報に基づいて、手の握り・開きを認識す
る。重心軌跡認識部32は、領域処理部23より供給さ
れた検出結果(重心・動きの方向)に基づいて、上下左
右に手を振る動作を認識し、認識結果を表示・出力装置
4に供給する。
FIG. 4 is a block diagram showing a detailed configuration of the gesture recognition unit 12. As shown in FIG. The gripping motion recognition unit 31 recognizes the gripping / opening motion of the hand based on the detection result (center of gravity / direction of movement) supplied from the area processing unit 23 of the image processing unit 11, and displays and outputs the recognition result. 4 The gripping motion recognition unit 31 operates a gripping motion recognition state machine 73 (FIG. 8), which will be described later, to distribute the movement direction in the region and the position information of the center of gravity of several frames stored in the region storage unit 24. Recognize hand grip / open based on The center-of-gravity trajectory recognizing unit 32 recognizes an operation of waving up, down, left, and right based on the detection result (center of gravity / direction of movement) supplied from the area processing unit 23, and supplies the recognition result to the display / output device 4. .

【0026】図5は、画像処理部11の領域分割部21
の詳細な構成を示すブロック図である。色識別部41
は、ビデオカメラ2より供給された現フレームの画像デ
ータの色データに基づいて、予め、設定されている色
(例えば、肌色)の範囲内にある画素を1とし、設定さ
れている色の範囲内にない画素を0として2値化し、そ
れをラべリング部42に供給する。ラベリング部42
は、色識別部41より供給された2値化データに基づい
て、ラベリング処理し、処理結果を画像処理部11の領
域処理部23へ供給する。
FIG. 5 is a block diagram showing an area dividing section 21 of the image processing section 11.
FIG. 3 is a block diagram showing a detailed configuration of FIG. Color identification unit 41
Is based on the color data of the image data of the current frame supplied from the video camera 2, a pixel within a preset color (for example, flesh color) range is set to 1 and a preset color range Pixels that are not inside are binarized as 0 and supplied to the labeling unit 42. Labeling section 42
Performs a labeling process based on the binarized data supplied from the color identification unit 41, and supplies a processing result to the area processing unit 23 of the image processing unit 11.

【0027】図6は、他の例の領域分割部21の詳細な
構成を示すブロック図である。なお、図6において、図
5における場合と対応する部分には同一の符号を付して
あり、その説明は適宜省略する。
FIG. 6 is a block diagram showing a detailed configuration of the area dividing section 21 of another example. In FIG. 6, portions corresponding to those in FIG. 5 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

【0028】フレーム間差分算出部51は、画像記憶部
22に記憶されている1フレーム前の画像データを読み
出し、その1フレーム前の画像データとビデオカメラ2
より供給された現フレームの画像データの画素毎の輝度
差を算出し、所定の閾値以上の輝度差がある画素を1と
し、所定の閾値に満たない輝度差の画素を0として2値
化し、それを色・動き評価部52に供給する。色・動き
評価部52は、色識別部41より供給された2値化デー
タとフレーム間差分算出部51より供給された2値化デ
ータに基づいて、設定されている所定の範囲内の色(肌
色)を有し、かつ、所定の閾値以上の輝度差がある画素
を抽出し、ラベリング部42に供給する。ラベリング部
42は、色動き評価部52より供給された抽出画素に基
づいてラベリング処理を行い、画像処理部11の領域処
理部23へ供給する。
The inter-frame difference calculation section 51 reads out the image data of the previous frame stored in the image storage section 22 and stores the image data of the previous frame and the video camera 2.
Calculate the luminance difference of each pixel of the image data of the current frame supplied from the pixel, and set a pixel having a luminance difference equal to or greater than a predetermined threshold to 1 and a pixel having a luminance difference less than the predetermined threshold to 0 to binarize the pixel, It is supplied to the color / motion evaluation section 52. The color / motion evaluation unit 52 determines a color within a set predetermined range based on the binary data supplied from the color identification unit 41 and the binary data supplied from the inter-frame difference calculation unit 51. A pixel having a skin color) and a luminance difference equal to or greater than a predetermined threshold value is extracted and supplied to the labeling unit 42. The labeling unit 42 performs a labeling process based on the extracted pixels supplied from the color motion evaluation unit 52, and supplies the labeling process to the area processing unit 23 of the image processing unit 11.

【0029】図7は、画像処理部11の領域処理部23
の詳細な構成を示すブロック図である。外接枠検出部6
1は、画像処理部11の領域分割部21より供給され
た、ラベリングされた画像データに基づいて、各領域を
外側から囲む矩形(外接枠)を検出し、動き検出部6
2、アスペクト比算出部63、および、面積算出部64
に、それぞれ供給する。動き検出部62は、外接枠検出
部61より供給された1フレーム前の外接枠と現フレー
ムの外接枠とを比較し、現フレームの外接枠内の動き方
向を検出し、その検出結果を重心算出部65および画素
数カウント部66に、それぞれ供給する。
FIG. 7 shows the area processing unit 23 of the image processing unit 11.
FIG. 3 is a block diagram showing a detailed configuration of FIG. Bounding frame detector 6
1 detects a rectangle (circumscribed frame) surrounding each region from the outside based on the labeled image data supplied from the region dividing unit 21 of the image processing unit 11, and
2. Aspect ratio calculation unit 63 and area calculation unit 64
Respectively. The motion detector 62 compares the circumscribed frame one frame before supplied from the circumscribed frame detector 61 with the circumscribed frame of the current frame, detects the direction of motion in the circumscribed frame of the current frame, and uses the detection result as the center of gravity. It is supplied to the calculation unit 65 and the pixel number counting unit 66, respectively.

【0030】アスペクト比算出部63は、外接枠検出部
61より供給された外接枠の縦横比(アスペクト比)を
算出し、その算出結果を領域評価部67に供給する。面
積算出部64は、外接枠検出部61より供給された外接
枠内に含まれる画素数を計数することにより、面積を算
出し、その算出結果を領域評価部67に供給する。
The aspect ratio calculation section 63 calculates the aspect ratio (aspect ratio) of the circumscribed frame supplied from the circumscribed frame detection section 61, and supplies the calculation result to the area evaluation section 67. The area calculation unit 64 calculates the area by counting the number of pixels included in the circumscribed frame supplied from the circumscribed frame detection unit 61, and supplies the calculation result to the area evaluation unit 67.

【0031】重心算出部65は、動き検出部62より供
給された動き方向検出結果に基づいて、外接枠内の重心
を算出する。画素数カウント部66は、動き検出部62
より供給された動き方向検出結果に基づいて、動き画素
数をカウントする。領域評価部67は、アスペクト比算
出部63乃至画素数カウント部66より供給された、外
接枠のアスペクト比、面積、重心、および動き画素数に
基づいて、評価値を算出し、評価値の最も小さい領域を
選択する。
The center-of-gravity calculating section 65 calculates the center of gravity in the circumscribed frame based on the motion direction detection result supplied from the motion detecting section 62. The pixel counting section 66 includes a motion detection section 62.
The number of motion pixels is counted based on the supplied motion direction detection result. The area evaluation unit 67 calculates an evaluation value based on the aspect ratio, area, center of gravity, and number of motion pixels of the circumscribed frame supplied from the aspect ratio calculation unit 63 to the pixel number counting unit 66, and calculates the evaluation value. Select a small area.

【0032】図8は、ジェスチャ認識部12の握り動作
認識部31の詳細な構成を示すブロック図である。領域
内動き分布算出部71は、領域評価部67より供給され
た評価値の最も小さい領域内の動きの分布の標準偏差、
および、上向きおよび下向き方向の動きを中心画素に持
つ小ブロック内の上向きまたは下向き方向の動きを持つ
画素数をそれぞれ算出する。領域重心移動チェック部7
2は、領域評価部67より供給された評価値の最も小さ
い現フレームの領域の重心と1フレーム前に選択された
領域の重心の間の距離を算出し、その算出結果から重心
の移動(軌跡)をチェックする。
FIG. 8 is a block diagram showing a detailed configuration of the gripping motion recognition unit 31 of the gesture recognition unit 12. As shown in FIG. The intra-region motion distribution calculation unit 71 calculates the standard deviation of the distribution of motion in the region having the smallest evaluation value supplied from the region evaluation unit 67,
Then, the number of pixels having upward or downward movement in a small block having upward and downward movements as central pixels is calculated. Area center of gravity shift check unit 7
2 calculates the distance between the center of gravity of the area of the current frame having the smallest evaluation value supplied from the area evaluation unit 67 and the center of gravity of the area selected one frame before, and moves the center of gravity (trajectory) from the calculation result. Check).

【0033】握り動作認識ステートマシン73は、領域
内動き分布算出部71および領域重心移動チェック部7
2で算出された、領域内の動きの分布の標準偏差、上向
きまたは下向き方向の画素数、および、重心の軌跡に基
づいて、握り動作を認識する。
The grasping motion recognition state machine 73 includes an intra-region motion distribution calculating unit 71 and a region center-of-gravity movement checking unit 7.
The gripping motion is recognized based on the standard deviation of the motion distribution in the area, the number of pixels in the upward or downward direction, and the locus of the center of gravity calculated in step 2.

【0034】次に、図9のフローチャートを参照して、
画像処理装置3が実行する、手の握り・振り動作認識処
理について説明する。
Next, referring to the flowchart of FIG.
A hand grip / shake motion recognition process executed by the image processing apparatus 3 will be described.

【0035】ステップS1において、ビデオカメラ2
は、ユーザ1の身振りや手振りを撮像し、撮像された画
像データを、例えば、YUVの色データに変換し、画像記
憶部22に記憶する。ステップS2において、領域分割
部21は、予め設定されている色の領域(肌色)の抽出
・分割を行う。
In step S1, the video camera 2
Captures a gesture or hand gesture of the user 1, converts the captured image data into, for example, YUV color data, and stores the data in the image storage unit 22. In step S2, the area dividing unit 21 extracts and divides a preset color area (skin color).

【0036】ここで、図10を参照して、領域分割処理
について説明する。ステップS21において、領域分割
部21の色識別部41は、ステップS1で撮像された画
像データのYUVの色データから、色を識別する。すなわ
ち、色識別部41は、Ymin<Y<Ymax,Umin<U<
max,Vmin<V<Vmaxの範囲内にある画素を1と
し、それ以外の画素を0とする。なお、変数Ymin,Y
max,Umin,Umax,Vmin,Vmaxは、予め任意に設定
されている。
Here, the area dividing process will be described with reference to FIG. In step S21, the color identification unit 41 of the area division unit 21 identifies a color from the YUV color data of the image data captured in step S1. That is, the color identification unit 41 determines that Y min <Y <Y max , U min <U <
U max, and 1 pixel is within the range of V min <V <V max, the other pixels to 0. Note that the variables Y min , Y
max , U min , U max , V min , and V max are arbitrarily set in advance.

【0037】また、ステップS21において、色識別部
41は、上述した範囲内にある色データを持つ画素を1
とし、それ以外の画素を0とし、かつ、所定の色分布か
らの距離が所定の閾値以下であるのか否かに対応して、
色を識別することも可能である。例えば、肌色の画像デ
ータがYUV空間で図11に示すように分布している場
合、まず、その色分布を直線LCで近似する。次に、色
識別部41は、YUV空間における点(Y,U,V)と直線LC
の距離dを次式(1)乃至(4)に従って算出し、算出
された距離dが所定の閾値以下である画素を1とし、所
定の閾値以下ではない画素を0とする。
In step S21, the color discriminating section 41 sets one pixel having color data within the above-described range to one.
And the other pixels are set to 0, and corresponding to whether the distance from a predetermined color distribution is equal to or less than a predetermined threshold,
It is also possible to identify the colors. For example, when the skin color image data is distributed in the YUV space as shown in FIG. 11, first, the color distribution is approximated by a straight line L C. Next, the color discriminating unit 41 compares the point (Y, U, V) in the YUV space with the straight line L C
Is calculated according to the following formulas (1) to (4), and the pixel whose calculated distance d is equal to or smaller than a predetermined threshold is set to 1, and the pixel which is not equal to or smaller than the predetermined threshold is set to 0.

【数1】 t=yVY+uVU+vVV ・・・(2) (yC,uC,vC)=t(Y,U,V) ・・・(3)(Equation 1) t = y V Y + u V U + v V V ··· (2) (y C, u C, v C) = t (Y, U, V) ··· (3)

【数2】 (Equation 2)

【0038】図10に戻って、ステップS22におい
て、色識別部41は、ステップS21で識別された画素
のうち、1のデータを持つ画素(肌色の画素)を抽出す
る。ステップS23において、領域分割部21のラベリ
ング部42は、ステップS22の処理で抽出された肌色
領域の画素をラベリング処理し、図9のステップS3に
リターンする。
Returning to FIG. 10, in step S22, the color identification section 41 extracts a pixel having one data (skin color pixel) from the pixels identified in step S21. In step S23, the labeling unit 42 of the area dividing unit 21 performs labeling processing on the pixels in the skin color area extracted in the processing in step S22, and returns to step S3 in FIG.

【0039】また、他の例の領域分割処理について、図
12のフローチャートを参照して説明する。ステップS
31において、色識別部41は、ステップS1で撮像さ
れた画像データのYUVの色データから、上述した処理に
より色を識別する。ステップS32において、フレーム
間差分算出部51は、画像記憶部22に記憶されている
1フレーム前の画像データとステップS1の処理で撮像
された現フレームの画像データの輝度値(Y)の差(以
下、輝度差と記載する)を算出し、その輝度差が所定の
閾値以上である画素には1を代入し、所定の閾値以上で
はない画素には0を代入する。
Further, another example of the area dividing process will be described with reference to the flowchart of FIG. Step S
In 31, the color identification unit 41 identifies a color from the YUV color data of the image data captured in step S <b> 1 by the above-described processing. In step S32, the inter-frame difference calculation unit 51 calculates the difference (Y) between the luminance value (Y) of the image data of the current frame captured in the process of step S1 and the image data of the previous frame stored in the image storage unit 22. Hereinafter, this is referred to as a luminance difference), and 1 is substituted for a pixel whose luminance difference is equal to or more than a predetermined threshold, and 0 is substituted for a pixel whose luminance difference is not equal to or more than the predetermined threshold.

【0040】ステップS33において、色・動き評価部
52は、ステップS31の処理により識別された1のデ
ータの画素の中から、ステップS32の処理により算出
された1のデータの画素の位置(xm,ym)の周囲にあ
るもの、すなわち、座標(x,y)が、xm−Δx<x
<xm+Δx,ym−Δy<y<ym+Δyの範囲内にあ
る画素を1とし、それ以外の画素を0とする。なお、偏
移量Δx,Δyは、予め任意に設定されている。ステッ
プS34において、ラベリング部42は、ステップS3
3の処理で抽出された肌色領域の画素をラベリング処理
し、図9のステップS3にリターンする。
In step S33, the color / motion estimating section 52 selects the pixel position (x m ) of one data pixel calculated in step S32 from among the one data pixel identified in step S31. , y m ), that is, the coordinates (x, y) are x m −Δx <x
<X m + Δx, y m −Δy <y <y m + Δy The pixel within the range of 1 is set to 1, and the other pixels are set to 0. The shift amounts Δx and Δy are arbitrarily set in advance. In step S34, the labeling unit 42 determines in step S3
Labeling processing is performed on the pixels in the flesh color region extracted in the processing of step 3, and the process returns to step S3 in FIG.

【0041】図9のステップS3において、領域処理部
23の外接枠検出部61は、ステップS2の処理で分割
された各領域を外側から囲む外接枠(矩形)を検出す
る。ステップS4において、動き検出部62は、ステッ
プS3の処理で検出された現フレームの外接枠内の動き
方向を検出する。
In step S3 in FIG. 9, the circumscribed frame detection unit 61 of the area processing unit 23 detects a circumscribed frame (rectangle) surrounding each area divided in step S2 from the outside. In step S4, the motion detection unit 62 detects a motion direction in the circumscribed frame of the current frame detected in the process of step S3.

【0042】ここで、図13のフローチャートを参照し
て、動き方向検出処理について説明する。なお、図14
に示すように、3×3画素からなる現フレームの領域と
1フレーム前の領域を比較し、現フレームの領域の動き
方向を検出するものとして説明する。
Here, the motion direction detecting process will be described with reference to the flowchart of FIG. FIG.
As shown in the figure, the description will be made on the assumption that the area of the current frame composed of 3 × 3 pixels is compared with the area one frame before to detect the motion direction of the area of the current frame.

【0043】ステップS41において、動き方向検出部
62は、動きの方向を示す変数h,vに0を代入する。
ステップS42において、動き方向検出部62は、縦お
よび横の両方向の動きが検出されたのか否かを判定し、
未だ、縦および横の両方向の動きが検出されていないと
判定した場合、ステップS43に進み、現フレームの中
心画素P(i,j)と1フレーム前の中心画素P´
(i,j)の輝度差が所定の正の閾値より大きいのか否
かを判定する。なお、iは、y座標を表わし、jはx座
標を表わしている。
In step S41, the motion direction detector 62 substitutes 0 for variables h and v indicating the direction of motion.
In step S42, the movement direction detection unit 62 determines whether movement in both the vertical and horizontal directions has been detected,
If it is determined that motion in both the vertical and horizontal directions has not been detected yet, the process proceeds to step S43, where the center pixel P (i, j) of the current frame and the center pixel P 'of the previous frame are determined.
It is determined whether or not the luminance difference of (i, j) is larger than a predetermined positive threshold. Note that i represents the y coordinate, and j represents the x coordinate.

【0044】ステップS43において、P(i,j)−
P´(i,j)が所定の正の閾値より大きいと判定され
た場合、ステップS44に進み、動き方向検出部62
は、横方向の動きを検出するのか否か、すなわち、縦方
向の動きが検出済みであるのか否かを判定し、横方向の
動きを検出すると判定した場合(縦方向の動きが検出済
みであると判定した場合)、ステップS45に進む。ス
テップS45において、動き方向検出部62は、中心画
素P(i,j)と画素P(i,j+1)の輝度差が所定
の閾値より大きいのか否かを判定し、P(i,j)−P
(i,j+1)が所定の閾値より大きいと判定した場
合、ステップS46に進み、変数hに1を代入し、ステ
ップS42に戻る。
In step S43, P (i, j)-
If it is determined that P ′ (i, j) is larger than the predetermined positive threshold, the process proceeds to step S44, and the movement direction detection unit 62
Is to determine whether or not to detect horizontal motion, that is, to determine whether or not vertical motion has been detected, and to determine to detect horizontal motion (when vertical motion has been detected. If it is determined that there is, the process proceeds to step S45. In step S45, the movement direction detection unit 62 determines whether or not the luminance difference between the center pixel P (i, j) and the pixel P (i, j + 1) is larger than a predetermined threshold, and determines whether P (i, j) − P
When it is determined that (i, j + 1) is larger than the predetermined threshold, the process proceeds to step S46, where 1 is substituted for the variable h, and the process returns to step S42.

【0045】ステップS45において、P(i,j)−
P(i,j+1)が所定の閾値より大きくはないと判定
された場合、ステップS47に進み、動き方向検出部6
2は、さらに、中心画素P(i,j)と画素P(i,j
−1)の輝度差が所定の閾値より大きいのか否かを判定
し、P(i,j)−P(i,j−1)が所定の閾値より
大きいと判定した場合、ステップS48に進み、変数h
に−1を代入し、ステップS42に戻る。ステップS4
7において、P(i,j)−P(i,j−1)が所定の
閾値より大きくはないと判定された場合、ステップS4
2に戻る。
In step S45, P (i, j)-
If it is determined that P (i, j + 1) is not larger than the predetermined threshold, the process proceeds to step S47, where the motion direction detector 6
2 further includes a central pixel P (i, j) and a pixel P (i, j).
It is determined whether or not the luminance difference of -1) is larger than a predetermined threshold. If it is determined that P (i, j) -P (i, j-1) is larger than the predetermined threshold, the process proceeds to step S48. Variable h
Is substituted for -1, and the process returns to step S42. Step S4
7, if it is determined that P (i, j) -P (i, j-1) is not larger than the predetermined threshold, step S4
Return to 2.

【0046】また、ステップS44において、横方向の
動きではなく、縦方向の動きを検出すると判定された場
合、ステップS49に進み、動き方向検出部62は、中
心画素P(i,j)と画素P(i+1,j)の輝度差が
所定の閾値より大きいのか否かを判定し、P(i,j)
−P(i+1,j)が所定の閾値より大きいと判定した
場合、ステップS50に進み、変数vに1を代入し、ス
テップS42に戻る。
If it is determined in step S44 that a vertical motion is detected instead of a horizontal motion, the process proceeds to step S49, where the motion direction detector 62 determines whether the center pixel P (i, j) It is determined whether or not the luminance difference of P (i + 1, j) is larger than a predetermined threshold, and P (i, j)
If it is determined that −P (i + 1, j) is larger than the predetermined threshold, the process proceeds to step S50, where 1 is substituted for a variable v, and the process returns to step S42.

【0047】ステップS49において、P(i,j)−
P(i+1,j)が所定の閾値より大きくはないと判定
された場合、ステップS51に進み、動き方向検出部6
2は、さらに、中心画素P(i,j)と画素P(i−
1,j)の輝度差が所定の閾値より大きいのか否かを判
定し、P(i,j)−P(i−1,j)が所定の閾値よ
り大きいと判定した場合、ステップS52に進み、変数
vに−1を代入し、ステップS42に戻る。ステップS
51において、P(i,j)−P(i−1,j)が所定
の閾値より大きくはないと判定された場合、ステップS
42に戻る。
In step S49, P (i, j)-
When it is determined that P (i + 1, j) is not larger than the predetermined threshold, the process proceeds to step S51, and the movement direction detecting unit 6
2 further includes a central pixel P (i, j) and a pixel P (i−
It is determined whether or not the luminance difference of (1, j) is larger than a predetermined threshold. If it is determined that P (i, j) -P (i-1, j) is larger than the predetermined threshold, the process proceeds to step S52. , -1 is substituted for the variable v, and the process returns to step S42. Step S
If it is determined in step S51 that P (i, j) -P (i-1, j) is not larger than the predetermined threshold, step S
Return to 42.

【0048】また、ステップS43において、P(i,
j)−P´(i,j)が所定の正の閾値より大きくはな
いと判定された場合、ステップS53に進み、動き方向
検出部62は、さらに、現フレームの中心画素P(i,
j)と1フレーム前の中心画素P´(i,j)の輝度差
が所定の負の閾値より小さいのか否かを判定する。
In step S43, P (i,
If it is determined that j) −P ′ (i, j) is not larger than the predetermined positive threshold, the process proceeds to step S53, and the motion direction detection unit 62 further determines the center pixel P (i,
j) and whether or not the luminance difference between the center pixel P ′ (i, j) one frame before is smaller than a predetermined negative threshold.

【0049】ステップS53において、P(i,j)−
P´(i,j)が所定の負の閾値より小さいと判定され
た場合、ステップS54に進み、動き方向検出部62
は、横方向の動きを検出するのか否か、すなわち、縦方
向の動きが検出済みであるのか否かを判定し、横方向の
動きを検出すると判定した場合(縦方向の動きが検出済
みであると判定した場合)、ステップS55に進む。ス
テップS55において、動き方向検出部62は、画素P
(i,j+1)と中心画素P(i,j)の輝度差が所定
の閾値より大きいのか否かを判定し、P(i,j+1)
−P(i,j)が所定の閾値より大きいと判定した場
合、ステップS56に進み、変数hに1を代入し、ステ
ップS42に戻る。
In step S53, P (i, j)-
If it is determined that P ′ (i, j) is smaller than the predetermined negative threshold, the process proceeds to step S54, and the movement direction detection unit 62
Is to determine whether or not to detect horizontal motion, that is, to determine whether or not vertical motion has been detected, and to determine to detect horizontal motion (when vertical motion has been detected. If it is determined that there is, the process proceeds to step S55. In step S55, the movement direction detection unit 62 determines whether the pixel P
It is determined whether or not the luminance difference between (i, j + 1) and the central pixel P (i, j) is larger than a predetermined threshold, and P (i, j + 1)
If it is determined that −P (i, j) is larger than the predetermined threshold, the process proceeds to step S56, where 1 is substituted for a variable h, and the process returns to step S42.

【0050】ステップS55において、P(i,j+
1)−P(i,j)が所定の閾値より大きくはないと判
定された場合、ステップS57に進み、動き方向検出部
62は、さらに、中心画素P(i,j−1)と画素P
(i,j)の輝度差が所定の閾値より大きいのか否かを
判定し、P(i,j−1)−P(i,j)が所定の閾値
より大きいと判定した場合、ステップS58に進み、変
数hに−1を代入し、ステップS42に戻る。ステップ
S57において、P(i,j−1)−P(i,j)が所
定の閾値より大きくはないと判定された場合、ステップ
S42に戻る。
In step S55, P (i, j +
1) If it is determined that -P (i, j) is not larger than the predetermined threshold, the process proceeds to step S57, and the motion direction detection unit 62 further determines the center pixel P (i, j-1) and the pixel P
It is determined whether or not the luminance difference of (i, j) is larger than a predetermined threshold. If it is determined that P (i, j-1) -P (i, j) is larger than the predetermined threshold, the process proceeds to step S58. Then, -1 is substituted for the variable h, and the process returns to step S42. If it is determined in step S57 that P (i, j-1) -P (i, j) is not larger than the predetermined threshold, the process returns to step S42.

【0051】また、ステップS54において、横方向の
動きではなく、縦方向の動きを検出すると判定された場
合、ステップS59に進み、動き方向検出部62は、画
素P(i+1,j)と中心画素P(i,j)の輝度差が
所定の閾値より大きいのか否かを判定し、P(i+1,
j)−P(i,j)が所定の閾値より大きいと判定した
場合、ステップS60に進み、変数vに1を代入し、ス
テップS42に戻る。
If it is determined in step S54 that a vertical motion is detected instead of a horizontal motion, the process proceeds to step S59, where the motion direction detection unit 62 determines whether the pixel P (i + 1, j) and the central pixel It is determined whether the luminance difference of P (i, j) is larger than a predetermined threshold, and P (i + 1, j) is determined.
j) If it is determined that -P (i, j) is larger than the predetermined threshold, the process proceeds to step S60, where 1 is substituted for a variable v, and the process returns to step S42.

【0052】ステップS59において、P(i+1,
j)−P(i,j)が所定の閾値より大きくはないと判
定された場合、ステップS61に進み、動き方向検出部
62は、さらに、画素P(i−1,j)と中心画素P
(i,j)の輝度差が所定の閾値より大きいのか否かを
判定し、P(i−1,j)−P(i,j)が所定の閾値
より大きいと判定した場合、ステップS62に進み、変
数vに−1を代入し、ステップS42に戻る。ステップ
S61において、P(i−1,j)−P(i,j)が所
定の閾値より大きくはないと判定された場合、ステップ
S42に戻る。
In step S59, P (i + 1,
If it is determined that j) -P (i, j) is not larger than the predetermined threshold, the process proceeds to step S61, where the motion direction detection unit 62 further determines the pixel P (i-1, j) and the central pixel P
It is determined whether or not the luminance difference of (i, j) is greater than a predetermined threshold. If it is determined that P (i-1, j) -P (i, j) is greater than the predetermined threshold, the process proceeds to step S62. Then, -1 is substituted for the variable v, and the process returns to step S42. If it is determined in step S61 that P (i-1, j) -P (i, j) is not larger than the predetermined threshold, the process returns to step S42.

【0053】そして、ステップS42において、縦およ
び横の両方向の動きが検出されたと判定された場合、ま
たは、ステップS53において、P(i,j)−P´
(i,j)が所定の負の閾値より小さくはないと判定さ
れた場合、図9のステップS4にリターンする。
When it is determined in step S42 that both vertical and horizontal motions have been detected, or in step S53, P (i, j) -P '
When it is determined that (i, j) is not smaller than the predetermined negative threshold, the process returns to step S4 in FIG.

【0054】図9のステップS4において、動き方向検
出部62は、上述した処理により算出された変数h,v
の値を、図15に示す対応図に対応付け、動き方向を示
す画素値(インデックス値)を設定する。
In step S4 in FIG. 9, the movement direction detecting section 62 determines the variables h and v calculated by the above-described processing.
Is associated with the corresponding diagram shown in FIG. 15, and a pixel value (index value) indicating the motion direction is set.

【0055】図15の例の場合、LU(Left Upper)は、
左上に画素が動いたことを表わし、U(Upper)は、上に
画素が動いたことを表わし、RU(Right Upper)は、右
上に画素が動いたことを表わし、L(Left)は、左に画
素が動いたことを表わし、N(No move)は、画素が動い
ていないことを表わし、R(Right)は、右に画素が動い
たことを表わし、LD(Left Down)は、左下に動いたこ
とを表わし、D(Down)は、下に画素が動いたことを表
わし、そして、RD(Right Down)は、右下に画素が動い
たことを表わす。
In the example of FIG. 15, LU (Left Upper) is
U (Upper) indicates that the pixel has moved upward, RU (Right Upper) indicates that the pixel has moved upward, and L (Left) indicates that the pixel has moved left. Indicates that the pixel has moved, N (No move) indicates that the pixel has not moved, R (Right) indicates that the pixel has moved to the right, and LD (Left Down) indicates that the pixel has moved to the lower left. D (Down) indicates that the pixel has moved down, and RD (Right Down) indicates that the pixel has moved down and to the right.

【0056】図15において、例えば、N=0,LU=
1,U=2,RU=3,L=4,R=5,LD=6,D=7,RD
=8であるとする。算出された変数h,vがいずれも−
1である場合、動き方向を示す画素値は1に設定され
る。算出された変数hが0、変数vが−1である場合、
動き方向を示す画素値は2に設定される。算出された変
数hが1、変数vが−1である場合、動き方向を示す画
素値は3に設定される。算出された変数hが−1、変数
vが0である場合、動き方向を示す画素値は4に設定さ
れる。算出された変数h,vがいずれも0である場合、
動き方向を示す画素値は0に設定される。算出された変
数hが1、変数vが0である場合、動き方向を示す画素
値は5に設定される。算出された変数hが−1、変数v
が1である場合、動き方向を示す画素値は6に設定され
る。算出された変数hが0、変数vが1である場合、動
き方向を示す画素値は7に設定される。そして、算出さ
れた変数h,vがいずれも1である場合、動き方向を示
す画素値は8に設定される。
In FIG. 15, for example, N = 0, LU =
1, U = 2, RU = 3, L = 4, R = 5, LD = 6, D = 7, RD
= 8. Both the calculated variables h and v are-
When the pixel value is 1, the pixel value indicating the movement direction is set to 1. When the calculated variable h is 0 and the variable v is -1,
The pixel value indicating the movement direction is set to 2. When the calculated variable h is 1 and the variable v is -1, the pixel value indicating the motion direction is set to 3. When the calculated variable h is −1 and the variable v is 0, the pixel value indicating the motion direction is set to 4. If both the calculated variables h and v are 0,
The pixel value indicating the movement direction is set to 0. When the calculated variable h is 1 and the variable v is 0, the pixel value indicating the motion direction is set to 5. The calculated variable h is -1 and the variable v
Is 1, the pixel value indicating the motion direction is set to 6. When the calculated variable h is 0 and the variable v is 1, the pixel value indicating the motion direction is set to 7. Then, when both the calculated variables h and v are 1, the pixel value indicating the motion direction is set to 8.

【0057】すなわち、画素値が1である場合、左上に
画素が動いたことになり、画素値が2である場合、上に
画素が動いたことになり、画素値が3である場合、右上
に画素が動いたことになり、画素値が4である場合、左
に画素が動いたことになり、画素値が0である場合、画
素が動いていないことになり、画素値が5である場合、
右に画素が動いたことになり、画素値が6である場合、
左下に動いたことになり、画素値が7である場合、下に
画素が動いたことになり、そして、画素値が8である場
合、右下に画素が動いたことになる。
That is, when the pixel value is 1, the pixel has moved to the upper left, and when the pixel value is 2, the pixel has moved upward. When the pixel value is 3, the pixel has moved to the upper right. When the pixel value is 4, the pixel has moved to the left, and when the pixel value is 0, the pixel has not moved, and the pixel value is 5. If
If the pixel has moved to the right and the pixel value is 6, then
If the pixel value is 7, it means that the pixel has moved down, and if the pixel value is 8, it means that the pixel has moved down right.

【0058】なお、本願発明では、これに限らず、ブロ
ックマッチングなどの手法を用いて、動き方向を検出す
ることも可能である。
The present invention is not limited to this, and it is also possible to detect the direction of movement using a technique such as block matching.

【0059】図9に戻って、ステップS5において、ア
スペクト比算出部63は、ステップS3の処理で検出さ
れた外接枠のアスペクト比(縦横比)を算出する。ステ
ップS6において、面積算出部64は、ステップS3の
処理で検出された外接枠内に含まれる画素数を計数する
ことにより、面積を算出する。ステップS7において、
画素数カウント部66は、ステップS4の処理で算出さ
れた動き方向検出結果に基づいて、動き画素数を計数
(カウント)する。ステップS8において、重心算出部
65は、ステップS4の処理で算出された動き方向検出
結果に基づいて、外接枠内の重心を算出する。
Returning to FIG. 9, in step S5, the aspect ratio calculating section 63 calculates the aspect ratio (aspect ratio) of the circumscribed frame detected in the processing in step S3. In step S6, the area calculation unit 64 calculates the area by counting the number of pixels included in the circumscribed frame detected in the processing in step S3. In step S7,
The pixel number counting unit 66 counts the number of motion pixels based on the motion direction detection result calculated in the process of step S4. In step S8, the center-of-gravity calculation unit 65 calculates the center of gravity in the circumscribed frame based on the motion direction detection result calculated in the process of step S4.

【0060】ここで、図16を参照して、重心の算出方
法を説明する。図16(A)の例の場合、外接枠内の画
素を使って平均位置を算出し、それを重心Cとする。
Here, a method of calculating the center of gravity will be described with reference to FIG. In the case of the example of FIG. 16A, the average position is calculated using the pixels in the circumscribed frame, and the calculated average position is set as the center of gravity C.

【0061】図16(B)の例の場合、画面上方に重み
付け加重平均を算出し、それを重心Cとする。すなわ
ち、外接枠の左上の座標(xul,yul)、右下の座標
(xbr,y br)から、ある画素(x,y)に対応する重
みを次式(5)に従って算出し、その算出結果を次式
(6)に代入し、重み付き加重平均を算出する。なお、
この例は、カメラに対して手が差し出される場合、指先
が画面上方になる確率が高いことを利用して、画面上方
に重み付けされる。 (Ybr−y)/(Ybr−Yul) ・・・(5)
In the case of the example shown in FIG.
The weighted average is calculated, and is set as the center of gravity C. Sand
The coordinates (xul, yul), Lower right coordinates
(Xbr, y br), The weight corresponding to a certain pixel (x, y)
Is calculated according to the following equation (5), and the calculation result is
(6) to calculate a weighted weighted average. In addition,
This example shows that when the hand is
Takes advantage of the high probability that
Is weighted. (Ybr−y) / (Ybr-Yul) ・ ・ ・ (5)

【0062】[0062]

【数3】 (Equation 3)

【0063】図16(C)の例の場合、第1回目では、
図16(A)の例で示したように、外接枠内の画素を使
って平均位置C1を算出する。第2回目では、平均位置
C1より画面上方にある画素を使って平均位置C2を算
出する。同様に、第3回目以降の平均位置を順次繰り返
し算出する。そして、第n回目の平均位置Cnを、最終
的な重心Cとする。
In the case of the example shown in FIG. 16C, the first time
As shown in the example of FIG. 16A, the average position C1 is calculated using the pixels in the circumscribed frame. In the second time, the average position C2 is calculated using pixels located above the screen from the average position C1. Similarly, the third and subsequent average positions are sequentially and repeatedly calculated. Then, the n-th average position Cn is set as the final center of gravity C.

【0064】図9に戻って、ステップS8において、重
心算出部65は、ステップS7の処理で計数された動き
画素数が最も多い方向の重心を、この領域内の重心とし
て選択する。ステップS9において、領域評価部67
は、ステップS5乃至S8の処理で算出された、外接枠
のアスペクト比、面積、重心、および動き画素数から、
次式(7)に従って、評価値を算出する。 Φ(i)=αc|Ci−Cp|+αa|Ai−Ap|+αs|Si−Sp|−αmNmi ・・・(7)
Returning to FIG. 9, in step S8, the center-of-gravity calculator 65 selects the center of gravity in the direction in which the number of motion pixels counted in the processing in step S7 is the largest as the center of gravity in this area. In step S9, the area evaluation unit 67
Is calculated from the aspect ratio, area, center of gravity, and number of motion pixels of the circumscribed frame calculated in the processing of steps S5 to S8.
The evaluation value is calculated according to the following equation (7). Φ (i) = α c | C i −C p | + α a | A i −A p | + α s | S i −S p | −α m Nm i (7)

【0065】なお、上記式(7)において、Ciは領域
iの重心位置、Aiは領域iのアスペクト比、Siは領域
iの面積、Nmiは領域iの動き画素数を表わし、Cp
p,Spは前フレームで選択された領域pの重心位置、
アスペクト比、面積をそれぞれ表わし、αc,αa
αs,αmは、重心位置、アスペクト比、面積、動き画素
数の重要度を示すそれぞれの重み付け係数である。
[0065] In the above formula (7), C i is the center of gravity of the area i, A i is the aspect ratio of the area i, S i is the area of region i, Nm i represents the number of motion pixels in the region i, C p ,
Ap and Sp are the barycentric positions of the region p selected in the previous frame,
Represents the aspect ratio and area, respectively, α c , α a ,
α s and α m are weighting coefficients indicating the importance of the position of the center of gravity, the aspect ratio, the area, and the number of motion pixels.

【0066】ステップS10において、領域評価部67
は、ステップS9の処理で算出された評価値のうち、評
価値の最も小さい領域を選択する。ステップS11にお
いて、ジェスチャ認識部12の握り動作確認部31は、
ステップS10の処理で選択された領域内において、手
の握り・開き動作を認識する。
In step S10, the area evaluation section 67
Selects an area having the smallest evaluation value among the evaluation values calculated in the processing of step S9. In step S11, the grip operation confirmation unit 31 of the gesture recognition unit 12
In the region selected in the process of step S10, the hand grip / open operation is recognized.

【0067】ここで、図17のフローチャートを参照し
て、握り動作認識処理について説明する。ステップS7
1において、領域内動き分布算出部71は、ステップS
10の処理で選択された領域内のうち、上向き方向の動
きを持つ画素を中心としたbw×bhの小ブロック(図
18)内の上向き方向の動きを持つ画素の分布の標準偏
差を、次式(8)に従って算出する。なお、Nは、画素
数の総数を表わし、xバー、yバーは、上向き方向の動
きを持つ画素の平均座標である。
Here, the gripping motion recognition processing will be described with reference to the flowchart of FIG. Step S7
In step 1, the intra-region motion distribution calculation unit 71 determines in step S
The standard deviation of the distribution of the pixels having the upward movement in the bw × bh small block (FIG. 18) centering on the pixels having the upward movement in the region selected in the processing of step 10 is It is calculated according to equation (8). Note that N represents the total number of pixels, and x bar and y bar are average coordinates of pixels having an upward movement.

【0068】[0068]

【数4】 (Equation 4)

【0069】ステップS72において、領域動き分布算
出部71は、小ブロック内の上向き方向の動きを持つ画
素数を計数する。ステップS73において、領域動き分
布算出部71は、下向き方向の動きを持つ画素を中心と
したbw×bhの小ブロック(図18)内の下向き方向
の動きを持つ画素の分布の標準偏差を、上記式(8)に
従って算出する。ステップS74において、領域動き分
布算出部71は、小ブロック内の下向き方向の動きを持
つ画素数を計数する。
In step S72, the area motion distribution calculation section 71 counts the number of pixels having an upward motion in the small block. In step S73, the area motion distribution calculation unit 71 calculates the standard deviation of the distribution of the pixels having the downward movement in the bw × bh small block (FIG. 18) centering on the pixels having the downward movement. It is calculated according to equation (8). In step S74, the area motion distribution calculation unit 71 counts the number of pixels having a downward motion in the small block.

【0070】ステップS75において、領域動き分布算
出部71は、ステップS72およびS74の処理で計数
された画素数のうち、最も画素数の多かった小ブロック
を選択する。ステップS76において、領域分布算出部
71は、ステップS75の処理で選択された小ブロック
の標準偏差が所定の閾値以内であるのか否かを判定し、
小ブロックの標準偏差が所定の閾値以内であると判定し
た場合、ステップS77に進み、領域分布算出部71
は、選択された小ブロックの中心画素が上向き方向の動
きを持つものであるのか否かを判定する。
In step S75, the area motion distribution calculation unit 71 selects a small block having the largest number of pixels from the number of pixels counted in the processing in steps S72 and S74. In step S76, the area distribution calculation unit 71 determines whether the standard deviation of the small block selected in the processing in step S75 is within a predetermined threshold,
If it is determined that the standard deviation of the small block is within the predetermined threshold, the process proceeds to step S77, where the area distribution calculation unit 71
Determines whether or not the center pixel of the selected small block has an upward movement.

【0071】ステップS77において、選択された小ブ
ロックの中心画素が上向き方向の動きを持つものである
と判定された場合、ステップS78に進み、その小ブロ
ックにReleaseフラグを立てる。ステップS77におい
て、選択された小ブロックの中心画素が上向き方向の動
きを持つものではない、すなわち、下向き方向の動きを
持つものであると判定された場合、ステップS79に進
み、その小ブロックにGraspフラグを立てる。
If it is determined in step S77 that the central pixel of the selected small block has an upward movement, the process proceeds to step S78, in which a Release flag is set for the small block. If it is determined in step S77 that the central pixel of the selected small block does not have an upward movement, that is, has a downward movement, the process proceeds to step S79, and the small block is assigned Grasp data. Set the flag.

【0072】また、ステップS76において、小ブロッ
クの標準偏差が所定の閾値以内ではないと判定された場
合、ステップS77乃至S79の処理をスキップし、ス
テップS80に進む。
If it is determined in step S76 that the standard deviation of the small block is not smaller than the predetermined threshold, the process skips steps S77 to S79 and proceeds to step S80.

【0073】ステップS76,S78、またはS79の
処理の後、ステップS80において、領域重心移動チェ
ック部72は、ステップS10の処理で選択された現フ
レームの画像領域の重心と、1フレーム前の画像領域の
重心の間の距離を算出する。ステップS81において、
領域重心移動チェック部72は、ステップS80の処理
で算出された現フレームの画像領域の重心と1フレーム
前の画像領域の重心の間の距離が所定の閾値以内である
のか否かを算出し、所定の閾値以内であると判定した場
合、ステップS82に進み、その画像領域にStableフラ
グを立てる。
After the processing in step S76, S78 or S79, in step S80, the area center-of-gravity shift check unit 72 determines the center of gravity of the image area of the current frame selected in the processing of step S10 and the image area of the previous frame. Calculate the distance between the centers of gravity. In step S81,
The region center-of-gravity shift checking unit 72 calculates whether or not the distance between the center of gravity of the image region of the current frame calculated in the process of step S80 and the center of gravity of the image region one frame before is within a predetermined threshold value, If it is determined that the difference is within the predetermined threshold, the process proceeds to step S82, and the Stable flag is set in the image area.

【0074】ステップS81において、現フレームの画
像領域の重心と1フレーム前の画像領域の重心の間の距
離が所定の閾値以内ではないと判定された場合、ステッ
プS82の処理をスキップし、ステップS83に進む。
If it is determined in step S81 that the distance between the center of gravity of the image area of the current frame and the center of gravity of the image area one frame before is not within a predetermined threshold value, the processing of step S82 is skipped and step S83 is performed. Proceed to.

【0075】ステップS81またはS82の処理の後、
ステップS83において、握り動作確認ステートマシン
73は、ステップS78,S79、またはS82の処理
で小ブロックに立てられたReleaseフラグまたはGraspフ
ラグ、および、現フレームの画像領域に立てられたStab
leフラグから、握り動作を認識し、図9のステップS1
2にリターンする。
After the processing in step S81 or S82,
In step S83, the grasp operation confirmation state machine 73 sets the Release flag or Grasp flag set in the small block in the processing in step S78, S79, or S82, and the Stab set in the image area of the current frame.
The grip operation is recognized from the le flag, and step S1 in FIG.
Return to 2.

【0076】ここで、図19および図20を参照して、
握り動作認識ステートマシン73の動作について、さら
に詳しく説明する。
Here, referring to FIGS. 19 and 20,
The operation of the gripping motion recognition state machine 73 will be described in more detail.

【0077】図19は、握り動作認識ステートマシン7
3の状態遷移を説明する図である。同図において、Open
Moveは、手を開いている状態(握りたいものを探してい
る状態)を表わし、OpenStopCountは、手を握る前の小
停止状態を表わし、CloseRecogは、手を握る動作を認識
する状態を表わし、CloseMoveは、手を握ったまま移動
する状態を表わし、CloseStopCountは、手を握った後の
小停止状態を表わし、そして、OpenRecogは、手を握っ
ていた状態から開く動作を認識する状態(握っていたも
のを離す状態)を表わしている。また、各欄の上段は、
遷移するための条件を示し、各欄の下段は、そのときの
動作を示している。
FIG. 19 shows a gripping motion recognition state machine 7.
FIG. 6 is a diagram for explaining a state transition of No. 3; In the figure, Open
Move represents a state in which the hand is open (a state in which the user wants to grasp), OpenStopCount represents a small stop state before grasping the hand, CloseRecog represents a state in which the operation of grasping the hand is recognized, CloseMove indicates a state of moving while holding the hand, CloseStopCount indicates a small stop state after holding the hand, and OpenRecog indicates a state of recognizing the opening operation from the state of holding the hand (holding the hand). Is released). Also, the upper row of each column,
The condition for the transition is shown, and the lower part of each column shows the operation at that time.

【0078】図20は、他の例の握り動作認識ステート
マシン73の状態遷移を説明する図である。
FIG. 20 is a diagram for explaining the state transition of the gripping operation recognition state machine 73 of another example.

【0079】例えば、図17のステップS81の処理に
より、現フレームの画像領域の重心と1フレーム前の画
像領域の重心の間の距離が所定の閾値以内ではないと判
定された場合、ステップS82の処理をスキップするこ
とになるので、現フレームの画像領域には、Stableフラ
グが立てられない。すなわち、Stableではないという条
件から、図19に示す遷移状態表より、握り動作認識ス
テートマシン73は、OpenMoveの状態に遷移する(図2
0の例の場合、遷移状態L1)。
For example, when the distance between the center of gravity of the image area of the current frame and the center of gravity of the image area one frame before is determined not to be within the predetermined threshold value by the processing of step S81 in FIG. Since the processing is skipped, the stable flag is not set in the image area of the current frame. That is, based on the condition that the state is not Stable, the grasping operation recognition state machine 73 transits to the state of OpenMove from the transition state table shown in FIG.
In the case of 0, the transition state is L1).

【0080】また、例えば、握り動作認識ステートマシ
ン73がOpenMoveの状態において、図17のステップS
82の処理により、現フレームの画像領域にStableフラ
グが立てられた場合、すなわち、Stableであるという条
件から、図19に示す遷移状態表より、握り動作認識ス
テートマシン73は、OpenStopCountの状態に遷移する
(図20の例の場合、遷移状態L2)。このとき、変数
Open_countに1が代入される。
Further, for example, when the gripping motion recognition state machine 73 is in the state of OpenMove, step S in FIG.
When the Stable flag is set in the image area of the current frame by the process of 82, that is, because of the condition of Stable, the gripping motion recognition state machine 73 changes from the transition state table shown in FIG. 19 to the state of OpenStopCount. (In the case of the example of FIG. 20, the transition state L2). At this time, the variable
1 is assigned to Open_count.

【0081】また、例えば、握り動作認識ステートマシ
ン73がOpenStopCountの状態において、図17のステ
ップS81の処理により、現フレームの画像領域の重心
と1フレーム前の画像領域の重心の間の距離が所定の閾
値以内ではないと判定された場合、すなわち、Stableで
はないという条件から、図19に示す遷移状態表より、
握り動作認識ステートマシン73は、OpenMoveの状態に
遷移する(図20の場合、遷移状態L3)。このとき、
変数Open_countに0が代入される(変数Open_countがリ
セットされる)。
Further, for example, when the gripping motion recognition state machine 73 is in the state of OpenStopCount, the distance between the center of gravity of the image area of the current frame and the center of gravity of the image area one frame before is determined by the process of step S81 in FIG. From the transition state table shown in FIG. 19 when it is determined that the value is not within the threshold of
The gripping motion recognition state machine 73 transits to the OpenMove state (transition state L3 in FIG. 20). At this time,
0 is assigned to the variable Open_count (the variable Open_count is reset).

【0082】また、例えば、握り動作認識ステートマシ
ン73がOpenStopCountの状態において、図17のステ
ップS82の処理により、現フレームの画像領域にStab
leフラグが立てられた場合、すなわち、Stableであると
いう条件から、図19に示す遷移状態表より、握り動作
認識ステートマシン73は、OpenStopCountの状態に遷
移する(図20の例の場合、遷移状態L4)。このと
き、変数Open_countに1がインクリメントされる。
Further, for example, when the gripping motion recognition state machine 73 is in the state of OpenStopCount, the processing of step S82 in FIG.
If the le flag is set, that is, from the condition of Stable, the grasping operation recognition state machine 73 transits to the state of OpenStopCount from the transition state table shown in FIG. 19 (in the example of FIG. 20, the transition state L4). At this time, 1 is incremented in the variable Open_count.

【0083】また、例えば、握り動作認識ステートマシ
ン73がOpenStopCountの状態において、変数Open_coun
tが所定の閾値より大きいという条件から、図19に示
す遷移状態表より、握り動作認識ステートマシン73
は、CloseRecogの状態に遷移する(図20の場合、遷移
状態L5)。
Also, for example, when the gripping motion recognition state machine 73 is in the state of OpenStopCount, the variable Open_coun
Based on the condition that t is larger than a predetermined threshold, the grasping motion recognition state machine 73 is obtained from the transition state table shown in FIG.
Transitions to the state of CloseRecog (transition state L5 in the case of FIG. 20).

【0084】また、例えば、握り動作認識ステートマシ
ン73がCloseRecogの状態において、移動距離が所定の
閾値より大きいという条件から、図19に示す遷移状態
表より、握り動作認識ステートマシン73は、OpenMove
の状態に遷移する(図20の例の場合、遷移状態L
6)。
Further, for example, when the gripping motion recognition state machine 73 is in the CloseRecog state, the gripping motion recognition state machine 73 can be determined from the transition state table shown in FIG.
(In the example of FIG. 20, the transition state L
6).

【0085】また、例えば、握り動作認識ステートマシ
ン73がCloseRecogの状態において、図17のステップ
S76の処理により、小ブロックの標準偏差が所定の閾
値以内ではないと判定された場合、ステップS78の処
理により、小ブロックにReleaseフラグが立てられた場
合、または、ステップS81の処理により、現フレーム
の画像領域の重心と1フレーム前の画像領域の重心の間
の距離が所定の閾値以内ではないと判定された場合、す
なわち、Graspではない、または、Stableではないとい
う条件から、図19に示す遷移状態表より、握り動作認
識ステートマシン73は、CloseRecogの状態に遷移する
(図20の例の場合、遷移状態L7)。
For example, if the standard deviation of the small block is determined not to be within the predetermined threshold value by the processing of step S76 in FIG. 17 while the gripping motion recognition state machine 73 is in the CloseRecog state, the processing of step S78 is performed. It is determined that the Release flag has been set for the small block, or that the distance between the center of gravity of the image area of the current frame and the center of gravity of the image area one frame before is not within a predetermined threshold value by the processing of step S81. In other words, the grip state recognition state machine 73 transits to the state of CloseRecog from the transition state table shown in FIG. 19 based on the condition that the state is not Grasp or not Stable (in the case of FIG. 20, Transition state L7).

【0086】また、例えば、握り動作認識ステートマシ
ン73がCloseRecogの状態において、図17のステップ
S79の処理により、小ブロックにGraspフラグが立て
られた場合、かつ、ステップS81の処理により、現フ
レームの画像領域にStableフラグが立てられた場合、す
なわち、Graspであり、かつ、Stableであるという条件
から、図19に示す遷移状態表より、握り動作認識ステ
ートマシン73は、CloseMoveの状態に遷移する(図2
0の例の場合、遷移状態L8)。このとき、握り動作認
識ステートマシン73では、握り動作が認識される。
For example, when the Grasp flag is set for the small block by the processing of step S79 in FIG. 17 while the gripping motion recognition state machine 73 is in the CloseRecog state, and by the processing of step S81, the current frame If the Stable flag is set in the image area, that is, from the transition state table shown in FIG. 19, the gripping motion recognition state machine 73 transits to the CloseMove state based on the condition of Grasp and Stable ( FIG.
In the case of the example of 0, the transition state is L8). At this time, the gripping motion recognition state machine 73 recognizes the gripping motion.

【0087】また、例えば、握り動作認識ステートマシ
ン73がCloseMoveの状態において、図17のステップ
S81の処理で、現フレームの小ブロックの重心と1フ
レーム前の小ブロックの重心の間の距離が所定の閾値以
内ではないと判定された場合、すなわち、Stableではな
いという条件から、握り動作認識ステートマシン73
は、CloseMoveの状態に遷移する(図20の場合、遷移
状態L9)。
For example, when the gripping motion recognition state machine 73 is in the CloseMove state, the distance between the center of gravity of the small block of the current frame and the center of gravity of the small block one frame before is determined by the processing of step S81 in FIG. Is determined not to be within the threshold value, that is, from the condition that the state is not Stable, the gripping motion recognition state machine 73
Transitions to the CloseMove state (transition state L9 in FIG. 20).

【0088】また、例えば、握り動作認識ステートマシ
ン73がCloseMoveの状態において、図17のステップ
S82の処理により、現フレームの画像領域にStableフ
ラグが立てられた場合、すなわち、Stableであるという
条件から、図19に示す遷移状態表より、握り動作認識
ステートマシン73は、CloseStopCountの状態に遷移す
る(図20の例の場合、遷移状態L10)。このとき、
変数Close_countに1が代入される。
Further, for example, if the Stable flag is set in the image area of the current frame by the processing of step S82 in FIG. 17 while the gripping motion recognition state machine 73 is in the CloseMove state, that is, from the condition of Stable. From the transition state table shown in FIG. 19, the gripping motion recognition state machine 73 transits to the state of CloseStopCount (transition state L10 in the example of FIG. 20). At this time,
1 is assigned to the variable Close_count.

【0089】また、例えば、握り動作認識ステートマシ
ン73がCloseStopCountの状態において、図17のステ
ップS81の処理により、現フレームの画像領域の重心
と1フレーム前の画像領域の重心の間の距離が所定の閾
値以内ではないと判定された場合、すなわち、Stableで
はないという条件から、図19に示す遷移状態表より、
握り動作認識ステートマシン73は、CloseMoveの状態
に遷移する(図20の場合、遷移状態L11)。このと
き、変数Close_countに0が代入される(変数Close_cou
ntがリセットされる)。
For example, when the gripping motion recognition state machine 73 is in the state of CloseStopCount, the distance between the center of gravity of the image area of the current frame and the center of gravity of the image area one frame before is determined by the processing of step S81 in FIG. From the transition state table shown in FIG. 19 when it is determined that the value is not within the threshold of
The gripping motion recognition state machine 73 transitions to the CloseMove state (transition state L11 in FIG. 20). At this time, 0 is assigned to the variable Close_count (the variable Close_cou
nt is reset).

【0090】また、例えば、握り動作認識ステートマシ
ン73がCloseStopCountの状態において、図17のステ
ップS82の処理により、現フレームの画像領域にStab
leフラグが立てられた場合、すなわち、Stableであると
いう条件から、図19に示す遷移状態表より、握り動作
認識ステートマシン73は、CloseStopCountの状態に遷
移する(図20の例の場合、遷移状態L12)。このと
き、変数Close_countに1がインクリメントされる。
Further, for example, when the gripping motion recognition state machine 73 is in the CloseStopCount state, the processing of step S82 in FIG.
When the le flag is set, that is, from the condition of Stable, the grasping motion recognition state machine 73 transits to the state of CloseStopCount from the transition state table shown in FIG. 19 (in the example of FIG. 20, the transition state L12). At this time, 1 is incremented to the variable Close_count.

【0091】また、例えば、握り動作認識ステートマシ
ン73がCloseStopCountの状態において、変数Close_co
untが所定の閾値より大きいという条件から、図19に
示す遷移状態表より、握り動作認識ステートマシン73
は、OpenRecogの状態に遷移する(図20の場合、遷移
状態L13)。
Further, for example, when the gripping motion recognition state machine 73 is in the CloseStopCount state, the variable Close_co
Based on the condition that unt is greater than a predetermined threshold, the transition state table shown in FIG.
Transitions to the OpenRecog state (transition state L13 in FIG. 20).

【0092】また、例えば、握り動作認識ステートマシ
ン73がOpenRecogの状態において、図17のステップ
S78の処理により、小ブロックにReleaseフラグが立
てられた場合、かつ、ステップS82の処理により、現
フレームの画像領域にStableフラグが立てられた場合、
すなわち、Releaseであり、かつ、Stableであるという
条件から、図19に示す遷移状態表より、握り動作認識
ステートマシン73は、OpenMoveの状態に遷移する(図
20の例の場合、遷移状態L14)。
For example, when the release flag is set in the small block by the processing in step S78 in FIG. 17 while the gripping motion recognition state machine 73 is in the state of OpenRecog, and in the processing in step S82, If the Stable flag is set on the image area,
That is, from the transition state table shown in FIG. 19, the gripping motion recognition state machine 73 transits to the OpenMove state based on the condition of Release and Stable (transition state L14 in the example of FIG. 20). .

【0093】また、例えば、握り動作認識ステートマシ
ン73がOpenRecogの状態において、移動距離が所定の
閾値より大きいという条件から、図19に示す遷移状態
表より、握り動作認識ステートマシン73は、CloseMov
eの状態に遷移する(図20の例の場合、遷移状態L1
5)。
For example, in the transition state table shown in FIG. 19, when the gripping motion recognition state machine 73 is in the OpenRecog state and the moving distance is larger than a predetermined threshold, the gripping motion recognition state machine 73 indicates that the CloseMov.
e state (in the example of FIG. 20, the transition state L1
5).

【0094】さらにまた、例えば、握り動作認識ステー
トマシン73がOpenRecogの状態において、図17のス
テップS76の処理により、小ブロックの標準偏差が所
定の閾値以内ではないと判定された場合、ステップS7
9の処理により、小ブロックにGraspフラグが立てられ
た場合、または、ステップS81の処理により、現フレ
ームの画像領域の重心と1フレーム前の画像領域の重心
の間の距離が所定の閾値以内ではないと判定された場
合、すなわち、Releaseではない、または、Stableでは
ないという条件から、図19に示す遷移状態表より、握
り動作認識ステートマシン73は、OpenRecogの状態に
遷移する(図20の例の場合、遷移状態L16)。
Further, for example, when it is determined that the standard deviation of the small block is not within the predetermined threshold value by the processing of step S76 in FIG. 17 while the gripping motion recognition state machine 73 is in the OpenRecog state, step S7
If the Grasp flag is set for the small block by the process of step 9 or the distance between the center of gravity of the image region of the current frame and the center of gravity of the image region one frame before is within a predetermined threshold value by the process of step S81. If it is determined that the state is not “Release” or “Stable”, the gripping motion recognition state machine 73 transits to the OpenRecog state from the transition state table shown in FIG. 19 (the example in FIG. 20). , The transition state L16).

【0095】以上のように、握り動作認識ステートマシ
ーン73は、小ブロックに立てられたReleaseフラグま
たはGraspフラグ、および、現フレームの画像領域に立
てられたStableフラグから、握りまたは開き動作を認識
することができる。
As described above, the grasping motion recognition state machine 73 recognizes the grasping or opening motion from the Release flag or Grasp flag set in the small block and the Stable flag set in the image area of the current frame. be able to.

【0096】図9に戻って、ステップS12において、
重心軌跡認識部32は、ステップS10の処理で選択さ
れた領域の重心位置の軌跡に基づいて、上下左右に手を
振る動作を認識する。
Returning to FIG. 9, in step S12,
The center-of-gravity trajectory recognition unit 32 recognizes an operation of waving the hand up, down, left, and right based on the trajectory of the center of gravity of the area selected in the process of step S10.

【0097】ここで、図21および図22のフローチャ
ートを参照して、手の振り動作認識処理について説明す
る。
Here, with reference to the flowcharts of FIGS. 21 and 22, the processing of recognizing a hand movement will be described.

【0098】ステップS101において、重心軌跡認識
部32は、図23に示すような10個のバッファで構成
されるリングバッファに、各フレームで選択された領域
の重心位置をそれぞれ代入する。ステップS102にお
いて、重心軌跡認識部32は、ステップS101の処理
で代入された現フレームの重心位置X,Yと、1フレー
ム前の重心位置X´,Y´の更新を行う。いまの場合、
現フレームの重心位置X=X5,Y=Y5、1フレーム前
の重心位置X´=X4,Y´=Y4に更新される。
In step S101, the center-of-gravity trajectory recognizing unit 32 substitutes the center-of-gravity position of the region selected in each frame into a ring buffer composed of ten buffers as shown in FIG. In step S102, the center-of-gravity trajectory recognition unit 32 updates the center-of-gravity positions X, Y of the current frame and the center-of-gravity positions X ', Y' of the previous frame, which are substituted in the processing of step S101. In this case,
The center of gravity of the current frame is updated to X = X 5 , Y = Y 5 , and the center of gravity of one frame before is updated to X ′ = X 4 , Y ′ = Y 4 .

【0099】ステップS103において、重心軌跡認識
部32は、X−X´の絶対値が所定の正の閾値より大き
いのか否か、すなわち、現フレームのX座標とnフレー
ム(いまの場合、1フレーム)前のX´座標を比較し、
変化があったのか否かを判定し、X−X´の絶対値が所
定の正の閾値より大きくないと判定された場合、すなわ
ち、変化がないと判定された場合、ステップS104に
進む。
In step S103, the center-of-gravity trajectory recognizing unit 32 determines whether or not the absolute value of XX 'is larger than a predetermined positive threshold, that is, the X coordinate of the current frame and n frames (one frame in this case). ) Compare the previous X 'coordinates,
It is determined whether or not there has been a change, and if it is determined that the absolute value of XX ′ is not larger than the predetermined positive threshold, that is, if it is determined that there is no change, the process proceeds to step S104.

【0100】ステップS104におてい、重心軌跡認識
部32は、リングバッファが1周したのか否かを判定
し、リングバッファが未だ1周していないと判定した場
合、ステップS102に戻り、現フレームの重心位置
X,Yと、1フレーム前の重心位置X´,Y´の更新を
行い(いまの場合、現フレームの重心位置X=X4,Y
=Y4、1フレーム前の重心位置X´=X3,Y´=Y3
に更新し)、それ以降の処理を繰り返す。すなわち、X
座標が変化するまで、1フレームずつさかのぼった、現
フレームの重心位置X,Yと1フレーム前の重心位置X
´,Y´に更新される。また、ステップS104におい
て、リングバッファが1周したと判定された場合、ステ
ップS128に進む。
In step S104, the center-of-gravity trajectory recognizing unit 32 determines whether the ring buffer has made one round. If it is determined that the ring buffer has not yet made one round, the process returns to step S102 to return to the current frame. Of the center of gravity X, Y ′ of the current frame and the center of gravity X ′, Y ′ of the previous frame are updated (in this case, the center of gravity X = X 4 , Y of the current frame)
= Y 4 , center of gravity position X ′ = X 3 , Y ′ = Y 3 one frame before
And repeat the subsequent processing. That is, X
The center of gravity X, Y of the current frame and the center of gravity X one frame before, which are traced back by one frame until the coordinates change.
', Y'. If it is determined in step S104 that the ring buffer has made one round, the process proceeds to step S128.

【0101】また、ステップS103において、X−X
´の絶対値が所定の正の閾値より大きいと判定された場
合、ステップS105に進み、重心軌跡認識部32は、
変化したときの座標X´,Y´をXs,Ysにそれぞれ
代入し、変数maxを0に、変数BigSkipをFALSEに初期
設定する。ステップS106において、重心軌跡認識部
32は、X−X´が0より大きいのか否かを判定し、0
より大きい場合(X−X´が正の値の場合)、ステップ
S107に進み、さらに、X−X´が所定の正の閾値よ
り大きいのか否かを判定する。
In step S103, XX
If it is determined that the absolute value of 'is larger than the predetermined positive threshold, the process proceeds to step S105,
The coordinates X 'and Y' at the time of the change are substituted for Xs and Ys, respectively, and the variable max is initialized to 0 and the variable BigSkip is initialized to FALSE. In step S106, the center-of-gravity locus recognizing unit 32 determines whether XX ′ is greater than 0,
If it is larger (XX 'is a positive value), the process proceeds to step S107, and it is determined whether XX' is larger than a predetermined positive threshold.

【0102】ステップS107において、X−X´が所
定の正の閾値より大きいと判定された場合、ステップS
108に進み、重心軌跡認識部32は、変数BigSkipにT
RUEを代入する。また、ステップS107において、X
−X´が所定の正の閾値より大きくはないと判定された
場合、ステップS109に進み、重心軌跡認識部32
は、さらに、X−X´が所定の負の閾値より小さいのか
否かを判定し、所定の負の閾値より小さいと判定した場
合、ステップS123に進み、所定の負の閾値より小さ
くはないと判定した場合、ステップS110に進む。
If it is determined in step S107 that XX 'is larger than the predetermined positive threshold, the process proceeds to step S107.
Proceeding to 108, the center-of-gravity trajectory recognition unit 32 sets the variable BigSkip to T
Substitute RUE. In step S107, X
If it is determined that −X ′ is not larger than the predetermined positive threshold, the process proceeds to step S109, and the center of gravity locus recognizing unit 32
Further determines whether or not XX ′ is smaller than a predetermined negative threshold. If it is determined that XX ′ is smaller than the predetermined negative threshold, the process proceeds to step S123 and determines that the value is not smaller than the predetermined negative threshold. If it is determined, the process proceeds to step S110.

【0103】ステップS108またはS109の処理の
後、ステップS110において、重心軌跡認識部32
は、X−Xsの絶対値が変数maxの絶対値(いまの場
合、0)より大きいのか否かを判定し、X−Xsの絶対
値が変数maxの絶対値より大きいと判定した場合、ス
テップS111に進み、変数maxにX−Xsの値を代
入する。また、ステップS110において、X−Xsの
絶対値が変数maxの絶対値より大きくはないと判定し
た場合、ステップS111の処理をスキップし、ステッ
プS112に進む。
After the processing in step S108 or S109, in step S110, the center-of-gravity trajectory recognition unit 32
Determines whether or not the absolute value of X-Xs is greater than the absolute value of variable max (in this case, 0). If it is determined that the absolute value of X-Xs is greater than the absolute value of variable max, step Proceeding to S111, the value of X-Xs is substituted for the variable max. If it is determined in step S110 that the absolute value of X-Xs is not larger than the absolute value of the variable max, the process skips step S111 and proceeds to step S112.

【0104】ステップS110またはステップS111
の処理の後、ステップS112において、重心軌跡認識
部32は、Y−Ysの絶対値が所定の閾値より小さいの
か否かを判定し、所定の閾値より小さいと判定した場
合、ステップS113に進み、Y−Ysの絶対値が所定
の閾値より小さくはないと判定した場合、ステップS1
28に進む。
Step S110 or step S111
In step S112, the center-of-gravity trajectory recognition unit 32 determines whether or not the absolute value of Y-Ys is smaller than a predetermined threshold. If it is determined that the absolute value is smaller than the predetermined threshold, the process proceeds to step S113. If it is determined that the absolute value of Y-Ys is not smaller than the predetermined threshold, step S1
Proceed to 28.

【0105】ステップS113において、重心軌跡認識
部32は、リングバッファが1周したのか否かを判定
し、リングバッファが未だ1周していないと判定した場
合、ステップS114に進み、重心軌跡認識部32は、
現フレームの重心位置X,Yと、1フレーム前の重心位
置X´,Y´の更新を行い、ステップS107に戻る。
いまの場合、1フレームずつさかのぼった、現フレーム
の重心位置X=X4,Y=Y4、1フレーム前の重心位置
X´=X3,Y´=Y3に更新される。また、ステップS
113において、リングバッファが1周したと判定され
た場合、ステップS123に進む。
In step S113, the center-of-gravity trajectory recognizing unit 32 determines whether or not the ring buffer has made one round. 32 is
The center-of-gravity positions X and Y of the current frame and the center-of-gravity positions X 'and Y' of the previous frame are updated, and the process returns to step S107.
In this case, the barycentric position of the current frame is updated to X = X 4 , Y = Y 4 , and the barycentric position X ′ = X 3 , Y ′ = Y 3 of the previous frame, which is advanced by one frame. Step S
If it is determined in step 113 that the ring buffer has made one round, the process proceeds to step S123.

【0106】また、ステップS106において、X−X
´が0より大きくはないと判定された場合(X−X´が
負の値であると判定された場合)、ステップS115に
進み、重心軌跡認識部23は、X−X´が所定の負の閾
値より小さいのか否かを判定し、所定の負の閾値より小
さいと判定した場合、ステップS116に進む。ステッ
プS116において、重心軌跡認識部32は、変数BigS
kipにTRUEを代入する。また、ステップS115におい
て、X−X´が所定の負の閾値より小さくはないと判定
された場合、ステップS117に進み、重心軌跡認識部
32は、さらに、X−X´が所定の正の閾値より大きい
のか否かを判定し、所定の正の閾値より大きくはないと
判定した場合、ステップS118に進み、所定の正の閾
値より大きいと判定した場合、ステップS123に進
む。
In step S106, XX
If it is determined that ′ is not greater than 0 (if XX ′ is determined to be a negative value), the process proceeds to step S115, and the center-of-gravity trajectory recognition unit 23 determines that XX ′ is a predetermined negative value. It is determined whether or not the threshold value is smaller than a predetermined threshold value. If it is determined that the threshold value is smaller than a predetermined negative threshold value, the process proceeds to step S116. In step S116, the center-of-gravity trajectory recognition unit 32 determines that the variable BigS
Assign TRUE to kip. If it is determined in step S115 that XX ′ is not smaller than the predetermined negative threshold, the process proceeds to step S117, and the center-of-gravity locus recognizing unit 32 further determines that XX ′ has a predetermined positive threshold. It is determined whether the value is larger than the predetermined positive threshold. If it is determined that the value is not larger than the predetermined positive threshold, the process proceeds to step S118. If it is determined that the value is larger than the predetermined positive threshold, the process proceeds to step S123.

【0107】ステップS116またはS117の処理の
後、ステップS118において、重心軌跡認識部32
は、X−Xsの絶対値が変数maxの絶対値より大きい
のか否かを判定し、X−Xsの絶対値が変数maxの絶
対値より大きいと判定した場合、ステップS119に進
み、変数maxにX−Xsの値を代入する。また、ステ
ップS118において、X−Xsの絶対値が変数max
の絶対値より大きくはないと判定した場合、ステップS
119の処理をスキップし、ステップS120に進む。
After the processing in step S116 or S117, in step S118, the center-of-gravity trajectory recognition unit 32
Determines whether or not the absolute value of X-Xs is greater than the absolute value of the variable max. If it is determined that the absolute value of X-Xs is greater than the absolute value of the variable max, the process proceeds to step S119, where the variable max is Substitute the value of X-Xs. In step S118, the absolute value of X-Xs is set to the variable max.
If it is determined that the value is not larger than the absolute value of
Step 119 is skipped, and the process proceeds to step S120.

【0108】ステップS118またはステップS119
の処理の後、ステップS120において、重心軌跡認識
部32は、Y−Ysの絶対値が所定の閾値より小さいの
か否かを判定し、所定の閾値より小さいと判定した場
合、ステップS121に進み、Y−Ysの絶対値が所定
の閾値より小さくはないと判定した場合、ステップS1
28に進む。
Step S118 or step S119
In step S120, the center-of-gravity trajectory recognition unit 32 determines whether or not the absolute value of Y-Ys is smaller than a predetermined threshold, and proceeds to step S121 if it is determined that the absolute value is smaller than the predetermined threshold. If it is determined that the absolute value of Y-Ys is not smaller than the predetermined threshold, step S1
Proceed to 28.

【0109】ステップS121において、重心軌跡認識
部32は、リングバッファが1周したのか否かを判定
し、リングバッファが未だ1周していないと判定した場
合、ステップS122に進み、重心軌跡認識部32は、
現フレームの重心位置X,Yと、1フレーム前の重心位
置X´,Y´の更新を行い、ステップS115に戻る。
いまの場合、1フレームずつさかのぼった、現フレーム
の重心位置X=X4,Y=Y4、1フレーム前の重心位置
X´=X3,Y´=Y3に更新される。また、ステップS
121において、リングバッファが1周したと判定され
た場合、ステップS123に進む。
In step S121, the center-of-gravity trajectory recognition unit 32 determines whether or not the ring buffer has completed one round. If it is determined that the ring buffer has not yet completed one round, the process proceeds to step S122, and the center-of-gravity trajectory recognition unit 32 proceeds. 32 is
The center-of-gravity positions X and Y of the current frame and the center-of-gravity positions X 'and Y' of the previous frame are updated, and the process returns to step S115.
In this case, the barycentric position of the current frame is updated to X = X 4 , Y = Y 4 , and the barycentric position X ′ = X 3 , Y ′ = Y 3 of the previous frame, which is advanced by one frame. Step S
If it is determined in 121 that the ring buffer has made one round, the process proceeds to step S123.

【0110】ステップS109,113,117、また
はステップS121の処理の後、ステップS123にお
いて、重心軌跡認識部32は、変数BigSkipがFALSEであ
るのか否かを判定し、変数BigSkipがFALSEであると判定
した場合、ステップS124に進む、ステップS124
において、重心軌跡認識部32は、変数maxの値が所
定の正の閾値より大きいのか否かを判定し、変数max
の値が所定の正の閾値より大きいと判定した場合、ステ
ップS125に進み、右の振りがあったと認識し、図9
のステップS13にリターンする。
After the processing of step S109, 113, 117 or step S121, in step S123, the center-of-gravity trajectory recognition unit 32 determines whether or not the variable BigSkip is FALSE, and determines that the variable BigSkip is FALSE. If so, the process proceeds to step S124, step S124
, The center-of-gravity locus recognizing unit 32 determines whether or not the value of the variable max is greater than a predetermined positive threshold, and
Is determined to be larger than the predetermined positive threshold, the process proceeds to step S125, and it is recognized that the right-hand swing has been performed.
It returns to step S13.

【0111】また、ステップS124において、変数m
axが所定の正の閾値より大きくはないと判定された場
合、ステップS126に進み、重心軌跡認識部32は、
さらに、変数maxが所定の負の閾値より小さいのか否
かを判定し、変数maxの値が所定の負の閾値より小さ
いと判定した場合、ステップS127に進み、左の振り
があったと認識し、図9のステップS13にリターンす
る。
In step S124, the variable m
If it is determined that ax is not larger than the predetermined positive threshold value, the process proceeds to step S126,
Further, it is determined whether or not the variable max is smaller than a predetermined negative threshold, and if it is determined that the value of the variable max is smaller than the predetermined negative threshold, the process proceeds to step S127, and it is recognized that a left swing has been performed. It returns to step S13 of FIG.

【0112】ステップS123において、変数BigSkip
がFALSEではないと判定された場合、ステップS126
において、変数maxが所定の負の閾値より小さくはな
いと判定された場合、また、ステップS104,11
2,またはステップS120の処理の後、ステップS1
28において、重心軌跡認識部32は、手の振りはなか
ったと認識し、図9のステップS13にリターンする。
In step S123, the variable BigSkip
If it is determined that is not FALSE, step S126
In step S104, it is determined that the variable max is not smaller than the predetermined negative threshold.
2, or after the processing of step S120, step S1
At 28, the center-of-gravity trajectory recognition unit 32 recognizes that the hand has not been shaken, and returns to step S13 in FIG.

【0113】また、他の例の振り動作認識処理につい
て、図24のフローチャートを参照して説明する。ステ
ップS141において、重心軌跡認識部32は、curr_g
esにRight,Left、またはNoneを代入する。すなわち、
図22のステップS125,S127、または、S12
8での処理結果(右振り、左振り、または手振りなし)
を代入する。ステップS142において、重心軌跡認識
部32は、現フレームの時刻と基準時刻とを比較し、現
フレームの経過時間を算出する。ステップS143にお
いて、重心軌跡認識部32は、現フレームが右方向また
は左方向の動きがあったのか否かを判定し、右方向また
は左方向の動きがあったと判定した場合、ステップS1
44に進む。ステップS144において、重心軌跡認識
部32は、経過時間を算出するための基準時刻を現フレ
ームの時刻に更新する。
Further, another example of the swinging motion recognition process will be described with reference to the flowchart of FIG. In step S141, the center-of-gravity trajectory recognition unit 32 sets the curr_g
Substitute Right, Left, or None for es. That is,
Steps S125, S127 or S12 in FIG.
Processing result at 8 (right, left, or no hand gesture)
Is assigned. In step S142, the center-of-gravity locus recognizing unit 32 compares the time of the current frame with the reference time and calculates the elapsed time of the current frame. In step S143, the center-of-gravity trajectory recognition unit 32 determines whether the current frame has moved rightward or leftward. If it is determined that the current frame has moved rightward or leftward, the process proceeds to step S1.
Go to 44. In step S144, the center-of-gravity locus recognizing unit 32 updates the reference time for calculating the elapsed time to the time of the current frame.

【0114】また、ステップS143において、右方向
または左方向の動きがなかったと判定された場合、ステ
ップS144の処理をスキップし、ステップS145に
進む。ステップS145において、重心軌跡認識部32
は、ステップS142の処理で算出された現フレームの
経過時間が所定の閾値より長いのか否かを判定し、現フ
レームの経過時間が所定の閾値より長いと判定した場
合、ステップS146に進み、変数prev_gesに保存され
ているジェスチャ(右振りまたは左振り)を出力する。
If it is determined in step S143 that there has been no rightward or leftward movement, the process in step S144 is skipped, and the flow advances to step S145. In step S145, the center-of-gravity trajectory recognition unit 32
Determines whether or not the elapsed time of the current frame calculated in the process of step S142 is longer than a predetermined threshold. If it is determined that the elapsed time of the current frame is longer than the predetermined threshold, the process proceeds to step S146, where the variable Output the gesture (right or left) stored in prev_ges.

【0115】ステップS145において、現フレームの
経過時間が所定の閾値より長くはないと判定された場
合、ステップS147に進み、重心軌跡認識部32は、
現フレームのジェスチャ(右振りまたは左振り)である
curr_gesを出力する。ステップS148において、重心
軌跡認識部32は、ステップS147の処理で出力され
た現フレームのジェスチャであるcurr_gesをprev_gesに
代入(保存)する。
If it is determined in step S145 that the elapsed time of the current frame is not longer than the predetermined threshold, the process proceeds to step S147, and the center-of-gravity trajectory recognition unit 32 determines
Gesture of the current frame (turn right or left)
Output curr_ges. In step S148, the center-of-gravity locus recognizing unit 32 substitutes (saves) curr_ges, which is the gesture of the current frame, output in step S147, into prev_ges.

【0116】ステップS149において、重心軌跡認識
部32は、ステップS146またはS147の処理で出
力されたジェスチャから、振り動作を認識し、図9のス
テップS13にリターンする。
In step S149, the center-of-gravity locus recognizing unit 32 recognizes the swinging motion from the gesture output in step S146 or S147, and returns to step S13 in FIG.

【0117】上述した処理は、短時間で一方の動き(例
えば、左方向の動き)から他方の動き(例えば、右方向
の動き)に変化した場合、一方(左方向)の動きを排除
して、他方(右方向)の動きを認識するので、処理を高
速化することができる。なお、図21および図22、ま
たは図24による処理と同様にして上下方向の手振りを
認識することもできる。
In the above-described processing, when one motion (for example, leftward motion) changes to another motion (for example, rightward motion) in a short time, one (leftward) motion is excluded. Since the other (rightward) movement is recognized, the processing can be sped up. It should be noted that the hand gesture in the vertical direction can be recognized in the same manner as in the processing in FIG. 21, FIG. 22, or FIG.

【0118】図9のステップS13において、画像処理
装置3のジェスチャ認識部3は、ステップS11および
S12の認識結果を、表示・出力装置4に供給し、ユー
ザ1のジェスチャ(身振りや手振り)を表示させる。ス
テップS14において、画像処理装置3は、ユーザ1の
身振り・手振り動作が終了したのか否かを判定し、未
だ、身振り・手振りが終了していないと判定した場合、
ステップS1に戻り、上述した処理を繰り返す。そし
て、ステップS14において、身振り・手振りが終了し
たと判定されると、処理は終了される。
In step S13 of FIG. 9, the gesture recognition section 3 of the image processing device 3 supplies the recognition results of steps S11 and S12 to the display / output device 4, and displays the gesture (gesture or hand gesture) of the user 1. Let it. In step S14, the image processing device 3 determines whether or not the gesture / hand gesture of the user 1 has ended, and if it determines that the gesture / hand gesture has not ended yet,
Returning to step S1, the above processing is repeated. If it is determined in step S14 that the gesture / hand gesture has ended, the process ends.

【0119】以上のように、ビデオカメラで撮像した画
像データから、ユーザの身振りや手振りを認識すること
ができるので、マウスやキーボードなどの入力装置を用
いることなく、離れた場所から容易にコンピュータ等を
操作することができる。
As described above, since the gesture and hand gesture of the user can be recognized from the image data captured by the video camera, the computer or the like can be easily operated from a remote place without using an input device such as a mouse or a keyboard. Can be operated.

【0120】また、特別なデバイスや複数台のビデオカ
メラを使用していないため、低コストなシステムを実現
することができる。
Further, since a special device and a plurality of video cameras are not used, a low-cost system can be realized.

【0121】また、以上においては、手の握り・開き動
作を認識することは勿論、手の移動(軌跡)動作および
手の振り動作も認識することができるので、例えば、コ
ンピュータに対応付けた場合、手を移動(マウス移
動)、手を握る(アイコン選択)、手を移動(アイコン
を選択したままドラッグ)、手を開く(アイコン選択解
除)という操作を行ったり、左方向の振り(マウス左ボ
タンクリック)、右方向の振り(マウス右ボタンクリッ
ク)という操作を行ったりすることができる。従って、
ユーザは、マウスを用いなくても、直感的な操作で、画
面にアプリケーションを起動させたり、画面に表示され
ているウィンドウを移動させたりすることができる。
In the above description, not only the hand grip / opening operation but also the hand movement (trajectory) operation and the hand swinging operation can be recognized. Move the hand (move the mouse), hold the hand (icon selection), move the hand (drag while selecting the icon), open the hand (deselect icon) or swing left (mouse left Button click) and rightward swing (right mouse button click). Therefore,
The user can start an application on the screen or move a window displayed on the screen by an intuitive operation without using a mouse.

【0122】上述した一連の処理は、ハードウェアによ
り実行させることもできるが、ソフトウェアにより実行
させることもできる。一連の処理をソフトウェアにより
実行させる場合には、そのソフトウェアを構成するプロ
グラムが、専用のハードウェアに組み込まれているコン
ピュータ、または、各種のプログラムをインストールす
ることで、各種の機能を実行することが可能な、例えば
汎用のパーソナルコンピュータなどに、記録媒体からイ
ンストールされる。
The above-described series of processing can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, a program constituting the software can execute various functions by installing a computer built into dedicated hardware or installing various programs. It is installed from a recording medium into a possible general-purpose personal computer or the like.

【0123】この記録媒体は、コンピュータとは別に、
ユーザにプログラムを提供するために配布される、プロ
グラムが記録されている磁気ディスク(フロッピディス
クを含む)、光ディスク(CD-ROM(Compact Disk-Read
Only Memory),DVD(Digital Versatile Disk)を含
む、光磁気ディスク(MD(Mini-Disk)を含む)、若し
くは半導体メモリなどよりなるパッケージメディアによ
り構成されるだけでなく、コンピュータに予め組み込ま
れた状態でユーザに提供される、プログラムが記録され
ているROMや、ハードディスクなどで構成される。
This recording medium is separate from the computer.
A magnetic disk (including a floppy disk) on which the program is recorded, an optical disk (CD-ROM (Compact Disk-Read) distributed to provide the program to users.
It is not only composed of package media consisting of magneto-optical disks (including MD (Mini-Disk)), semiconductor memory, etc., including Only Memory), DVD (Digital Versatile Disk), but also pre-installed in the computer. And a hard disk or the like provided with the program for recording the program.

【0124】なお、本明細書において、記録媒体に記録
されるプログラムを記述するステップは、記載された順
序に沿って時系列的に行われる処理はもちろん、必ずし
も時系列的に処理されなくとも、並列的あるいは個別に
実行される処理をも含むものである。
[0124] In this specification, the step of describing a program recorded on a recording medium may be performed in a chronological order according to the described order. This also includes processing executed in parallel or individually.

【0125】また、本明細書において、システムとは、
複数の装置により構成される装置全体を表すものであ
る。
In this specification, the system is
It represents the entire device composed of a plurality of devices.

【0126】[0126]

【発明の効果】以上のように、本発明の画像処理装置、
画像処理方法、および記録媒体に記録されているプログ
ラムによれば、身振りまたは手振りを行う対象物を撮像
し、撮像された画像を識別し、識別された画像を所定の
領域に分割し、分割された領域内の動き方向を検出し、
領域内の重心を算出し、領域内の評価値を算出し、その
算出結果から、最も評価値の小さい領域を選択し、選択
された領域内において、対象物の握り動作を認識し、選
択された領域内の重心の軌跡に基づいて、対象物の振り
動作を認識するようにしたので、低コストに、かつ、高
精度に、ユーザの身振りや手振りを画像処理により認識
することができる。
As described above, the image processing apparatus of the present invention
According to the image processing method and the program recorded on the recording medium, an image of an object to be gestured or shaken is captured, the captured image is identified, the identified image is divided into predetermined regions, and the divided image is divided. The direction of movement within the region
Calculate the center of gravity in the area, calculate the evaluation value in the area, select the area with the smallest evaluation value from the calculation result, recognize the gripping operation of the object in the selected area, and select the area. Since the swing motion of the target object is recognized based on the trajectory of the center of gravity in the region, the user's gesture and hand gesture can be recognized at low cost and with high accuracy by image processing.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を適用した画像処理システムの構成例を
示す図である。
FIG. 1 is a diagram illustrating a configuration example of an image processing system to which the present invention has been applied.

【図2】画像処理装置3の構成を示すブロック図であ
る。
FIG. 2 is a block diagram illustrating a configuration of an image processing apparatus 3.

【図3】画像処理部11の詳細な構成を示すブロック図
である。
FIG. 3 is a block diagram illustrating a detailed configuration of an image processing unit 11;

【図4】ジェスチャ認識部12の詳細な構成を示すブロ
ック図である。
FIG. 4 is a block diagram illustrating a detailed configuration of a gesture recognition unit 12;

【図5】領域分割部21の詳細な構成を示すブロック図
である。
FIG. 5 is a block diagram showing a detailed configuration of a region dividing unit 21.

【図6】他の例の領域分割部21の詳細な構成を示すブ
ロック図である。
FIG. 6 is a block diagram illustrating a detailed configuration of a region dividing unit 21 of another example.

【図7】領域処理部23の詳細な構成を示すブロック図
である。
FIG. 7 is a block diagram showing a detailed configuration of an area processing unit 23.

【図8】握り動作認識部31の詳細な構成を示すブロッ
ク図である。
FIG. 8 is a block diagram illustrating a detailed configuration of a gripping motion recognition unit 31.

【図9】手の握り・振り動作認識処理を説明するフロー
チャートである。
FIG. 9 is a flowchart illustrating hand grip / shake motion recognition processing.

【図10】図9のステップS2の領域分割処理を説明す
るフローチャートである。
FIG. 10 is a flowchart illustrating an area dividing process in step S2 of FIG. 9;

【図11】色分布を説明する図である。FIG. 11 is a diagram illustrating color distribution.

【図12】図9のステップS2の他の例の領域分割処理
を説明するフローチャートである。
12 is a flowchart illustrating another example of the area dividing process in step S2 of FIG. 9;

【図13】図9の動き方向検出処理を説明するフローチ
ャートである。
FIG. 13 is a flowchart illustrating a motion direction detection process in FIG. 9;

【図14】動き方向を検出するフレームを説明する図で
ある。
FIG. 14 is a diagram illustrating a frame for detecting a motion direction.

【図15】動き方向を示す画素値を設定するための対応
図である。
FIG. 15 is a correspondence diagram for setting a pixel value indicating a movement direction.

【図16】重心を算出する動作を説明する図である。FIG. 16 is a diagram illustrating an operation of calculating a center of gravity.

【図17】図9のステップS11の握り動作認識処理を
説明するフローチャートである。
FIG. 17 is a flowchart illustrating a gripping motion recognition process in step S11 in FIG. 9;

【図18】標準偏差を算出する小ブロックを説明する図
である。
FIG. 18 is a diagram illustrating a small block for calculating a standard deviation.

【図19】握り動作認識ステートマシン73の状態遷移
を説明する図である。
FIG. 19 is a diagram illustrating a state transition of the gripping motion recognition state machine 73.

【図20】他の例の握り動作認識ステートマシン73の
状態遷移を説明する図である。
FIG. 20 is a diagram illustrating a state transition of the gripping motion recognition state machine 73 of another example.

【図21】図9のステップS12の振り動作認識処理を
説明するフローチャートである。
FIG. 21 is a flowchart illustrating a swing motion recognition process in step S12 of FIG. 9;

【図22】図21に続くフローチャートである。FIG. 22 is a flowchart following FIG. 21;

【図23】リングバッファを説明する図である。FIG. 23 is a diagram illustrating a ring buffer.

【図24】図9のステップS12の他の例の振り動作認
識処理を説明するフローチャートである。
FIG. 24 is a flowchart illustrating a swing motion recognition process in another example of step S12 in FIG. 9;

【符号の説明】[Explanation of symbols]

2 ビデオカメラ, 3 画像処理装置, 4 表示・
出力装置, 11 画像処理部, 12 ジェスチャ認
識部, 21 領域分割部, 22 画像記憶部, 2
3 領域処理部, 24 領域記憶部, 31 握り動
作認識部, 32 重心軌跡認識部, 41 色識別
部, 42 ラベリング部, 51 フレーム間差分算
出部, 52 色・動き評価部, 61 外接枠検出
部, 62動き検出部, 63 アスペクト比算出部,
64 面積算出部, 65 重心算出部, 66 画
素数算出部, 67 領域評価部, 71 領域動き分
布算出部, 72 領域重心移動チェック部, 73
握り動作認識ステートマシン
2 video camera, 3 image processing device, 4 display /
Output device, 11 image processing unit, 12 gesture recognition unit, 21 area division unit, 22 image storage unit, 2
3 area processing section, 24 area storage section, 31 grasping motion recognition section, 32 center of gravity locus recognition section, 41 color identification section, 42 labeling section, 51 inter-frame difference calculation section, 52 color / motion evaluation section, 61 circumscribed frame detection section , 62 motion detector, 63 aspect ratio calculator,
64 area calculation section, 65 center of gravity calculation section, 66 pixel number calculation section, 67 area evaluation section, 71 area motion distribution calculation section, 72 area center of gravity movement check section, 73
Grasping motion recognition state machine

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5L096 AA02 AA06 BA08 BA18 CA04 CA21 FA15 FA16 FA54 FA59 FA60 FA66 FA67 GA08 GA19 GA28 GA34 HA05 JA11  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 5L096 AA02 AA06 BA08 BA18 CA04 CA21 FA15 FA16 FA54 FA59 FA60 FA66 FA67 GA08 GA19 GA28 GA34 HA05 JA11

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 身振りまたは手振りを行う対象物を撮像
する撮像手段と、 前記撮像手段により撮像された画像を識別する識別手段
と、 前記識別手段により識別された前記画像を所定の領域に
分割する領域分割手段と、 前記領域分割手段により分割された前記領域内の動き方
向を検出する動き方向検出手段と、 前記動き方向検出手段の検出結果に基づいて、前記領域
内の重心を算出する重心算出手段と、 前記領域内の評価値を算出する評価値算出手段と、 前記評価値算出手段の算出結果から、前記評価値の最も
小さい前記領域を選択する領域選択手段と、 前記領域選択手段により選択された前記領域内におい
て、前記対象物の握り動作を認識する握り動作認識手段
と、 前記領域選択手段により選択された前記領域内の前記重
心の軌跡に基づいて、前記対象物の振り動作を認識する
振り動作認識手段とを備えることを特徴とする画像処理
装置。
1. An image pickup means for picking up an object to be gestured or gestured, an identification means for identifying an image picked up by the image pickup means, and dividing the image identified by the identification means into a predetermined area. Area dividing means; moving direction detecting means for detecting a moving direction in the area divided by the area dividing means; and a center of gravity calculating a center of gravity in the area based on a detection result of the moving direction detecting means. Means, evaluation value calculation means for calculating an evaluation value in the area, area selection means for selecting the area having the smallest evaluation value from the calculation result of the evaluation value calculation means, selection by the area selection means A grip operation recognizing unit for recognizing a grip operation of the object in the selected area; and a locus of the center of gravity in the area selected by the area selecting unit. Te, an image processing apparatus comprising: a recognizing swinging motion recognizing means pretended operation of the object.
【請求項2】 前記領域分割手段により分割された前記
領域の外接枠を検出する外接枠検出手段と、 前記外接枠検出手段により検出された前記外接枠の縦横
比を算出する縦横比算出手段と、 前記外接枠検出手段により検出された前記外接枠内の画
素数を計数することにより、前記領域の面積を算出する
面積算出手段と、 前記動き方向検出手段の検出結果に基づいて、動き方向
の画素を計数する計数手段とをさらに備え、 前記評価値算出手段は、前記重心、前記縦横比、前記面
積、および、前記動き方向の画素数に基づいて、前記領
域内の評価値を算出することを特徴とする請求項1に記
載の画像処理装置。
2. A circumscribing frame detecting means for detecting a circumscribing frame of the area divided by the area dividing means, and an aspect ratio calculating means for calculating an aspect ratio of the circumscribing frame detected by the circumscribing frame detecting means. An area calculation unit that calculates the area of the region by counting the number of pixels in the circumscribed frame detected by the circumscribed frame detection unit, and a motion direction based on a detection result of the motion direction detection unit. A counting unit for counting pixels, wherein the evaluation value calculating unit calculates an evaluation value in the area based on the center of gravity, the aspect ratio, the area, and the number of pixels in the movement direction. The image processing apparatus according to claim 1, wherein:
【請求項3】 前記領域選択手段により選択された前記
領域内の所定の方向の動き方向を有する画素の標準偏差
を算出する標準偏差算出手段をさらに備え、 前記握り動作認識手段は、前記標準偏差算出手段の算出
結果、前記領域選択手段により選択された前記領域内の
中心画素の動き方向、および、前記重心算出手段の算出
結果に基づいて、前記対象物の握り動作を認識すること
を特徴とする請求項1に記載の画像処理装置。
3. A standard deviation calculating means for calculating a standard deviation of a pixel having a movement direction in a predetermined direction in the area selected by the area selecting means, wherein the gripping motion recognizing means comprises the standard deviation. Recognizing the gripping operation of the object based on the calculation result of the calculation means, the movement direction of the center pixel in the area selected by the area selection means, and the calculation result of the center of gravity calculation means. The image processing device according to claim 1.
【請求項4】 前記識別手段は、前記画像の画素値が所
定の範囲内にあるものを識別するか、または、前記画像
の画素値が所定の範囲内にあり、かつ、前記画像の輝度
値が所定の範囲内にあるものを識別することを特徴とす
る請求項1に記載の画像処理装置。
4. The image processing apparatus according to claim 1, wherein the identification unit identifies an image whose pixel value is within a predetermined range, or determines whether the pixel value of the image is within a predetermined range and a luminance value of the image. 2. The image processing apparatus according to claim 1, wherein the image processing apparatus identifies an object within a predetermined range.
【請求項5】 前記動き方向検出手段は、前記領域内の
中心画素の輝度値に基づいて、前記領域内の動きの方向
を検出することを特徴とする請求項1に記載の画像処理
装置。
5. The image processing apparatus according to claim 1, wherein the motion direction detecting means detects a direction of motion in the area based on a luminance value of a central pixel in the area.
【請求項6】 身振りまたは手振りを行う対象物を撮像
する撮像ステップと、 前記撮像ステップの処理により撮像された画像を識別す
る識別ステップと、 前記識別ステップの処理により識別された前記画像を所
定の領域に分割する領域分割ステップと、 前記領域分割ステップの処理により分割された前記領域
内の動き方向を検出する動き方向検出ステップと、 前記動き方向検出ステップでの検出結果に基づいて、前
記領域内の重心を算出する重心算出ステップと、 前記領域内の評価値を算出する評価値算出ステップと、 前記評価値算出ステップでの算出結果から、前記評価値
の最も小さい前記領域を選択する領域選択ステップと、 前記領域選択ステップの処理により選択された前記領域
内において、前記対象物の握り動作を認識する握り動作
認識ステップと、 前記領域選択ステップの処理により選択された前記領域
内の前記重心の軌跡に基づいて、前記対象物の振り動作
を認識する振り動作認識ステップとを含むことを特徴と
する画像処理方法。
6. An image capturing step of capturing an object to be gestured or gestured, an identification step of identifying an image captured by the processing of the image capturing step, and the image identified by the processing of the identification step being a predetermined image. An area dividing step of dividing into areas; a motion direction detecting step of detecting a motion direction in the area divided by the processing of the area dividing step; A center of gravity calculating step of calculating a center of gravity of the area; an evaluation value calculating step of calculating an evaluation value in the area; an area selecting step of selecting the area having the smallest evaluation value from the calculation result in the evaluation value calculating step And a grip for recognizing a gripping operation of the object in the area selected by the processing of the area selecting step. Image processing comprising: a crop recognition step; and a swing motion recognition step of recognizing a swing motion of the object based on a locus of the center of gravity in the area selected by the processing of the area selection step. Method.
【請求項7】 身振りまたは手振りを行う対象物を撮像
する撮像ステップと、 前記撮像ステップの処理により撮像された画像を識別す
る識別ステップと、 前記識別ステップの処理により識別された前記画像を所
定の領域に分割する領域分割ステップと、 前記領域分割ステップの処理により分割された前記領域
内の動き方向を検出する動き方向検出ステップと、 前記動き方向検出ステップでの検出結果に基づいて、前
記領域内の重心を算出する重心算出ステップと、 前記領域内の評価値を算出する評価値算出ステップと、 前記評価値算出ステップでの算出結果から、前記評価値
の最も小さい前記領域を選択する領域選択ステップと、 前記領域選択ステップの処理により選択された前記領域
内において、前記対象物の握り動作を認識する握り動作
認識ステップと、 前記領域選択ステップの処理により選択された前記領域
内の前記重心の軌跡に基づいて、前記対象物の振り動作
を認識する振り動作認識ステップとを含むことを特徴と
するコンピュータが読み取り可能なプログラムが記録さ
れている記録媒体。
7. An image capturing step of capturing an object to be gestured or gestured, an identification step of identifying an image captured by the processing of the image capturing step, and An area dividing step of dividing into areas; a motion direction detecting step of detecting a motion direction in the area divided by the processing of the area dividing step; A center of gravity calculating step of calculating a center of gravity of the area; an evaluation value calculating step of calculating an evaluation value in the area; an area selecting step of selecting the area having the smallest evaluation value from the calculation result in the evaluation value calculating step And a grip for recognizing a gripping operation of the object in the area selected by the processing of the area selecting step. A computer comprising: a crop recognition step; and a swing motion recognition step of recognizing a swing motion of the object based on a trajectory of the center of gravity in the area selected by the processing of the area selection step. A recording medium on which a readable program is recorded.
JP2000120367A 2000-04-21 2000-04-21 Image processor, its method and recording medium Withdrawn JP2001307107A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000120367A JP2001307107A (en) 2000-04-21 2000-04-21 Image processor, its method and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000120367A JP2001307107A (en) 2000-04-21 2000-04-21 Image processor, its method and recording medium

Publications (1)

Publication Number Publication Date
JP2001307107A true JP2001307107A (en) 2001-11-02

Family

ID=18631192

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000120367A Withdrawn JP2001307107A (en) 2000-04-21 2000-04-21 Image processor, its method and recording medium

Country Status (1)

Country Link
JP (1) JP2001307107A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004081783A1 (en) * 2003-03-14 2004-09-23 Fujitsu Limited Pointer area detecting device, method, and program, image relating device, method, and program, content distributing server, and content distributing method
JP2006091948A (en) * 2004-09-21 2006-04-06 Victor Co Of Japan Ltd Controller for electronic equipment
JP2008148287A (en) * 2006-11-03 2008-06-26 Samsung Electronics Co Ltd Motion tracking apparatus, method and medium
JP2009075713A (en) * 2007-09-19 2009-04-09 Toppan Printing Co Ltd Emotion judgment method
JP2009519552A (en) * 2005-12-12 2009-05-14 株式会社ソニー・コンピュータエンタテインメント Voice and video control of an interactive electronically simulated environment
JP2010003303A (en) * 2009-07-21 2010-01-07 Victor Co Of Japan Ltd Controller for electronic equipment
JP2010033158A (en) * 2008-07-25 2010-02-12 Sony Corp Information processing apparatus and information processing method
WO2011158599A1 (en) * 2010-06-14 2011-12-22 株式会社セガ Video game device, video game control program, and video game control method
WO2012147961A1 (en) 2011-04-28 2012-11-01 Necシステムテクノロジー株式会社 Information processing device, information processing method, and recording medium
JP2014078238A (en) * 2012-10-10 2014-05-01 Samsung Electronics Co Ltd Multi-display device and method for controlling the same
US20150055836A1 (en) * 2013-08-22 2015-02-26 Fujitsu Limited Image processing device and image processing method
US9400563B2 (en) 2009-07-17 2016-07-26 Samsung Electronics Co., Ltd Apparatus and method for recognizing subject motion using a camera
CN106781714A (en) * 2016-12-29 2017-05-31 武汉华育诺为信息技术有限公司 A kind of automatic examination practical traning platform based on image recognition
US9910059B2 (en) 2014-01-07 2018-03-06 Samsung Electronics Co., Ltd. Method and system for analyzing motion of subject using event-based sensor

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7341352B2 (en) 2003-03-14 2008-03-11 Fujitsu Limited Apparatus, method and program for detecting a pointer region, apparatus, method and program for associating images, content-distributing server, and content-distributing method
WO2004081783A1 (en) * 2003-03-14 2004-09-23 Fujitsu Limited Pointer area detecting device, method, and program, image relating device, method, and program, content distributing server, and content distributing method
JP2006091948A (en) * 2004-09-21 2006-04-06 Victor Co Of Japan Ltd Controller for electronic equipment
US7629959B2 (en) 2004-09-21 2009-12-08 Victor Company Of Japan, Limited Controller for electronic appliance
US8549442B2 (en) 2005-12-12 2013-10-01 Sony Computer Entertainment Inc. Voice and video control of interactive electronically simulated environment
JP2009519552A (en) * 2005-12-12 2009-05-14 株式会社ソニー・コンピュータエンタテインメント Voice and video control of an interactive electronically simulated environment
JP2008148287A (en) * 2006-11-03 2008-06-26 Samsung Electronics Co Ltd Motion tracking apparatus, method and medium
JP2009075713A (en) * 2007-09-19 2009-04-09 Toppan Printing Co Ltd Emotion judgment method
US9442601B2 (en) 2008-07-25 2016-09-13 Sony Corporation Information processing apparatus and information processing method
JP2010033158A (en) * 2008-07-25 2010-02-12 Sony Corp Information processing apparatus and information processing method
US9400563B2 (en) 2009-07-17 2016-07-26 Samsung Electronics Co., Ltd Apparatus and method for recognizing subject motion using a camera
JP2010003303A (en) * 2009-07-21 2010-01-07 Victor Co Of Japan Ltd Controller for electronic equipment
WO2011158599A1 (en) * 2010-06-14 2011-12-22 株式会社セガ Video game device, video game control program, and video game control method
US9492748B2 (en) 2010-06-14 2016-11-15 Kabushiki Kaisha Sega Video game apparatus, video game controlling program, and video game controlling method
WO2012147961A1 (en) 2011-04-28 2012-11-01 Necシステムテクノロジー株式会社 Information processing device, information processing method, and recording medium
US9367732B2 (en) 2011-04-28 2016-06-14 Nec Solution Innovators, Ltd. Information processing device, information processing method, and recording medium
JP2014078238A (en) * 2012-10-10 2014-05-01 Samsung Electronics Co Ltd Multi-display device and method for controlling the same
US20150055836A1 (en) * 2013-08-22 2015-02-26 Fujitsu Limited Image processing device and image processing method
US9910059B2 (en) 2014-01-07 2018-03-06 Samsung Electronics Co., Ltd. Method and system for analyzing motion of subject using event-based sensor
CN106781714A (en) * 2016-12-29 2017-05-31 武汉华育诺为信息技术有限公司 A kind of automatic examination practical traning platform based on image recognition

Similar Documents

Publication Publication Date Title
US7028269B1 (en) Multi-modal video target acquisition and re-direction system and method
CN104364733B (en) Gaze position detection device, fixation position detection method, and fixation position detection program
Van den Bergh et al. Combining RGB and ToF cameras for real-time 3D hand gesture interaction
US6400830B1 (en) Technique for tracking objects through a series of images
CN110427905A (en) Pedestrian tracting method, device and terminal
JP2001307107A (en) Image processor, its method and recording medium
CN112506340B (en) Equipment control method, device, electronic equipment and storage medium
WO2007105768A1 (en) Face-image registration device, face-image registration method, face-image registration program, and recording medium
JP2015222591A (en) Human computer interaction system, hand-to-hand pointing point positioning method, and finger gesture determination method
WO2014021760A2 (en) Improved identification of a gesture
CN102236413A (en) Interface apparatus and gesture recognition method
JP3970877B2 (en) Tracking device and tracking method
CN113689365B (en) A target tracking and positioning method based on Azure Kinect
JP2013105305A (en) Gesture recognition apparatus, method therefor, and program therefor
WO2020253475A1 (en) Intelligent vehicle motion control method and apparatus, device and storage medium
JP2010057105A (en) Three-dimensional object tracking method and system
JP5510907B2 (en) Touch position input device and touch position input method
CN111367415A (en) A device control method, device, computer equipment and medium
Yousefi et al. 3D gesture-based interaction for immersive experience in mobile VR
US9947106B2 (en) Method and electronic device for object tracking in a light-field capture
JP2001016606A (en) Motion recognition system and recording medium recording motion recognition program
CN101398896A (en) Device and method for extracting color characteristic with strong discernment for image forming apparatus
WO2024012367A1 (en) Visual-target tracking method and apparatus, and device and storage medium
JP2002366958A (en) Image recognition method and image recognition device
JP2004248725A (en) Hitting ball analysis apparatus and method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070703