JP2017045198A - Controller and control method - Google Patents
Controller and control method Download PDFInfo
- Publication number
- JP2017045198A JP2017045198A JP2015166180A JP2015166180A JP2017045198A JP 2017045198 A JP2017045198 A JP 2017045198A JP 2015166180 A JP2015166180 A JP 2015166180A JP 2015166180 A JP2015166180 A JP 2015166180A JP 2017045198 A JP2017045198 A JP 2017045198A
- Authority
- JP
- Japan
- Prior art keywords
- image
- position information
- hand
- control device
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、ジェスチャで表示装置にコマンドを入力することが可能な、表示画像を操作するシステムに関するものである。特にユーザが手で特定の動作をすることで、表示装置に対して直感的な操作を行うことができる制御装置及び制御方法に関するものである。 The present invention relates to a system for manipulating a display image in which a command can be input to a display device by a gesture. In particular, the present invention relates to a control device and a control method that allow a user to perform an intuitive operation on a display device by performing a specific operation by hand.
画像表示を制御するためのユーザインターフェースとして、ユーザのジェスチャを認識してジェスチャに応じたコマンドを入力する技術がある。例えば、手の動きに合わせて画面に表示されたカーソル位置を制御することができる。この技術では、カメラで撮像した動画像から、撮像範囲内における手の動きを検出してジェスチャを判別する。このユーザインタフェースによれば、従来に比べて直感的な方法でユーザの意図するコマンドをシステムに入力することが可能となる。ジェスチャ検出用のカメラの撮像範囲内でユーザがジェスチャすることで表示画面を制御するためのコマンドを入力できる。ユーザの手指を用いた直感的なコマンド入力技術としては、特許文献1に、タッチパネル面に対する指によるタッチ動作により線画像を描画(以下、マーキング)するコマンドを入力する技術が開示されている。
As a user interface for controlling image display, there is a technique for recognizing a user's gesture and inputting a command corresponding to the gesture. For example, the cursor position displayed on the screen can be controlled in accordance with the movement of the hand. In this technique, gestures are discriminated by detecting hand movements within an imaging range from a moving image captured by a camera. According to this user interface, it is possible to input a command intended by the user into the system in an intuitive manner compared to the conventional case. A command for controlling the display screen can be input by the user performing a gesture within the imaging range of the gesture detection camera. As an intuitive command input technique using a user's finger,
マーキングのコマンド入力をジェスチャで行うことを考えた場合、例えば、手の形状を、人差し指を伸ばして、その他4本の指を閉じた状態(以下、「ポイント状態」という)にして手を動かすことが考えられる。このジェスチャにより、表示画面内のカーソルを移動させ、カーソルの軌跡に沿ってマーキングするコマンドを入力することが考えられる。しかしながら、ジェスチャ検出用のカメラ等の撮像範囲には限界がある。撮像範囲内にある人差し指の位置情報に基づいて表示画像に対してマーキングをしているときに、人差し指が撮像範囲外に移動してしまうと、マーキングが途切れてしまう。これが課題になる状況を図17を用いて説明する。図17(C)のような元画像を図17(B)のように拡大表示した状態で、ユーザが所望の領域をマーキングするコマンドをジェスチャで入力する状況である。図17(A)のように、ユーザの手の動きが撮像範囲の外に出てしまうと、図17(B)のように半円状のマーキングになってしまい、図17(C)のように拡大表示を解除して元画像の表示に戻した場合に、不自然なマーキング結果になってしまう。 If you consider using a gesture to input marking commands, for example, move your hand with the index finger extended and the other four fingers closed (hereinafter referred to as the “point state”). Can be considered. With this gesture, it is conceivable to move a cursor in the display screen and input a command for marking along the locus of the cursor. However, there is a limit to the imaging range of a gesture detection camera or the like. When the display image is marked based on the position information of the index finger within the imaging range, if the index finger moves out of the imaging range, the marking is interrupted. A situation in which this becomes a problem will be described with reference to FIG. In this state, the user inputs a command for marking a desired region with a gesture while the original image as shown in FIG. 17C is enlarged and displayed as shown in FIG. 17B. If the movement of the user's hand goes out of the imaging range as shown in FIG. 17A, the marking becomes a semicircular marking as shown in FIG. 17B, and as shown in FIG. When the enlarged display is canceled and the original image is displayed again, an unnatural marking result is obtained.
特許文献1では、指示体(例えばカーソル)がタッチパネル外に移動した場合、ユーザの意図によるものとは解釈せずに、コマンド入力の無効化、警告、適切な範囲への誘導等を行うことで、ユーザの操作性を向上している。しかし、ジェスチャによるコマンド入力技術では、空間内に設定される撮像範囲外でジェスチャが行われてしまう状況が起こりやすいと考えられる。そのような場合でもジェスチャ入力を無効化するのではなくユーザの意図したジェスチャを正確に認識できることが望ましい。
In
本発明は、所定の撮像範囲内で行われるジェスチャを認識してコマンドを出力する制御装置において、ジェスチャが撮像範囲外に出てしまった場合でもジェスチャを精度良く認識しユーザの意図したコマンドを出力できるようにすることを目的とする。 The present invention provides a control device that recognizes a gesture performed within a predetermined imaging range and outputs a command, and accurately recognizes the gesture and outputs a command intended by the user even when the gesture goes out of the imaging range. The purpose is to be able to.
本発明は、撮像手段と、
前記撮像手段の撮像により得られた画像から被写体の所定の第1部位の位置を取得する取得手段と、
前記第1部位の位置に基づきコマンドを出力する出力手段と、
を備え、
前記取得手段は、前記画像から前記第1部位の位置を取得できない場合、前記画像から、前記第1部位の位置を推測するための所定の第2部位の位置を取得し、前記第2部位の位置に基づき前記第1部位の位置を推測することにより、前記第1部位の位置を取得する制御装置である。
The present invention comprises an imaging means;
Obtaining means for obtaining a position of a predetermined first part of the subject from an image obtained by imaging of the imaging means;
Output means for outputting a command based on the position of the first part;
With
When the acquisition unit cannot acquire the position of the first part from the image, the acquisition unit acquires a position of a predetermined second part for estimating the position of the first part from the image. It is a control device that acquires the position of the first part by estimating the position of the first part based on the position.
本発明は、撮像工程と、
前記撮像工程により得られた画像から被写体の所定の第1部位の位置を取得する取得工程と、
前記第1部位の位置に基づきコマンドを出力する出力工程と、
を有し、
前記取得工程では、前記画像から前記第1部位の位置を取得できない場合、前記画像から、前記第1部位の位置を推測するための所定の第2部位の位置を取得し、前記第2部位の位置に基づき前記第1部位の位置を推測することにより、前記第1部位の位置を取得する制御方法である。
The present invention includes an imaging step;
An acquisition step of acquiring a position of a predetermined first part of the subject from the image obtained by the imaging step;
An output step of outputting a command based on the position of the first part;
Have
In the obtaining step, when the position of the first part cannot be obtained from the image, a position of a predetermined second part for estimating the position of the first part is obtained from the image, and the position of the second part is obtained. In this control method, the position of the first part is acquired by estimating the position of the first part based on the position.
本発明によれば、所定の撮像範囲内で行われるジェスチャを認識してコマンドを出力する制御装置において、ジェスチャが撮像範囲外に出てしまった場合でもジェスチャを精度良く認識しユーザの意図したコマンドを出力できるようになる。 According to the present invention, in a control device that recognizes a gesture performed within a predetermined imaging range and outputs a command, even if the gesture goes out of the imaging range, the gesture is accurately recognized and the command intended by the user Can be output.
(実施例1)
本発明の実施例1について、説明する。
図1は、撮像装置100、表示制御装置200、表示装置400からなるシステム構成
の概要図である。
撮像装置100は、撮像範囲101を撮像して得られた画像データを表示制御装置200に出力する。
表示制御装置200は、撮像範囲101内の所定の被写体の所定の第1部位の位置を取得し、第1部位の位置に基づきコマンドを出力する。実施例1では、所定の被写体はユーザ102の手104であり、第1部位はユーザ102の手104の部位のうち手104の位置の指標となる所定の指の所定の部位である。表示制御装置200は、第1の部位の位置の取得を複数回、繰り返して行い、第1部位の位置の履歴に基づき被写体の動きを認識し、被写体の動きに対応するコマンドを出力する。実施例1では、表示制御装置200は、ユーザ102の手104の動き及び形状を取得し、それに基づき、ジェスチャを判定し、ユーザ102が入力した画像処理のコマンドを判定する。表示制御装置200は、コマンド内容に応じて、表示装置400に表示する画像401に対する画像処理を制御する。例えば、ユーザ102が、撮像範囲101内で手104を動かした場合、表示制御装置200は、撮像範囲101と手104の人差し指の先端との位置関係に基づき、人差し指の先端の位置に対応する表示画像401における位置を求める。そして、表示画像401の当該位置にカーソル402を合成する画像処理を行う。
Example 1
Example 1 of the present invention will be described.
FIG. 1 is a schematic diagram of a system configuration including an
The
The
図2は、本発明を適用した表示制御装置200の構成例を示すブロック図である。
表示制御装置200は、データ保存部201、画像入力部202、表示制御部203、撮像画像入力部204、特定部205、位置情報決定部206、位置情報補正部207、ジェスチャ判定部208、補正モデル保持部209を備える。また、表示制御装置200は、不図示のCPU、ROM、及びRAMを備える。CPUは、ROMに格納されたプログラムに従い、RAMをワークメモリとし、タイマーを使用して時間管理を行い、表示制御装置200全体の動作を制御する。
FIG. 2 is a block diagram illustrating a configuration example of the
The
データ保存部201は、表示装置400に表示する静止画像を保存する。
画像入力部202は、データ保存部201から複数の静止画像を入力し、画像順番等のインデックス情報を静止画像に付加し、表示制御部203へ静止画像を出力する。
表示制御部203は、入力された静止画像にGUI(Graphical User Interface)を構成する画像部品(画像切替えのためのボタンやカーソル等)を合成描画した上で、出力画像を生成し、出力画像を表示装置400に出力する。
撮像画像入力部204は、撮像装置100から撮像によって得られた撮像画像を入力し、特定部205へ撮像画像を出力する。
The
The
The
The captured
特定部205は、入力された撮像画像内に含まれる手と指を特定し、手情報handを生成する。特定部205は、位置情報決定部206へ撮像画像及び手情報handを出力する。ここで、手情報handとは、少なくとも、異なる手の形状を判別できる情報とする。例えば、図3(A)は握った形状(クローズ状態)の手に対応する手情報hand、図3(B)は人差し指を伸ばした形状(ポイント状態)の手に対応する手情報handを示す。図3の例では、手情報handは、手、親指、人差し指、中指、薬指、小指の有無を示す値の組み合わせで示される。手の形状はこれに限らない。例えば手を開いた形状(オープン状態)や、人差し指と中指を伸ばした形状等、種々の形状が考えられるがここでは記載を割愛する。
The specifying
位置情報決定部206は、手情報handから撮像画像内の手104の各部位の位置情報posを決定する。ここで、手104の各部位とは、手首、手の中心、各指の付け根、各指の先端であり、位置情報posはこれら各部位の位置情報を含む。例えば、図4(A)はクローズ状態の手に対応する位置情報pos、図4(B)はポイント状態の手に対応する位置情報posを示す。手の一部の指が開いていないような状態や手の一部の指の先端が撮像範囲外に位置する場合、該指の先端の位置情報の値はNULLになるものとする
。位置情報決定部206は、手の各部位の位置情報posを位置情報補正部207に出力する。
The position
位置情報補正部207は、手104の各部位の位置情報posを補正する。位置情報補正部207は、手104の各部位の位置情報pos及びRAMに保存されている前回判定したジェスチャ情報ges(t−1)が特定の条件を満たした場合に補正を行う。位置情報補正部207は、予め補正モデル保持部209に記憶した補正モデル情報mdlを用いて補正を行う。補正モデル情報及び補正方法の詳細は後述する。
The position
位置情報補正部207は、手104の各部位の位置情報posに基づき、手104の位置の指標となる部位(指標部位)の位置情報iposを求める。指標部位の位置情報iposは、カーソル制御及びマーキングの制御で用いられる。例えば、カーソル制御及びマーキングのコマンド入力を行うためのジェスチャは人差し指を伸ばしたポイント状態であり、この状態の手の位置の指標となる部位は人差し指の先端である。この場合、カーソル制御及びマーキング用の指標部位の位置情報iposとは、具体的にはポイント状態の手の位置情報posのうち、人差し指の先端の位置情報である。
Based on the position information pos of each part of the
位置情報補正部207は、手104の各部位の位置情報posをジェスチャ判定部208に出力し、カーソル制御及びマーキング用の指標部位の位置情報iposを表示制御部203に出力する。また、位置情報補正部207は、今回の指標部位の位置情報ipos(t)をRAM上に保持する。引数(t)は今回取得した位置情報であることを意味する。引数(t−1)は前回取得した位置情報であることを意味する。
The position
ジェスチャ判定部208は、手の各部位の位置情報posと手形状ジェスチャ対応テーブルとに基づき、ジェスチャgesを判定する。ここで、手形状ジェスチャ対応テーブルとは、手の各部位の位置情報posにおける各部位の値の有無の組み合わせと、その組み合わせに対応するジェスチャgesと、の対応関係を表すテーブルである。図5に手形状ジェスチャ対応テーブルの一例を示す。図5において、手の各部位の位置情報posにおける値の有無は、位置情報の値がNULLであれば「無」、NULL以外であれば「有」で示す。例えば、手の各部位の位置情報posにおいて、全ての部位の位置情報がNULL以外である場合は、ジェスチャgesは全ての指を伸ばした状態Openであると判断される。全ての指について先端部位の値が「無」の場合、手を握った状態Closeである。人差し指のみ先端部位の値が「有」の場合、人差し指を伸ばした状態Pointである。ジェスチャ判定部208は、ジェスチャ情報ges(t)をRAMに保持する。ジェスチャ判定部208は、表示制御部203へコマンド決定指示を出力する。
The
表示制御部203は、カーソル制御部210、コマンド決定部211、描画部212、及び画像出力部213を備える。
The
カーソル制御部210は、位置情報補正部207から入力されたカーソル制御用の指標部位の位置情報iposから、カーソル位置情報cposを算出する。カーソル制御部210は、カーソル位置情報cpos(t)をRAM上に保存する。カーソル制御部210は、カーソル位置情報cposを描画部212へ出力する。
The
コマンド決定部211は、RAMに格納されたジェスチャ履歴ges(n)とジェスチャ変換テーブルに基づき、コマンド情報opeを求める。ジェスチャ履歴gen(n)は、ここでは、今回(t)と前回(t−1)のジェスチャ判定結果genの組み合わせ、又は、今回(t)と前回(t−1)と前々回(t−2)のジェスチャ判定結果genの組み合わせとする。ジェスチャ変換テーブルとは、ジェスチャ履歴ges(n)に対応するコマンドを表すテーブルである。図6にジェスチャ変換テーブルの一例を示す。コマンド決
定部211は、コマンド情報opeを描画部212へ出力する。
The
描画部212は、静止画像、コマンド情報ope、及びカーソル位置情報cposに基づき、マーキング等の画像を合成(重畳)し、指定の拡大率で拡大・縮小した静止画像にカーソルの画像を合成し、出力画像として画像出力部213へ出力する。
画像出力部213は、出力画像を表示装置400へ出力し、画像表示401が得られる。
The
The
次にシステム構成全体の動作について、図7に示すフローチャートを用いて説明する。
ユーザ102が撮像装置100、表示制御装置200、及び表示装置400の電源オン操作を行うと、電源オンをトリガとして、本フローチャートの処理は開始される。
Next, the operation of the entire system configuration will be described using the flowchart shown in FIG.
When the
S701において、画像入力部202は、データ保存部201から静止画像を取得する。図8に静止画像の例を示す。画像入力部202は、描画部212へ静止画像を出力する。描画部212は、縦1920×横1080画素からなる表示画像を生成する。描画部212は、表示画像を画像出力部213へ出力する。画像出力部213は、表示装置400に表示画像を出力することで、表示装置400において画像表示401が実現する。
In step S <b> 701, the
S702において、撮像装置100は、表示制御装置200の表示装置400への画像表示の完了をトリガとして、撮像を開始する。撮像開始後、ユーザ102は、撮像範囲101内で手104によりジェスチャすることで表示制御装置200にコマンドを入力することができる。
In step S <b> 702, the
<補正が不要な場合の処理>
次に、撮像画像から被写体の第1部位の位置を取得できる場合の処理を説明する。具体的な実施例1の処理として、静止画像にマーキングを行うコマンドをジェスチャ入力する処理において、手・指の位置情報の補正が不要である場合について、図9に示すフローチャートを用いて説明する。撮像画像入力部204への撮像画像の入力をトリガとして、表示制御装置200は本フローチャートを開始する。
ここで、撮像画像は横160×縦90画素とする。ユーザ102は、図12(A)に示すように、手をポイント状態にしているものとする。
<Processing when correction is not required>
Next, processing when the position of the first part of the subject can be acquired from the captured image will be described. As a specific process of the first embodiment, a case where correction of hand / finger position information is not necessary in a process of inputting a command for marking a still image will be described with reference to a flowchart shown in FIG. The
Here, the captured image is 160 × 90 pixels. As shown in FIG. 12A, the
S901において、撮像画像入力部204は、特定部205へ撮像画像を出力する。特定部205は、入力された撮像画像に写っている手と指を特定する。特定部205の処理は、予めROMに記憶した手の形状、輪郭、シルエット等の情報に基づいて行われる。次に、特定部205は、手情報handを生成する。ここでは、手104は図12(A)のようにポイント状態であるため、手情報handは、図3(A)のように、手1、親指0、人差し指1、中指0、薬指0、小指0となる。特定部205は、位置情報決定部206へ撮像画像と手情報handを出力する。
In step S <b> 901, the captured
S902において、位置情報決定部206は、撮像画像と手情報handとから手104の各部位の位置情報posを決定する。ここでは、図4(B)に示すような手104の各部位の位置情報posが得られる。S901で得られた手情報hand(図3(B))において人差し指以外の指の値が「0」であるため、位置情報posは、指の先端の位置情報については、人差し指以外の指は値を持たない(NULLとなる)。位置情報決定部206は、手104の各部位の位置情報posを位置情報補正部207に出力する。
In step S <b> 902, the position
S903において、位置情報補正部207は、手104の各部位の位置情報posを参照し、人差し指の先端の位置情報があるか判定する。ある場合(S903:Yes)、位置情報補正部207は、位置情報posの補正は不要と判断し、S902で取得した手1
04の各部位の位置情報posをジェスチャ判定部208に出力する。ここでは手104がポイント状態であるため、位置情報補正部207は、位置情報posのうち人差し指の先端の位置情報をカーソル制御用の指標部位の位置情報ipos(xi、yi)として、カーソル制御部210へ出力する。位置情報補正部207は、指標部位の位置情報ipos(xi、yi)(t)をRAM上に保持する。処理はS906に進む。なお、手104の各部位の位置情報posに人差し指の先端の位置情報がない場合(S903:No)については、後述する。
In step S <b> 903, the position
The position information pos of each part 04 is output to the
S906において、ジェスチャ判定部208は、手104の各部位の位置情報posと手形状ジェスチャ対応テーブルとに基づき、ジェスチャgesを判定する。ジェスチャ判定部208は、S903で位置情報補正部207から取得した手の各部位104の位置情報pos(図12(B))において、人差し指のみ先端の位置情報があるため、ジェスチャgesはPointと判定する。ジェスチャ判定部208は、ジェスチャ情報gesをジェスチャ履歴ges(t)に設定し、RAMに保持する。ジェスチャ判定部208は、コマンド決定部211へジェスチャgesを出力する。
In step S <b> 906, the
S907において、コマンド決定部211は、RAMに保存されているジェスチャges(n)とジェスチャ変換テーブル(図6)とに基づき、コマンド情報opeを求める。ここでは、ジェスチャ履歴ges(t−1)及びges(t)がPointであったとする。この場合、コマンド決定部211は、コマンドをマーキング及びカーソル移動と決定する。コマンド決定部211は、コマンド情報ope(マーキング及びカーソル移動)を描画部212へ出力する。
In step S907, the
S908において、カーソル制御部210は、位置情報補正部207から入力された指標部位の位置情報ipos(xi、yi)に基づき、カーソル位置情報cpos(xc、yc)を算出する。ここで、カーソル制御部210は、撮像画像と出力画像の画素数比に基づき、xc、ycを下記式より算出し、カーソル位置情報cpos(xc、yc)の座標を求める。
xc=xi×出力画像の横画素数÷撮像画像の横画素数
yc=yi×出力画像の縦画素数÷撮像画像の縦画素数
図12(B)に示すように、指標部位の位置情報iposが(130、50)である場合には、上記式よりカーソル位置情報cposは(1560、600)となる。カーソル制御部210は、カーソル位置情報cposを描画部212へ出力する。
In S908, the
xc = xi × number of horizontal pixels of output image ÷ number of horizontal pixels of captured image yc = yi × number of vertical pixels of output image ÷ number of vertical pixels of captured image
As shown in FIG. 12B, when the position information ipos of the index part is (130, 50), the cursor position information cpos is (1560, 600) from the above formula. The
S909において、描画部212は、S907で決定されたコマンド情報opeと、S908で求められたカーソル位置情報cposとに基づき、描画処理を実行する。ここではコマンド情報opeにマーキングが含まれている。そのため、描画部212は、RAM上に保存されているカーソル位置情報cpos(t−1)と、カーソル位置情報cpos(t)とに基づき、これらの点を結ぶラインを静止画像に合成することによりマーキングの画像処理を行う。また、コマンド情報opeにカーソル移動が含まれているため、描画部212は、カーソル位置情報cposで示される位置において静止画像にカーソルを示す画像を合成する。その後、描画部212は、マーキング(ライン)及びカーソルを合成した静止画像を出力画像として画像出力部213へ出力する。
In step S909, the
S910において、画像出力部213は、出力画像を表示装置400へ出力し、画像表示401が得られる。これにより、図12(C)に示すように、元の静止画像に対し、ユーザ102の手104のジェスチャに応じたカーソル及びマーキングをすることができる。
In S910, the
<補正が必要な場合の処理>
次に、撮像画像から被写体の第1部位の位置を取得できない場合の処理を説明する。この場合、表示制御装置200は、撮像画像から、第1部位の位置を推測するための所定の第2部位の位置を取得し、第2部位の位置に基づき第1部位の位置を推測することにより、第1部位の位置を取得する。そして、推測して得られた第1部位の位置に基づくコマンドを出力する。具体的な実施例1の処理として、静止画像にマーキングを行うコマンドをジェスチャ入力する処理において、手・指の位置情報の補正が必要となる場合について図9に示すフローチャートを用いて説明する。撮像画像入力部204への撮像画像の入力をトリガとして、表示制御装置200は本フローチャートを開始する。
ここで、撮像画像は横160×縦90画素とする。ユーザ102は、図13(A)に示すように、手をポイント状態にしていて、人差し指の先端が撮像範囲外に位置しているものとする。
<Processing when correction is required>
Next, processing when the position of the first part of the subject cannot be acquired from the captured image will be described. In this case, the
Here, the captured image is 160 × 90 pixels. As shown in FIG. 13A, it is assumed that the
S901において、撮像画像入力部204は、特定部205へ撮像画像を出力する。特定部205は、入力された撮像画像に基づき手情報handを生成する。ここで、図13(A)のように、手104は実際にはポイント状態であるが、人差し指の先端が撮像範囲外にあるため、手情報handは、図3(A)のように手1、親指0、人差し指0、中指0、薬指0、小指0となる。特定部205は、位置情報決定部206へ撮像画像と手情報handを出力する。
In step S <b> 901, the captured
S902において、位置情報決定部206は、撮像画像と手情報handとから手104の各部位の位置情報posを決定する。ここでは、図4(A)に示すような手104の各部位の位置情報posが得られる。S901で得られた手情報hand(図3(A))において、全ての指の値が「0」であるため、位置情報posは、指の先端の位置情報については、全ての指で値を持たない(NULLとなる)。位置情報決定部206は、手104の各部位の位置情報posを位置情報補正部207に出力する。
In step S <b> 902, the position
S903において、位置情報補正部207は、手104の各部位の位置情報posを参照し、人差し指の先端の位置情報があるか(第1部位の位置を取得できるか)判定する。ここでは、位置情報補正部207は、手104の各部位の位置情報posを参照し、人差し指の先端の位置情報がないと判断し(S903:No)、S904へ進む。
In step S903, the position
S904において、位置情報補正部207は、RAM上のジェスチャ履歴ges(t−1)を参照し、前回のジェスチャがPointであるか判断する。前回のジェスチャがPointである場合(S904:Yes)、位置情報補正部207は、Pointジェスチャが継続していると判断し、S905へ進む。前回のジェスチャがPointでない場合(S904:No)、処理はS906へ進む。
In step S904, the position
S905において、位置情報補正部207は、カーソル制御及びマーキング用の指標部位である人差し指先端の位置情報を求めるために、手104の各部位の位置情報posの補正処理を行う。補正処理の詳細については、後述する。ここで、手104の各部位の位置情報posの補正処理の結果、手104はPoint状態であり、人差し指の先端の位置情報は160×90画素の撮像画像の範囲外の(170、60)となるものとする。位置情報補正部207は、補正後の手104の状態はポイント状態であるため、カーソル制御用の指標部位の位置情報ipos(xi、yi)として、補正後の手104の各部位の位置情報posにおける人差し指の先端の位置情報をカーソル制御部210へ出力する。位置情報補正部207は、指標部位の位置情報ipos(xi、yi)(t)をRAM上に保持する。処理はS906に進む。
In step S <b> 905, the position
S906において、ジェスチャ判定部208は、手104の各部位の位置情報posと手形状ジェスチャ対応テーブルとに基づき、ジェスチャgesを判定する。ジェスチャ判定部208は、S905で補正された手の各部位104の位置情報pos(図13(B))において、人差し指のみ先端の位置情報があるため、ジェスチャgesはPointと判定する。ジェスチャ判定部208は、ジェスチャ情報gesをジェスチャ履歴ges(t)に設定し、RAMに保持する。ジェスチャ判定部208は、コマンド決定部211へジェスチャgesを出力する。
In step S <b> 906, the
S907において、コマンド決定部211は、RAMに保存されているジェスチャges(n)とジェスチャ変換テーブル(図6)とに基づき、コマンド情報opeを求める。ここでは、ジェスチャ履歴ges(t−1)及びges(t)がPointであったとする。この場合、コマンド決定部211は、コマンドをマーキング及びカーソル移動と決定する。コマンド決定部211は、コマンド情報ope(マーキング及びカーソル移動)を描画部212へ出力する。
In step S907, the
S908において、カーソル制御部210は、位置情報補正部207から入力された指標部位の位置情報ipos(xi、yi)に基づき、カーソル位置情報cpos(xc、yc)を算出する。ここで、カーソル制御部210は、撮像画像と出力画像の画素数比に基づき、xc、ycを下記式より算出し、カーソル位置情報cpos(xc、yc)の座標を求める。
xc=xi×出力画像の横画素数÷撮像画像の横画素数
yc=yi×出力画像の縦画素数÷撮像画像の縦画素数
図13(B)に示すように、指標部位の位置情報iposが(170、60)である場合には、上記式よりカーソル位置情報cposは(2040、720)となる。カーソル制御部210は、カーソル位置情報cposを描画部212へ出力する。
In S908, the
xc = xi × number of horizontal pixels of output image ÷ number of horizontal pixels of captured image yc = yi × number of vertical pixels of output image ÷ number of vertical pixels of captured image
As shown in FIG. 13B, when the position information ipos of the index part is (170, 60), the cursor position information cpos is (2040, 720) from the above formula. The
S909において、描画部212は、S907で決定されたコマンド情報opeと、S908で求められたカーソル位置情報cposとに基づき、描画処理を実行する。ここではコマンド情報opeにマーキングが含まれているため、描画部212は、RAM上に保存されているカーソル位置情報cpos(t−1)と、カーソル位置情報cpos(t)とに基づき、これらの点を結ぶラインを求め、マーキングの画像処理を行う。
In step S909, the
ここでは、指標部位の位置情報iposが撮像範囲外の位置(170、60)であり、カーソル位置情報cposが表示装置400に表示される範囲外の位置(2040、720)であるため、描画部212は、静止画像にラインを合成する画像処理は行わない。しかし、ラインの情報は保持しておき、今後、表示画像の移動、拡大及び縮小の少なくともいずれかの画像処理により当該ラインが表示装置400に表示される範囲内に入った場合に、保持したラインの情報に基づき当該ラインを表示画像に合成する画像処理を行う。これにより、不自然でないマーキングを実現する。例えば、元の静止画像が拡大表示された状態でマーキングが行われている場合、表示範囲外の位置(2040、720)にも元の静止画像のデータが存在するので、拡大表示が解除された場合には、当該位置が表示範囲内の位置になる。このような場合に、拡大表示時に表示範囲外にあったマーキングの情報を持っているので、拡大表示解除時に適切な位置にマーキングを合成することができる。
Here, since the position information ipos of the index part is a position outside the imaging range (170, 60) and the cursor position information cpos is a position outside the range displayed on the display device 400 (2040, 720), the
また、コマンド情報opeにカーソル移動が含まれているため、描画部212は、カーソル位置情報cposで示される位置において静止画像にカーソルを示す画像を合成する。ここでは、指標部位の位置情報iposが撮像範囲外の位置(170、60)であり、カーソル位置情報cposが表示装置400に表示される範囲外の位置(2040、72
0)である。そのため、描画部212は、表示範囲外にあるカーソルの位置を示す画像を静止画像に合成する。図13(C)の例では、xプラス方向の範囲外にカーソルが位置していることがユーザに分かるように、(1920、720)の位置に、xプラス方向を指した矢印画像を合成している。これにより、カーソルが表示範囲外にどの位置しているかユーザが認識することができる。
その後、描画部212は、マーキング(ライン)及び表示範囲外にあるカーソルの位置を示す画像を合成した静止画像を出力画像として画像出力部213へ出力する。
Since the command information ope includes cursor movement, the
0). Therefore, the
After that, the
S910において、画像出力部213は、出力画像を表示装置400へ出力し、画像表示401が得られる。
これにより、図13(C)に示すように、ユーザ102がジェスチャによるコマンド入力をしている途中で、マーキングやカーソル制御の指標部位である人差し指の先端が撮像範囲外に出てしまった場合でも、マーキングが継続される。
In S910, the
As a result, as shown in FIG. 13C, even if the tip of the index finger, which is an index part for marking or cursor control, is out of the imaging range while the
<補正処理>
次に、図10を用いて、位置情報補正部207における手104の各部位の位置情報posの補正処理フローについて説明する。
<Correction process>
Next, the correction processing flow of the position information pos of each part of the
S1001において、位置情報補正部207は、予め補正モデル保持部209に記憶してある補正モデル情報mdlを取得する。補正モデル情報とは、図11に示すような、手の状態がPointジェスチャ時の、手の各部位の位置関係を数値化したものである。図11の例では、手首の位置を(0、0)、人差し指の先端の位置を(x、y)とした場合の、手の各部位の位置と人差し指の先端の位置との位置関係を補正係数(x係数、y係数)として表している。ここでは、補正モデル保持部209には、手首の回転角度に応じた複数の補正モデルが記憶されているものとする。位置情報補正部207は、手104の各部位の位置情報posの数値と補正モデル情報mdlの各係数とを比較し、現在の手の状態に最も近い形状モデルに基づき求められた補正モデルを使用することで、補正の精度を向上する。補正モデルは、被写体(実施例1の場合はユーザの手)の形状モデルにおける第1の部位と第2の部位との位置関係に基づき定められたものである。
In step S1001, the position
S1002において、位置情報補正部207は、S1001で取得した補正モデル情報mdlに基づき、人差し指の先端の補正位置情報を算出する。ここでは、図11の補正モデル情報mdlを使用する例について説明する。補正モデル情報mdlを使用することで、少なくとも2点の位置情報が取得できていれば、人差し指の先端の補正位置情報を算出することができる。例えば、手首及び手の中心の2点の位置情報から人差し指の先端の補正位置情報を算出する式は以下のようになる。
xp=(xh−xn)/mh+xn
yp=(yh−yn)/nh+yn
ここで、人差し指先端の補正位置情報を(xp、yp)、手首の位置情報を(xn、yn)、手の中心の位置情報を(xh、yh)、手の中心の補正係数を(mh、nh)とする。人差し指の先端の位置が第1部位の位置であり、人差し指の先端の位置を求めるための複数(少なくとも2点)の位置が、第1部位の位置を推測するための第2部位の位置である。このように、本発明では撮像画像から第1部位の位置を取得できない場合、第2部位の位置から第1部位の位置を推測することにより取得する。推測する際には、上記のように、第1部位の位置と第2部位の位置との予め定められた対応関係である補正モデルの情報を記憶手段に記憶させておき、この対応関係に基づき第2部位の位置から第1部位の位置を推測する。
In step S1002, the position
xp = (xh−xn) / mh + xn
yp = (yh-yn) / nh + yn
Here, the corrected finger tip correction position information is (xp, yp), the wrist position information is (xn, yn), the hand center position information is (xh, yh), and the hand center correction coefficient is (mh, yh). nh). The position of the tip of the index finger is the position of the first part, and a plurality of (at least two points) positions for obtaining the position of the tip of the index finger are the positions of the second part for estimating the position of the first part. . Thus, in the present invention, when the position of the first part cannot be acquired from the captured image, the position of the first part is acquired from the position of the second part. When estimating, as described above, information on the correction model, which is a predetermined correspondence between the position of the first part and the position of the second part, is stored in the storage unit, and based on this correspondence The position of the first part is estimated from the position of the second part.
図13(B)の例では、手首の位置情報が(140、45)、手の中心の位置情報が(150、50)であり、図11の補正モデル情報mdlより手の中心の補正係数が(0.33、0.33)である。この場合、上記式より人差し指先端の補正位置情報は(170、60)となる。 In the example of FIG. 13B, wrist position information is (140, 45), hand center position information is (150, 50), and the hand center correction coefficient is based on the correction model information mdl of FIG. (0.33, 0.33). In this case, the corrected position information of the tip of the index finger is (170, 60) from the above formula.
S1003において、位置情報補正部207は、S1002で算出した人差し指先端の補正位置情報(xp、yp)が撮像範囲外かどうかを判別する。ここでは、160×90画素の撮像範囲に対して、人差し指先端の補正位置情報(xp、yp)は(170、60)でありプラスx方向で撮像範囲を超えているため、位置情報補正部207は撮像範囲外と判断する。人差し指先端の補正位置情報(xp、yp)が撮像範囲外の場合(S1003:Yes)、S1004へ進み、それ以外の場合、このフローチャートの処理を終了する。
In step S1003, the position
S1004において、位置情報補正部207は、上記判断によって、撮像範囲外においてPointジェスチャが継続していると判断する。そして、手104の各部位の位置情報posの人差し指先端の位置情報を、S1003で算出した人差し指先端の補正位置情報(xp、yp)に置き換える。結果として、人差し指先端の位置情報を(NULL、NULL)から(170、60)に補正した手104の各部位の位置情報posが出力される。
In step S <b> 1004, the position
以上のように、本発明では、撮像装置により所定の撮像範囲を撮像して得られた撮像画像から第1部位及び第2部位の位置を取得する。そして、第1部位が撮像範囲外にあり、かつ第2部位が撮像範囲内にある場合、第2部位の位置に基づき第1部位の位置を推測する。
実施例1によれば、図14(A)に示すように、ユーザのジェスチャが撮像範囲外に移動した場合においてもマーキングを途切れることなく継続することができる。表示範囲外のマーキングの情報を保持しておくことにより、移動、拡大、縮小等の画像処理により当該マーキングが表示範囲内になったときに当該マーキングを描画することができる。このように、実施例1では、ユーザ102が、ジェスチャ操作によるマーキングの途中で、手が撮像範囲外に出てしまった場合でも、自然な、ユーザの意図に沿ったマーキングが可能となり、操作性が向上する。
As described above, in the present invention, the positions of the first part and the second part are acquired from the captured image obtained by imaging the predetermined imaging range by the imaging device. When the first part is outside the imaging range and the second part is within the imaging range, the position of the first part is estimated based on the position of the second part.
According to the first embodiment, as shown in FIG. 14A, even when the user's gesture moves outside the imaging range, the marking can be continued without interruption. By keeping information on markings outside the display range, the markings can be drawn when the markings are within the display range by image processing such as movement, enlargement, and reduction. As described above, in the first embodiment, even when the
上記の実施例1には、本発明の範囲内で以下のような種々の変形が可能である。以下の変形を行った実施例も本発明の範囲に含まれる。
撮像装置100がX−Y平面でユーザ102を撮像できるようにしたが、X−Z平面でユーザ102の手104のみを撮像できるよう実施しても良い。その際、Z座標を測定するため、撮像装置100を2眼のステレオカメラにし、三角測定するよう実施しても良いし、もしくは、距離センサーを用いて測定するようにしても良い。
The above-described first embodiment can be modified in various ways as described below within the scope of the present invention. Examples in which the following modifications are made are also included in the scope of the present invention.
Although the
人差し指の先端をマーキング及びカーソル制御用の指標部位としたが、例えば手の中心等他の部位を指標部位としても良い。
位置情報を検出可能な手・指の部位として、各指の付け根、先端、手首、手の中心としたが、指の各関節や、腕の部位等、より多くの部位の位置情報を検出できるようにしても良い。
Although the tip of the index finger is used as an index part for marking and cursor control, other parts such as the center of the hand may be used as the index part.
The position of the hand / finger that can detect position information is the base, tip, wrist, and center of the hand of each finger, but it can detect position information of more parts such as finger joints and arm parts. You may do it.
補正処理として、人差し指の先端以外の任意の組み合わせから人差し指の先端の位置情報を計算する方法を例示した。しかし、人差し指の先端以外の部位に計算に使用する優先順位を設定して、優先順位の高い複数部位の位置に基づき人差し指の先端の位置を計算するようにしても良い。あるいは、人差し指の先端以外の部位の組み合わせ結果に重みづけをして、全ての組み合わせで計算した結果及び重みづけの値によって人差し指の先端の位
置情報を計算するよう実施しても良い。あるいは、上記実施例では複数(2個)の第2部位の位置に基づき第1部位の位置を推測する例を示したが、1つの第2部位の位置に基づき第1部位の位置を推測しても良い。例えば、第1部位の取得及び第2部位の取得を複数回、繰り返して行う。そして、撮像画像から第1部位の位置を取得できない回があった場合、その回における第2部位の位置及びそれ以前の回で取得した第2部位の位置の履歴と、第2部位と第1部位との位置関係に基づき、第1部位の位置を推測しても良い。具体的には、人差し指の先端以外の1点の部位の移動軌跡から人差し指の先端の位置情報を予測するようにしても良い。
As the correction process, a method of calculating the position information of the tip of the index finger from any combination other than the tip of the index finger has been exemplified. However, a priority order used for calculation may be set for a part other than the tip of the index finger, and the position of the tip of the index finger may be calculated based on the positions of a plurality of parts having a high priority. Alternatively, the combination result of parts other than the tip of the index finger may be weighted, and the position information of the tip of the index finger may be calculated based on the result of calculation for all the combinations and the weight value. Or although the example which estimated the position of the 1st part based on the position of a plurality of (2 pieces) 2nd part was shown in the above-mentioned example, the position of the 1st part is estimated based on the position of one 2nd part. May be. For example, the acquisition of the first part and the acquisition of the second part are repeated a plurality of times. When there is a time when the position of the first part cannot be acquired from the captured image, the history of the position of the second part and the position of the second part acquired in the previous time, the second part and the first part The position of the first part may be estimated based on the positional relationship with the part. Specifically, the position information of the tip of the index finger may be predicted from the movement trajectory of one part other than the tip of the index finger.
表示制御装置にジェスチャ操作検出用の撮像カメラのみ設置としたが、視線検出用のカメラを設置して、人差し指の先端以外の部位の位置情報及び視線情報から、人差し指の先端の位置情報を予測するようにしても良い。
人差し指の先端が撮像範囲外に移動した場合に、補正した位置情報を適用したが、カメラと手の前の障害物を検出する手段を持ち、障害物によって位置情報が取得できなかった場合にも補正処理によって位置情報を取得するようにしても良い。
Although only the imaging camera for detecting the gesture operation is installed in the display control device, the camera for detecting the line of sight is installed to predict the position information of the tip of the index finger from the position information and the line of sight information other than the tip of the index finger. You may do it.
The corrected position information was applied when the tip of the index finger moved out of the imaging range, but it also has a means to detect an obstacle in front of the camera and hand, and the position information could not be acquired due to the obstacle. The position information may be acquired by a correction process.
カーソル表示の形状を矢印にしたが、例えばカーソル表示を5本の指の開閉具合がわかる手形状のものとしても良い。カーソルを一つとしたが、特定した手の数だけ、前述の手形状のカーソルを表示するようにしても良い。
ユーザ102が操作する手104を片手のみとしているが、両手でジェスチャ操作するよう実施しても良い。
静止画像を対象としたが、動画像を対象とする構成で実施しても良い。
カーソル表示をジェスチャでのみ制御したが、マウスやキーボードからも制御できる構成で実施しても良い。
データ保存部201を表示制御装置200内にしたが、表示制御装置200の外に配置して、例えばUSBメモリや、サーバーとLANで接続された構成で実施しても良い。
表示制御装置200は、ユーザのジェスチャに応じた画像処理のコマンドを出力する例を説明したが、コマンドは画像処理に限らない。ユーザの指令に応じた動作を行うことが想定されたあらゆる機器に対しジェスチャによりコマンドを出力するシステムに本発明は適用できる。
Although the cursor display shape is an arrow, for example, the cursor display may be a hand shape that shows the open / close state of five fingers. Although the number of cursors is one, the above-mentioned hand-shaped cursors may be displayed for the number of specified hands.
Although the
Although the target is still images, it may be implemented with a configuration that targets moving images.
Although the cursor display is controlled only by the gesture, the cursor display may be controlled by a mouse or a keyboard.
Although the
Although the
(実施例2)
本発明の実施例2について、説明する。以下、実施例2にかかる説明は、実施例1との相違点となる、ユーザ102の手の形状に応じた補正モデルの修正についてのみ説明する。実施例2では、実際の被写体の撮像画像から取得した第1部位の位置及び/又は第2部位の位置に基づき、第1部位の位置と第2部位の位置の対応関係を補正する例を説明する。
図15は、本発明を適用した表示制御装置200の構成例を示すブロック図である。
位置情報決定部206は、手104の各部位の位置情報posを特定後、位置情報補正部207に出力するとともに、補正モデル修正部301に手104の各部位の位置情報posを出力する。
(Example 2)
A second embodiment of the present invention will be described. In the following description of the second embodiment, only correction of the correction model in accordance with the shape of the user's 102 hand, which is different from the first embodiment, will be described. In the second embodiment, an example will be described in which the correspondence between the position of the first part and the position of the second part is corrected based on the position of the first part and / or the position of the second part acquired from the captured image of the actual subject. To do.
FIG. 15 is a block diagram illustrating a configuration example of the
The position
補正モデル修正部301は、手104の各部位の位置情報posを取得すると、補正モデル保持部209から取得した補正モデル情報mdlに対して、現在のユーザの手の部位の位置関係を反映するような補正モデル情報mdl’を算出して保持する。図16(A)は補正前の補正モデル情報mdlを示し、図16(B)は補正後の補正モデル情報mdl’を示す。
位置情報補正部207は、位置情報の補正が必要と判断された場合に、補正モデル修正部301より補正モデル情報mdl’を取得して、位置情報の補正に利用する。
以上のように、本発明の実施例2では、ユーザ102の手の形状に応じて補正モデルを
修正することで、位置情報の補正精度を高めることができる。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
When the correction
The position
As described above, in the second embodiment of the present invention, the correction accuracy of the position information can be increased by correcting the correction model according to the shape of the hand of the
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
100:撮像装置、104:手、204:撮像画像入力部、206:位置情報決定部、207:位置情報補正部、210:操作決定部 100: imaging device, 104: hand, 204: captured image input unit, 206: position information determination unit, 207: position information correction unit, 210: operation determination unit
Claims (20)
前記撮像手段の撮像により得られた画像から被写体の所定の第1部位の位置を取得する取得手段と、
前記第1部位の位置に基づきコマンドを出力する出力手段と、
を備え、
前記取得手段は、前記画像から前記第1部位の位置を取得できない場合、前記画像から、前記第1部位の位置を推測するための所定の第2部位の位置を取得し、前記第2部位の位置に基づき前記第1部位の位置を推測することにより、前記第1部位の位置を取得する制御装置。 Imaging means;
Obtaining means for obtaining a position of a predetermined first part of the subject from an image obtained by imaging of the imaging means;
Output means for outputting a command based on the position of the first part;
With
When the acquisition unit cannot acquire the position of the first part from the image, the acquisition unit acquires a position of a predetermined second part for estimating the position of the first part from the image. A control device that acquires the position of the first part by estimating the position of the first part based on the position.
前記取得手段は、前記対応関係に基づき前記第2部位の位置から前記第1部位の位置を推測する請求項1〜3のいずれか1項に記載の制御装置。 Storage means for storing information on a predetermined correspondence relationship between the position of the second part and the position of the first part;
The control device according to claim 1, wherein the acquisition unit estimates the position of the first part from the position of the second part based on the correspondence.
前記出力手段は、前記第1部位の位置の履歴に基づき前記被写体の動きを認識し、被写体の動きに対応するコマンドを出力する請求項1〜9のいずれか1項に記載の制御装置。 The acquisition means repeatedly acquires the position of the first part a plurality of times,
The control device according to claim 1, wherein the output unit recognizes the movement of the subject based on a history of the position of the first part and outputs a command corresponding to the movement of the subject.
前記出力手段は、前記撮像範囲と前記第1部位との位置関係に基づき、前記表示画像における前記第1部位に対応する位置を求める請求項11に記載の制御装置。 The acquisition unit acquires the positions of the first part and the second part from an image obtained by imaging a predetermined imaging range by the imaging unit,
The control device according to claim 11, wherein the output unit obtains a position corresponding to the first part in the display image based on a positional relationship between the imaging range and the first part.
前記出力手段は、複数の前記第1部位の位置を結ぶラインを前記表示画像に合成する画像処理のコマンドを出力する請求項12に記載の制御装置。 The acquisition means repeatedly acquires the position of the first part a plurality of times,
The control device according to claim 12, wherein the output unit outputs an image processing command for combining lines connecting the positions of the plurality of first portions with the display image.
前記出力手段は、ユーザの手の形状とジェスチャに基づきコマンドを出力する請求項17に記載の制御装置。 The acquisition unit further acquires the shape of the user's hand from an image obtained by imaging of the imaging unit,
The control device according to claim 17, wherein the output unit outputs a command based on a shape and a gesture of a user's hand.
前記撮像工程により得られた画像から被写体の所定の第1部位の位置を取得する取得工程と、
前記第1部位の位置に基づきコマンドを出力する出力工程と、
を有し、
前記取得工程では、前記画像から前記第1部位の位置を取得できない場合、前記画像から、前記第1部位の位置を推測するための所定の第2部位の位置を取得し、前記第2部位の位置に基づき前記第1部位の位置を推測することにより、前記第1部位の位置を取得する制御方法。 Imaging process;
An acquisition step of acquiring a position of a predetermined first part of the subject from the image obtained by the imaging step;
An output step of outputting a command based on the position of the first part;
Have
In the obtaining step, when the position of the first part cannot be obtained from the image, a position of a predetermined second part for estimating the position of the first part is obtained from the image, and the position of the second part is obtained. A control method for acquiring the position of the first part by estimating the position of the first part based on the position.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015166180A JP6559017B2 (en) | 2015-08-25 | 2015-08-25 | Control apparatus and control method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015166180A JP6559017B2 (en) | 2015-08-25 | 2015-08-25 | Control apparatus and control method |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JP2017045198A true JP2017045198A (en) | 2017-03-02 |
| JP2017045198A5 JP2017045198A5 (en) | 2018-09-20 |
| JP6559017B2 JP6559017B2 (en) | 2019-08-14 |
Family
ID=58212141
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2015166180A Active JP6559017B2 (en) | 2015-08-25 | 2015-08-25 | Control apparatus and control method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6559017B2 (en) |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003186852A (en) * | 2001-12-21 | 2003-07-04 | Casio Comput Co Ltd | Graph display device, program, and graph display method |
| WO2008099564A1 (en) * | 2007-01-12 | 2008-08-21 | Capcom Co., Ltd. | Display control device, program for implementing the display control device, and recording medium containing the program |
| JP2012048463A (en) * | 2010-08-26 | 2012-03-08 | Canon Inc | Information processor and information processing method |
| JP2014501011A (en) * | 2011-01-03 | 2014-01-16 | エクストリーム リアリティー エルティーディー. | Method, circuit and system for human machine interface with hand gestures |
| US9041689B1 (en) * | 2012-08-02 | 2015-05-26 | Amazon Technologies, Inc. | Estimating fingertip position using image analysis |
-
2015
- 2015-08-25 JP JP2015166180A patent/JP6559017B2/en active Active
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003186852A (en) * | 2001-12-21 | 2003-07-04 | Casio Comput Co Ltd | Graph display device, program, and graph display method |
| WO2008099564A1 (en) * | 2007-01-12 | 2008-08-21 | Capcom Co., Ltd. | Display control device, program for implementing the display control device, and recording medium containing the program |
| JP2012048463A (en) * | 2010-08-26 | 2012-03-08 | Canon Inc | Information processor and information processing method |
| JP2014501011A (en) * | 2011-01-03 | 2014-01-16 | エクストリーム リアリティー エルティーディー. | Method, circuit and system for human machine interface with hand gestures |
| US9041689B1 (en) * | 2012-08-02 | 2015-05-26 | Amazon Technologies, Inc. | Estimating fingertip position using image analysis |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6559017B2 (en) | 2019-08-14 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6618276B2 (en) | Information processing apparatus, control method therefor, program, and storage medium | |
| JP5921835B2 (en) | Input device | |
| JP5326794B2 (en) | Remote operation system and remote operation method | |
| JP2011028366A (en) | Operation control device and operation control method | |
| JP6360509B2 (en) | Information processing program, information processing system, information processing method, and information processing apparatus | |
| JP2016224686A5 (en) | ||
| JP7372076B2 (en) | image processing system | |
| KR20150106823A (en) | Gesture recognition apparatus and control method of gesture recognition apparatus | |
| JP6141108B2 (en) | Information processing apparatus and method | |
| JP2012022458A (en) | Information processing apparatus and control method thereof | |
| JP4608326B2 (en) | Instruction motion recognition device and instruction motion recognition program | |
| US10185407B2 (en) | Display control apparatus, display control method and recording medium | |
| JP6618301B2 (en) | Information processing apparatus, control method therefor, program, and storage medium | |
| JP6559017B2 (en) | Control apparatus and control method | |
| JP2011034455A (en) | Data input apparatus and data input method | |
| WO2018074055A1 (en) | Information processing device, information processing method and program | |
| JP7495651B2 (en) | Object attitude control program and information processing device | |
| JP5676959B2 (en) | Information processing apparatus and control method thereof | |
| JP2017211739A (en) | User interface device and user interface program | |
| JP2012018620A (en) | Information processor and control method therefor | |
| JP2015230496A (en) | Electronics | |
| JP2016119019A (en) | Information processing apparatus, information processing method, and program | |
| JP2013109538A (en) | Input method and device | |
| JP2016071824A (en) | Interface device, finger tracking method, and program | |
| JP2012113653A (en) | Control device, input device, input determination method, and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180806 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180806 |
|
| RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20181116 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190325 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190409 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190529 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190618 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190716 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 6559017 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |