JP2019003366A - Information input device, information input method and information input system - Google Patents
Information input device, information input method and information input system Download PDFInfo
- Publication number
- JP2019003366A JP2019003366A JP2017116704A JP2017116704A JP2019003366A JP 2019003366 A JP2019003366 A JP 2019003366A JP 2017116704 A JP2017116704 A JP 2017116704A JP 2017116704 A JP2017116704 A JP 2017116704A JP 2019003366 A JP2019003366 A JP 2019003366A
- Authority
- JP
- Japan
- Prior art keywords
- contact
- detection unit
- unit
- period
- information input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000001514 detection method Methods 0.000 claims abstract description 153
- 238000012545 processing Methods 0.000 claims abstract description 63
- 230000001133 acceleration Effects 0.000 description 34
- 238000010586 diagram Methods 0.000 description 14
- 210000000707 wrist Anatomy 0.000 description 13
- 210000004247 hand Anatomy 0.000 description 8
- 230000009466 transformation Effects 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 6
- 238000012937 correction Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 230000035939 shock Effects 0.000 description 4
- 238000006073 displacement reaction Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 239000000872 buffer Substances 0.000 description 2
- 210000000245 forearm Anatomy 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000000689 upper leg Anatomy 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、ユーザが行う入力操作を受け付けて各種の情報処理を行う情報入力装置、情報入力方法および情報入力システムに関する。 The present invention relates to an information input apparatus, an information input method, and an information input system that accept various input information operations performed by a user.
昨今、人が通常の活動をしている際に、その行動や状態に合わせて人をアシストするような情報提供を行うことが考えられている。このような用途において、情報提供がある度に端末を取り出して、両手を使って操作入力を行ったり、端末に視線を向けたりすることは煩わしく感じる。そこで両手や目を占有しないハンズフリー・アイズフリーな情報入力装置が必要と考えられている。 In recent years, it has been considered to provide information that assists a person in accordance with the behavior and state when the person is performing a normal activity. In such an application, it is bothersome to take out the terminal each time information is provided, perform operation input using both hands, and point the line of sight toward the terminal. Therefore, a hands-free and eyes-free information input device that does not occupy both hands and eyes is considered necessary.
この種の情報入力装置として、音声認識を利用した情報入力装置や、ジェスチャー入力による情報入力装置が用いられている。音声認識は、音声による入力操作が可能であり、両手や目を占有することがない。 As this type of information input device, an information input device using voice recognition or an information input device using gesture input is used. Voice recognition allows voice input operations and does not occupy both hands and eyes.
しかし、音声認識は、第三者にユーザの発声内容を聞かれる可能性があり、プライバシーを守ることができない場合があるだけでなく、発声音を伴うため周囲の人に迷惑をかけるおそれがある。 However, with voice recognition, there is a possibility that the content of the user's utterance may be heard by a third party, which may not be able to protect privacy, and may cause trouble for the surrounding people due to the accompanying sound. .
一方、ジェスチャー入力を利用した情報入力装置では、三次元空間で描かれる指の軌跡(特許文献1および2)、あるいは前腕部や手首の表面の動き(特許文献3および4)をセンサで検出したり、手の甲を指先でなぞって文字等を描く操作を光学的手段で検出する(特許文献5)。 On the other hand, in an information input device using gesture input, a finger trajectory (Patent Documents 1 and 2) drawn in a three-dimensional space, or a forearm or wrist surface movement (Patent Documents 3 and 4) is detected by a sensor. Or by tracing the back of the hand with a fingertip to draw a character or the like using optical means (Patent Document 5).
ジャスチャー入力は、発生音を伴わないため、周囲の人に迷惑をかける可能性は低い。しかし、特許文献1および2に記載の技術では、第三者にジェスチャーを見られる可能性があり、ユーザのプライバシーを守ることができない場合がある。また、指先の精密な三次元の位置、移動方向および動きを正確に検出することは困難であり、ジェスチャーの認識精度は十分とはいえない。
Since the gesture input does not accompany the generated sound, it is unlikely to cause trouble for the surrounding people. However, with the techniques described in
また、特許文献3および4に記載の技術では、認識精度の低さ故、認識可能なジェスチャーの種類が少なく、ユーザフレンドリーな技術とはいえない。また、特許文献5に記載の技術では、障害物の有無によっては、ユーザの操作を正確に検出することができないおそれがある。 In addition, the techniques disclosed in Patent Documents 3 and 4 are not user-friendly techniques because of the low recognition accuracy, and there are few types of gestures that can be recognized. Further, with the technique described in Patent Document 5, there is a possibility that the user's operation cannot be accurately detected depending on the presence or absence of an obstacle.
本発明は、このような実状に鑑みてなされ、その目的は、ユーザのプライバシーを守ることが可能であり、両手および目を占有することなく、高いジェスチャー認識精度を有する情報入力装置、情報入力方法および情報入力システムを提供することである。 The present invention has been made in view of such a situation, and an object of the present invention is to provide an information input device and an information input method that can protect the user's privacy and have high gesture recognition accuracy without occupying both hands and eyes. And providing an information input system.
上記目的を達成するために、本発明に係る情報入力装置は、
第1検出部と第2検出部の少なくとも一方から検出信号を受け取る受信処理部と、前記第1検出部と前記第2検出部の少なくとも一方の検出信号に基づいて、接触体が物体に平面接触している平面接触期間を特定する接触検出部と、前記平面接触期間における前記第2検出部の検出信号に基づいて、前記物体の表面における前記接触体の移動状態を推定する状態推定部と、前記状態推定部の推定結果に基づいて、操作対象の端末を操作させるための操作情報を生成する操作情報生成部と、を有する信号処理部を有することを特徴とする。
In order to achieve the above object, an information input device according to the present invention includes:
A receiving processing unit that receives a detection signal from at least one of the first detection unit and the second detection unit, and a contact body that makes a planar contact with the object based on the detection signal of at least one of the first detection unit and the second detection unit A contact detection unit that identifies a planar contact period that is being performed, a state estimation unit that estimates a moving state of the contact body on the surface of the object, based on a detection signal of the second detection unit in the planar contact period, And a signal processing unit including an operation information generation unit configured to generate operation information for operating the operation target terminal based on the estimation result of the state estimation unit.
また、上記目的を達成するために、本発明に係る情報入力方法は、
第1検出部と第2検出部の少なくとも一方から検出信号を受け取る受信処理工程と、前記第1検出部と前記第2検出部の少なくとも一方の検出信号に基づいて、接触体が物体に平面接触している平面接触期間を特定する接触検出工程と、前記平面接触期間における前記第2検出部の検出信号に基づいて、前記物体の表面における前記接触体の移動状態を推定する状態推定工程と、前記状態推定部の推定結果に基づいて、操作対象の端末を操作させるための操作情報を生成する操作情報生成工程と、を有する信号処理工程を有することを特徴とする。
In order to achieve the above object, an information input method according to the present invention includes:
Based on the reception processing step of receiving a detection signal from at least one of the first detection unit and the second detection unit, and the detection signal of at least one of the first detection unit and the second detection unit, the contact body makes a planar contact with the object A contact detection step for identifying a planar contact period, and a state estimation step for estimating a moving state of the contact body on the surface of the object based on a detection signal of the second detection unit in the planar contact period; And an operation information generation step of generating operation information for operating the operation target terminal based on the estimation result of the state estimation unit.
また、上記目的を達成するために、本発明に係る情報入力システムは、
第1検出部と第2検出部の少なくとも一方から検出信号を受け取る受信処理部と、前記第1検出部と前記第2検出部の少なくとも一方の検出信号に基づいて、接触体が物体に平面接触している平面接触期間を特定する接触検出部と、前記平面接触期間における前記第2検出部の検出信号に基づいて、前記物体の表面における前記接触体の移動状態を推定する状態推定部と、前記状態推定部の推定結果に基づいて、操作対象の端末を操作させるための操作情報を生成する操作情報生成部と、を有する信号処理部を有する情報入力装置と、前記情報入力装置から送信された前記操作情報に基づいて動作する端末と、を有することを特徴とする。
In order to achieve the above object, an information input system according to the present invention includes:
A receiving processing unit that receives a detection signal from at least one of the first detection unit and the second detection unit, and a contact body that makes a planar contact with the object based on the detection signal of at least one of the first detection unit and the second detection unit A contact detection unit that identifies a planar contact period that is being performed, a state estimation unit that estimates a moving state of the contact body on the surface of the object, based on a detection signal of the second detection unit in the planar contact period, An information input device having a signal processing unit having an operation information generation unit for generating operation information for operating the operation target terminal based on the estimation result of the state estimation unit, and transmitted from the information input device And a terminal that operates based on the operation information.
本発明では、接触体が物体に平面接触している平面接触期間において、物体の表面における接触体の移動状態が推定される。より詳細には、ユーザが、たとえば、接触体(ユーザの指先、ペン等)で、物体の表面(ユーザの掌、机等)をなぞりながら文字等を描く操作を実行すると、接触体が物体に平面接触している平面接触期間において、その文字等の軌跡に沿って物体の表面を移動する接触体の移動状態が推定される。そして、その推定結果に基づいた操作情報が生成され、当該操作情報に基づいて端末を動作させることが可能となる。 In the present invention, the movement state of the contact body on the surface of the object is estimated during the plane contact period in which the contact body is in plane contact with the object. More specifically, for example, when the user performs an operation of drawing a character or the like while tracing the surface of the object (such as the user's palm or desk) with a contact object (such as the user's fingertip or pen), the contact object becomes an object. In the plane contact period in which the plane is in contact, the moving state of the contact body that moves on the surface of the object along the trajectory of the character or the like is estimated. Then, operation information based on the estimation result is generated, and the terminal can be operated based on the operation information.
このような操作は、直感的に行うことができ、必ずしも物体の表面に視線を向けたり、両手を用いたりする必要がなく、両手および目を占有することがない。 Such an operation can be performed intuitively, and it is not always necessary to direct a line of sight to the surface of the object or use both hands, and does not occupy both hands and eyes.
また、ユーザは、接触体を物体の表面で隠しつつ移動させることにより、第三者に見られることなく上記操作を行うことが可能となり、プライバシーを守ることができる。 In addition, the user can perform the above operation without being seen by a third party by moving the contact body while hiding it on the surface of the object, thereby protecting the privacy.
また、三次元空間を移動する指先の位置、移動方向および動きを検出する場合に比べて、物体の表面(二次元平面)を移動する接触体の位置、移動方向および動きを検出することは容易であり、ジェスチャーの認識精度を高めることができる。さらに、ジェスチャーの認識精度が高まることにより、多種類のジェスチャーを認識することが可能となり、ユーザフレンドリーな技術を提供することができる。 In addition, it is easier to detect the position, moving direction, and movement of a contact that moves on the surface (two-dimensional plane) of an object than when detecting the position, moving direction, and movement of a fingertip that moves in a three-dimensional space. It is possible to improve the accuracy of gesture recognition. Furthermore, since the gesture recognition accuracy is increased, it is possible to recognize many types of gestures, and provide a user-friendly technique.
好ましくは、前記第1検出部は、前記接触体が前記物体に平面接触したときに発生する振動を検出し、前記第2検出部は、前記接触体の運動を検出する。すなわち、本発明では、第1検出部が出力する振動波形信号と第2検出部が出力する運動波形信号の少なくとも一方に基づいて、平面接触期間が特定される。接触体が物体に平面接触すると、そのときの振動が、ピークとして振動波形に迅速に表れる。また、接触体が運動すると、そのときの加速度や角速度等が、ピークとして運動波形に迅速に表れる。そのため、本発明によれば、上記各波形のピークに基づいて、平面接触期間を正確に求めることができる。 Preferably, the first detection unit detects a vibration generated when the contact body makes a planar contact with the object, and the second detection unit detects a motion of the contact body. That is, in the present invention, the plane contact period is specified based on at least one of the vibration waveform signal output from the first detection unit and the motion waveform signal output from the second detection unit. When the contact body makes a flat contact with the object, the vibration at that time appears rapidly in the vibration waveform as a peak. Further, when the contact body moves, the acceleration, angular velocity, and the like at that time appear rapidly in the movement waveform as a peak. Therefore, according to the present invention, the plane contact period can be accurately obtained based on the peak of each waveform.
好ましくは、前記状態検出部は、前記平面接触期間から、前記接触体が前記物体に平面接触を開始する接触開始時刻および前記接触体が前記物体への平面接触を終了する接触終了時刻の各々の近傍の期間を除いた移動期間を特定し、当該移動期間における前記第2検出部の検出信号に基づいて、前記移動状態を推定する。この態様によれば、接触開始時刻および接触終了時刻において発生する衝撃波の影響により、特定した平面接触期間に誤差が含まれ、接触体の移動状態の推定結果の精度が落ちることを防止することができる。 Preferably, the state detection unit includes, from the planar contact period, a contact start time at which the contact body starts planar contact with the object and a contact end time at which the contact body finishes planar contact with the object. A movement period excluding a nearby period is specified, and the movement state is estimated based on a detection signal of the second detection unit in the movement period. According to this aspect, it is possible to prevent the accuracy of the estimation result of the moving state of the contact body from being deteriorated due to the influence of the shock wave generated at the contact start time and the contact end time and including an error in the specified plane contact period. it can.
好ましくは、前記物体の表面は、略平面形状である。この場合、接触体は、略二次元平面上を移動することになる。そのため、接触体が、凹凸のある物体の表面を移動する場合に比べて、接触体の移動状態を正確に推定することができる。したがって、ジェスチャーの認識精度をさらに高めることができる。 Preferably, the surface of the object has a substantially planar shape. In this case, the contact body moves on a substantially two-dimensional plane. Therefore, it is possible to accurately estimate the moving state of the contact body as compared with the case where the contact body moves on the surface of the uneven object. Therefore, the gesture recognition accuracy can be further increased.
以下、本発明を、図面に示す実施形態に基づき説明する。 Hereinafter, the present invention will be described based on embodiments shown in the drawings.
図1は、本発明の一実施形態に係る情報入力装置10を有するジェスチャー入力システム1の構成を示す図である。図1に示すように、情報入力システム1は、情報入力装置10と、端末20とを有する。情報入力装置10は、端末20にジェスチャーUI(ユーザインターフェイス)を提供するものである。このジェスチャーUIでは、指先の動作が端末20への入力操作として認識され、その入力操作の情報が端末20に入力される。
FIG. 1 is a diagram showing a configuration of a gesture input system 1 having an
より詳細には、本実施形態では、端末20への入力操作として、ユーザは、一方の手の指先で、他方の手の掌を、所定の軌跡を描くようになぞる動作(以下、「ハンドジェスチャー」と言う)を行う。ここで、所定の軌跡としては、たとえば四角形、円または円弧などの図形の軌跡、あるいは「B」や「D」などの文字の軌跡が挙げられる。
More specifically, in the present embodiment, as an input operation to the
端末20としては、操作指示を受け付けるようなあらゆる種類の電子機器、電気製品、車、ロボット、ドローンがこれに含まれる。 The terminal 20 includes all kinds of electronic devices, electrical products, cars, robots, and drones that accept operation instructions.
図1に示すように、情報入力装置10は、リング状の形状を有し手首に着脱可能な装着部30に固定され、所定の装着部位(図示の例では、ユーザの手首)に装着される。情報入力装置10の装着部位としては、手首の他にも、肘や前腕を例示することができる。なお、ユーザは、一方の手で把持したペン等の筆記具等で、机等を、所定の軌跡を描くようになぞることにより、ハンドジェスチャーを行うこともできる。この場合、情報入力装置10は、ペン等の筆記具等の所定の部位に装着される。
As shown in FIG. 1, the
図2は図1に示す情報入力装置10の機能構成を示すブロック図である。図2に示すように、情報入力装置10は、検出部110と、信号処理部120と、通信部130とを有する。なお、図2には、情報入力装置10の他、端末20が図示されている。
FIG. 2 is a block diagram showing a functional configuration of the
検出部110は、第1検出部111と、第2検出部112とを有する。第1検出部111は、接触体(本実施形態では、ユーザの一方の手の指先)が物体(本実施形態では、ユーザの他方の手の掌)に平面接触したときに発生する振動を検出するための手段であり、振動センサ111aを有する。振動センサ111aは、装着部30の裏側(ユーザの手首に当接する側)に設けられている。なお、検出部110の態様としては、第1検出部111および第2検出部112の各々を物理的に分離した異なる2つのモジュールに組み込んで構成する態様や、第1検出部111および第2検出部112を1つのモジュールに組み込んで構成する態様等、種々の態様が考えられる。
The
振動センサ111aは、ユーザがハンドジェスチャーを行ったときに発生する手首の振動を検出し、その振動に応じた電圧値の検出信号を出力する。より詳細には、ハンドジェスチャーの実行時、ユーザが一方の手の指先を他方の手の掌に接触させると、指先および掌に振動が発生し、10〜40Hz程度の振動が手首に伝搬される。振動センサ111aは、この手首に伝搬された振動を検出する。 The vibration sensor 111a detects wrist vibration that occurs when the user performs a hand gesture, and outputs a detection signal having a voltage value corresponding to the vibration. More specifically, when the user makes the fingertip of one hand touch the palm of the other hand during the hand gesture, vibration is generated in the fingertip and the palm, and vibration of about 10 to 40 Hz is propagated to the wrist. . The vibration sensor 111a detects the vibration propagated to the wrist.
第1検出部111は、振動センサ111aの検出信号にA/D変換を施し、検出波形サンプルV1として信号処理部120に出力する。
The first detection unit 111 performs A / D conversion on the detection signal of the vibration sensor 111a, and outputs the detection waveform sample V1 to the
第2検出部112は、接触体の運動を検出するための手段であり、加速度センサ112aと、角速度センサ112bとを有する。加速度センサ112aは、ハンドジェスチャーの実行時におけるユーザの手首の三軸(x軸,y軸,z軸)方向の加速度を検出する。角速度センサ112bは、ハンドジェスチャーの実行時におけるユーザの手首に固定された座標軸である三軸(x軸,y軸,z軸)回りの角速度を検出する。
The
第2検出部112は、加速度センサ112aおよび角速度センサ112bの各々の検出信号にA/D変換を施し、それぞれ加速度波形サンプルV2aおよび角速度波形サンプルV2bとして信号処理部120に出力する。
The
信号処理部120は、受信処理部121と、接触検出部122と、状態推定部123と、操作情報生成部124とを有する。信号処理部120が実行する処理は、カリブレーションフェーズと認識フェーズに大別される。認識フェーズでは、主として、ユーザによるハンドジェスチャーの内容を認識するための処理が行われ、カリブレーションフェーズでは、主として、認識フェーズで認識されるハンドジェスチャーの認識精度を高めるための処理が行われる。
The
図3Aは、信号処理部120が実行する処理の内容を示すフローチャートである。図3Aに示すように、信号処理部120は、まずカリブレーションフェーズにおける処理を実行する(ステップS10)。次いで、信号処理部120は、認識フェーズにおける処理を実行する(ステップS20)。次いで、信号処理部120は、受信信号(検出部110の検出信号)の有無を判定する(ステップS30)。ステップS30の判定結果がYesの場合、信号処理部120は、認識フェーズにおける処理を終了する。一方、ステップS30の判定結果がNoの場合、信号処理部120は、認識フェーズにおける処理を再び実行する。
FIG. 3A is a flowchart showing the contents of processing executed by the
図3Bは、認識フェーズにおいて、信号処理部120の各部が実行する処理の内容を示すフローチャートである。なお、カリブレーションフェーズの詳細については後述する。
FIG. 3B is a flowchart illustrating the contents of processing executed by each unit of the
受信処理部121は、第1検出部111から振動波形サンプルV1を受け取る都度、受け取った振動波形サンプルV1をバッファリングする(ステップSA100)。同様に、受信処理部121は、第2検出部112から加速度波形サンプルV2aおよび角速度波形サンプルV2bを受け取る都度、受け取った各波形サンプルV2a,V2bをバッファリングする(ステップSA100)。
Each time the
接触検出部122は、接触検出処理を行う(ステップSA110)。より詳細には、接触検出部122は、バッファリングされた所定数の振動波形サンプルV1を1フレームとして、フレーム毎の統計値を計算する。同様に、接触検出部122は、バッファリングされた所定数の加速度波形サンプルV2aを1フレームとして、フレーム毎の統計値を計算する。同様に、接触検出部122は、バッファリングされた所定数の角速度波形サンプルV2bを1フレームとして、フレーム毎の統計値を計算する。
The
なお、統計値には、各波形サンプルV1,V2a,V2bの最大値や変位量(変動幅)、ピーク値、あるいは各フレームの統計値とその1フレーム前のフレームとの統計値との差分等が含まれる。 The statistical value includes the maximum value, displacement amount (variation width), peak value of each waveform sample V1, V2a, V2b, or the difference between the statistical value of each frame and the statistical value of the previous frame. Is included.
次いで、接触検出部122は、フレーム毎の統計値を参照し、接触体(ユーザの一方の手の指先)が物体(ユーザの他方の手の掌)に平面接触している平面接触期間におけるフレームを特定する。ここで、平面接触期間は、ユーザの手が運動状態にあり、かつ、何らかの物体と接触状態にあった期間として与えられる。
Next, the
具体的には、接触検出部122は、所定数のフレームを1ウィンドウにまとめ、ウィンドウ単位でシフトしながら、そのウィンドウに含まれる各フレームについて、その統計値が所定の閾値を上回っているか否か(あるいは下回っているか否か)を判定する。そして、接触検出部122は、その判定結果に基づいて、平面接触期間におけるフレームを特定する。
Specifically, the
図4は、検出部110の検出信号の波形を示す図である。図4において、波形V1は、振動センサ111aの検出信号の振動波形である。また、波形V2a_x,V2a_y,V2a_zは、加速度センサ112aの検出信号の三軸(x軸,y軸,z軸)方向の加速度波形である。また、波形V2b_x,V2b_y,V2b_zは、角速度センサ112bの検出信号の三軸(x軸,y軸,z軸)回りの角速度波形である。
FIG. 4 is a diagram illustrating a waveform of a detection signal of the
図4に示すように、期間Bでは、加速度波形V2a_x,V2a_y,V2a_zおよび角速度波形V2b_x,V2b_y,V2b_zに複数のピークが現れており、ユーザの手が運動状態にあることが分かる。また、期間Bでは、振動波形V1に複数のピークが現れており、ユーザの手が何らかの物体と接触状態にあることが分かる。すなわち、期間Bは、ユーザの手が運動状態にあり、かつ、何らかの物体と接触状態にあった期間(ユーザの一方の手の指先が他方の手の掌に平面接触している平面接触期間)に対応し、期間A,Cは、平面接触期間の前後の期間(静止期間)に対応する。なお、期間bにおける振動波形サンプルV1のピークは、ユーザの一方の手の指先が他方の手の掌を移動しているときに発生する表面摩擦振動(摩擦振動)によるものである。すなわち、期間Cにおける振動波形サンプルV1の波形は、ユーザの一方の手の指先と他方の手の掌との摩擦により生じる摩擦振動に応じた波形となる。 As shown in FIG. 4, in the period B, a plurality of peaks appear in the acceleration waveforms V2a_x, V2a_y, V2a_z and the angular velocity waveforms V2b_x, V2b_y, V2b_z, which indicates that the user's hand is in an exercise state. In period B, a plurality of peaks appear in the vibration waveform V1, indicating that the user's hand is in contact with some object. That is, period B is a period in which the user's hand is in motion and in contact with some object (a plane contact period in which the fingertip of one hand of the user is in plane contact with the palm of the other hand) The periods A and C correspond to periods before and after the plane contact period (stationary period). The peak of the vibration waveform sample V1 in the period b is due to surface friction vibration (friction vibration) that occurs when the fingertip of one hand of the user is moving the palm of the other hand. That is, the waveform of the vibration waveform sample V1 in the period C is a waveform corresponding to the friction vibration generated by the friction between the fingertip of one hand of the user and the palm of the other hand.
図5は、第1検出部111および第2検出部112の検出信号の波形を示す他の図である。図中に示す各波形は、ユーザが一方の手でコップを持ち上げて空中を移動させ、その後コップを机の上に置いたときに観測された振動波形V1、加速度波形V2a_x,V2a_y,V2a_zおよび角速度波形V2b_x,V2b_y,V2b_zである。
FIG. 5 is another diagram illustrating waveforms of detection signals of the first detection unit 111 and the
図5において、期間Aは、ユーザが一方の手でコップを持ち上げ、空中を移動させているときの期間である。また、期間Bは、ユーザが、コップを机に置いた前後の期間である。期間Bでは、加速度波形V2a_x,V2a_y,V2a_zおよび角速度波形V2b_x,V2b_y,V2b_zに複数のピークが現れており、ユーザの手が運動状態にあることが分かる。また、期間Bでは、振動波形V1に複数のピークが現れており、コップが机と接触状態にあったことが分かる。すなわち、期間Bは、平面接触期間に対応する。 In FIG. 5, a period A is a period when the user lifts the cup with one hand and moves it in the air. Period B is a period before and after the user places the cup on the desk. In period B, a plurality of peaks appear in the acceleration waveforms V2a_x, V2a_y, V2a_z and the angular velocity waveforms V2b_x, V2b_y, V2b_z, indicating that the user's hand is in an exercise state. In period B, a plurality of peaks appear in the vibration waveform V1, and it can be seen that the cup was in contact with the desk. That is, the period B corresponds to the plane contact period.
次いで、接触検出部122は、平面接触期間におけるフレームと、その前後の期間(ユーザの手が静止状態にあった期間)のフレーム(以下、まとめて「一連のフレーム」と呼ぶ)に基づいて、ユーザの一方の手の指先(接触体)が他方の手の掌(物体の表面)に接触を開始する接触開始時刻Tcsと、ユーザの一方の手の指先(接触体)が他方の手の掌(物体の表面)への接触を終了する接触終了時刻Tceとを特定する。
Next, the
より詳細には、図4において、接触検出部122は、平面接触期間Bにおけるフレームと、その前後の静止期間A,Cにおけるフレームとからなる一連のフレームの統計値を参照し、平面接触期間Bにおいて、振動波形サンプルV1にピークが観測された時刻を特定する。そして、接触検出部122は、その時刻よりも前に、他のピークが観測されていない一定の期間(期間A)がある場合、その時刻を接触開始時刻Tcsと特定する。また、接触検出部122は、その時刻よりも後に、他のピークが観測されていない一定の期間(期間C)がある場合、その時刻を接触終了時刻Tceと特定する。
More specifically, in FIG. 4, the
なお、加速度波形V2a_x,V2a_y,V2a_zおよび角速度波形V2b_x,V2b_y,V2b_zには、ユーザの意図しない手の動き等に起因するピークが含まれる場合がある。そのため、加速度波形V2a_x,V2a_y,V2a_zおよび角速度波形V2b_x,V2b_y,V2b_zの各々のピークに基づいて、接触開始時刻Tcsおよび接触終了時刻Tceを特定すると、これらの値に誤差が含まれる場合がある。この点、本実施形態では、振動波形V1のピークに基づいて各時刻Tcs,Tceを特定するため、これらの値を正確に求めることができる。 The acceleration waveforms V2a_x, V2a_y, V2a_z and the angular velocity waveforms V2b_x, V2b_y, V2b_z may include peaks due to hand movements that are not intended by the user. Therefore, if the contact start time Tcs and the contact end time Tce are specified based on the peaks of the acceleration waveforms V2a_x, V2a_y, V2a_z and the angular velocity waveforms V2b_x, V2b_y, V2b_z, these values may include an error. In this regard, in the present embodiment, since each time Tcs, Tce is specified based on the peak of the vibration waveform V1, these values can be obtained accurately.
接触検出部122は、接触開始時刻Tcsおよび接触終了時刻Tceを特定すると、各時刻Tcs,Tceを示す情報を、一連のフレームとともに、状態推定部123に与える。
When the
状態推定部123は、ユーザの一方の手の指先が他方の手の掌に平面接触している平面接触期間、すなわち、接触開始時刻Tcsから接触終了時刻Tceまでの期間を、複数の期間にセグメント化する(ステップSA120)。
The
具体的には、状態推定部123は、一連のフレームから加速度波形サンプルV2aおよび角速度波形サンプルV2bを取り出して、各波形サンプルV2a,V2bに重畳されている高周波ノイズをローパスフィルタで除去して平滑化する。
Specifically, the
次いで、状態推定部123は、加速度波形サンプルV2aおよび角速度波形サンプルV2bに基づいて、ユーザの一方の手の掌の上で、他方の手の指先(接触体)が移動を開始する移動開始時刻Tmsと、ユーザの一方の手の掌の上で、他方の手の指先(接触体)が移動を終了する移動終了時刻Tmeとを特定する。そして、状態推定部123は、移動開始時刻Tmsから移動終了時刻Tmeまでの移動期間において、ユーザの一方の手の掌(物体の表面)における他方の手の指先(接触体)の移動状態を推定する。
Next, the
より詳細には、図4において、状態推定部123は、平面接触期間Bにおける加速度波形サンプルV2aおよび角速度波形サンプルV2bと、その前後の期間A,Cにおける加速度波形サンプルV2aおよび角速度波形サンプルV2bの統計値を参照し、接触開始時刻Tcsおよび接触終了時刻Tceの近傍において、各波形サンプルV2a,V2bにピークが観測された時刻を特定する。そして、状態推定部123は、そのピークが所定の閾値を超えており、かつ、接触開始時刻Tcsの近傍で観測された場合、その時刻(あるいは、その時刻の直前または直後の時刻)を移動開始時刻Tmsと特定する。また、接触検出部122は、そのピークが所定の閾値を超えており、かつ、接触終了時刻Tceの近傍で観測された場合、その時刻(あるいは、その時刻の直前または直後の時刻)を移動終了時刻Tmeと特定する。
More specifically, in FIG. 4, the
このように、移動開始時刻Tmsから移動終了時刻Tmeまでの移動期間を特定することにより、接触開始時刻Tcsおよび接触終了時刻Tceまでの平面接触期間から、上記各時刻Tcs,Tceの近傍における衝撃波(ユーザの一方の手の指先が他方の手の掌に接触した時に発生する衝撃波)の影響を受けている期間を除いた期間を求めることができる。換言すれば、移動期間は、ユーザの一方の手の指先が、他方の手の掌を擦っているときの期間(摩擦期間)に相当する。 In this way, by specifying the movement period from the movement start time Tms to the movement end time Tme, shock waves in the vicinity of the respective times Tcs and Tce (from the plane contact period from the contact start time Tcs and the contact end time Tce ( It is possible to obtain a period excluding a period affected by a shock wave generated when the fingertip of one hand of the user contacts the palm of the other hand. In other words, the movement period corresponds to a period (friction period) when the fingertip of one hand of the user is rubbing the palm of the other hand.
さらに、状態推定部123は、接触期間における加速度波形サンプルV2aおよび角速度波形サンプルV2bの統計値に基づいて、接触期間を、静止期間、表面移動開始期間、表面移動期間、表面移動終了期間、空中移動開始期間、空中移動期間および空中移動終了期間にセグメント化する。なお、上記各期間は、上記各波形サンプルV2a,V2bを所定の平面に対して平行な方向の成分と垂直な方向の成分とに分解し、これら各方向成分の大きさに基づいて決定される。
Further, the
そして、状態推定部123は、静止期間の加速度波形サンプルV2aおよび角速度波形サンプルV2bを用いて、センサ姿勢補正を行う(ステップSA130)。
And the
図6は状態推定部123が実行する処理の内容を説明するための図である。加速度センサ112aは、通常、地球の水平面に対して一定の傾斜角度で傾斜した状態で装着部30に装着される。そのため、加速度波形サンプルV2aの値は、図6に示すように、上記傾斜角度に依存したセンサ座標系に属することになる。
FIG. 6 is a diagram for explaining the contents of processing executed by the
そこで、状態推定部123は、加速度波形サンプルV2aに基づいて重力ベクトルを算出するとともに、角速度波形サンプルV2bの振幅値を積分して角変位を算出し、算出した重力ベクトルおよび角変位に基づいて、加速度波形サンプルV2aに対してセンサ姿勢補正を行う。これにより、センサ座標系は、地球の水平面に対する法線をZ軸とする世界座標系に変換される。
Therefore, the
次いで、状態推定部123は、加速度波形サンプルV2aの振幅値を積分し、一方の手の掌を移動しているときの他方の手の指先の速度を算出する。さらに、状態推定部123は、算出した速度を積分し、一方の手の掌を移動する他方の手の指先の三次元位置座標を算出する。その際に、状態推定部123は、積分による誤差が累積されるのを防止するために、速度ゼロ補正を行う(ステップSA140)。
Next, the
次いで、状態推定部123は、所定の二次元平面に三次元座標データを投影し、平面座標系列変換処理を実行する(ステップSA150)。これにより、三次元世界座標系の三次元座標データは、二次元の標準座標系(平面座標系)の二次元座標データに変換される(図6および図7参照)。なお、所定の二次元平面は、後述するカリブレーションフェーズにおいて算出される。
Next, the
状態推定部123は、当該二次元座標データに、所定の変換行列に基づく逆変換を施して、当該二次元座標データの示す軌跡に重畳された歪み(歪み成分)を補正するとともに、上下左右の方向を特定する(ステップSA160)。なお、所定の変換行列は、後述するカリブレーションフェーズにおいて算出される。
The
そして、状態推定部123は、補正後の二次元座標データの軌跡(文字軌跡情報)に基づいて、移動開始時刻Tmsから移動終了時刻Tmeまでの間のユーザの一方の手の掌(物体の表面)における他方の手の指先(接触体)の移動状態を推定し、その推定結果を操作情報生成部124に与える。
Then, based on the corrected trajectory (character trajectory information) of the two-dimensional coordinate data, the
操作情報生成部124は、上記推定結果に基づいて、操作対象の端末20を操作させるための操作情報を生成し、通信部130に与える(ステップSA170)。
The operation
通信部130は、操作情報を受け取ると、これを無線又は有線により端末20に与える。端末20は、操作情報を受け取ると、当該操作情報に基づいて、たとえば表示手段に文字を表示させるなど、操作情報に応じた各種の処理を実行する。
Upon receiving the operation information, the
次に、カリブレーションフェーズについて説明する。カリブレーションフェーズでは、ステップSA150の平面座標変換処理で用いられる所定の二次元平面と、ステップSA160の方向・歪み補正で用いられる所定の変換行列が求められる。 Next, the calibration phase will be described. In the calibration phase, a predetermined two-dimensional plane used in the plane coordinate conversion process in step SA150 and a predetermined conversion matrix used in the direction / distortion correction in step SA160 are obtained.
図3Cは、カリブレーションフェーズにおいて、信号処理部120の各部が実行する処理の内容を示すフローチャートである。図3Cに示すように、カリブレーションフェーズでは、信号処理部120の各部は、認識フェーズにおける各処理(図3B)に加えて、平面検出処理(ステップSB145)と、方向・歪み検出(ステップSB155)とを実行する。
FIG. 3C is a flowchart illustrating the contents of processing executed by each unit of the
カリブレーションフェーズでは、ユーザは、一方の手の指先で、予め定められた文字(以下、「カリブレーション文字」と呼ぶ)を一筆書きで他方の手の掌に描く動作を実行するよう情報入力装置10から促される。 In the calibration phase, the user inputs an information input device so that a predetermined character (hereinafter referred to as “calibration character”) is drawn on the palm of the other hand with a single stroke with the fingertip of one hand. Inspired by 10
カリブレーション文字としては、二以上の方向を有し、平面を一意に特定できることが可能な文字が用いられ、たとえば、「L」、「X」、「コ」などの文字の他、各種図形(たとえば、正方形や三角形等)も含まれる。本実施形態では、カリブレーション文字として、正方形が用いられる。 As the calibration character, a character having two or more directions and capable of uniquely specifying a plane is used. For example, in addition to characters such as “L”, “X”, and “ko”, various figures ( For example, squares and triangles are also included. In this embodiment, a square is used as the calibration character.
図8は、カリブレーションを説明するための図である。図8(a)に示すように、ユーザは、一方の手の指先を、図中(i)〜(vi)に示す方向に移動させ、他方の手の掌にカリブレーション文字である正方形を描く。 FIG. 8 is a diagram for explaining the calibration. As shown in FIG. 8A, the user moves the fingertip of one hand in the directions shown in (i) to (vi) in the figure, and draws a square that is a calibration character on the palm of the other hand. .
ユーザが、上記動作を実行すると、ステップSA100〜ステップSA140の処理が実行され、状態推定部123は、カリブレーション文字に対応した三次元座標データを取得する。なお、ステップSA120で状態推定部123が特定する移動開始時刻Tmsおよび移動終了時刻Tmeは、ユーザの手の指先が図8(a)中の(i)〜(vi)に示す方向を移動する間の期間から特定される。
When the user executes the above-described operation, the processing from step SA100 to step SA140 is executed, and the
次いで、状態推定部123は、平面検出処理を実行する(ステップSB145)。より詳細には、状態推定部123は、ステップSA140における三次元座標データの一部について、その多数が属する平面を求める。本実施形態では、この平面の向きは、概ねユーザの掌の向きに即したものとなる。すなわち、ユーザが一方の手の掌を傾斜させた状態で、ハンドジェスチャーを実行した場合、上記平面は地球の水平面に対してやや傾斜する。また、ユーザが、掌ではなく、地球の水平面に対して垂直に立った壁を一方の手の指先でなぞる動作を行った場合には、上記平面は地球の水平面に対して垂直な平面となる。このステップSB145で求められた平面に、ステップSA140における三次元座標データが投影される(ステップSA150)。
Next, the
ここで、ユーザが図8(a)に示すような正方形を描いたとしても、ステップSA150で得られる二次元座標データの示す軌跡は、正方形ではなく、図8(b)に示すように、台形状となる。これは、次のような理由による。すなわち、図1等に示すように、加速度センサ112aは、ユーザの手の指先ではなく、手首の周辺に配置されているため、ステップSA150で得られる二次元座標データは、ユーザの指先の位置ではなく、手首の位置の二次元座標を示すことになる。そのため、図8(b)に示すように、カリブレーション文字に歪みが生じるのである。 Here, even if the user draws a square as shown in FIG. 8A, the trajectory indicated by the two-dimensional coordinate data obtained in step SA150 is not a square, but as shown in FIG. 8B. It becomes a shape. This is due to the following reason. That is, as shown in FIG. 1 and the like, since the acceleration sensor 112a is arranged not around the fingertip of the user's hand but around the wrist, the two-dimensional coordinate data obtained in step SA150 is obtained at the position of the user's fingertip. Instead, it indicates the two-dimensional coordinates of the wrist position. Therefore, as shown in FIG. 8B, distortion occurs in the calibration character.
そこで、状態推定部123は、二次元座標データの示す軌跡(カリブレーション文字に対応する軌跡)に重畳された歪みを検出し(ステップSB155)、その歪みを補正するための歪み補正情報を生成する。また、状態推定部123は、カリブレーション文字に対応する二次元座標データを基に、上下左右の方向を特定するための情報を取得する。なお、歪み補正情報は、図8(b)に示すように、歪みの生じたカリブレーション文字(台形)を、歪みの生じていないカリブレーション文字(正方形)に補正するための変換行列として求められる。この変換行列は、認識フェーズにおけるステップSA160で用いられる。
Therefore, the
そして、状態推定部123は、ステップSA150の平面座標変換処理で得られた二次元座標データに、上記変換行列に基づく逆変換を施して、当該二次元座標データの示す軌跡(カリブレーション文字に対応する軌跡)に重畳された歪みを補正する(ステップSA160)。その結果、図8(b)に示すように、カリブレーション実行前における台形状のカリブレーション文字が、正方形に変換された場合、カリブレーションが成功したものみなされ、上記変換行列が認識フェーズにおいても用いられることになる。
Then, the
以上が、本発明の構成である。次に、本実施形態による情報入力装置10の使用例について説明する。
The above is the configuration of the present invention. Next, a usage example of the
(1)ユーザは、歩行中に、購入しなければならない商品を思いついた。ユーザは、その商品をメモしようと考えたが、歩きながらスマートフォンのメモ帳アプリを操作するのは危険であるし、紙とボールペンを取り出してメモするのは手間である。そこで、ユーザは、一方の手の指先で、他方の手の掌を、商品の名称(文字)を描くようになぞった。これにより、ステップS10〜ステップS30の処理(図3A参照)が実行され、スマートフォンのメモ帳アプリに、商品の名称を示すテキストデータが記憶された。ユーザは、店舗に到着後、スマートフォンのイヤホーンアプリを起動し、上記テキストデータを再生させ、容易に買い物を済ませることができた。 (1) The user came up with a product that had to be purchased while walking. The user thought to take note of the product, but it is dangerous to operate the notepad app on the smartphone while walking, and it takes time and effort to take out the paper and ballpoint pen. Therefore, the user traces the name (character) of the product with the fingertip of one hand on the palm of the other hand. Thereby, the process (refer FIG. 3A) of step S10-step S30 was performed, and the text data which shows the name of goods was memorize | stored in the memo pad application of the smart phone. After arriving at the store, the user started the earphone application on the smartphone, played the text data, and was able to finish shopping easily.
(2)ある店舗において、発声障害のあるユーザが、購入したい商品を店員に伝えようとしたが、紙とペンを持ち合わせておらず、店員に意思を伝えることができない。そこで、ユーザは、スマートフォンの音声読み上げアプリを起動させ、一方の手の指先で、店舗のカウンターの机を、商品の名称(文字)を描くようになぞった。これにより、ステップS10〜ステップS30の処理(図3A参照)が実行され、音声読み上げアプリに、商品の名称を示す情報が送信された。これにより、商品の名称が読み上げられ、自分の意思を店員に伝えることができた。 (2) In a certain store, a user who has an utterance disorder tries to convey a product he / she wants to purchase to the store clerk, but does not have paper and a pen and cannot communicate his / her intention to the store clerk. Therefore, the user activates the speech-to-speech application on the smartphone and traces the name of the product (characters) on the counter of the store with the fingertip of one hand. Thereby, the process (refer FIG. 3A) of step S10-step S30 was performed, and the information which shows the name of goods was transmitted to the voice reading application. As a result, the name of the product was read aloud and I was able to convey my intention to the store clerk.
(3)混雑した繁華街で、ユーザは、スマートフォンの音声ナビゲーションアプリを実行したいと考えた。しかし、プライバシー保護の観点から、音声入力モードは使いにくい。また、空中でのジェスチャー入力を人前で行うのは奇異であるため、ジェスチャー入力モードも使いにくい。そこで、ユーザは、一方の手の指先で、他方の手の掌をタップした。これにより、ステップS10〜ステップS30の処理(図3A参照)が実行され、音声ナビゲーションアプリの起動コマンドがスマートフォンに送信され、音声ナビゲーションアプリが起動した。この結果、ユーザは、スマートフォンを取り出すことなく、音声ナビゲーションアプリを起動させ、ハンドジェスチャーとイヤホーンだけで、音声ナビゲーションアプリを聞くことができた。 (3) In a busy downtown area, the user wants to execute a voice navigation application for a smartphone. However, the voice input mode is difficult to use from the viewpoint of privacy protection. Also, since it is strange to perform gesture input in the air in the public, the gesture input mode is difficult to use. Therefore, the user taps the palm of the other hand with the fingertip of one hand. Thereby, the process (refer FIG. 3A) of step S10-step S30 was performed, the starting command of the voice navigation application was transmitted to the smart phone, and the voice navigation application started. As a result, the user was able to start the voice navigation application without taking out the smartphone, and listen to the voice navigation application only with the hand gesture and the earphone.
その後、ユーザは、目的値の候補をスマートフォンに読み上げさせるため、一方の手の指先で、他方の手の掌を、目的地の名称の最初の数文字を描くようになぞった。これにより、ステップS10〜ステップS30の処理(図3A参照)が実行され、複数の目的地の候補がスマートフォンによって読み上げられた。そこで、ユーザは、目的値を選択するため、一方の手の指先で、他方の手の掌を、所望の候補に対応する番号を描くようになぞった。これにより、ステップS10〜ステップS30の処理(図3A参照)が実行され、その目的値が選択されてナビゲーションが始まった。この結果、ユーザは、スマートフォンを取り出すことなく、ハンドジェスチャーとイヤホーンだけで、目的値への音声案内を聞くことができた。 Thereafter, the user traced the first few letters of the name of the destination with the fingertip of one hand and the palm of the other hand in order to make the smartphone read out the target value candidates. Thereby, the process (refer FIG. 3A) of step S10-step S30 was performed, and the candidate of the several destination was read aloud by the smart phone. Therefore, the user traced the number corresponding to the desired candidate with the fingertip of one hand to select the target value. Thereby, the process of step S10-step S30 (refer FIG. 3A) was performed, the target value was selected, and navigation started. As a result, the user was able to listen to the voice guidance to the target value using only the hand gesture and the earphone without taking out the smartphone.
(4)ユーザは、音声対話ロボットを介して、テレビのボリュームを調整しようと考えたが、音声対話ロボットに、「もっと大きく」「いや、もうすこし小さく」「もうちょっとだけ大きく」といった指示を与えるのは煩わしいと感じた。そこで、ユーザは、音声対話ロボットに「ボリューム変える」という指示を与えておき、後は、情報入力装置1によって音声対話ロボットの制御を行うこととした。ユーザは、テレビのボリュームを調整するために、一方の手の指先で、他方の手の掌を、ボリュームつまみを所定の回転量だけ右回転または左回転させるようになぞった。これにより、ステップS10〜ステップS30の処理(図3A参照)が実行され、音声対話ロボットによって、上記回転量に応じたボリュームの調整が行われた。 (4) The user thought to adjust the volume of the TV through the voice dialogue robot, but gives the voice dialogue robot instructions such as “larger”, “no, a little smaller”, “a little bigger”. Felt annoying. Therefore, the user gives an instruction “change volume” to the voice interactive robot, and then the information input device 1 controls the voice interactive robot. In order to adjust the volume of the television, the user traces the palm of the other hand with the fingertip of one hand so that the volume knob is rotated clockwise or counterclockwise by a predetermined rotation amount. Thereby, the process of step S10-step S30 (refer FIG. 3A) was performed, and the volume according to the said rotation amount was adjusted with the voice dialogue robot.
このように、情報入力装置1を用いることにより、音声対話では困難なアナログ量の指示を容易に行うことができる。なお、アナログ量としては、テレビ等の機器の音量のほか、電灯・画面の明るさ、位置指定、エアコンの風向き・風量・強さ、テレビ等の機器の画面やの向きなどを例示することができる。 As described above, by using the information input device 1, it is possible to easily give an instruction of an analog amount that is difficult in voice dialogue. In addition, as an analog amount, in addition to the volume of a device such as a television, the brightness of a light / screen, position designation, the wind direction / volume / strength of an air conditioner, the screen direction of a device such as a television, and the like may be exemplified. it can.
(5)ユーザは、グラフィカルユーザーインターフェイスのパソコンを操作している。パソコンには、視線追跡機能が付加されているとする。マウスでポインターを動かす代わりに、ユーザはマウスポインターを見る。すると、ポインターの形状が変わって、パソコンが、ユーザがポインターを操作対象に選んでいるということのフィードバックを、ユーザに伝えた。そこで、ユーザは机の上を指で移動したい方向になぞる。マウスポインターは、その方向へ指示された距離だけ移動する。また、あるアプリケーションのツールバーのファイルアイコンを見る。マウスでクリックする代わりに、指で机をタップすると、ファイルメニューが開く。メニューの中の実行したいコマンドを見る。そして、マウスクリックする代わりに、指で机をタップしてそのコマンドを実行する。このように、見ることでグラフィカルオブジェクトを操作対象として選択し、指で指示を与える。このようなユーザーインターフェイスは、オブジェクトを見て選び指で操作するので、マウス操作するよりも素早く、かつ自然である。 (5) The user operates a personal computer with a graphical user interface. Assume that the eye tracking function is added to the personal computer. Instead of moving the pointer with the mouse, the user looks at the mouse pointer. Then, the shape of the pointer changed, and the personal computer gave feedback to the user that the user was selecting the pointer as an operation target. Therefore, the user traces on the desk in the direction in which he / she wants to move. The mouse pointer moves the indicated distance in that direction. Also, look at the file icon on the toolbar of an application. Instead of clicking with the mouse, tap the desk with your finger to open the file menu. Look at the command you want to execute in the menu. Then, instead of clicking the mouse, tap the desk with your finger to execute the command. In this way, a graphical object is selected as an operation target by viewing, and an instruction is given with a finger. Such a user interface is quicker and more natural than operating a mouse because it looks at an object and operates with a finger.
(6)ユーザは、視線追跡装置の対象機器であるエアコンを見た後、所定のハンドジェスチャーを行った。これにより、ステップS10〜ステップS30の処理(図3A参照)が実行され、「選択」コマンドが家電を制御する装置に送信されて、エアコンのオンオフ制御ができるようになった。また、ユーザは、エアコンをオンにするために、所定のハンドジェスチャーを行った。これにより、ステップS10〜ステップS30の処理(図3A参照)が実行され、「ON」コマンドがエアコンに送信され、エアコンが起動した。 (6) The user performed a predetermined hand gesture after looking at the air conditioner that is the target device of the eye tracking device. Thereby, the process of step S10-step S30 (refer FIG. 3A) is performed, and the "selection" command is transmitted to the apparatus which controls household appliances, and came to be able to perform on-off control of an air conditioner. In addition, the user performs a predetermined hand gesture to turn on the air conditioner. Thereby, the process of step S10-step S30 (refer FIG. 3A) was performed, the "ON" command was transmitted to the air conditioner, and the air conditioner started.
(7)ユーザは、カメラ付きの視線追跡装置を用いて、遠方の物体のズーム写真をとるために、所定のハンドジェスチャーを行った。これにより、ステップS10〜ステップS30の処理(図3A参照)が実行され、ズームコマンドが視線追跡カメラに送信された。視線が不安定な動きをし、撮影対象の三次元位置が定まらなかったため、ユーザは、当該三次元位置を固定すべく、所定のハンドジェスチャーを行った。これにより、ステップS10〜ステップS30の処理(図3A参照)が実行され、位置固定コマンドが視線追跡カメラに送信され、撮影対象の三次元位置が固定された。 (7) The user performs a predetermined hand gesture in order to take a zoom photograph of a distant object using a line-of-sight tracking device with a camera. Thereby, the process of step S10-step S30 (refer FIG. 3A) was performed, and the zoom command was transmitted to the gaze tracking camera. Since the line of sight moved in an unstable manner and the three-dimensional position of the subject to be imaged was not determined, the user performed a predetermined hand gesture to fix the three-dimensional position. Thereby, the process of step S10-step S30 (refer FIG. 3A) was performed, the position fixing command was transmitted to the gaze tracking camera, and the three-dimensional position of imaging | photography object was fixed.
しかし、撮影対象の三次元位置が意図した位置とはずれていたため、ユーザは、所定のハンドジェスチャーを行った。これにより、ステップS10〜ステップS30の処理(図3A参照)が実行され、移動させたい距離と方向が指定された。そして、ユーザは、撮影対象の三次元位置を調整するために、一方の手の指先で、他方の手の掌を、上下になぞった。これにより、ステップS10〜ステップS30の処理(図3A参照)が実行され、撮影対象の三次元位置が上下に移動した。その後、ユーザは、ズーム写真をとって撮影を終了しようと考え、所定のハンドジェスチャーを行った。これにより、ステップS10〜ステップS30の処理(図3A参照)が実行され、「ズーム撮影」コマンドが視線追跡カメラに送信され、その後、終了コマンドが送信された。 However, since the three-dimensional position of the photographing target is not the intended position, the user performs a predetermined hand gesture. Thereby, the process of step S10-step S30 (refer FIG. 3A) was performed, and the distance and direction to move were designated. Then, the user traced the palm of the other hand up and down with the fingertip of one hand in order to adjust the three-dimensional position of the object to be imaged. Thereby, the process of step S10-step S30 (refer FIG. 3A) was performed, and the three-dimensional position of imaging | photography object moved up and down. Thereafter, the user took a zoom photograph and thought to end the shooting, and performed a predetermined hand gesture. As a result, the processing of steps S10 to S30 (see FIG. 3A) was executed, a “zoom imaging” command was transmitted to the line-of-sight tracking camera, and then an end command was transmitted.
なお、上記のような三次元位置の指示は、ドローンのコントローラーに使うことも可能である。上記の使用例で示したように、情報入力装置1をユーザーインターフェイスとして用いることで、音声対話デバイス、視線追跡装置に限らず、ロボット、ドローン、ヘッドマウントディスプレイなどの、任意のデバイスのコントロールを行うことができる。 The above three-dimensional position indication can also be used for the drone controller. As shown in the above usage example, by using the information input device 1 as a user interface, it is possible to control an arbitrary device such as a robot, a drone, or a head mounted display, as well as a voice interactive device and a line-of-sight tracking device. be able to.
本実施形態では、ユーザの一方の手の指先が他方の手の掌に平面接触している平面接触期間において、他方手の掌における一方の手の指先の移動状態が推定される。より詳細には、ユーザが、一方の手の指先(接触体)で、他方の手の掌(物体の表面)をなぞりながら文字等を描く操作を実行すると、一方の手の指先が他方の手の掌に平面接触している平面接触期間において、その文字等の軌跡に沿って掌を移動する指先の移動状態が推定される。そして、その推定結果に基づいた操作情報が生成され、当該操作情報に基づいて端末を動作させることが可能となる。 In the present embodiment, the movement state of the fingertip of one hand in the palm of the other hand is estimated during the plane contact period in which the fingertip of one hand of the user is in plane contact with the palm of the other hand. More specifically, when the user performs an operation of drawing a character or the like while tracing the palm of the other hand (the surface of the object) with the fingertip (contact body) of one hand, the fingertip of one hand moves to the other hand. In the plane contact period in which the palm is in plane contact, the movement state of the fingertip that moves the palm along the trajectory of the character or the like is estimated. Then, operation information based on the estimation result is generated, and the terminal can be operated based on the operation information.
接触する平面状のものは、他方の手の掌に限定されるものではなく、ズボンの大腿部の外側や、カバンの平たいところなど、なんでもよい。一方の手で何らかの平面上に書く操作は、直感的に行うことができ、必ずしも物体の表面に視線を向けたり、両手を用いたりする必要がなく、両手および目を占有することがない。 The flat thing to contact is not limited to the palm of the other hand, and may be anything such as the outside of the thigh of the trousers or the flat part of the bag. An operation of writing on a certain plane with one hand can be performed intuitively, and it is not always necessary to direct a line of sight to the surface of the object or use both hands, and does not occupy both hands and eyes.
また、ユーザは、指先を掌で隠しつつ移動させることにより、第三者に見られることなく上記操作を行うことが可能となり、プライバシーを守ることができる。 In addition, the user can perform the above operation without being seen by a third party by moving the fingertip while hiding the fingertip with a palm, thereby protecting the privacy.
また、三次元空間を移動する指先の位置、移動方向および動きを検出する場合に比べて、掌(二次元平面)を移動する指先の位置、移動方向および動きを検出することは容易であり、ジェスチャーの認識精度を高めることができる。さらに、ジェスチャーの認識精度が高まることにより、多種類のジェスチャーを認識することが可能となり、ユーザフレンドリーな技術を提供することができる。 In addition, it is easier to detect the position, moving direction, and movement of the fingertip that moves the palm (two-dimensional plane) than when detecting the position, moving direction, and movement of the fingertip that moves in the three-dimensional space. Gesture recognition accuracy can be increased. Furthermore, since the gesture recognition accuracy is increased, it is possible to recognize many types of gestures, and provide a user-friendly technique.
図7は、状態推定部123が実行する処理の内容を説明するための他の図である。図7に示すように、三次元空間を移動する指先の位置を特定するには、複数の正解パターンを探索する必要がある。これに対して、二次元平面を移動する指先の位置を特定する場合、正解パターンが一意に定まるため、高いジェスチャー認識精度を実現することができる。
FIG. 7 is another diagram for explaining the contents of the process executed by the
また、本実施形態では、接触開始時刻Tcsと接触終了時刻Tceとに基づいて平面接触期間が特定され、この平面接触期間において、移動開始時刻Tmsと移動終了時刻Tmeとに基づいて移動期間が特定される。移動期間は、ユーザの一方の手の指先が他方の手の掌(二次元平面)を移動している期間であるため、移動期間におけるユーザの指先の移動状態を推定することにより、高いジャスチャー認識精度を実現することができる。 In the present embodiment, the plane contact period is specified based on the contact start time Tcs and the contact end time Tce. In this plane contact period, the movement period is specified based on the movement start time Tms and the movement end time Tme. Is done. Since the movement period is a period in which the fingertip of one hand of the user is moving the palm (two-dimensional plane) of the other hand, the movement state of the user's fingertip during the movement period is estimated, thereby providing a high gesture. Recognition accuracy can be realized.
また本実施形態では、第1検出部111が、指先が掌に接触したときに発生した振動を検出し、第2検出部112は、指先の運動を検出する。すなわち、本実施形態では、第1検出部111が出力する振動波形信号V1と第2検出部112が出力する加速度波形信号V2aおよび角速度波形信号V2bに基づいて、平面接触期間が特定される。ユーザの一方の手の指先が他方の手の掌に平面接触すると、そのときの振動が、ピークとして振動波形に迅速に表れる。また、ユーザの一方の手の指先が運動すると、そのときの加速度や角速度等が、ピークとして加速度波形や角速度波形に迅速に表れる。そのため、本実施形態によれば、上記各波形のピークに基づいて、平面接触期間を正確に求めることができる。
Moreover, in this embodiment, the 1st detection part 111 detects the vibration which generate | occur | produced when a fingertip contacts a palm, and the
また、本実施形態では、状態検出部123が、平面接触期間から、ユーザの一方の手の指先が他方の手の掌に平面接触を開始する接触開始時刻Tcsおよび上記一方の手の指先が上記他方の手の掌への平面接触を終了する接触終了時刻Tceの各々の近傍の期間を除いた移動期間を特定し、当該移動期間における第2検出部112の検出信号に基づいて、上記移動状態を推定する。そのため、接触開始時刻Tcsおよび接触終了時刻Tceにおいて発生する衝撃波の影響により、特定した平面接触期間に誤差が含まれ、上記一方の手の指先の移動状態の推定結果の精度が落ちることを防止することができる。
Further, in the present embodiment, the
また、本実施形態では、接触検出部122が、第1検出部111の検出信号(振動波形サンプルV1)と第2検出部112の検出信号(加速度波形サンプルV2aおよび角速度波形サンプルV2b)の両方の変動幅が所定の閾値を超えている期間を平面接触期間として特定する。そのため、平面接触期間をより正確に求めることができる。
Further, in the present embodiment, the
また、本実施形態では、ユーザの一方の手の指先は、略二次元平面上(ユーザの他方の手の掌)を移動する。そのため、指先が、凹凸のある物体の表面を移動する場合に比べて、指先の移動状態を正確に推定することができる。したがって、ジェスチャーの認識精度をさらに高めることができる。 In the present embodiment, the fingertip of one hand of the user moves on a substantially two-dimensional plane (the palm of the other hand of the user). Therefore, the movement state of the fingertip can be accurately estimated as compared with the case where the fingertip moves on the surface of the object having the unevenness. Therefore, the gesture recognition accuracy can be further increased.
なお、本発明は、上述した実施形態に限定されるものではなく、本発明の範囲内で種々に改変することができる。 The present invention is not limited to the above-described embodiment, and can be variously modified within the scope of the present invention.
上記実施形態において、端末20の代わりにWebサーバを用い、操作情報生成部124からの操作情報に基づいて、Webサービスを行ってもよい。たとえば、上記操作情報の示す文字をテキストとしてWebサーバに蓄積し、ユーザ端末からの要求に応じて、メモ帳アプリ、検索アプリ等にテキストを提供してもよい。
In the above embodiment, a Web server may be used based on the operation information from the operation
上記実施形態において、振動センサ111aを省略し、運動センサ(たとえば加速度センサや各速度センサ等)のみで検出部111を構成してもよい。本発明者の実験によると、運動センサの検出信号には、10〜40Hz付近に、摩擦振動の振動成分が含まれていることが明らかになっている。したがって、運動センサの検出信号を周波数分解し、この検出信号に重畳されている摩擦振動の振動成分を検出することにより、平面接触期間におけるフレームを特定することが可能となる。この場合、第1検出部111を省略することが可能となり、検出部110の構成を簡素化することができる。
In the above embodiment, the vibration sensor 111a may be omitted, and the detection unit 111 may be configured with only a motion sensor (for example, an acceleration sensor, each speed sensor, or the like). According to the experiment of the present inventor, it has been clarified that the detection signal of the motion sensor includes a vibration component of frictional vibration in the vicinity of 10 to 40 Hz. Therefore, it is possible to specify the frame in the plane contact period by frequency-resolving the detection signal of the motion sensor and detecting the vibration component of the frictional vibration superimposed on the detection signal. In this case, the first detection unit 111 can be omitted, and the configuration of the
上記実施形態では、第1検出部111を振動センサ111aで構成したが、圧電センサやコンデンサマイク等で構成してもよい。あるいは、上記複数のセンサ等を組み合わせて第1検出部111を構成してもよい。 In the above embodiment, the first detection unit 111 is configured by the vibration sensor 111a, but may be configured by a piezoelectric sensor, a capacitor microphone, or the like. Or you may comprise the 1st detection part 111 combining the said some sensor.
上記実施形態では、接触体としてユーザの指先を例示したが、接触体の例はこれに限定されるものではない。たとえば、ボールペンや鉛筆等の筆記具を接触体として用い、これらの筆記具に運動センサと振動センサを固定してもよい。この態様では、ユーザが、上記筆記具を用いて、たとえばノートなど(物体の表面)に所定の文字を書くと、ステップS10〜S30の処理が実行され(図3A参照)、上記所定の文字が手書き文字認識処理(図3B:ステップSA170)で認識される。そこで、たとえば、この認識された所定の文字を電子化してディスプレイに表示したり、音声にして読み上げたりすることにより、本発明を教育用玩具等に適用することが可能となる。 In the said embodiment, although a user's fingertip was illustrated as a contact body, the example of a contact body is not limited to this. For example, a writing instrument such as a ballpoint pen or a pencil may be used as a contact body, and a motion sensor and a vibration sensor may be fixed to these writing instruments. In this aspect, when the user writes a predetermined character on a notebook or the like (the surface of the object) using the writing instrument, the processing of steps S10 to S30 is executed (see FIG. 3A), and the predetermined character is handwritten. It is recognized in the character recognition process (FIG. 3B: step SA170). Therefore, for example, the present invention can be applied to educational toys and the like by digitizing the recognized predetermined characters and displaying them on a display or reading them as voices.
また、上記のような筆記具の先端部分(たとえば、ペン先)は指先等に比べて固いため、当該筆記具で物体の表面を擦ると、その摩擦振動が容易に検出部110に伝達される。そのため、接触検出処理(図3B:ステップSA110)等において、摩擦振動を容易に検出することが可能となり、平面接触期間を精度良く特定することができる。
Further, since the tip portion (for example, the pen tip) of the writing instrument as described above is harder than the fingertip or the like, the friction vibration is easily transmitted to the
また、上記筆記具に運動センサを固定した場合、手首に運動センサを固定する場合に比べて、接触体と運動センサの間の距離が短くなる。そのため、ステップSB155(図3C参照)で検出される歪みが小さくなり、状態推定部123による接触体の移動状態の推定結果の精度を高めることができる。
In addition, when the motion sensor is fixed to the writing instrument, the distance between the contact body and the motion sensor is shorter than when the motion sensor is fixed to the wrist. Therefore, the distortion detected in step SB155 (see FIG. 3C) is reduced, and the accuracy of the estimation result of the moving state of the contact body by the
1… ジェスチャー入力システム
10・・・ 情報入力装置
100・・・ 信号処理装置
110・・・ 検出部
111・・・ 第1検出部
111a・・・ 振動センサ
112・・・ 第2検出部
112a・・・ 加速度センサ
112b・・・ 角速度センサ
120・・・ 信号処理部
121・・・ 受信処理部
122・・・ 接触検出部
123・・・ 状態推定部
124・・・ 操作情報生成部
130・・・ 通信部
30・・・ 装着部
20・・・ 端末
DESCRIPTION OF SYMBOLS 1 ...
111a ...
112a Acceleration sensor
112b ...
Claims (6)
前記第1検出部と前記第2検出部の少なくとも一方の検出信号に基づいて、接触体が物体に平面接触している平面接触期間を特定する接触検出部と、
前記平面接触期間における前記第2検出部の検出信号に基づいて、前記物体の表面における前記接触体の移動状態を推定する状態推定部と、
前記状態推定部の推定結果に基づいて、操作対象の端末を操作させるための操作情報を生成する操作情報生成部と、を有する信号処理部
を有することを特徴とする情報入力装置。 A reception processing unit that receives a detection signal from at least one of the first detection unit and the second detection unit;
A contact detection unit that identifies a plane contact period in which the contact body is in plane contact with the object based on at least one detection signal of the first detection unit and the second detection unit;
A state estimation unit that estimates a moving state of the contact body on the surface of the object based on a detection signal of the second detection unit in the planar contact period;
An information input device comprising: a signal processing unit including: an operation information generation unit configured to generate operation information for operating an operation target terminal based on an estimation result of the state estimation unit.
前記第2検出部は、前記接触体の運動を検出することを特徴とする請求項1に記載の情報入力装置。 The first detection unit detects vibration generated when the contact body makes a flat contact with the object,
The information input device according to claim 1, wherein the second detection unit detects a movement of the contact body.
前記第1検出部と前記第2検出部の少なくとも一方の検出信号に基づいて、接触体が物体に平面接触している平面接触期間を特定する接触検出工程と、
前記平面接触期間における前記第2検出部の検出信号に基づいて、前記物体の表面における前記接触体の移動状態を推定する状態推定工程と、
前記状態推定部の推定結果に基づいて、操作対象の端末を操作させるための操作情報を生成する操作情報生成工程と、を有する信号処理工程
を有することを特徴とする情報入力方法。 A reception processing step of receiving a detection signal from at least one of the first detection unit and the second detection unit;
A contact detection step for identifying a plane contact period in which the contact body is in plane contact with the object based on at least one detection signal of the first detection unit and the second detection unit;
A state estimation step of estimating a moving state of the contact body on the surface of the object based on a detection signal of the second detection unit in the planar contact period;
An information input method comprising: a signal processing step including: an operation information generation step for generating operation information for operating an operation target terminal based on an estimation result of the state estimation unit.
前記第1検出部と前記第2検出部の少なくとも一方の検出信号に基づいて、接触体が物体に平面接触している平面接触期間を特定する接触検出部と、
前記平面接触期間における前記第2検出部の検出信号に基づいて、前記物体の表面における前記接触体の移動状態を推定する状態推定部と、
前記状態推定部の推定結果に基づいて、操作対象の端末を操作させるための操作情報を生成する操作情報生成部と、を有する信号処理部を有する情報入力装置と、
前記情報入力装置から送信された前記操作情報に基づいて動作する端末と、
を有することを特徴とする情報入力システム。 A reception processing unit that receives a detection signal from at least one of the first detection unit and the second detection unit;
A contact detection unit that identifies a plane contact period in which the contact body is in plane contact with the object based on at least one detection signal of the first detection unit and the second detection unit;
A state estimation unit that estimates a moving state of the contact body on the surface of the object based on a detection signal of the second detection unit in the planar contact period;
An information input device having a signal processing unit having an operation information generating unit for generating operation information for operating the operation target terminal based on the estimation result of the state estimating unit;
A terminal that operates based on the operation information transmitted from the information input device;
An information input system comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017116704A JP2019003366A (en) | 2017-06-14 | 2017-06-14 | Information input device, information input method and information input system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017116704A JP2019003366A (en) | 2017-06-14 | 2017-06-14 | Information input device, information input method and information input system |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2019003366A true JP2019003366A (en) | 2019-01-10 |
Family
ID=65005911
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017116704A Pending JP2019003366A (en) | 2017-06-14 | 2017-06-14 | Information input device, information input method and information input system |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2019003366A (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2021157231A (en) * | 2020-03-25 | 2021-10-07 | カシオ計算機株式会社 | Electronic devices, measurement systems, operation instruction methods and programs |
-
2017
- 2017-06-14 JP JP2017116704A patent/JP2019003366A/en active Pending
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2021157231A (en) * | 2020-03-25 | 2021-10-07 | カシオ計算機株式会社 | Electronic devices, measurement systems, operation instruction methods and programs |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10444908B2 (en) | Virtual touchpads for wearable and portable devices | |
| US20220083149A1 (en) | Computing interface system | |
| US11009951B2 (en) | Wearable muscle interface systems, devices and methods that interact with content displayed on an electronic display | |
| US11644907B2 (en) | Systems, devices, and methods for physical surface tracking with a stylus device in an AR/VR environment | |
| JP5802667B2 (en) | Gesture input device and gesture input method | |
| US10545584B2 (en) | Virtual/augmented reality input device | |
| US7788607B2 (en) | Method and system for mapping virtual coordinates | |
| KR102170321B1 (en) | System, method and device to recognize motion using gripped object | |
| KR101844390B1 (en) | Systems and techniques for user interface control | |
| CN103518173A (en) | Information input apparatus and method for controlling information input apparatus | |
| KR102184243B1 (en) | System for controlling interface based on finger gestures using imu sensor | |
| US11397478B1 (en) | Systems, devices, and methods for physical surface tracking with a stylus device in an AR/VR environment | |
| KR20160143428A (en) | Pen terminal and method for controlling the same | |
| US20190101754A1 (en) | Midair interaction with electronic pen projection computing system | |
| EP4254143A1 (en) | Eye tracking based selection of a user interface element based on targeting criteria | |
| CN109153332B (en) | Sign Language Input for Vehicle User Interfaces | |
| JP2019003366A (en) | Information input device, information input method and information input system | |
| KR101564089B1 (en) | Presentation Execution system using Gesture recognition. | |
| JP2010086367A (en) | Positional information inputting device, positional information inputting method, program, information processing system, and electronic equipment | |
| KR102322968B1 (en) | a short key instruction device using finger gestures and the short key instruction method using thereof | |
| US8913008B2 (en) | Image data generation using a handheld electronic device | |
| US20240103634A1 (en) | Motion Mapping for Continuous Gestures | |
| JP5992380B2 (en) | Pointing device, notebook personal computer, and operation method. | |
| JP2014052695A (en) | Electronic device, and method and program for controlling electronic device | |
| JP2019186698A (en) | Image processing apparatus, processing method, and program |