JP7627485B2 - Input Devices - Google Patents
Input Devices Download PDFInfo
- Publication number
- JP7627485B2 JP7627485B2 JP2021023076A JP2021023076A JP7627485B2 JP 7627485 B2 JP7627485 B2 JP 7627485B2 JP 2021023076 A JP2021023076 A JP 2021023076A JP 2021023076 A JP2021023076 A JP 2021023076A JP 7627485 B2 JP7627485 B2 JP 7627485B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- detection unit
- cheek
- cloth
- operation data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 claims description 140
- 239000004744 fabric Substances 0.000 claims description 80
- 230000033001 locomotion Effects 0.000 claims description 74
- 238000009940 knitting Methods 0.000 claims description 14
- 210000000088 lip Anatomy 0.000 claims description 8
- 230000005540 biological transmission Effects 0.000 claims description 2
- 230000009471 action Effects 0.000 description 71
- 238000000034 method Methods 0.000 description 55
- 230000008569 process Effects 0.000 description 52
- 238000003825 pressing Methods 0.000 description 36
- 238000010586 diagram Methods 0.000 description 19
- 238000004891 communication Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 239000004677 Nylon Substances 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 229920001778 nylon Polymers 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 229920000728 polyester Polymers 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 239000000853 adhesive Substances 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229920000915 polyvinyl chloride Polymers 0.000 description 1
- 239000004800 polyvinyl chloride Substances 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 239000007779 soft material Substances 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Description
特許法第30条第2項適用 第24回一般社団法人情報処理学会シンポジウム(インタラクション2020) 2020年3月9日~11日開催 [刊行物等] 第38回日本ロボット学会学術講演会(RSJ2020) オンライン予稿集 2020年10月8日発行 [刊行物等] 第38回日本ロボット学会学術講演会(RSJ2020) 2020年10月9日~11日開催
この発明は、入力装置に関し、特にたとえば、頬の動作に基づく操作データをコンピュータに入力する、入力装置に関する。 This invention relates to an input device, and in particular to an input device that inputs operational data based on cheek movements into a computer.
この種の従来の入力装置の一例が特許文献1に開示されている。特許文献1に開示される視線検出装置は、座標系に対する瞳孔の位置を測定するための2つの第1のカメラと、上記の座標系の既知の位置に配置され角膜反射点を形成するための光源を備え、瞳孔の中心と角膜反射点間の距離とこの距離の上記の座標系の座標軸に対する所定の角度のデータを取得する1つの第2のカメラとを用いて各カメラからの情報により視線方向を演算する演算手段を備えている。この視線検出装置では、関係式決定段階で、被検者に既知の点に注目させて測定を行い関係式が決定される。視線決定段階では、被検者を再度測定して、上記の関係式を用いて視線が決定される。また、特許文献1では、この視線検出装置が視線入力手段として使用できることが開示される。 One example of this type of conventional input device is disclosed in Patent Document 1. The gaze detection device disclosed in Patent Document 1 includes two first cameras for measuring the position of the pupil relative to a coordinate system, a light source for forming a corneal reflection point, and a second camera for acquiring data on the distance between the center of the pupil and the corneal reflection point and a predetermined angle of this distance relative to the coordinate axes of the coordinate system, and is equipped with a calculation means for calculating the gaze direction from information from each camera. In this gaze detection device, in the relational equation determination stage, the subject is asked to look at a known point, measurements are taken, and the relational equation is determined. In the gaze determination stage, the subject is measured again, and the gaze is determined using the relational equation. Patent Document 1 also discloses that this gaze detection device can be used as a gaze input means.
上記の特許文献1に開示される視線検出装置では、視線を決定する場合に、被験者ないしユーザは、入力したい既知の点を注目する必要があり、操作が煩わしく、正確に入力するのが比較的難しいという問題がある。また、入力を確定する場合には、或る程度の長い時間、ユーザは既知の点を注目する必要があり、高速に入力することができない問題もある。 The gaze detection device disclosed in the above-mentioned Patent Document 1 has the problem that when determining the gaze, the subject or user must focus on a known point that they wish to input, which makes the operation cumbersome and makes it relatively difficult to input accurately. In addition, when confirming the input, the user must focus on the known point for a certain amount of time, which also makes it difficult to input quickly.
それゆえに、この発明の主たる目的は、新規な、入力装置を提供することである。 Therefore, the main object of this invention is to provide a novel input device.
また、この発明の他の目的は、操作が簡単であり、正確かつ高速に入力できる、入力装置を提供することである。 Another object of the present invention is to provide an input device that is easy to operate and allows accurate and fast input.
第1の発明は、ユーザの少なくとも頬の一部を覆い、変形可能なシート状の被覆部、被覆部のユーザの顔の接触する側に取り付けられ、少なくともユーザの左頬の動作および右頬の動作を検出可能な検出部、および検出部によって検出されたユーザの左頬の動作に基づく操作データまたは/および右頬の動作に基づく操作データを生成する生成部を備える、入力装置である。 A first invention is an input device comprising a deformable sheet-like covering portion covering at least a portion of a user's cheek, a detection portion attached to the side of the covering portion that comes into contact with the user's face and capable of detecting at least the movement of the user's left cheek and the movement of the right cheek, and a generation portion that generates operation data based on the movement of the user's left cheek and/or the movement of the right cheek detected by the detection portion.
第2の発明は、第1の発明に従属し、生成部によって生成された操作データを外部のコンピュータに送信する送信部をさらに備える。 The second invention is dependent on the first invention, and further includes a transmission unit that transmits the operation data generated by the generation unit to an external computer.
第3の発明は、第1または第2の発明に従属し、検出部は、2つの静電容量型タッチセンサであり、2つの静電容量型タッチセンサは、被覆部の左右にそれぞれ配置され、ユーザの左頬または/および右頬の動作を検出する。 A third invention is according to the first or second invention, and the detection unit is two capacitive touch sensors, which are arranged on the left and right sides of the covering unit, respectively , and detect the movement of the user's left cheek and/or right cheek.
第4の発明は、第1または第2の発明に従属し、検出部は、4つの静電容量型タッチセンサを含み、4つの静電容量型センサは、被覆部の上下左右にそれぞれ配置され、ユーザの左頬、右頬、人中および顎の少なくとも1つの動作を検出し、生成部は、4つの静電容量型センサによって検出された、ユーザの左頬の動作に基づく操作データ、ユーザの右頬の動作に基づく操作データ、ユーザの人中の動作に基づく操作データ、およびユーザの顎の動作に基づく操作データの少なくとも1つを生成する。 A fourth invention is according to the first or second invention, and the detection unit includes four capacitive touch sensors, the four capacitive sensors being respectively arranged on the top, bottom, left and right of the covering unit and detecting at least one of movements of the user's left cheek, right cheek, philtrum and jaw, and the generation unit generates at least one of operation data based on the movement of the user's left cheek, operation data based on the movement of the user's right cheek, operation data based on the movement of the user's philtrum and operation data based on the movement of the user's jaw detected by the four capacitive sensors.
第5の発明は、第3または第4の発明に従属し、静電容量型タッチセンサは、導電性の糸を編んで形成された第1布と絶縁性の糸を編んで形成された第2布を重ね合わせた導電性布、第1布と同じ大きさを有し、当該第1布に重ねて貼り付けた絶縁シート、および第1布と電気的に接続された静電容量センサICを備える。 The fifth invention is dependent on the third or fourth invention, and the capacitive touch sensor includes a conductive cloth formed by overlapping a first cloth formed by knitting conductive thread with a second cloth formed by knitting insulating thread, an insulating sheet having the same size as the first cloth and overlapping and affixed to the first cloth, and a capacitive sensor IC electrically connected to the first cloth.
第6の発明は、第5の発明に従属し、導電性布は、伸縮性を有する。 The sixth invention is dependent on the fifth invention, and the conductive cloth has elasticity.
この発明によれば、タッチ検出部を設けたマスクを装着したユーザの頬の動作でコンピュータマウスのボタンの操作と同様の操作を行うことができる。このため、操作が簡単であり、正確かつ高速に文字を入力することができる。 According to this invention, a user wearing a mask equipped with a touch detection unit can perform operations similar to those of operating a computer mouse button by moving their cheek. This makes the operation simple and allows characters to be input accurately and quickly.
この発明の上述の目的、その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above and other objects, features and advantages of the present invention will become more apparent from the following detailed description of the embodiments with reference to the drawings.
[第1実施例]
図1を参照して、第1実施例の入力装置10は、頬動作検出装置12を含み、頬動作検出装置12はコンピュータ14に通信可能に接続される。頬動作検出装置12については、後で詳細に説明する。
[First Example]
1, an
コンピュータ14は、汎用のサーバまたはPCであり、CPU14a、RAM14bおよび通信装置14cなどのコンポーネントを備える。また、コンピュータ14は、HDD、フラッシュメモリ、EEPROMなどの不揮発性メモリまたはSSDのような半導体メモリで構成される他の記憶部を備える。
The
CPU14aは、コンピュータ14の全体的な制御を司るプロセッサである。RAM14bは、コンピュータ14の主記憶装置であり、CPU14aのバッファ領域およびワーク領域として機能する。通信装置14cは、イーサネットまたはWi-Fiのような通信方式に従って有線または無線で、頬動作検出装置12または外部のコンピュータと通信するための通信モジュールである。
The
図2は頬動作検出装置12の電気的な構成を示すブロック図である。頬動作検出装置12は、マスク型検出部120およびコントローラ130を含み、マスク型検出部120のうちの後述するタッチ検出部124とコントローラ130が電気的に接続される。
Figure 2 is a block diagram showing the electrical configuration of the cheek
図3はマスク型検出部120の構造の概略を示す図である。マスク型検出部120は、汎用のマスク122を含み、マスク122の左右の端部に、それぞれ、タッチ検出部124が設けられる。
Figure 3 is a diagram showing an outline of the structure of the mask-
なお、図3では、ユーザの左右の頬の位置と2つのタッチ検出部124の各々の位置関係を分かり易く示すために、マスク122で覆われるユーザの顔の一部についても実線で示してある。また、図3では、マスク122に配置された2つのタッチ検出部124の位置を分かり易く示すために、ユーザがマスク122の紐を耳に掛けていない状態を示してある。さらに、図3では、タッチ検出部124は灰色で塗りつぶしてある。これらのことは、第2実施例の図13においても同様である。
In addition, in FIG. 3, a part of the user's face covered by the mask 122 is also shown with a solid line to clearly show the relative positions of the user's left and right cheeks and the two
一例として、マスク122は、変形可能な素材で形成された、ガーゼタイプ、不織布タイプまたはウレタンタイプの家庭用マスクであり、シート状の被覆部でユーザの顔の一部を覆う。ユーザの顔の一部は、具体的には、口、鼻の全部または一部、顎の全部または一部、および、左右の頬のそれぞれの全部または一部を意味する。 As an example, the mask 122 is a gauze-type, nonwoven fabric-type, or urethane-type household mask made of a deformable material, and the sheet-like covering portion covers part of the user's face. The part of the user's face specifically means all or part of the mouth, nose, chin, and each of the left and right cheeks.
なお、この第1実施例では、マスク122は、その被覆部の大きさが縦9cm×横17cmであるものを使用した。 In this first embodiment, the mask 122 used had a covering portion measuring 9 cm in length and 17 cm in width.
ただし、マスク122としては、医療用マスク(すなわち、サージカルマスク)を用いることもできる。また、マスク122は、家庭用マスクおよび医療用マスクに限定される必要はなく、専用のものを作成してもよい。 However, a medical mask (i.e., a surgical mask) can also be used as the mask 122. Also, the mask 122 does not need to be limited to a household mask or a medical mask, and a dedicated mask can be created.
後述するように、第1実施例では、ユーザの頬の動作を検出できれば良いため、マスク122は少なくともユーザの頬の一部を覆っていれば良い。また、ユーザの頬の動きを検出できればよく、ユーザは、入力装置10を用いて入力する内容および入力する位置を視認できれば良いため、マスク122は、目を除く頭部の全体が覆われるものでもよい。
As described below, in the first embodiment, it is sufficient to be able to detect the movement of the user's cheek, so it is sufficient for the mask 122 to cover at least a part of the user's cheek. Also, it is sufficient to be able to detect the movement of the user's cheek, and it is sufficient for the user to be able to visually confirm the content and position of input using the
2つのタッチ検出部124は、それぞれ、帯状に形成され、一例として、層構造のマスク122(すなわち、被覆部)において、外側と内側(つまり、マスク122を装着するユーザ側)の布の間に、縦長の向きで固定される。ただし、タッチ検出部124は、マスク122の外側または内側の布の表面に固定されてもよい。後述するように、タッチ検出部124は布で構成されるため、マスク122に縫い付けることができる。
The two
また、第1実施例では、マスク型検出部120(または、マスク122)を装着したユーザ側から見て、マスク122の布地のうちの左側の端部にタッチ検出部124aが取り付けられ、マスク122の布地のうちの右側の端部にタッチ検出部124bが取り付けられる。 In addition, in the first embodiment, when viewed from the side of a user wearing the mask-type detection unit 120 (or mask 122), the touch detection unit 124a is attached to the left end of the fabric of the mask 122, and the touch detection unit 124b is attached to the right end of the fabric of the mask 122.
以下、この明細書において、タッチ検出部124aとタッチ検出部124bを特に区別する必要が無い場合には、単に、「タッチ検出部124」と呼ぶことにする。
In the following, in this specification, when there is no need to particularly distinguish between touch detection unit 124a and touch detection unit 124b, they will simply be referred to as "
この第1実施例では、ユーザは、上記のマスク型検出部120を装着し、左頬または右頬或いはその両方を動かすことで、その動作がタッチ検出部124aまたは/およびタッチ検出部124bで検出される。ユーザは、頬を空気で膨らませたり、舌で頬の内側から外側に向けて押したりすることで、タッチ検出部124側に頬を接触または押し当てる(以下、単に「押下動作」という)ことができる。また、この明細書において、ユーザが押下動作を行ってから押下動作を止める(つまり、頬をマスク122から離す)ことで、クリック動作を行うこともできる。
In this first embodiment, the user wears the above-mentioned mask-
つまり、ユーザは、頬を動かすことで、コンピュータマウスの左ボタンおよび右ボタンのそれぞれを押下する動作と、左ボタンおよび右ボタンのそれぞれを押下した後に開放する動作と同様の操作を行うことができる。 In other words, by moving their cheeks, the user can perform operations similar to pressing the left and right buttons of a computer mouse, and then pressing and releasing the left and right buttons.
図4は図3に示すタッチ検出部124の構造の概略を示す図である。図4に示すように、タッチ検出部124は、層構造を有しており、導電性布200および絶縁テープ220を含む。さらに、導電性布200は、導電面側の布200a(「第1布」に相当する)と非導電面側の布200b(「第2布」に相当する)を接結して構成される。絶縁テープ220は、導電面側の布200aに貼り付けられる。図示は省略するが、図3に示したコントローラ130は、タッチ検出部124aとタッチ検出部124bのそれぞれの導電面側の布200aに電線で接続される。
Figure 4 is a diagram showing an outline of the structure of the
図5(A)は導電面側の布200aの一部拡大図であり、図5(B)は非導電面側の布200bの一部拡大図である。また、図6は頬動作検出装置12のタッチ検出部124を構成する導電性布200の一部拡大図である。図5(A)、図5(B)および図6を参照しながら、この第1実施例の導電面側の布200a、非導電面側の布200bおよび導電性布200について具体的に説明する。ただし、図5(A)、図5(B)および図6では、導電面側の布200aと非導電面側の布200bを分かり易く示すために、非導電面側の布200bを白抜きの線で示してある。また、図6では、絶縁性の糸200cを点線で示してある。
5(A) is a partial enlarged view of the
導電面側の布200aは、導電性の糸を丸編みすることにより作られる。この第1実施例では、導電性の糸は、ナイロン銀メッキ糸である。非導電面側の布200bは、絶縁性の糸を丸編みすることにより作られる。この第1実施例では、絶縁性の糸は、ポリエステル糸である。このように、導電性布を構成する導電面側の布200aおよび非導電面側の布200bはいずれも丸編みで作られているため、伸縮性が高い。
The conductive
図6に示すように、導電性布200は、接結天竺編みすることにより作られる。つまり、導電性布200は、導電面側の布200aと非導電面側の布200bを編みながら、それらの間をポリエステル糸のような絶縁性の糸200cで編むことにより、導電面側の布200aと非導電面側の布200bが接結される。したがって、導電性布200は、導電面側の布200aと非導電面側の布200bとその間の絶縁性の糸200cの三層構造になっている。ただし、図4では、導電面側の布200aと非導電面側の布200bを接結するための絶縁性の糸200cの層については省略してある。
As shown in FIG. 6, the
なお、この第1実施例では、接結天竺編みにより導電性布200を作るようにしてあるが、導電面側の布200aと非導電面側の布200bの2枚の布を別々に作り、それらを面で合わせるように絶縁性の糸200cでくっつけるようにしてもよい。
In this first embodiment, the
また、この第1実施例では、導電性布200に伸縮性を持たせるために、導電面側の布200aおよび非導電面側の布200bを丸編みで作るようにしたが、これに限定される必要はない。導電面側の布200aおよび非導電面側の布200bは、緯(ヨコ)編みまたは経(タテ)編みで作るようにしてもよい。かかる場合にも、導電性布200に伸縮性を持たせることができる。
In addition, in this first embodiment, in order to give the
絶縁テープ220は、絶縁性のシートの片面に粘着剤を塗布したものである。絶縁性のシートは、ナイロンで形成される。絶縁テープ220としては、一例として、KAWAGUCHI社製の「ナイロン用 補修シート シールタイプ」を使用することができる。
The insulating
コントローラ130は、静電容量センサICとも呼ばれ、導電面側の布200aと接地電位の導電性の物体の間に発生する静電容量を検出する。コントローラ130には、電源から直流電圧が供給され、これを用いて静電容量を検出する。簡単に説明すると、コントローラ130は、所定期間(たとえば、5秒)毎に静電容量を検出し、この所定期間のうちの先の期間(たとえば、2.5秒)において、導電面側の布200aに所定値の直流電圧を印加し、その所定期間のうちの残りの期間において、導電面側の布200aが放電するときの電圧値を検出することにより、静電容量を算出する。静電容量を算出する機能を有するコントローラ130としては、一例として、マイクロチップ・テクノロジー・ジャパン株式会社製のマイクロコントローラ(型番:PIC16F1847)を使用することができる。
The
ただし、この第1実施例では、2つのタッチ検出部124の導電面側の布200aは、それぞれ、ポリ塩化ビニルなどの絶縁性の樹脂で被覆された電線を用いて静電容量センサICの異なるポートに接続される。したがって、各タッチ検出部124の導電面側の布200aと接地電位の導電体の間に発生する静電容量が個別に検出される。
However, in this first embodiment, the
上記のような構成の頬動作検出装置12は、タッチセンサとして機能することができる。図7(A)はタッチ検出部124をタッチしていない状態一例を示し、図7(B)はタッチ検出部124をタッチした状態の一例を示す。ただし、図7(A)および図7(B)では、コントローラ130を省略してある。また、図7(A)および図7(B)では、説明の都合上、ユーザの指を記載してあるが、実際には、タッチ検出部124は、ユーザの頬でタッチされる。また、図7(A)および図7(B)では、説明の都合上、マスク122の内側の層の布は省略してある。
The cheek
図7(B)に示すように、接地電位のユーザがタッチ検出部124の絶縁テープ220をタッチすると、導電面側の布200a(タッチ検出部124)とユーザの指の間に静電容量Cが発生する。
As shown in FIG. 7B, when a user at ground potential touches the insulating
したがって、第1実施例では、タッチ検出部124は、絶縁テープ220がマスク122の内側(ユーザ側)を向き、非導電性の布20bが外側を向くように、マスク122に固定される。
Therefore, in the first embodiment, the
なお、静電容量Cは数式(数1)で求めることができる。ただし、数式において、εは誘電率であり、第1実施例では、絶縁テープ220の材料によって決定される。また、Dは、タッチ検出部124とユーザの手の距離Dある。Sは、タッチ検出部124の面積であり、第1実施例では、1.5cm×4cmである。
The capacitance C can be calculated using the following formula (Formula 1). In the formula, ε is the dielectric constant, which is determined by the material of the insulating
[数1]
C=ε×S/D
このように、静電容量Cが発生すると、ユーザなどの導電体がタッチ検出部124のタッチしていることが検出される。
[Equation 1]
C = ε × S/D
In this manner, when the capacitance C occurs, it is detected that a conductive body such as a user is touching the
したがって、この第1実施例では、マスク型検出部120を装着したユーザの頬の動作をタッチ検出部124の静電容量Cの変化で検出する。ただし、ユーザがマスク型検出部120を装着した状態では、ユーザの頬とタッチ検出部124の距離Dが数mm程度であるため、ユーザが頬を動かさない場合すなわちユーザの頬がタッチ検出部124に接触(タッチ)しない場合にも静電容量Cは多少発生する。したがって、ユーザがマスク122を装着し、このユーザの頬がタッチ検出部124(マスク122の内側の布)に接触していない場合のコントローラ130の出力をゼロまたは略ゼロになるように校正してある。
Therefore, in this first embodiment, the cheek movement of a user wearing the mask-
また、上記のとおり、ユーザの頬がタッチ検出部124に接触しない場合にも、静電容量Cが発生するため、コンピュータ14(CPU14a)は、コントローラ130の出力(以下、「センサ値」ということがある)が所定の閾値以上変化した場合に、ユーザの頬がタッチ検出部124に接触したこと、すなわち押下動作を判断するようにしてある。コンピュータ14(CPU14a)は、押下動作を判断すると、押下動作の操作データを生成する。
As described above, since capacitance C occurs even when the user's cheek does not touch the
なお、実験では、ユーザの頬がタッチ検出部124に接触した場合に、ユーザの頬がタッチ検出部124に接触する前と比較して、静電容量が300F程度変化するため、所定の閾値は150F~250Fの間で設定される。
In the experiment, when the user's cheek touched the
また、コンピュータ14(CPU14a)は、押下動作を止めたことを検出すると、第1所定時間(第1実施例では、100msec)前に、押下動作が行われていた場合には、クリック動作が行われたことを判断し、クリック動作の操作データを生成する。
In addition, when the computer 14 (
コンピュータ14(CPU14a)は、操作データを生成すると、生成した操作データを入力装置10が接続された外部のコンピュータに送信(または、入力)する。
When the computer 14 (
なお、この第1実施例では、クリック動作の判断には、押下動作を行っている時間の長さは関係無いが、押下動作が比較的長い場合(たとえば、1sec以上の場合)には、クリック動作では無く、長押し動作と判断するようにしてもよい。 In this first embodiment, the length of time that the pressing action is performed is not relevant to determining whether it is a click action, but if the pressing action is relatively long (for example, 1 sec or longer), it may be determined to be a long press action rather than a click action.
図8は図1に示すコンピュータ14のRAM14bのメモリマップ300の一例を示す。図8に示すように、RAM14bは、プログラム記憶領域302およびデータ記憶領域304を含む。
Figure 8 shows an example of a memory map 300 of
プログラム記憶領域302は、入力装置10のプログラム(すなわち、情報処理プログラム)を記憶し、情報処理プログラムは、通信プログラム302a、センサ値検出プログラム302bおよび操作データ生成プログラム302cなどを含む。
The
通信プログラム302aは、コントローラ130および外部のコンピュータと通信するためのプログラムである。センサ値検出プログラム302bは、コントローラ130から送信されるタッチ検出部124の出力に基づくセンサ値を検出するためのプログラムである。ただし、タッチ検出部124aの出力に基づくセンサ値とタッチ検出部124bの出力に基づくセンサ値とは識別可能にされている。
The
操作データ生成プログラム302cは、センサ値検出プログラム302bに従って検出されたセンサ値に基づいて操作データを生成するためのプログラムである。ただし、操作データ生成プログラム302cは、タッチ検出部124aのセンサ値に基づいて左頬の動作についての操作データを生成し、タッチ検出部124bのセンサ値に基づいて右頬の動作についての操作データを生成する。
The operation
データ記憶領域304には、センサ値データ304a、操作データ304b、押下動作フラグ304cおよび無動作フラグ304dなどが記憶される。
The
センサ値データ304aは、コントローラ130から送信されたセンサ値についてのデータであり、タッチ検出部124aの出力に基づくセンサ値とタッチ検出部124bの出力に基づくセンサ値とが識別可能に記憶される。また、センサ値データ304aは、時系列に従って記憶され、CPU14aによって操作データの生成処理に使用されると、削除される。
The
操作データ304bは、センサ値データ304aに基づいて生成した操作データであり、タッチ検出部124aおよびタッチ検出部124bの各々について識別可能に記憶される。
押下動作フラグ304cは、ユーザの頬の動作が押下動作であるかどうかを判断するためのフラグである。押下動作フラグ304cは、押下動作が検出された場合にオンされ、無動作またはクリック動作が検出された場合にオフされる。
The
無動作フラグ304dは、ユーザの頬の動作が無動作であるかどうかを判断するためのフラグである。無動作フラグ304dは、無動作が検出された場合にオンされ、押下動作が検出された場合にオフされる。
The no-
ただし、押下動作フラグ304cおよび無動作フラグ304dは、左右の頬のそれぞれ、すなわち、タッチ検出部124aおよびタッチ検出部124bのそれぞれについて識別可能に設けられる。
However, the
図9はコンピュータ14に内蔵されるCPU14aの動作検出および操作データの生成処理のフロー図である。図9に示す動作検出および操作データの生成処理は、左側のタッチ検出部124aおよび右側のタッチ検出部124bの出力に基づくセンサ値のそれぞれについて個別に実行される。つまり、左側の頬の動作が検出され、左側の頬の動作に応じた操作データ(以下、「左側の操作データ」と呼ぶことがある)が生成され、右側の頬の動作が検出され、その右側の頬の動作に応じた操作データ(以下、「右側の操作データ」と呼ぶことがある)が生成される。
Figure 9 is a flow diagram of the motion detection and operation data generation process of the
CPU14aは、ユーザの指示または通信可能に接続された外部のコンピュータからの指示があると、図9に示すように、動作検出および操作データの生成処理を開始し、ステップS1で、タッチ検出部124の出力に基づくセンサ値が所定の閾値(たとえば、150)以上であるかどうかを判断する。
When the
ステップS1で“YES”であれば、つまり、センサ値が所定の閾値以上であれば、ステップS3で、押下動作フラグ304cをオンし、ステップS5で、押下動作の操作データを生成し、ステップS7で、無動作フラグ304dをオフしてステップS1に戻る。
If step S1 is "YES", that is, if the sensor value is equal to or greater than the predetermined threshold, step S3 turns on the
ただし、ステップS5では、操作データを生成すると、対応する操作データ304bがRAM14bに記憶され、外部のコンピュータに入力(または、送信)される。このことは、後述するステップS17についても同じである。
However, in step S5, when operation data is generated, the
また、押下動作フラグ304cが既にオンである場合には、ステップS3の処理はスキップされる。同様に、無動作フラグ304dが既にオフである場合には、ステップS7の処理はスキップされる。以下、他のフラグがオンまたはオフされる場合についても同様である。
If the
また、ステップS1で“NO”であれば、つまり、センサ値が所定の閾値未満であれば、ステップS9で、第1所定時間(たとえば、500msec)前の押下動作フラグ304cはオンであったかどうかどうかを判断する。図示は省略するが、CPU14aは、押下動作フラグ304cがオンからオフに変化されたときに、RAM14bに設けられたタイマのカウントを開始し、そのカウント値が第1所定時間以下であるかどうかを判断する。
If step S1 is "NO", that is, if the sensor value is less than the predetermined threshold, step S9 determines whether the
ステップS9で“NO”であれば、つまり、第1所定時間前の押下動作フラグ304cがオフであれば、ステップS11で、無動作フラグ304dをオンし、ステップS13で、押下動作フラグ304cをオフして、ステップS1に戻る。
If the answer is "NO" in step S9, that is, if the
一方、ステップS9で“YES”であれば、つまり、第1所定時間前の押下動作フラグ304cがオンであれば、ステップS15で、クリック動作の操作データを生成し、そして、ステップS17で、押下動作フラグ304cをオフして、ステップS1に戻る。
On the other hand, if step S9 is "YES", that is, if the
図1に示した本願発明の入力装置10は、外部のコンピュータの入力装置として用いることができる。一例として、図10は、入力装置10を、視線入力装置を用いた入力システムに適用したシステム400の電気的な構成を示すブロック図である。
The
図10に示すように、システム400は、入力装置10、ユーザ端末20および視線入力装置22で構成される。ユーザ端末20および視線入力装置22はコンピュータ14に通信可能に接続される。
As shown in FIG. 10, the
ユーザ端末20は、汎用のデスクトップPCまたはタブレット端末であり、CPU20a、メモリ(RAM、ROM、HDD)、通信装置およびディスプレイなどのコンポーネントを備える。
The
視線入力装置22は、ユーザの顔をカメラで撮影し、撮影画像からユーザの視線方向を算出(または、推定)する。ただし、ユーザの顔、カメラおよびユーザ端末20のディスプレイの位置関係から、視線方向に対するディスプレイの表示面の位置または領域は特定可能にされている。
The
また、視線入力装置22は、周知であり、出願人らによって出願され、既に公開された特開2014-194617または特開2012-216180に開示された視線方向の推定装置を用いることができる。ただし、コンピュータ14は、視線方向の推定装置に含まれるコンピュータ本体として機能することもできる。
The
なお、ユーザ端末20がタブレット端末である場合には、視線入力装置22のカメラとして、タブレット端末が備えるカメラを使用することができる。
If the
コンピュータ14は、頬動作検出装置12から入力される検出結果(以下、「センサ値」という)のデータと、視線入力装置22から入力される視線方向のデータを統合し、外部のコンピュータ(ここでは、ユーザ端末20)に入力する。コンピュータ14は、検出結果のデータと視線方向のデータを同期させる。このため、視線入力装置22をコンピュータ14に接続するようにしてある。
The
ユーザ端末20は、入力装置10から入力される操作データまたは/および方向入力のデータを受信して、所定の処理を実行する。ここでは、ユーザ端末20が文字入力を行うための所定のアプリケーションを実行する場合について説明する。ただし、図11に示す文字入力処理では、クリック動作の操作データのみを使用するため、ユーザ端末20は、押下動作の操作データを受信しても、文字入力処理には使用しない。このため、入力装置10は、押下動作の操作データをユーザ端末20に送信しないようにしてもよい。
The
図11は図10に示したユーザ端末20のCPU20aの文字入力処理のフロー図である。頬動作および視線による文字入力の機能が実行されると、図11に示す文字入力処理が実行される。図示は省略するが、ユーザ端末20では、文書作成または電子メールなどの文字入力を行う所定のアプリケーションも同時に実行される。
Figure 11 is a flow diagram of the character input process of the
図11に示すように、ユーザ端末20のCPU20aは文字入力処理を開始すると、ステップS31で、ソフトウェアキーボードをユーザ端末20のディスプレイに表示する。続くステップS33では、マウスカーソルを視線の移動に従って移動する。ただし、視線が移動しない場合には、マウスカーソルも移動しない。
As shown in FIG. 11, when the
次のステップS35では、左側のクリック動作が有るかどうかを判断する。ここでは、CPU20aは、コンピュータ14から左頬によるクリック動作の操作データすなわちタッチ検出部124aの出力に基づくクリック動作の操作データが入力されたかどうかを判断する。他のクリック動作が有るかどうかを判断する場合も同様である。
In the next step S35, it is determined whether or not a left-side click action has been performed. Here, the
ステップS35で“NO”であれば、つまり、左側のクリック動作が無ければ、ステップS45に進む。一方、ステップS35で“YES”であれば、つまり、左側のクリック動作が有れば、ステップS37で、マウスカーソルがソフトウェアキーボードのいずれかのキーを指示しているかどうかを判断する。 If step S35 is "NO," that is, if there is no left-click action, proceed to step S45. On the other hand, if step S35 is "YES," that is, if there is a left-click action, then in step S37, it is determined whether the mouse cursor is pointing to any key on the software keyboard.
ステップS37で“NO”であれば、つまり、マウスカーソルがソフトウェアキーボードのいずれのキーも指示していない場合には、ステップS39で、マウスカーソルが上記の所定のアプリケーションの終了ボタンを指示しているかどうかを判断する。 If the answer is "NO" in step S37, that is, if the mouse cursor is not pointing to any key on the software keyboard, then in step S39 it is determined whether the mouse cursor is pointing to the end button of the specified application.
ステップS39で“NO”であれば、つまり、マウスカーソルが上記の所定のアプリケーションの終了ボンタンを指示していなければ、ステップS33に戻る。一方、ステップS39で“YES”であれば、つまり、マウスカーソルが上記の所定のアプリケーションの終了ボタンを指示していれば、ステップS41で、所定のアプリケーションの終了を指示して、文字入力処理を終了する。 If step S39 is "NO", that is, if the mouse cursor is not pointing to the end button of the above-mentioned specified application, the process returns to step S33. On the other hand, if step S39 is "YES", that is, if the mouse cursor is pointing to the end button of the above-mentioned specified application, the process instructs the user to end the specified application in step S41, and ends the character input process.
また、ステップS37で“YES”であれば、つまり、マウスカーソルがソフトウェアキーボードのいずれかのキーを指示していれば、ステップS43で、指示しているキーに対応する文字を入力して、ステップS33に戻る。つまり、ステップS43では、CPU20aは、指示しているキーに対応する文字を入力する指示を所定のアプリケーションに与える。したがって、所定のアプリケーションでは、指示された文字が入力すべき位置に入力される。
Also, if step S37 is "YES", that is, if the mouse cursor is pointing to any key on the software keyboard, then in step S43, the character corresponding to the pointed-to key is input, and the process returns to step S33. That is, in step S43, the
また、ステップS45では、右側のクリック動作が有るかどうかを判断する。ここでは、CPU20aは、コンピュータ14から右頬によるクリック動作の操作データが入力されたかどうかを判断する。
In addition, in step S45, it is determined whether a right-side click action has been performed. Here, the
ステップS45で“NO”であれば、つまり、右側のクリック動作が無ければ、ステップS33に戻る。一方、ステップS45で“YES”であれば、つまり、右側のクリック動作が有れば、ステップS47で、直前に入力された文字を削除(一文字削除)して、ステップS33に戻る。 If step S45 is "NO", that is, if there is no right-side click, the process returns to step S33. On the other hand, if step S45 is "YES", that is, if there is a right-side click, the process deletes the previously entered character (deletes one character) in step S47, and the process returns to step S33.
この第1実施例によれば、タッチ検出部を設けたマスクを装着したユーザの頬の動作でコンピュータマウスのボタンの操作と同様の操作を行うことができる。このため、操作が簡単であり、正確かつ高速に文字を入力することができる。したがって、視線入力だけで文字入力を行うよりも、ユーザは入力対象の文字を注視する時間を短くすることができる。 According to this first embodiment, a user wearing a mask equipped with a touch detection unit can perform an operation similar to operating a button on a computer mouse by moving his/her cheek. This simplifies the operation and enables accurate and fast character input. Therefore, the user can shorten the time spent gazing at the character to be input, compared to inputting characters only by eye gaze input.
また、第1実施例によれば、タッチ検出部は導電性布と絶縁テープで構成されるため、頬動作検出装置すなわちセンサの製造が簡単である。また、導電性布は接結天竺編みで作られるため、耐久性に優れている。 In addition, according to the first embodiment, the touch detection unit is composed of conductive cloth and insulating tape, so the cheek motion detection device, i.e., the sensor, is easy to manufacture. In addition, the conductive cloth is made of bonded jersey knit, so it is highly durable.
さらに、この第1実施例によれば、マスクおよびタッチ検出部は布製であるため、洗濯することができる。したがって、繰り返し使用しても、清潔さを保つこたができる。 Furthermore, according to this first embodiment, the mask and the touch detection unit are made of cloth and can be washed. Therefore, they can be kept clean even after repeated use.
なお、この第1実施例では、文字入力を行う場合について説明したが、他のアプリケーションが実行される場合には、クリック動作によって、コマンドを実行したり、コマンドの実行をキャンセルしたりすることができる。 In this first embodiment, we have described the case of entering characters, but when another application is running, you can execute a command or cancel the execution of a command by clicking.
また、この第1実施例では、左側の操作データおよび右側の操作データの一方を受信して、文字入力および一文字削除の処理を実行するようにしたが、左側の操作データおよび右側の操作データの両方を同時に受信した場合には、他のコマンド(たとえば、改行)を行うようにしてもよい。この場合、ユーザは、左右の頬を同時に膨らまして、2つのタッチ検出部を同時にタッチする。 In addition, in this first embodiment, either the left side operation data or the right side operation data is received to execute the character input and single character deletion processes, but if both the left side operation data and the right side operation data are received simultaneously, another command (for example, a line break) may be executed. In this case, the user puffs out both cheeks at the same time to touch the two touch detection sections at the same time.
さらに、この第1実施例では、2つのタッチ検出部を設けるようにしたが、タッチ検出部は1つあれば入力装置として機能し、また、ユーザが意図した操作を実行できる場合には、3つ以上のタッチ検出部が設けられてもよい。 Furthermore, in this first embodiment, two touch detection units are provided, but one touch detection unit is sufficient to function as an input device, and three or more touch detection units may be provided if the user can perform the operation intended.
さらにまた、この第1実施例では、布製のタッチ検出部を設けるようにしたが、シート状で柔らかい素材の他のセンサを用いることもできる。一例として、タッチエンス株式会社製の薄型の触覚センサ(商品名「ショッカクキューブ(TM)」を使用することができる。 Furthermore, in this first embodiment, a touch detection unit made of cloth is provided, but other sensors made of sheet-like soft materials can also be used. As an example, a thin tactile sensor (product name "Shock Cube (TM)" manufactured by Touchence Inc. can be used.
[第2実施例]
第2実施例は、本願発明の入力装置10を電動の車椅子30の制御に用いたシステム500である。以下、システム500について説明するが、入力装置10については第1実施例で説明してあるため、重複した説明は省略する。
[Second embodiment]
The second embodiment is a
図12は第2実施例のシステム500の電気的な構成を示すブロック図である。図12に示すように、システム500は、入力装置10および車椅子30お含み、車椅子30はコンピュータ14と電気的に接続される。
Figure 12 is a block diagram showing the electrical configuration of the
また、第2実施例の入力装置10では、マスク型検出部120は4つのタッチ検出部124を備える。第1実施例で説明した左側のタッチ検出部124aおよび右側のタッチ検出部124bに加え、上側のタッチ検出部124cおよび下側のタッチ検出部124dが設けられる。
In the
図13に示すように、上側のタッチ検出部124cは、マスク122の布地のうちの中央から上寄りに配置され、下側のタッチ検出部124dは、マスク122の布地のうちの中央から下寄りに配置される。 As shown in FIG. 13, the upper touch detection unit 124c is positioned upward from the center of the fabric of the mask 122, and the lower touch detection unit 124d is positioned downward from the center of the fabric of the mask 122.
タッチ検出部124cおよびタッチ検出部124dの形状および素材は、タッチ検出部124aおよびタッチ検出部124bと同じである。また、タッチ検出部124cおよびタッチ検出部124dは、層構造のマスク122において、外側と内側の布の間に、横長の向きで固定される。 The shape and material of the touch detection units 124c and 124d are the same as those of the touch detection units 124a and 124b. Furthermore, the touch detection units 124c and 124d are fixed in a landscape orientation between the outer and inner fabrics of the layered mask 122.
ユーザは、上唇と鼻の間を空気で膨らましたり、舌で押し出したりすることで、人中をタッチ検出部124cに接触させることができる。つまり、上側のタッチ検出部124cは、上側の押下動作およびクリック動作を検出する。 The user can bring the philtrum into contact with the touch detection unit 124c by inflating the area between the upper lip and nose with air or pushing it out with the tongue. In other words, the upper touch detection unit 124c detects pressing and clicking actions on the upper side.
また、ユーザは、下唇と顎先の間を空気で膨らましたり、舌で押し出したりすることで、顎の一部をタッチ検出部124dに接触させることができる。つまり、下側のタッチ検出部124dは、下側の押下動作およびクリック動作を検出する。 The user can also bring part of the chin into contact with the touch detection unit 124d by inflating the area between the lower lip and the chin with air or by pushing out the area with the tongue. In other words, the lower touch detection unit 124d detects pressing and clicking actions on the lower side.
厳密には、人中および顎の一部の動作は頬の動作ではないが、この明細書においては、これらの動作も頬の動作に含むことにする。 Strictly speaking, movements of the philtrum and parts of the jaw are not considered cheek movements, but for the purposes of this specification, these movements are included in cheek movements.
また、以下、この明細書において、タッチ検出部124a-124dの各々を特に区別する必要が無い場合には、単に、「タッチ検出部124」と呼ぶことにする。
Furthermore, in the following description, when there is no need to distinguish between the touch detection units 124a-124d, they will simply be referred to as "
図14は車椅子30の電気的な構成の一例を示すブロック図である。図14に示すように、車椅子30は、コンピュータ32を含み、コンピュータ32は、入出力インターフェイス(以下、単に「インターフェイス」という。)34、モータドライバ36a、36b、モータ38a、38bおよびエンコーダ40a、40bが設けられる。
Figure 14 is a block diagram showing an example of the electrical configuration of the
なお、コンピュータ32、インターフェイス34およびモータドライバ36a、36bは、ボックスに入れられ、このボックスは、車椅子30の座席シートの下側または後ろ側に設けられる。
The
コンピュータ32は、汎用のPCであり、CPU32a、メモリ(RAM、ROMおよびHDD)、通信装置などのコンポーネントを備える。このコンピュータ32が、入力装置10のコンピュータ14と通信可能に接続される。
The
また、コンピュータ32は、インターフェイス34に接続される。このインターフェイス34は、モータドライバ36aを介して左モータ38aに接続されるとともに、モータドライバ36bを介して右モータ38bが接続される。また、インターフェイス34は、エンコーダ40aおよび40bに接続される。
The
図示は省略するが、左モータ38aの回転軸と車椅子30の左の後輪の回転軸がギアを用いて連結され、右モータ38bの回転軸と車椅子30の右の後輪の回転軸がギアを用いて連結される。
Although not shown in the figure, the rotation shaft of the
コンピュータ32は、入力装置10からの操作データに応じて左モータ38aおよび右モータ38bの各々の駆動を制御し、車椅子30の移動を制御する。一例として、タッチ検出部124cによって上側のクリック動作が検出され、その上側のクリック動作に応じた操作データが入力されると、コンピュータ32は、左モータ38aおよび右モータ38bを第1所定速度で回転させ、車椅子30を前進させる。また、タッチ検出部124dによって下側のクリック動作が検出され、そのクリック動作に応じた操作データが入力されると、コンピュータ32は、左モータ38aおよび右モータ38bを停止させ、車椅子30を停止させる。
The
また、車椅子30が前進している場合に、タッチ検出部124aによって左側のクリック動作が検出され、そのクリック動作に応じた操作データが入力されると、コンピュータ32は、右モータ38bの回転速度を第1所定速度から第2所定速度に上昇させて、車椅子30を左折させる。車椅子30が前進している場合にタッチ検出部124bによって、右側のクリック動作が検出され、そのクリック動作に応じた操作データが入力されると、コンピュータ32は、左モータ38aの回転速度を第1所定速度から第2所定速度に上昇させて、車椅子30を右折させる。
When the
さらに、車椅子30が停止している場合に、タッチ検出部124aによって左側のクリック動作が検出され、そのクリック動作に応じた操作データが入力されると、コンピュータ32は、左モータ38aを停止させた状態で右モータ38bを第3所定速度で回転させて、車椅子30を左に旋回させる。ただし、第3所定速度は、第1所定速度以下に設定される。また、車椅子30が停止している場合に、タッチ検出部124bによって右側のクリック動作が検出され、そのクリック動作に応じた操作データが入力されると、コンピュータ32は、右モータ38bを停止させた状態で左モータ38aを第3所定速度で回転させて、車椅子30を右に旋回させる。
Furthermore, when the
また、タッチ検出部124dによって下側のクリック動作が検出され、そのクリック動作に応じた操作データが第2所定時間内に所定回数検出されると、コンピュータ32は、車椅子30の制御処理を終了する。
In addition, when the touch detection unit 124d detects a downward click action and operation data corresponding to the click action is detected a predetermined number of times within a second predetermined time, the
具体的には、車椅子30のコンピュータ32に内蔵されるCPU32aが図15-図17に示す車椅子制御処理を実行する。図15-図17に示すフロー図である。
Specifically, the
なお、入力装置10の処理は、第1実施例と同じであるため、重複した説明は省略する。ただし、第2実施例では、マスク型検出部120は、4つのタッチ検出部124を備えるため、4つのタッチ検出部124の各々について、図9に示した動作検出および操作データの生成処理が実行され、上下左右の各々のタッチ検出部124の検出結果に基づく操作データが識別可能にコンピュータ32に入力される。
The processing of the
また、図15-図17に示す車椅子制御処理においても、クリック動作の操作データのみを使用するため、ユーザ端末20は、押下動作の操作データを受信しても、車椅子制御処理には使用しない。このため、入力装置10は、押下動作の操作データをユーザ端末20に送信しないようにしてもよい。
15 to 17, only the operation data of the click action is used, so even if the
車椅子30の主電源がオンされると、図15に示すように、CPU32aは、車椅子制御処理を開始し、ステップS71で、下側のクリック動作が有るかどうかを判断する。ここでは、CPU20aは、コンピュータ14から顎によるクリック動作の操作データすなわちタッチ検出部124dの出力に基づくクリック動作の操作データが入力されたかどうかを判断する。他のクリック動作が有るかどうかを判断する場合も同様である。
When the main power supply of the
ステップS71で“NO”であれば、つまり、下側のクリック動作が無ければ、図16に示すステップS89に進む。一方、ステップS71で“YES”であれば、つまり、下側のクリック動作が有れば、ステップS73で、下側のクリック動作の回数(すなわち、クリック回数)が0であるかどうかを判断する。 If step S71 is "NO," that is, if there is no downward click action, proceed to step S89 shown in FIG. 16. On the other hand, if step S71 is "YES," that is, if there is a downward click action, then in step S73, it is determined whether the number of downward click actions (i.e., the number of clicks) is 0.
なお、図示は省略するが、車椅子制御処理が開始されたときに、クリック回数をカウントするカウンタはリセットされる(つまり、カウント値=0)。 Although not shown in the figure, when the wheelchair control process starts, the counter that counts the number of clicks is reset (i.e., the count value = 0).
ステップS73で“YES”であれば、つまり、下側のクリック回数が0であれば、ステップS75で、左モータ38aおよび右モータ38bの回転速度を0(m/sec)に設定し、ステップS77で、クリック回数を1加算し(クリック回数=1)、ステップS79で、タイマをスタートして、ステップS71に戻る。
If the answer is "YES" in step S73, that is, if the number of clicks on the lower side is 0, the rotation speed of the
ただし、ステップS75では、CPU32aは、インターフェイス34を介して、モータドライバ36aおよびモータドライバ36bを制御し、左モータ38aおよび右モータ38bの回転速度を設定(制御)する。以下、左モータ38aおよび右モータ38bの回転速度を設定する場合について同様である。
However, in step S75, the
一方、ステップS73で“NO”であれば、つまり、下側のクリック回数が0でなければ、ステップS81で、クリック回数が3であるかどうかを判断する。
ステップS81で“NO”であれば、つまり、クリック回数が1または2であれば、ステップS83で、クリック回数を1加算して、ステップS71に戻る。
On the other hand, if "NO" in the step S73, that is, if the number of clicks on the lower side is not 0, in a step S81, it is determined whether the number of clicks is 3 or not.
If "NO" in the step S81, that is, if the number of clicks is 1 or 2, in a step S83, the number of clicks is incremented by 1, and the process returns to the step S71.
一方、ステップS81で“YES”であれば、つまり、クリック回数が3であれば、ステップS83で、タイマのカウント値が第2所定時間(たとえば、1秒)を経過したかどうかを判断する。 On the other hand, if step S81 returns "YES," i.e., if the number of clicks is 3, then step S83 determines whether the timer count has reached a second predetermined time (e.g., 1 second).
ステップS83で“YES”であれば、つまり、タイマのカウント値が第2所定時間を経過していれば、ステップS87で、カウンタをリセットして(つまり、クリック回数=0)、ステップS71に戻る。つまり、第2所定時間内に下側のクリック動作が3回行われない場合には、車椅子制御処理は終了されない。一方、ステップS83で“NO”であれば、つまり、タイマのカウント値が第2所定時間を経過していなければ、車椅子制御処理を終了する。 If step S83 is "YES", that is, if the timer count has passed the second predetermined time, the counter is reset (i.e., the number of clicks = 0) in step S87, and the process returns to step S71. In other words, if the downward click action is not performed three times within the second predetermined time, the wheelchair control process is not terminated. On the other hand, if step S83 is "NO", that is, if the timer count has not passed the second predetermined time, the wheelchair control process is terminated.
図16に示すステップS89では、上側のクリック動作が有るかどうかを判断する。ステップS89で“YES”であれば、つまり、上側のクリック動作が有れば、ステップS91で、左モータ38aおよび右モータ38bの回転速度を第1所定速度に設定して、ステップS95に進む。したがって、車椅子30は第1所定速度に応じた移動速度で前進する。
In step S89 shown in FIG. 16, it is determined whether or not an upward click motion has occurred. If the answer is "YES" in step S89, that is, if an upward click motion has occurred, the rotation speeds of the
一方、ステップS89で“NO”であれば、つまり、上側のクリック動作が無ければ、ステップSS93で、左モータ38aおよび右モータ38bの回転速度を0に設定して、ステップS95に進む。したがって、車椅子30は、停止中であれば、停止を継続し、移動中であれば、減速または停止する。
On the other hand, if step S89 is "NO," that is, if there is no upward click action, in step S93, the rotation speed of the
ステップS95では、左側のクリック動作が有るかどうかを判断する。ステップS95で“NO”であれば、つまり、左側のクリック動作が無ければ、ステップS97で、右モータ38bの回転速度をゼロに設定して、図17に示すステップS105に進む。ただし、右モータ38bの回転速度が既にゼロに設定されている場合には、ステップS97の処理はスキップされる。
In step S95, it is determined whether or not a left click operation has occurred. If step S95 is "NO," that is, if there has been no left click operation, in step S97, the rotation speed of the
一方、ステップS95で“YES”であれば、つまり、左側のクリック動作が有れば、ステップS99で、車椅子30が前進中かどうかを判断する。ここでは、CPU32aは、左モータ38aおよび右モータ38bを回転させているかどうかを判断する。このことは、後述するステップS109も同じである。
On the other hand, if step S95 is "YES", that is, if there is a left click operation, then in step S99 it is determined whether the
ステップS99で“YES”であれば、つまり、車椅子30が前進中であれば、ステップS101で、右モータ38bの回転速度を第2所定速度に設定して、ステップS105に進む。したがって、車椅子30は左折する(つまり、左に曲がる)。一方、ステップS99で“NO”であれば、つまり、車椅子30が停止中であれば、ステップS103で、右モータ38bの回転速度を第3所定速度に設定して、ステップS105に進む。したがって、車椅子30は左に旋回する。
If step S99 is "YES", that is, if the
図17に示すように、ステップS105では、右側のクリック動作が有るかどうかを判断する。ステップS105で“NO”であれば、つまり、右側のクリック動作が無ければ、ステップS107で、左モータ38aの回転速度をゼロに設定して、図15に示したステップS71に戻る。ただし、左モータ38aの回転速度が既にゼロに設定されている場合には、ステップS107の処理はスキップされる。
As shown in FIG. 17, in step S105, it is determined whether or not a right-side click operation has occurred. If the answer is "NO" in step S105, that is, if there has been no right-side click operation, in step S107, the rotation speed of the
一方、ステップS105で“YES”であれば、つまり、右側のクリック動作が有れば、ステップS109で、車椅子30が前進中かどうかを判断する。ステップS109で“YES”であれば、ステップS111で、左モータ38aの回転速度を第2所定速度に設定して、ステップS71に戻る。したがって、車椅子30は左折する(つまり、左に曲がる)。一方、ステップS109で“NO”であれば、つまり、車椅子30が停止中であれば、ステップS113で、左モータ38aの回転速度を第3所定速度に設定して、ステップS71に戻る。したがって、車椅子30は右に旋回する。
On the other hand, if step S105 is "YES", that is, if there is a right-side click operation, then in step S109 it is determined whether the
第2実施例によれば、第1実施例と同じ効果を奏するとともに、車椅子の移動を制御することができる。 The second embodiment achieves the same effect as the first embodiment and also allows the movement of the wheelchair to be controlled.
なお、第2実施例に示した車椅子の制御方法は一例であり、限定されるべきでない。他の例では、下側のクリック動作を第2所定時間内に3回検出することに代えて、左側および右側のクリック動作を同時に検出したり、上側、左側および右側のクリック動作を同時に検出したり、下側、左側および右側のクリック動作を同時に検出したり、上側、下側、左側および右側のクリック動作を同時に検出したりした場合に、車椅子制御処理を終了するようにしてもよい。 The wheelchair control method shown in the second embodiment is an example and should not be limited to the above. In another example, instead of detecting a downward click motion three times within the second predetermined time, the wheelchair control process may be terminated when left and right click motions are detected simultaneously, or when upper, left and right click motions are detected simultaneously, or when lower, left and right click motions are detected simultaneously, or when upper, lower, left and right click motions are detected simultaneously.
[第3実施例]
第3実施例は、本願発明の入力装置10を、マウス動作の制御に用いたシステムである。以下、このシステムについて説明するが、入力装置10については、第1実施例および第2実施例で説明してあるため、重複した説明は省略する。
[Third Example]
The third embodiment is a system in which the
図示は省略するが、第3実施例のシステムは、第1実施例のシステム400において、視線入力装置22を削除し、第2実施例の入力装置10を用いたものである。
Although not shown in the figures, the system of the third embodiment is the
したがって、ユーザ端末20は、入力装置10からの押下動作およびクリック動作に基づいて、マウスカーソルの位置を制御すなわち移動を制御するとともに、左側のクリック動作および右側のクリック動作に基づいてコマンドを実行する。
The
具体的には、第3実施例では、ユーザ端末20のCPU20aは、図18に示すマウス動作の処理を実行する。第1実施例で説明したソフトウェアキーボードが表示されているものとするが、ソフトウェアキーボードは表示されなくてもよい。また、マウス動作処理は、所定のアプリケーションと並行して実行される。
Specifically, in the third embodiment, the
図18に示すように、CPU20aは、マウス動作を開始すると、ステップS121で、上下左右のいずれかの押下動作が第3所定時間(たとえば、1秒)以上継続しているかどうかを判断する。
As shown in FIG. 18, when the
ステップS121で“NO”であれば、上下左右のいずれの押下動作も第3所定時間以上継続していなければ、ステップS125に進む。ただし、ステップS121では、上下左右のいずれの押下動作も行われていない場合も、“NO”と判断される。 If the answer is "NO" in step S121, and if no pressing action to the top, bottom, left, or right continues for more than the third predetermined time, proceed to step S125. However, in step S121, if no pressing action to the top, bottom, left, or right is performed, it is also determined to be "NO".
一方、ステップS121で“YES”であれば、つまり、上下左右のいずれかの押下動作が第3所定時間以上継続していれば、ステップS123で、押下動作が第3所定時間以上継続した方向にマウスカーソルを移動させて、ステップS121に戻る。 On the other hand, if step S121 returns "YES," meaning that the pressing action in either the up, down, left, or right direction continues for a third predetermined time or longer, then in step S123, the mouse cursor is moved in the direction in which the pressing action continued for a third predetermined time or longer, and the process returns to step S121.
ステップS125では、マウスカーソルの移動速度を0に設定する。次のステップS127では、左側のクリック動作が有るかどうかを判断する。ステップS127で“NO”であれば、つまり、左側のクリック動作が無ければ、ステップS129で、右側のクイック動作が有るかどうかを判断する。 In step S125, the mouse cursor movement speed is set to 0. In the next step S127, it is determined whether or not a left click action has been performed. If the answer is "NO" in step S127, that is, if a left click action has not been performed, then in step S129, it is determined whether or not a right quick action has been performed.
ステップS129で“NO”であれば、つまり、右側のクリック動作も無ければ、ステップS121に戻る。一方、ステップS129で“YES”であれば、つまり、右側のクリック動作が有れば、ステップS131で、右側のクリックコマンドを実行して、ステップS121に戻る。たとえば、ステップS131では、文字入力が実行されている場合には、第1実施例で説明したように、一文字削除したり、マウスカーソルが所定のアプリケーションの実行画面に表示されたボタンを指示している場合には、そのボタンのプロパティをディスプレイに表示したりする。 If step S129 is "NO", that is, if there has been no right-click action, the process returns to step S121. On the other hand, if step S129 is "YES", that is, if there has been a right-click action, the process executes a right-click command in step S131 and returns to step S121. For example, in step S131, if character input is being performed, one character is deleted as described in the first embodiment, or if the mouse cursor is pointing to a button displayed on the execution screen of a specified application, the properties of that button are displayed on the display.
また、ステップS127で“YES”であれば、つまり、左側のクリック動作があれば、ステップS133で、マウスカーソルが所定のアプリケーションの終了ボタン上であるかどうかを判断する。 Also, if the answer is "YES" in step S127, that is, if a left click has been performed, then in step S133 it is determined whether the mouse cursor is over the end button of a specific application.
ステップS133で“NO”であれば、つまり、マウスカーソルが所定のアプリケーションの終了ボタン上でなければ、ステップS135で、左側のクリックコマンドを実行して、ステップS121に戻る。たとえば、ステップS135では、ソフトウェアキーによって文字が入力されたり、所定のアプリケーションの実行画面に設けられたボタンに割り当てられた機能が実行されたりする。 If the answer is "NO" in step S133, that is, if the mouse cursor is not on the end button of the specified application, a left click command is executed in step S135, and the process returns to step S121. For example, in step S135, characters are entered using a software key, or a function assigned to a button on the execution screen of the specified application is executed.
一方、ステップS133で“YES”であれば、つまり、マウスカーソルが所定のアプリケーションの終了ボタン上であれば、ステップS137で、所定のアプリケーションの終了を指示して、マウス動作の処理を終了する。 On the other hand, if the answer is "YES" in step S133, that is, if the mouse cursor is on the end button of a specific application, in step S137, an instruction to end the specific application is issued, and the mouse operation processing ends.
第3実施例によれば、第1実施例と同様の効果を奏するとともに、マウスカーソルの移動およびクリック動作によるコマンドの実行を行うことができる。 The third embodiment achieves the same effects as the first embodiment, and also allows commands to be executed by moving the mouse cursor and clicking.
なお、上記の各実施例で示した具体的な数値および制御方法は単なる例示であり、限定される必要は無く、実際の製品および製品が適用される環境などに応じて適宜変更可能である。 Note that the specific numerical values and control methods shown in each of the above examples are merely examples and are not limited to these, and can be modified as appropriate depending on the actual product and the environment in which the product is used.
10 …入力装置
12 …頬動作検出装置
14、32、 …コンピュータ
20 …ユーザ端末
22 …視線入力装置
30 …車椅子
400、500 …システム
REFERENCE SIGNS
Claims (6)
前記被覆部の前記ユーザの顔の接触する側に取り付けられ、少なくとも前記ユーザの左頬の動作および右頬の動作を検出可能な検出部、および
前記検出部によって検出された前記ユーザの左頬の動作に基づく操作データまたは/および右頬の動作に基づく操作データを生成する生成部を備える、入力装置。 A deformable sheet-like covering portion that covers at least a portion of the cheek of the user;
an input device comprising: a detection unit attached to a side of the covering unit that comes into contact with the user's face, the detection unit being capable of detecting at least a left cheek movement and a right cheek movement of the user; and a generation unit that generates operation data based on the left cheek movement and/or the right cheek movement of the user detected by the detection unit.
前記2つの静電容量型タッチセンサは、前記被覆部の左右にそれぞれ配置され、前記ユーザの左頬または/および右頬の動作を検出する、請求項1または2記載の入力装置。 the detection unit is two capacitive touch sensors,
The input device according to claim 1 , wherein the two capacitive touch sensors are disposed on the left and right sides of the covering portion, respectively, and detect motion of the left cheek and/or the right cheek of the user.
前記4つの静電容量型タッチセンサは、前記被覆部の上下左右にそれぞれ配置され、前記ユーザの左頬、右頬、人中および顎の少なくとも1つの動作を検出し、
前記生成部は、前記4つの静電容量型タッチセンサによって検出された、前記ユーザの左頬の動作に基づく操作データ、前記ユーザの右頬の動作に基づく操作データ、前記ユーザの人中の動作に基づく操作データ、および前記ユーザの顎の動作に基づく操作データの少なくとも1つを生成する、請求項1または2記載の入力装置。 the detection unit includes four capacitive touch sensors;
The four capacitive touch sensors are arranged on the top, bottom, left and right of the covering portion, respectively, and detect at least one movement of the left cheek, right cheek, philtrum and chin of the user;
3. The input device according to claim 1, wherein the generation unit generates at least one of operation data based on the movement of the user's left cheek, operation data based on the movement of the user's right cheek, operation data based on the movement of the user's philtrum, and operation data based on the movement of the user's jaw detected by the four capacitive touch sensors.
導電性の糸を編んで形成された第1布と絶縁性の糸を編んで形成された第2布を重ね合わせた導電性布、
前記第1布と同じ大きさを有し、当該第1布に重ねて貼り付けた絶縁シート、および
前記第1布と電気的に接続された静電容量センサICを備える、請求項3または4記載の入力装置。 The capacitive touch sensor includes:
A conductive cloth in which a first cloth formed by knitting a conductive thread and a second cloth formed by knitting an insulating thread are overlapped with each other;
The input device according to claim 3 or 4, further comprising: an insulating sheet having the same size as the first cloth and attached to the first cloth; and a capacitance sensor IC electrically connected to the first cloth.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021023076A JP7627485B2 (en) | 2021-02-17 | 2021-02-17 | Input Devices |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021023076A JP7627485B2 (en) | 2021-02-17 | 2021-02-17 | Input Devices |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2022125479A JP2022125479A (en) | 2022-08-29 |
| JP7627485B2 true JP7627485B2 (en) | 2025-02-06 |
Family
ID=83058336
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021023076A Active JP7627485B2 (en) | 2021-02-17 | 2021-02-17 | Input Devices |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7627485B2 (en) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN115589555A (en) * | 2022-10-09 | 2023-01-10 | 深圳市新恒声电子科技有限公司 | Helmet Bluetooth headset capable of automatically answering call |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010134057A (en) | 2008-12-02 | 2010-06-17 | Brother Ind Ltd | Head-mounted display |
| US20160048235A1 (en) | 2014-08-15 | 2016-02-18 | Google, Inc. | Interactive Textiles |
| JP2020176362A (en) | 2019-04-16 | 2020-10-29 | 株式会社ネットアプリ | Mask with display |
Family Cites Families (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH04225385A (en) * | 1990-12-26 | 1992-08-14 | Shuzo Ito | Communication method for physically handicapped |
-
2021
- 2021-02-17 JP JP2021023076A patent/JP7627485B2/en active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010134057A (en) | 2008-12-02 | 2010-06-17 | Brother Ind Ltd | Head-mounted display |
| US20160048235A1 (en) | 2014-08-15 | 2016-02-18 | Google, Inc. | Interactive Textiles |
| JP2017524181A (en) | 2014-08-15 | 2017-08-24 | グーグル インコーポレイテッド | Interactive textile |
| JP2020176362A (en) | 2019-04-16 | 2020-10-29 | 株式会社ネットアプリ | Mask with display |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2022125479A (en) | 2022-08-29 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12175053B2 (en) | Method and apparatus for ego-centric 3D human computer interface | |
| Surale et al. | Experimental analysis of barehand mid-air mode-switching techniques in virtual reality | |
| JP7191714B2 (en) | Systems and methods for direct pointing detection for interaction with digital devices | |
| KR101620777B1 (en) | Enhanced virtual touchpad and touchscreen | |
| US10254844B2 (en) | Systems, methods, apparatuses, computer readable medium for controlling electronic devices | |
| TWI483143B (en) | Hybrid pointing device | |
| WO2018187171A1 (en) | Methods and systems for hand tracking | |
| JP6932267B2 (en) | Controller device | |
| WO2011119154A1 (en) | Gesture mapping for display device | |
| US20150057804A1 (en) | Method for operating an industrial robot | |
| US20150123891A1 (en) | Methods for automatically assessing user handedness in computer systems and the utilization of such information | |
| US20100134409A1 (en) | Three-dimensional user interface | |
| WO2015091638A1 (en) | Method for providing user commands to an electronic processor and related processor program and electronic circuit. | |
| US10268282B2 (en) | Foot-operated touchpad system and operation method thereof | |
| JP7627485B2 (en) | Input Devices | |
| KR20250005559A (en) | Electronic apparatus and program | |
| CN117784926A (en) | Control device, control method, and computer-readable storage medium | |
| CN108536285B (en) | Mouse interaction method and system based on eye movement recognition and control | |
| CN106796462B (en) | Determining a position of an input object | |
| JP2025104251A (en) | How to achieve realistic typing or touch | |
| CN118170259B (en) | Screen interaction method and device based on gesture control, electronic equipment and medium | |
| CN117093078B (en) | System for inputting by hand in three-dimensional space | |
| CN118470063A (en) | Cockpit man-machine interaction method based on multi-vision sensing human body tracking | |
| WO2023234822A1 (en) | An extended-reality interaction system | |
| JP7517099B2 (en) | Information processing device, display system, information processing method, and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20210305 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240116 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240826 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240903 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20241022 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20241203 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20241211 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20241220 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250107 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250120 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7627485 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |