[go: up one dir, main page]

JP7627485B2 - Input Devices - Google Patents

Input Devices Download PDF

Info

Publication number
JP7627485B2
JP7627485B2 JP2021023076A JP2021023076A JP7627485B2 JP 7627485 B2 JP7627485 B2 JP 7627485B2 JP 2021023076 A JP2021023076 A JP 2021023076A JP 2021023076 A JP2021023076 A JP 2021023076A JP 7627485 B2 JP7627485 B2 JP 7627485B2
Authority
JP
Japan
Prior art keywords
user
detection unit
cheek
cloth
operation data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021023076A
Other languages
Japanese (ja)
Other versions
JP2022125479A (en
Inventor
昌裕 塩見
英信 住岡
隆史 港
裕也 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2021023076A priority Critical patent/JP7627485B2/en
Publication of JP2022125479A publication Critical patent/JP2022125479A/en
Application granted granted Critical
Publication of JP7627485B2 publication Critical patent/JP7627485B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

特許法第30条第2項適用 第24回一般社団法人情報処理学会シンポジウム(インタラクション2020) 2020年3月9日~11日開催 [刊行物等] 第38回日本ロボット学会学術講演会(RSJ2020) オンライン予稿集 2020年10月8日発行 [刊行物等] 第38回日本ロボット学会学術講演会(RSJ2020) 2020年10月9日~11日開催Article 30, paragraph 2 of the Patent Act applies. 24th Symposium of the Information Processing Society of Japan (Interaction 2020) Held March 9-11, 2020 [Publications, etc.] The 38th Annual Meeting of the Robotics Society of Japan (RSJ2020) Online Proceedings Published October 8, 2020 [Publications, etc.] The 38th Annual Meeting of the Robotics Society of Japan (RSJ2020) Held October 9-11, 2020

この発明は、入力装置に関し、特にたとえば、頬の動作に基づく操作データをコンピュータに入力する、入力装置に関する。 This invention relates to an input device, and in particular to an input device that inputs operational data based on cheek movements into a computer.

この種の従来の入力装置の一例が特許文献1に開示されている。特許文献1に開示される視線検出装置は、座標系に対する瞳孔の位置を測定するための2つの第1のカメラと、上記の座標系の既知の位置に配置され角膜反射点を形成するための光源を備え、瞳孔の中心と角膜反射点間の距離とこの距離の上記の座標系の座標軸に対する所定の角度のデータを取得する1つの第2のカメラとを用いて各カメラからの情報により視線方向を演算する演算手段を備えている。この視線検出装置では、関係式決定段階で、被検者に既知の点に注目させて測定を行い関係式が決定される。視線決定段階では、被検者を再度測定して、上記の関係式を用いて視線が決定される。また、特許文献1では、この視線検出装置が視線入力手段として使用できることが開示される。 One example of this type of conventional input device is disclosed in Patent Document 1. The gaze detection device disclosed in Patent Document 1 includes two first cameras for measuring the position of the pupil relative to a coordinate system, a light source for forming a corneal reflection point, and a second camera for acquiring data on the distance between the center of the pupil and the corneal reflection point and a predetermined angle of this distance relative to the coordinate axes of the coordinate system, and is equipped with a calculation means for calculating the gaze direction from information from each camera. In this gaze detection device, in the relational equation determination stage, the subject is asked to look at a known point, measurements are taken, and the relational equation is determined. In the gaze determination stage, the subject is measured again, and the gaze is determined using the relational equation. Patent Document 1 also discloses that this gaze detection device can be used as a gaze input means.

特許第4517049号Patent No. 4517049

上記の特許文献1に開示される視線検出装置では、視線を決定する場合に、被験者ないしユーザは、入力したい既知の点を注目する必要があり、操作が煩わしく、正確に入力するのが比較的難しいという問題がある。また、入力を確定する場合には、或る程度の長い時間、ユーザは既知の点を注目する必要があり、高速に入力することができない問題もある。 The gaze detection device disclosed in the above-mentioned Patent Document 1 has the problem that when determining the gaze, the subject or user must focus on a known point that they wish to input, which makes the operation cumbersome and makes it relatively difficult to input accurately. In addition, when confirming the input, the user must focus on the known point for a certain amount of time, which also makes it difficult to input quickly.

それゆえに、この発明の主たる目的は、新規な、入力装置を提供することである。 Therefore, the main object of this invention is to provide a novel input device.

また、この発明の他の目的は、操作が簡単であり、正確かつ高速に入力できる、入力装置を提供することである。 Another object of the present invention is to provide an input device that is easy to operate and allows accurate and fast input.

第1の発明は、ユーザの少なくとも頬の一部を覆い、変形可能なシート状の被覆部、被覆部のユーザの顔の接触する側に取り付けられ、少なくともユーザの頬の動作および右頬の動作を検出可能な検出部、および検出部によって検出されたユーザの左頬の動作に基づく操作データまたは/および右頬の動作に基づく操作データを生成する生成部を備える、入力装置である。 A first invention is an input device comprising a deformable sheet-like covering portion covering at least a portion of a user's cheek, a detection portion attached to the side of the covering portion that comes into contact with the user's face and capable of detecting at least the movement of the user's left cheek and the movement of the right cheek, and a generation portion that generates operation data based on the movement of the user's left cheek and/or the movement of the right cheek detected by the detection portion.

第2の発明は、第1の発明に従属し、生成部によって生成された操作データを外部のコンピュータに送信する送信部をさらに備える。 The second invention is dependent on the first invention, and further includes a transmission unit that transmits the operation data generated by the generation unit to an external computer.

第3の発明は、第1または第2の発明に従属し、検出部は、2つの静電容量型タッチセンサであり、2つの静電容量型タッチセンサは、被覆部の左右にそれぞれ配置され、ユーザの左頬または/および右頬の動作を検出する。 A third invention is according to the first or second invention, and the detection unit is two capacitive touch sensors, which are arranged on the left and right sides of the covering unit, respectively , and detect the movement of the user's left cheek and/or right cheek.

第4の発明は、第1または第2の発明に従属し、検出部は、4つの静電容量型タッチセンサを含み、4つの静電容量型センサは、被覆部の上下左右にそれぞれ配置され、ユーザの左頬、右頬、人中および顎の少なくとも1つの動作を検出し、生成部は、4つの静電容量型センサによって検出された、ユーザの左頬の動作に基づく操作データ、ユーザの右頬の動作に基づく操作データ、ユーザの人中の動作に基づく操作データ、およびユーザの顎の動作に基づく操作データの少なくとも1つを生成する。 A fourth invention is according to the first or second invention, and the detection unit includes four capacitive touch sensors, the four capacitive sensors being respectively arranged on the top, bottom, left and right of the covering unit and detecting at least one of movements of the user's left cheek, right cheek, philtrum and jaw, and the generation unit generates at least one of operation data based on the movement of the user's left cheek, operation data based on the movement of the user's right cheek, operation data based on the movement of the user's philtrum and operation data based on the movement of the user's jaw detected by the four capacitive sensors.

第5の発明は、第3または第4の発明に従属し、静電容量型タッチセンサは、導電性の糸を編んで形成された第1布と絶縁性の糸を編んで形成された第2布を重ね合わせた導電性布、第1布と同じ大きさを有し、当該第1布に重ねて貼り付けた絶縁シート、および第1布と電気的に接続された静電容量センサICを備える。 The fifth invention is dependent on the third or fourth invention, and the capacitive touch sensor includes a conductive cloth formed by overlapping a first cloth formed by knitting conductive thread with a second cloth formed by knitting insulating thread, an insulating sheet having the same size as the first cloth and overlapping and affixed to the first cloth, and a capacitive sensor IC electrically connected to the first cloth.

第6の発明は、第5の発明に従属し、導電性布は、伸縮性を有する。 The sixth invention is dependent on the fifth invention, and the conductive cloth has elasticity.

この発明によれば、タッチ検出部を設けたマスクを装着したユーザの頬の動作でコンピュータマウスのボタンの操作と同様の操作を行うことができる。このため、操作が簡単であり、正確かつ高速に文字を入力することができる。 According to this invention, a user wearing a mask equipped with a touch detection unit can perform operations similar to those of operating a computer mouse button by moving their cheek. This makes the operation simple and allows characters to be input accurately and quickly.

この発明の上述の目的、その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above and other objects, features and advantages of the present invention will become more apparent from the following detailed description of the embodiments with reference to the drawings.

図1はこの発明の第1実施例の入力装置の電気的な構成を示すブロック図である。FIG. 1 is a block diagram showing the electrical configuration of an input device according to a first embodiment of the present invention. 図2は図1に示す頬動作検出装置の電気的な構成を示すブロック図である。FIG. 2 is a block diagram showing the electrical configuration of the cheek movement detection device shown in FIG. 図3はマスク型検出部の外観構成の概略を示す図である。FIG. 3 is a diagram showing the outline of the external configuration of the mask type detection unit. 図4は図3に示すタッチ検出部の構成の概略を説明するための図である。FIG. 4 is a diagram for explaining an outline of the configuration of the touch detection unit shown in FIG. 図5(A)は図4に示すタッチ検出部を構成する導電性布の導電面側の布の一部拡大図であり、図5(B)は図4に示すタッチ検出部を構成する導電性布の非導電面側の布の一部拡大図である。5(A) is a partial enlarged view of the conductive surface side of the conductive cloth constituting the touch detection unit shown in FIG. 4, and FIG. 5(B) is a partial enlarged view of the non-conductive surface side of the conductive cloth constituting the touch detection unit shown in FIG. 4. 図6は図4に示すタッチ検出部を構成する導電性布の一部拡大図である。FIG. 6 is a partial enlarged view of the conductive cloth constituting the touch detection unit shown in FIG. 図7(A)は図1に示す頬動作検出装置のタッチ検出部をユーザがタッチしていない状態の一例を示す図であり、図7(B)は図1に示す頬動作検出装置のタッチ検出部をユーザがタッチした状態の一例を示す図である。7(A) is a diagram showing an example of a state in which a user is not touching the touch detection unit of the cheek movement detection device shown in FIG. 1, and FIG. 7(B) is a diagram showing an example of a state in which a user is touching the touch detection unit of the cheek movement detection device shown in FIG. 1. 図8は図1に示すコンピュータに内蔵されるRAMのメモリマップの一例を示す図である。FIG. 8 is a diagram showing an example of a memory map of a RAM built in the computer shown in FIG. 図9は図1に示すコンピュータに内蔵されるCPUの動作検出および操作データの生成処理の一例を示すフロー図である。FIG. 9 is a flow chart showing an example of the operation detection and operation data generation processing of the CPU built in the computer shown in FIG. 図10は図1に示す入力装置を用いた文字入力のシステムの電気的な構成を示すブロック図である。FIG. 10 is a block diagram showing the electrical configuration of a character input system using the input device shown in FIG. 図11は図10に示すユーザ端末に内蔵されるCPUの文字入力処理の一例を示すフロー図である。FIG. 11 is a flow chart showing an example of a character input process of a CPU built in the user terminal shown in FIG. 図12は第2実施例のシステムの電気的な構成を示すブロック図である。FIG. 12 is a block diagram showing the electrical configuration of the system according to the second embodiment. 図13は図12に示す頬動作検出装置に含まれるマスク型検出部の外観構成の概略を示す図である。FIG. 13 is a diagram showing a schematic external configuration of the mask-type detection unit included in the cheek movement detection device shown in FIG. 図14は図12に示す車椅子の電気的な構成の一例を示すブロック図である。FIG. 14 is a block diagram showing an example of the electrical configuration of the wheelchair shown in FIG. 図15は図14に示すコンピュータに内蔵されるCPUの車椅子制御処理の一例の一部を示すフロー図である。FIG. 15 is a flowchart showing a part of an example of a wheelchair control process by a CPU built in the computer shown in FIG. 図16は図14に示すコンピュータに内蔵されるCPUの車椅子制御処理の他の一部であって、図15に後続するフロー図である。FIG. 16 is a flow chart showing another part of the wheelchair control process by the CPU built in the computer shown in FIG. 14, which follows FIG. 図17は図14に示すコンピュータに内蔵されるCPUの車椅子制御処理のその他の一部であって、図16に後続するフロー図である。FIG. 17 is a flow chart showing another part of the wheelchair control process by the CPU built in the computer shown in FIG. 14, which follows FIG. 16. 図18は第3実施例のユーザ端末に内蔵されるCPUのマウス動作処理の一例を示すフロー図である。FIG. 18 is a flow chart showing an example of mouse operation processing by the CPU built in the user terminal of the third embodiment.

[第1実施例]
図1を参照して、第1実施例の入力装置10は、頬動作検出装置12を含み、頬動作検出装置12はコンピュータ14に通信可能に接続される。頬動作検出装置12については、後で詳細に説明する。
[First Example]
1, an input device 10 of the first embodiment includes a cheek motion detection device 12, which is communicatively connected to a computer 14. The cheek motion detection device 12 will be described in detail later.

コンピュータ14は、汎用のサーバまたはPCであり、CPU14a、RAM14bおよび通信装置14cなどのコンポーネントを備える。また、コンピュータ14は、HDD、フラッシュメモリ、EEPROMなどの不揮発性メモリまたはSSDのような半導体メモリで構成される他の記憶部を備える。 The computer 14 is a general-purpose server or PC, and includes components such as a CPU 14a, a RAM 14b, and a communication device 14c. The computer 14 also includes other storage units configured with non-volatile memory such as an HDD, flash memory, or EEPROM, or semiconductor memory such as an SSD.

CPU14aは、コンピュータ14の全体的な制御を司るプロセッサである。RAM14bは、コンピュータ14の主記憶装置であり、CPU14aのバッファ領域およびワーク領域として機能する。通信装置14cは、イーサネットまたはWi-Fiのような通信方式に従って有線または無線で、頬動作検出装置12または外部のコンピュータと通信するための通信モジュールである。 The CPU 14a is a processor that is responsible for the overall control of the computer 14. The RAM 14b is the main storage device of the computer 14, and functions as a buffer area and a work area for the CPU 14a. The communication device 14c is a communication module for communicating with the cheek movement detection device 12 or an external computer via a wired or wireless connection according to a communication method such as Ethernet or Wi-Fi.

図2は頬動作検出装置12の電気的な構成を示すブロック図である。頬動作検出装置12は、マスク型検出部120およびコントローラ130を含み、マスク型検出部120のうちの後述するタッチ検出部124とコントローラ130が電気的に接続される。 Figure 2 is a block diagram showing the electrical configuration of the cheek movement detection device 12. The cheek movement detection device 12 includes a mask type detection unit 120 and a controller 130, and a touch detection unit 124 (described later) of the mask type detection unit 120 is electrically connected to the controller 130.

図3はマスク型検出部120の構造の概略を示す図である。マスク型検出部120は、汎用のマスク122を含み、マスク122の左右の端部に、それぞれ、タッチ検出部124が設けられる。 Figure 3 is a diagram showing an outline of the structure of the mask-type detection unit 120. The mask-type detection unit 120 includes a general-purpose mask 122, and touch detection units 124 are provided at the left and right ends of the mask 122, respectively.

なお、図3では、ユーザの左右の頬の位置と2つのタッチ検出部124の各々の位置関係を分かり易く示すために、マスク122で覆われるユーザの顔の一部についても実線で示してある。また、図3では、マスク122に配置された2つのタッチ検出部124の位置を分かり易く示すために、ユーザがマスク122の紐を耳に掛けていない状態を示してある。さらに、図3では、タッチ検出部124は灰色で塗りつぶしてある。これらのことは、第2実施例の図13においても同様である。 In addition, in FIG. 3, a part of the user's face covered by the mask 122 is also shown with a solid line to clearly show the relative positions of the user's left and right cheeks and the two touch detection units 124. Also, in FIG. 3, a state in which the user does not have the strings of the mask 122 hanging from the ears is shown to clearly show the positions of the two touch detection units 124 arranged on the mask 122. Furthermore, in FIG. 3, the touch detection units 124 are painted gray. These are the same as in FIG. 13 of the second embodiment.

一例として、マスク122は、変形可能な素材で形成された、ガーゼタイプ、不織布タイプまたはウレタンタイプの家庭用マスクであり、シート状の被覆部でユーザの顔の一部を覆う。ユーザの顔の一部は、具体的には、口、鼻の全部または一部、顎の全部または一部、および、左右の頬のそれぞれの全部または一部を意味する。 As an example, the mask 122 is a gauze-type, nonwoven fabric-type, or urethane-type household mask made of a deformable material, and the sheet-like covering portion covers part of the user's face. The part of the user's face specifically means all or part of the mouth, nose, chin, and each of the left and right cheeks.

なお、この第1実施例では、マスク122は、その被覆部の大きさが縦9cm×横17cmであるものを使用した。 In this first embodiment, the mask 122 used had a covering portion measuring 9 cm in length and 17 cm in width.

ただし、マスク122としては、医療用マスク(すなわち、サージカルマスク)を用いることもできる。また、マスク122は、家庭用マスクおよび医療用マスクに限定される必要はなく、専用のものを作成してもよい。 However, a medical mask (i.e., a surgical mask) can also be used as the mask 122. Also, the mask 122 does not need to be limited to a household mask or a medical mask, and a dedicated mask can be created.

後述するように、第1実施例では、ユーザの頬の動作を検出できれば良いため、マスク122は少なくともユーザの頬の一部を覆っていれば良い。また、ユーザの頬の動きを検出できればよく、ユーザは、入力装置10を用いて入力する内容および入力する位置を視認できれば良いため、マスク122は、目を除く頭部の全体が覆われるものでもよい。 As described below, in the first embodiment, it is sufficient to be able to detect the movement of the user's cheek, so it is sufficient for the mask 122 to cover at least a part of the user's cheek. Also, it is sufficient to be able to detect the movement of the user's cheek, and it is sufficient for the user to be able to visually confirm the content and position of input using the input device 10, so the mask 122 may cover the entire head except for the eyes.

2つのタッチ検出部124は、それぞれ、帯状に形成され、一例として、層構造のマスク122(すなわち、被覆部)において、外側と内側(つまり、マスク122を装着するユーザ側)の布の間に、縦長の向きで固定される。ただし、タッチ検出部124は、マスク122の外側または内側の布の表面に固定されてもよい。後述するように、タッチ検出部124は布で構成されるため、マスク122に縫い付けることができる。 The two touch detection units 124 are each formed in a strip shape and, as an example, fixed in a vertical orientation between the outer and inner (i.e., the user side wearing the mask 122) cloth of the layered mask 122 (i.e., the covering portion). However, the touch detection unit 124 may also be fixed to the surface of the outer or inner cloth of the mask 122. As described below, since the touch detection unit 124 is made of cloth, it can be sewn to the mask 122.

また、第1実施例では、マスク型検出部120(または、マスク122)を装着したユーザ側から見て、マスク122の布地のうちの左側の端部にタッチ検出部124aが取り付けられ、マスク122の布地のうちの右側の端部にタッチ検出部124bが取り付けられる。 In addition, in the first embodiment, when viewed from the side of a user wearing the mask-type detection unit 120 (or mask 122), the touch detection unit 124a is attached to the left end of the fabric of the mask 122, and the touch detection unit 124b is attached to the right end of the fabric of the mask 122.

以下、この明細書において、タッチ検出部124aとタッチ検出部124bを特に区別する必要が無い場合には、単に、「タッチ検出部124」と呼ぶことにする。 In the following, in this specification, when there is no need to particularly distinguish between touch detection unit 124a and touch detection unit 124b, they will simply be referred to as "touch detection unit 124."

この第1実施例では、ユーザは、上記のマスク型検出部120を装着し、左頬または右頬或いはその両方を動かすことで、その動作がタッチ検出部124aまたは/およびタッチ検出部124bで検出される。ユーザは、頬を空気で膨らませたり、舌で頬の内側から外側に向けて押したりすることで、タッチ検出部124側に頬を接触または押し当てる(以下、単に「押下動作」という)ことができる。また、この明細書において、ユーザが押下動作を行ってから押下動作を止める(つまり、頬をマスク122から離す)ことで、クリック動作を行うこともできる。 In this first embodiment, the user wears the above-mentioned mask-type detection unit 120 and moves either the left cheek, the right cheek, or both, and the movement is detected by touch detection unit 124a and/or touch detection unit 124b. The user can inflate their cheek with air or press their cheek from the inside to the outside with their tongue to touch or press their cheek against touch detection unit 124 (hereinafter simply referred to as a "pressing action"). Also, in this specification, the user can perform a clicking action by performing a pressing action and then stopping the pressing action (i.e., moving the cheek away from mask 122).

つまり、ユーザは、頬を動かすことで、コンピュータマウスの左ボタンおよび右ボタンのそれぞれを押下する動作と、左ボタンおよび右ボタンのそれぞれを押下した後に開放する動作と同様の操作を行うことができる。 In other words, by moving their cheeks, the user can perform operations similar to pressing the left and right buttons of a computer mouse, and then pressing and releasing the left and right buttons.

図4は図3に示すタッチ検出部124の構造の概略を示す図である。図4に示すように、タッチ検出部124は、層構造を有しており、導電性布200および絶縁テープ220を含む。さらに、導電性布200は、導電面側の布200a(「第1布」に相当する)と非導電面側の布200b(「第2布」に相当する)を接結して構成される。絶縁テープ220は、導電面側の布200aに貼り付けられる。図示は省略するが、図3に示したコントローラ130は、タッチ検出部124aとタッチ検出部124bのそれぞれの導電面側の布200aに電線で接続される。 Figure 4 is a diagram showing an outline of the structure of the touch detection unit 124 shown in Figure 3. As shown in Figure 4, the touch detection unit 124 has a layered structure and includes a conductive cloth 200 and an insulating tape 220. Furthermore, the conductive cloth 200 is formed by bonding a conductive surface side cloth 200a (corresponding to the "first cloth") and a non-conductive surface side cloth 200b (corresponding to the "second cloth"). The insulating tape 220 is attached to the conductive surface side cloth 200a. Although not shown, the controller 130 shown in Figure 3 is connected by electric wires to the conductive surface side cloth 200a of each of the touch detection units 124a and 124b.

図5(A)は導電面側の布200aの一部拡大図であり、図5(B)は非導電面側の布200bの一部拡大図である。また、図6は頬動作検出装置12のタッチ検出部124を構成する導電性布200の一部拡大図である。図5(A)、図5(B)および図6を参照しながら、この第1実施例の導電面側の布200a、非導電面側の布200bおよび導電性布200について具体的に説明する。ただし、図5(A)、図5(B)および図6では、導電面側の布200aと非導電面側の布200bを分かり易く示すために、非導電面側の布200bを白抜きの線で示してある。また、図6では、絶縁性の糸200cを点線で示してある。 5(A) is a partial enlarged view of the conductive side cloth 200a, and FIG. 5(B) is a partial enlarged view of the non-conductive side cloth 200b. Also, FIG. 6 is a partial enlarged view of the conductive cloth 200 constituting the touch detection unit 124 of the cheek motion detection device 12. With reference to FIG. 5(A), FIG. 5(B) and FIG. 6, the conductive side cloth 200a, the non-conductive side cloth 200b and the conductive cloth 200 of this first embodiment will be specifically described. However, in FIG. 5(A), FIG. 5(B) and FIG. 6, the non-conductive side cloth 200b is shown by a hollow line in order to easily show the conductive side cloth 200a and the non-conductive side cloth 200b. Also, in FIG. 6, the insulating thread 200c is shown by a dotted line.

導電面側の布200aは、導電性の糸を丸編みすることにより作られる。この第1実施例では、導電性の糸は、ナイロン銀メッキ糸である。非導電面側の布200bは、絶縁性の糸を丸編みすることにより作られる。この第1実施例では、絶縁性の糸は、ポリエステル糸である。このように、導電性布を構成する導電面側の布200aおよび非導電面側の布200bはいずれも丸編みで作られているため、伸縮性が高い。 The conductive surface side cloth 200a is made by circular knitting conductive yarn. In this first embodiment, the conductive yarn is silver-plated nylon yarn. The non-conductive surface side cloth 200b is made by circular knitting insulating yarn. In this first embodiment, the insulating yarn is polyester yarn. In this way, the conductive surface side cloth 200a and the non-conductive surface side cloth 200b that make up the conductive cloth are both made by circular knitting, and therefore have high elasticity.

図6に示すように、導電性布200は、接結天竺編みすることにより作られる。つまり、導電性布200は、導電面側の布200aと非導電面側の布200bを編みながら、それらの間をポリエステル糸のような絶縁性の糸200cで編むことにより、導電面側の布200aと非導電面側の布200bが接結される。したがって、導電性布200は、導電面側の布200aと非導電面側の布200bとその間の絶縁性の糸200cの三層構造になっている。ただし、図4では、導電面側の布200aと非導電面側の布200bを接結するための絶縁性の糸200cの層については省略してある。 As shown in FIG. 6, the conductive cloth 200 is made by knitting the conductive side cloth 200a and the non-conductive side cloth 200b, and knitting an insulating thread 200c such as polyester thread between them, so that the conductive side cloth 200a and the non-conductive side cloth 200b are knit together. Therefore, the conductive cloth 200 has a three-layer structure consisting of the conductive side cloth 200a, the non-conductive side cloth 200b, and the insulating thread 200c between them. However, in FIG. 4, the layer of insulating thread 200c for knitting the conductive side cloth 200a and the non-conductive side cloth 200b is omitted.

なお、この第1実施例では、接結天竺編みにより導電性布200を作るようにしてあるが、導電面側の布200aと非導電面側の布200bの2枚の布を別々に作り、それらを面で合わせるように絶縁性の糸200cでくっつけるようにしてもよい。 In this first embodiment, the conductive cloth 200 is made by bonded jersey knitting, but it is also possible to make two pieces of cloth, the conductive side cloth 200a and the non-conductive side cloth 200b, separately and then attach them together with insulating thread 200c so that their surfaces meet.

また、この第1実施例では、導電性布200に伸縮性を持たせるために、導電面側の布200aおよび非導電面側の布200bを丸編みで作るようにしたが、これに限定される必要はない。導電面側の布200aおよび非導電面側の布200bは、緯(ヨコ)編みまたは経(タテ)編みで作るようにしてもよい。かかる場合にも、導電性布200に伸縮性を持たせることができる。 In addition, in this first embodiment, in order to give the conductive cloth 200 elasticity, the conductive surface side cloth 200a and the non-conductive surface side cloth 200b are made by circular knitting, but this does not have to be limited to this. The conductive surface side cloth 200a and the non-conductive surface side cloth 200b may also be made by weft knitting or warp knitting. In such cases, the conductive cloth 200 can also be made elastic.

絶縁テープ220は、絶縁性のシートの片面に粘着剤を塗布したものである。絶縁性のシートは、ナイロンで形成される。絶縁テープ220としては、一例として、KAWAGUCHI社製の「ナイロン用 補修シート シールタイプ」を使用することができる。 The insulating tape 220 is an insulating sheet with an adhesive applied to one side. The insulating sheet is made of nylon. As an example of the insulating tape 220, "Nylon Repair Sheet Seal Type" manufactured by KAWAGUCHI Corporation can be used.

コントローラ130は、静電容量センサICとも呼ばれ、導電面側の布200aと接地電位の導電性の物体の間に発生する静電容量を検出する。コントローラ130には、電源から直流電圧が供給され、これを用いて静電容量を検出する。簡単に説明すると、コントローラ130は、所定期間(たとえば、5秒)毎に静電容量を検出し、この所定期間のうちの先の期間(たとえば、2.5秒)において、導電面側の布200aに所定値の直流電圧を印加し、その所定期間のうちの残りの期間において、導電面側の布200aが放電するときの電圧値を検出することにより、静電容量を算出する。静電容量を算出する機能を有するコントローラ130としては、一例として、マイクロチップ・テクノロジー・ジャパン株式会社製のマイクロコントローラ(型番:PIC16F1847)を使用することができる。 The controller 130 is also called a capacitance sensor IC, and detects the capacitance generated between the conductive surface side cloth 200a and a conductive object at ground potential. A DC voltage is supplied to the controller 130 from a power source, and the controller 130 uses this voltage to detect the capacitance. In simple terms, the controller 130 detects the capacitance every predetermined period (e.g., 5 seconds), applies a predetermined DC voltage to the conductive surface side cloth 200a during the first period of the predetermined period (e.g., 2.5 seconds), and calculates the capacitance by detecting the voltage value when the conductive surface side cloth 200a discharges during the remaining period of the predetermined period. As an example of the controller 130 having the function of calculating the capacitance, a microcontroller (model number: PIC16F1847) manufactured by Microchip Technology Japan Co., Ltd. can be used.

ただし、この第1実施例では、2つのタッチ検出部124の導電面側の布200aは、それぞれ、ポリ塩化ビニルなどの絶縁性の樹脂で被覆された電線を用いて静電容量センサICの異なるポートに接続される。したがって、各タッチ検出部124の導電面側の布200aと接地電位の導電体の間に発生する静電容量が個別に検出される。 However, in this first embodiment, the cloth 200a on the conductive surface side of the two touch detection units 124 is connected to different ports of the capacitance sensor IC using wires covered with an insulating resin such as polyvinyl chloride. Therefore, the capacitance generated between the cloth 200a on the conductive surface side of each touch detection unit 124 and a conductor at ground potential is detected individually.

上記のような構成の頬動作検出装置12は、タッチセンサとして機能することができる。図7(A)はタッチ検出部124をタッチしていない状態一例を示し、図7(B)はタッチ検出部124をタッチした状態の一例を示す。ただし、図7(A)および図7(B)では、コントローラ130を省略してある。また、図7(A)および図7(B)では、説明の都合上、ユーザの指を記載してあるが、実際には、タッチ検出部124は、ユーザの頬でタッチされる。また、図7(A)および図7(B)では、説明の都合上、マスク122の内側の層の布は省略してある。 The cheek motion detection device 12 configured as described above can function as a touch sensor. FIG. 7(A) shows an example of a state in which the touch detection unit 124 is not touched, and FIG. 7(B) shows an example of a state in which the touch detection unit 124 is touched. However, the controller 130 is omitted in FIG. 7(A) and FIG. 7(B). Also, for convenience of explanation, the user's fingers are shown in FIG. 7(A) and FIG. 7(B), but in reality, the touch detection unit 124 is touched by the user's cheek. Also, for convenience of explanation, the inner layer of fabric of the mask 122 is omitted in FIG. 7(A) and FIG. 7(B).

図7(B)に示すように、接地電位のユーザがタッチ検出部124の絶縁テープ220をタッチすると、導電面側の布200a(タッチ検出部124)とユーザの指の間に静電容量Cが発生する。 As shown in FIG. 7B, when a user at ground potential touches the insulating tape 220 of the touch detection unit 124, a capacitance C is generated between the conductive surface side of the cloth 200a (touch detection unit 124) and the user's finger.

したがって、第1実施例では、タッチ検出部124は、絶縁テープ220がマスク122の内側(ユーザ側)を向き、非導電性の布20bが外側を向くように、マスク122に固定される。 Therefore, in the first embodiment, the touch detection unit 124 is fixed to the mask 122 so that the insulating tape 220 faces the inside (user side) of the mask 122 and the non-conductive cloth 20b faces the outside.

なお、静電容量Cは数式(数1)で求めることができる。ただし、数式において、εは誘電率であり、第1実施例では、絶縁テープ220の材料によって決定される。また、Dは、タッチ検出部124とユーザの手の距離Dある。Sは、タッチ検出部124の面積であり、第1実施例では、1.5cm×4cmである。 The capacitance C can be calculated using the following formula (Formula 1). In the formula, ε is the dielectric constant, which is determined by the material of the insulating tape 220 in the first embodiment. D is the distance between the touch detection unit 124 and the user's hand. S is the area of the touch detection unit 124, which is 1.5 cm x 4 cm in the first embodiment.

[数1]
C=ε×S/D
このように、静電容量Cが発生すると、ユーザなどの導電体がタッチ検出部124のタッチしていることが検出される。
[Equation 1]
C = ε × S/D
In this manner, when the capacitance C occurs, it is detected that a conductive body such as a user is touching the touch detection unit 124 .

したがって、この第1実施例では、マスク型検出部120を装着したユーザの頬の動作をタッチ検出部124の静電容量Cの変化で検出する。ただし、ユーザがマスク型検出部120を装着した状態では、ユーザの頬とタッチ検出部124の距離Dが数mm程度であるため、ユーザが頬を動かさない場合すなわちユーザの頬がタッチ検出部124に接触(タッチ)しない場合にも静電容量Cは多少発生する。したがって、ユーザがマスク122を装着し、このユーザの頬がタッチ検出部124(マスク122の内側の布)に接触していない場合のコントローラ130の出力をゼロまたは略ゼロになるように校正してある。 Therefore, in this first embodiment, the cheek movement of a user wearing the mask-type detection unit 120 is detected by a change in the capacitance C of the touch detection unit 124. However, when the user is wearing the mask-type detection unit 120, the distance D between the user's cheek and the touch detection unit 124 is about a few mm, so some capacitance C occurs even when the user does not move his or her cheek, i.e., when the user's cheek does not contact (touch) the touch detection unit 124. Therefore, the output of the controller 130 is calibrated to be zero or nearly zero when the user is wearing the mask 122 and the user's cheek is not in contact with the touch detection unit 124 (the cloth inside the mask 122).

また、上記のとおり、ユーザの頬がタッチ検出部124に接触しない場合にも、静電容量Cが発生するため、コンピュータ14(CPU14a)は、コントローラ130の出力(以下、「センサ値」ということがある)が所定の閾値以上変化した場合に、ユーザの頬がタッチ検出部124に接触したこと、すなわち押下動作を判断するようにしてある。コンピュータ14(CPU14a)は、押下動作を判断すると、押下動作の操作データを生成する。 As described above, since capacitance C occurs even when the user's cheek does not touch the touch detection unit 124, the computer 14 (CPU 14a) is configured to determine that the user's cheek has touched the touch detection unit 124, i.e., a pressing operation, when the output of the controller 130 (hereinafter sometimes referred to as the "sensor value") has changed by a predetermined threshold value or more. When the computer 14 (CPU 14a) determines that a pressing operation has occurred, it generates operation data for the pressing operation.

なお、実験では、ユーザの頬がタッチ検出部124に接触した場合に、ユーザの頬がタッチ検出部124に接触する前と比較して、静電容量が300F程度変化するため、所定の閾値は150F~250Fの間で設定される。 In the experiment, when the user's cheek touched the touch detection unit 124, the capacitance changed by about 300 F compared to before the user's cheek touched the touch detection unit 124, so the predetermined threshold was set between 150 F and 250 F.

また、コンピュータ14(CPU14a)は、押下動作を止めたことを検出すると、第1所定時間(第1実施例では、100msec)前に、押下動作が行われていた場合には、クリック動作が行われたことを判断し、クリック動作の操作データを生成する。 In addition, when the computer 14 (CPU 14a) detects that the pressing action has stopped, if a pressing action was performed prior to the first predetermined time (100 msec in the first embodiment), it determines that a click action was performed and generates operation data for the click action.

コンピュータ14(CPU14a)は、操作データを生成すると、生成した操作データを入力装置10が接続された外部のコンピュータに送信(または、入力)する。 When the computer 14 (CPU 14a) generates operation data, it transmits (or inputs) the generated operation data to the external computer to which the input device 10 is connected.

なお、この第1実施例では、クリック動作の判断には、押下動作を行っている時間の長さは関係無いが、押下動作が比較的長い場合(たとえば、1sec以上の場合)には、クリック動作では無く、長押し動作と判断するようにしてもよい。 In this first embodiment, the length of time that the pressing action is performed is not relevant to determining whether it is a click action, but if the pressing action is relatively long (for example, 1 sec or longer), it may be determined to be a long press action rather than a click action.

図8は図1に示すコンピュータ14のRAM14bのメモリマップ300の一例を示す。図8に示すように、RAM14bは、プログラム記憶領域302およびデータ記憶領域304を含む。 Figure 8 shows an example of a memory map 300 of RAM 14b of computer 14 shown in Figure 1. As shown in Figure 8, RAM 14b includes a program memory area 302 and a data memory area 304.

プログラム記憶領域302は、入力装置10のプログラム(すなわち、情報処理プログラム)を記憶し、情報処理プログラムは、通信プログラム302a、センサ値検出プログラム302bおよび操作データ生成プログラム302cなどを含む。 The program memory area 302 stores the programs of the input device 10 (i.e., information processing programs), and the information processing programs include a communication program 302a, a sensor value detection program 302b, and an operation data generation program 302c, etc.

通信プログラム302aは、コントローラ130および外部のコンピュータと通信するためのプログラムである。センサ値検出プログラム302bは、コントローラ130から送信されるタッチ検出部124の出力に基づくセンサ値を検出するためのプログラムである。ただし、タッチ検出部124aの出力に基づくセンサ値とタッチ検出部124bの出力に基づくセンサ値とは識別可能にされている。 The communication program 302a is a program for communicating with the controller 130 and an external computer. The sensor value detection program 302b is a program for detecting a sensor value based on the output of the touch detection unit 124 transmitted from the controller 130. However, the sensor value based on the output of the touch detection unit 124a and the sensor value based on the output of the touch detection unit 124b are made distinguishable.

操作データ生成プログラム302cは、センサ値検出プログラム302bに従って検出されたセンサ値に基づいて操作データを生成するためのプログラムである。ただし、操作データ生成プログラム302cは、タッチ検出部124aのセンサ値に基づいて左頬の動作についての操作データを生成し、タッチ検出部124bのセンサ値に基づいて右頬の動作についての操作データを生成する。 The operation data generation program 302c is a program for generating operation data based on the sensor values detected according to the sensor value detection program 302b. However, the operation data generation program 302c generates operation data for the left cheek movement based on the sensor value of the touch detection unit 124a, and generates operation data for the right cheek movement based on the sensor value of the touch detection unit 124b.

データ記憶領域304には、センサ値データ304a、操作データ304b、押下動作フラグ304cおよび無動作フラグ304dなどが記憶される。 The data memory area 304 stores sensor value data 304a, operation data 304b, a pressing operation flag 304c, and a no-operation flag 304d.

センサ値データ304aは、コントローラ130から送信されたセンサ値についてのデータであり、タッチ検出部124aの出力に基づくセンサ値とタッチ検出部124bの出力に基づくセンサ値とが識別可能に記憶される。また、センサ値データ304aは、時系列に従って記憶され、CPU14aによって操作データの生成処理に使用されると、削除される。 The sensor value data 304a is data on the sensor values transmitted from the controller 130, and is stored so that the sensor values based on the output of the touch detection unit 124a and the sensor values based on the output of the touch detection unit 124b can be distinguished from each other. The sensor value data 304a is also stored in chronological order, and is deleted once it has been used by the CPU 14a in the process of generating operation data.

操作データ304bは、センサ値データ304aに基づいて生成した操作データであり、タッチ検出部124aおよびタッチ検出部124bの各々について識別可能に記憶される。 Operation data 304b is operation data generated based on sensor value data 304a, and is stored in an identifiable manner for each of touch detection units 124a and 124b.

押下動作フラグ304cは、ユーザの頬の動作が押下動作であるかどうかを判断するためのフラグである。押下動作フラグ304cは、押下動作が検出された場合にオンされ、無動作またはクリック動作が検出された場合にオフされる。 The pressing action flag 304c is a flag for determining whether the action of the user's cheek is a pressing action. The pressing action flag 304c is turned on when a pressing action is detected, and is turned off when no action or a clicking action is detected.

無動作フラグ304dは、ユーザの頬の動作が無動作であるかどうかを判断するためのフラグである。無動作フラグ304dは、無動作が検出された場合にオンされ、押下動作が検出された場合にオフされる。 The no-motion flag 304d is a flag for determining whether the user's cheek movement is no movement. The no-motion flag 304d is turned on when no movement is detected, and is turned off when a pressing movement is detected.

ただし、押下動作フラグ304cおよび無動作フラグ304dは、左右の頬のそれぞれ、すなわち、タッチ検出部124aおよびタッチ検出部124bのそれぞれについて識別可能に設けられる。 However, the pressing action flag 304c and the no-action flag 304d are set so as to be identifiable for each of the left and right cheeks, i.e., for each of the touch detection units 124a and 124b.

図9はコンピュータ14に内蔵されるCPU14aの動作検出および操作データの生成処理のフロー図である。図9に示す動作検出および操作データの生成処理は、左側のタッチ検出部124aおよび右側のタッチ検出部124bの出力に基づくセンサ値のそれぞれについて個別に実行される。つまり、左側の頬の動作が検出され、左側の頬の動作に応じた操作データ(以下、「左側の操作データ」と呼ぶことがある)が生成され、右側の頬の動作が検出され、その右側の頬の動作に応じた操作データ(以下、「右側の操作データ」と呼ぶことがある)が生成される。 Figure 9 is a flow diagram of the motion detection and operation data generation process of the CPU 14a built into the computer 14. The motion detection and operation data generation process shown in Figure 9 is executed separately for each of the sensor values based on the output of the left touch detection unit 124a and the right touch detection unit 124b. That is, the motion of the left cheek is detected, and operation data corresponding to the left cheek motion (hereinafter sometimes referred to as "left cheek operation data") is generated, and the motion of the right cheek is detected, and operation data corresponding to the right cheek motion (hereinafter sometimes referred to as "right cheek operation data") is generated.

CPU14aは、ユーザの指示または通信可能に接続された外部のコンピュータからの指示があると、図9に示すように、動作検出および操作データの生成処理を開始し、ステップS1で、タッチ検出部124の出力に基づくセンサ値が所定の閾値(たとえば、150)以上であるかどうかを判断する。 When the CPU 14a receives an instruction from a user or an instruction from an external computer connected for communication, it starts a process of detecting motion and generating operation data as shown in FIG. 9, and in step S1, it determines whether the sensor value based on the output of the touch detection unit 124 is equal to or greater than a predetermined threshold value (e.g., 150).

ステップS1で“YES”であれば、つまり、センサ値が所定の閾値以上であれば、ステップS3で、押下動作フラグ304cをオンし、ステップS5で、押下動作の操作データを生成し、ステップS7で、無動作フラグ304dをオフしてステップS1に戻る。 If step S1 is "YES", that is, if the sensor value is equal to or greater than the predetermined threshold, step S3 turns on the pressing action flag 304c, step S5 generates operation data for the pressing action, and step S7 turns off the no-action flag 304d and returns to step S1.

ただし、ステップS5では、操作データを生成すると、対応する操作データ304bがRAM14bに記憶され、外部のコンピュータに入力(または、送信)される。このことは、後述するステップS17についても同じである。 However, in step S5, when operation data is generated, the corresponding operation data 304b is stored in RAM 14b and input (or transmitted) to an external computer. This also applies to step S17, which will be described later.

また、押下動作フラグ304cが既にオンである場合には、ステップS3の処理はスキップされる。同様に、無動作フラグ304dが既にオフである場合には、ステップS7の処理はスキップされる。以下、他のフラグがオンまたはオフされる場合についても同様である。 If the pressing action flag 304c is already on, the process of step S3 is skipped. Similarly, if the no-action flag 304d is already off, the process of step S7 is skipped. The same applies to the cases where other flags are on or off.

また、ステップS1で“NO”であれば、つまり、センサ値が所定の閾値未満であれば、ステップS9で、第1所定時間(たとえば、500msec)前の押下動作フラグ304cはオンであったかどうかどうかを判断する。図示は省略するが、CPU14aは、押下動作フラグ304cがオンからオフに変化されたときに、RAM14bに設けられたタイマのカウントを開始し、そのカウント値が第1所定時間以下であるかどうかを判断する。 If step S1 is "NO", that is, if the sensor value is less than the predetermined threshold, step S9 determines whether the pressing action flag 304c was on a first predetermined time period (e.g., 500 msec) ago. Although not shown, when the pressing action flag 304c is changed from on to off, the CPU 14a starts counting a timer provided in the RAM 14b, and determines whether the count value is equal to or less than the first predetermined time period.

ステップS9で“NO”であれば、つまり、第1所定時間前の押下動作フラグ304cがオフであれば、ステップS11で、無動作フラグ304dをオンし、ステップS13で、押下動作フラグ304cをオフして、ステップS1に戻る。 If the answer is "NO" in step S9, that is, if the pressing action flag 304c from the first predetermined time ago is off, the no-action flag 304d is turned on in step S11, and the pressing action flag 304c is turned off in step S13, and the process returns to step S1.

一方、ステップS9で“YES”であれば、つまり、第1所定時間前の押下動作フラグ304cがオンであれば、ステップS15で、クリック動作の操作データを生成し、そして、ステップS17で、押下動作フラグ304cをオフして、ステップS1に戻る。 On the other hand, if step S9 is "YES", that is, if the pressing action flag 304c from the first predetermined time ago is on, operation data for a click action is generated in step S15, and then the pressing action flag 304c is turned off in step S17, and the process returns to step S1.

図1に示した本願発明の入力装置10は、外部のコンピュータの入力装置として用いることができる。一例として、図10は、入力装置10を、視線入力装置を用いた入力システムに適用したシステム400の電気的な構成を示すブロック図である。 The input device 10 of the present invention shown in FIG. 1 can be used as an input device for an external computer. As an example, FIG. 10 is a block diagram showing the electrical configuration of a system 400 in which the input device 10 is applied to an input system using an eye-gaze input device.

図10に示すように、システム400は、入力装置10、ユーザ端末20および視線入力装置22で構成される。ユーザ端末20および視線入力装置22はコンピュータ14に通信可能に接続される。 As shown in FIG. 10, the system 400 is composed of an input device 10, a user terminal 20, and a gaze input device 22. The user terminal 20 and the gaze input device 22 are communicatively connected to a computer 14.

ユーザ端末20は、汎用のデスクトップPCまたはタブレット端末であり、CPU20a、メモリ(RAM、ROM、HDD)、通信装置およびディスプレイなどのコンポーネントを備える。 The user terminal 20 is a general-purpose desktop PC or tablet terminal, and is equipped with components such as a CPU 20a, memory (RAM, ROM, HDD), a communication device, and a display.

視線入力装置22は、ユーザの顔をカメラで撮影し、撮影画像からユーザの視線方向を算出(または、推定)する。ただし、ユーザの顔、カメラおよびユーザ端末20のディスプレイの位置関係から、視線方向に対するディスプレイの表示面の位置または領域は特定可能にされている。 The gaze input device 22 captures the user's face with a camera and calculates (or estimates) the user's gaze direction from the captured image. However, the position or area of the display surface relative to the gaze direction can be determined based on the relative positions of the user's face, the camera, and the display of the user terminal 20.

また、視線入力装置22は、周知であり、出願人らによって出願され、既に公開された特開2014-194617または特開2012-216180に開示された視線方向の推定装置を用いることができる。ただし、コンピュータ14は、視線方向の推定装置に含まれるコンピュータ本体として機能することもできる。 The gaze input device 22 is well known, and may be the gaze direction estimation device disclosed in Japanese Patent Application Laid-Open No. 2014-194617 or Japanese Patent Application Laid-Open No. 2012-216180, which have been filed by the applicants and have already been published. However, the computer 14 may also function as the computer body included in the gaze direction estimation device.

なお、ユーザ端末20がタブレット端末である場合には、視線入力装置22のカメラとして、タブレット端末が備えるカメラを使用することができる。 If the user terminal 20 is a tablet terminal, the camera of the tablet terminal can be used as the camera of the gaze input device 22.

コンピュータ14は、頬動作検出装置12から入力される検出結果(以下、「センサ値」という)のデータと、視線入力装置22から入力される視線方向のデータを統合し、外部のコンピュータ(ここでは、ユーザ端末20)に入力する。コンピュータ14は、検出結果のデータと視線方向のデータを同期させる。このため、視線入力装置22をコンピュータ14に接続するようにしてある。 The computer 14 integrates the detection result data (hereinafter referred to as "sensor value") input from the cheek movement detection device 12 and the gaze direction data input from the gaze input device 22, and inputs it to an external computer (here, the user terminal 20). The computer 14 synchronizes the detection result data with the gaze direction data. For this reason, the gaze input device 22 is connected to the computer 14.

ユーザ端末20は、入力装置10から入力される操作データまたは/および方向入力のデータを受信して、所定の処理を実行する。ここでは、ユーザ端末20が文字入力を行うための所定のアプリケーションを実行する場合について説明する。ただし、図11に示す文字入力処理では、クリック動作の操作データのみを使用するため、ユーザ端末20は、押下動作の操作データを受信しても、文字入力処理には使用しない。このため、入力装置10は、押下動作の操作データをユーザ端末20に送信しないようにしてもよい。 The user terminal 20 receives operation data and/or directional input data input from the input device 10 and executes a predetermined process. Here, a case will be described in which the user terminal 20 executes a predetermined application for character input. However, since only the operation data of the click action is used in the character input process shown in FIG. 11, even if the user terminal 20 receives the operation data of the press action, it does not use it for the character input process. For this reason, the input device 10 may not transmit the operation data of the press action to the user terminal 20.

図11は図10に示したユーザ端末20のCPU20aの文字入力処理のフロー図である。頬動作および視線による文字入力の機能が実行されると、図11に示す文字入力処理が実行される。図示は省略するが、ユーザ端末20では、文書作成または電子メールなどの文字入力を行う所定のアプリケーションも同時に実行される。 Figure 11 is a flow diagram of the character input process of the CPU 20a of the user terminal 20 shown in Figure 10. When the cheek movement and gaze-based character input function is executed, the character input process shown in Figure 11 is executed. Although not shown, a predetermined application for entering characters for document creation or e-mail, etc. is also executed at the same time in the user terminal 20.

図11に示すように、ユーザ端末20のCPU20aは文字入力処理を開始すると、ステップS31で、ソフトウェアキーボードをユーザ端末20のディスプレイに表示する。続くステップS33では、マウスカーソルを視線の移動に従って移動する。ただし、視線が移動しない場合には、マウスカーソルも移動しない。 As shown in FIG. 11, when the CPU 20a of the user terminal 20 starts character input processing, in step S31, a software keyboard is displayed on the display of the user terminal 20. In the following step S33, the mouse cursor is moved according to the movement of the line of sight. However, if the line of sight does not move, the mouse cursor does not move either.

次のステップS35では、左側のクリック動作が有るかどうかを判断する。ここでは、CPU20aは、コンピュータ14から左頬によるクリック動作の操作データすなわちタッチ検出部124aの出力に基づくクリック動作の操作データが入力されたかどうかを判断する。他のクリック動作が有るかどうかを判断する場合も同様である。 In the next step S35, it is determined whether or not a left-side click action has been performed. Here, the CPU 20a determines whether or not operation data for a left cheek click action, i.e., operation data for a click action based on the output of the touch detection unit 124a, has been input from the computer 14. The same applies when determining whether or not there is another click action.

ステップS35で“NO”であれば、つまり、左側のクリック動作が無ければ、ステップS45に進む。一方、ステップS35で“YES”であれば、つまり、左側のクリック動作が有れば、ステップS37で、マウスカーソルがソフトウェアキーボードのいずれかのキーを指示しているかどうかを判断する。 If step S35 is "NO," that is, if there is no left-click action, proceed to step S45. On the other hand, if step S35 is "YES," that is, if there is a left-click action, then in step S37, it is determined whether the mouse cursor is pointing to any key on the software keyboard.

ステップS37で“NO”であれば、つまり、マウスカーソルがソフトウェアキーボードのいずれのキーも指示していない場合には、ステップS39で、マウスカーソルが上記の所定のアプリケーションの終了ボタンを指示しているかどうかを判断する。 If the answer is "NO" in step S37, that is, if the mouse cursor is not pointing to any key on the software keyboard, then in step S39 it is determined whether the mouse cursor is pointing to the end button of the specified application.

ステップS39で“NO”であれば、つまり、マウスカーソルが上記の所定のアプリケーションの終了ボンタンを指示していなければ、ステップS33に戻る。一方、ステップS39で“YES”であれば、つまり、マウスカーソルが上記の所定のアプリケーションの終了ボタンを指示していれば、ステップS41で、所定のアプリケーションの終了を指示して、文字入力処理を終了する。 If step S39 is "NO", that is, if the mouse cursor is not pointing to the end button of the above-mentioned specified application, the process returns to step S33. On the other hand, if step S39 is "YES", that is, if the mouse cursor is pointing to the end button of the above-mentioned specified application, the process instructs the user to end the specified application in step S41, and ends the character input process.

また、ステップS37で“YES”であれば、つまり、マウスカーソルがソフトウェアキーボードのいずれかのキーを指示していれば、ステップS43で、指示しているキーに対応する文字を入力して、ステップS33に戻る。つまり、ステップS43では、CPU20aは、指示しているキーに対応する文字を入力する指示を所定のアプリケーションに与える。したがって、所定のアプリケーションでは、指示された文字が入力すべき位置に入力される。 Also, if step S37 is "YES", that is, if the mouse cursor is pointing to any key on the software keyboard, then in step S43, the character corresponding to the pointed-to key is input, and the process returns to step S33. That is, in step S43, the CPU 20a instructs a specific application to input the character corresponding to the pointed-to key. Therefore, in the specific application, the pointed-to character is input at the position where it should be input.

また、ステップS45では、右側のクリック動作が有るかどうかを判断する。ここでは、CPU20aは、コンピュータ14から右頬によるクリック動作の操作データが入力されたかどうかを判断する。 In addition, in step S45, it is determined whether a right-side click action has been performed. Here, the CPU 20a determines whether operation data for a right cheek click action has been input from the computer 14.

ステップS45で“NO”であれば、つまり、右側のクリック動作が無ければ、ステップS33に戻る。一方、ステップS45で“YES”であれば、つまり、右側のクリック動作が有れば、ステップS47で、直前に入力された文字を削除(一文字削除)して、ステップS33に戻る。 If step S45 is "NO", that is, if there is no right-side click, the process returns to step S33. On the other hand, if step S45 is "YES", that is, if there is a right-side click, the process deletes the previously entered character (deletes one character) in step S47, and the process returns to step S33.

この第1実施例によれば、タッチ検出部を設けたマスクを装着したユーザの頬の動作でコンピュータマウスのボタンの操作と同様の操作を行うことができる。このため、操作が簡単であり、正確かつ高速に文字を入力することができる。したがって、視線入力だけで文字入力を行うよりも、ユーザは入力対象の文字を注視する時間を短くすることができる。 According to this first embodiment, a user wearing a mask equipped with a touch detection unit can perform an operation similar to operating a button on a computer mouse by moving his/her cheek. This simplifies the operation and enables accurate and fast character input. Therefore, the user can shorten the time spent gazing at the character to be input, compared to inputting characters only by eye gaze input.

また、第1実施例によれば、タッチ検出部は導電性布と絶縁テープで構成されるため、頬動作検出装置すなわちセンサの製造が簡単である。また、導電性布は接結天竺編みで作られるため、耐久性に優れている。 In addition, according to the first embodiment, the touch detection unit is composed of conductive cloth and insulating tape, so the cheek motion detection device, i.e., the sensor, is easy to manufacture. In addition, the conductive cloth is made of bonded jersey knit, so it is highly durable.

さらに、この第1実施例によれば、マスクおよびタッチ検出部は布製であるため、洗濯することができる。したがって、繰り返し使用しても、清潔さを保つこたができる。 Furthermore, according to this first embodiment, the mask and the touch detection unit are made of cloth and can be washed. Therefore, they can be kept clean even after repeated use.

なお、この第1実施例では、文字入力を行う場合について説明したが、他のアプリケーションが実行される場合には、クリック動作によって、コマンドを実行したり、コマンドの実行をキャンセルしたりすることができる。 In this first embodiment, we have described the case of entering characters, but when another application is running, you can execute a command or cancel the execution of a command by clicking.

また、この第1実施例では、左側の操作データおよび右側の操作データの一方を受信して、文字入力および一文字削除の処理を実行するようにしたが、左側の操作データおよび右側の操作データの両方を同時に受信した場合には、他のコマンド(たとえば、改行)を行うようにしてもよい。この場合、ユーザは、左右の頬を同時に膨らまして、2つのタッチ検出部を同時にタッチする。 In addition, in this first embodiment, either the left side operation data or the right side operation data is received to execute the character input and single character deletion processes, but if both the left side operation data and the right side operation data are received simultaneously, another command (for example, a line break) may be executed. In this case, the user puffs out both cheeks at the same time to touch the two touch detection sections at the same time.

さらに、この第1実施例では、2つのタッチ検出部を設けるようにしたが、タッチ検出部は1つあれば入力装置として機能し、また、ユーザが意図した操作を実行できる場合には、3つ以上のタッチ検出部が設けられてもよい。 Furthermore, in this first embodiment, two touch detection units are provided, but one touch detection unit is sufficient to function as an input device, and three or more touch detection units may be provided if the user can perform the operation intended.

さらにまた、この第1実施例では、布製のタッチ検出部を設けるようにしたが、シート状で柔らかい素材の他のセンサを用いることもできる。一例として、タッチエンス株式会社製の薄型の触覚センサ(商品名「ショッカクキューブ(TM)」を使用することができる。 Furthermore, in this first embodiment, a touch detection unit made of cloth is provided, but other sensors made of sheet-like soft materials can also be used. As an example, a thin tactile sensor (product name "Shock Cube (TM)" manufactured by Touchence Inc. can be used.

[第2実施例]
第2実施例は、本願発明の入力装置10を電動の車椅子30の制御に用いたシステム500である。以下、システム500について説明するが、入力装置10については第1実施例で説明してあるため、重複した説明は省略する。
[Second embodiment]
The second embodiment is a system 500 in which the input device 10 of the present invention is used to control an electric wheelchair 30. The system 500 will be described below, but since the input device 10 has been described in the first embodiment, a duplicated description will be omitted.

図12は第2実施例のシステム500の電気的な構成を示すブロック図である。図12に示すように、システム500は、入力装置10および車椅子30お含み、車椅子30はコンピュータ14と電気的に接続される。 Figure 12 is a block diagram showing the electrical configuration of the system 500 of the second embodiment. As shown in Figure 12, the system 500 includes an input device 10 and a wheelchair 30, and the wheelchair 30 is electrically connected to a computer 14.

また、第2実施例の入力装置10では、マスク型検出部120は4つのタッチ検出部124を備える。第1実施例で説明した左側のタッチ検出部124aおよび右側のタッチ検出部124bに加え、上側のタッチ検出部124cおよび下側のタッチ検出部124dが設けられる。 In the input device 10 of the second embodiment, the mask-type detection unit 120 has four touch detection units 124. In addition to the left touch detection unit 124a and the right touch detection unit 124b described in the first embodiment, an upper touch detection unit 124c and a lower touch detection unit 124d are provided.

図13に示すように、上側のタッチ検出部124cは、マスク122の布地のうちの中央から上寄りに配置され、下側のタッチ検出部124dは、マスク122の布地のうちの中央から下寄りに配置される。 As shown in FIG. 13, the upper touch detection unit 124c is positioned upward from the center of the fabric of the mask 122, and the lower touch detection unit 124d is positioned downward from the center of the fabric of the mask 122.

タッチ検出部124cおよびタッチ検出部124dの形状および素材は、タッチ検出部124aおよびタッチ検出部124bと同じである。また、タッチ検出部124cおよびタッチ検出部124dは、層構造のマスク122において、外側と内側の布の間に、横長の向きで固定される。 The shape and material of the touch detection units 124c and 124d are the same as those of the touch detection units 124a and 124b. Furthermore, the touch detection units 124c and 124d are fixed in a landscape orientation between the outer and inner fabrics of the layered mask 122.

ユーザは、上唇と鼻の間を空気で膨らましたり、舌で押し出したりすることで、人中をタッチ検出部124cに接触させることができる。つまり、上側のタッチ検出部124cは、上側の押下動作およびクリック動作を検出する。 The user can bring the philtrum into contact with the touch detection unit 124c by inflating the area between the upper lip and nose with air or pushing it out with the tongue. In other words, the upper touch detection unit 124c detects pressing and clicking actions on the upper side.

また、ユーザは、下唇と顎先の間を空気で膨らましたり、舌で押し出したりすることで、顎の一部をタッチ検出部124dに接触させることができる。つまり、下側のタッチ検出部124dは、下側の押下動作およびクリック動作を検出する。 The user can also bring part of the chin into contact with the touch detection unit 124d by inflating the area between the lower lip and the chin with air or by pushing out the area with the tongue. In other words, the lower touch detection unit 124d detects pressing and clicking actions on the lower side.

厳密には、人中および顎の一部の動作は頬の動作ではないが、この明細書においては、これらの動作も頬の動作に含むことにする。 Strictly speaking, movements of the philtrum and parts of the jaw are not considered cheek movements, but for the purposes of this specification, these movements are included in cheek movements.

また、以下、この明細書において、タッチ検出部124a-124dの各々を特に区別する必要が無い場合には、単に、「タッチ検出部124」と呼ぶことにする。 Furthermore, in the following description, when there is no need to distinguish between the touch detection units 124a-124d, they will simply be referred to as "touch detection unit 124."

図14は車椅子30の電気的な構成の一例を示すブロック図である。図14に示すように、車椅子30は、コンピュータ32を含み、コンピュータ32は、入出力インターフェイス(以下、単に「インターフェイス」という。)34、モータドライバ36a、36b、モータ38a、38bおよびエンコーダ40a、40bが設けられる。 Figure 14 is a block diagram showing an example of the electrical configuration of the wheelchair 30. As shown in Figure 14, the wheelchair 30 includes a computer 32, which is provided with an input/output interface (hereinafter simply referred to as "interface") 34, motor drivers 36a, 36b, motors 38a, 38b, and encoders 40a, 40b.

なお、コンピュータ32、インターフェイス34およびモータドライバ36a、36bは、ボックスに入れられ、このボックスは、車椅子30の座席シートの下側または後ろ側に設けられる。 The computer 32, interface 34 and motor drivers 36a, 36b are housed in a box that is located under or behind the seat of the wheelchair 30.

コンピュータ32は、汎用のPCであり、CPU32a、メモリ(RAM、ROMおよびHDD)、通信装置などのコンポーネントを備える。このコンピュータ32が、入力装置10のコンピュータ14と通信可能に接続される。 The computer 32 is a general-purpose PC and includes components such as a CPU 32a, memory (RAM, ROM, and HDD), and a communication device. This computer 32 is connected to the computer 14 of the input device 10 so as to be able to communicate with it.

また、コンピュータ32は、インターフェイス34に接続される。このインターフェイス34は、モータドライバ36aを介して左モータ38aに接続されるとともに、モータドライバ36bを介して右モータ38bが接続される。また、インターフェイス34は、エンコーダ40aおよび40bに接続される。 The computer 32 is also connected to an interface 34. This interface 34 is connected to a left motor 38a via a motor driver 36a, and to a right motor 38b via a motor driver 36b. The interface 34 is also connected to encoders 40a and 40b.

図示は省略するが、左モータ38aの回転軸と車椅子30の左の後輪の回転軸がギアを用いて連結され、右モータ38bの回転軸と車椅子30の右の後輪の回転軸がギアを用いて連結される。 Although not shown in the figure, the rotation shaft of the left motor 38a is connected to the rotation shaft of the left rear wheel of the wheelchair 30 using gears, and the rotation shaft of the right motor 38b is connected to the rotation shaft of the right rear wheel of the wheelchair 30 using gears.

コンピュータ32は、入力装置10からの操作データに応じて左モータ38aおよび右モータ38bの各々の駆動を制御し、車椅子30の移動を制御する。一例として、タッチ検出部124cによって上側のクリック動作が検出され、その上側のクリック動作に応じた操作データが入力されると、コンピュータ32は、左モータ38aおよび右モータ38bを第1所定速度で回転させ、車椅子30を前進させる。また、タッチ検出部124dによって下側のクリック動作が検出され、そのクリック動作に応じた操作データが入力されると、コンピュータ32は、左モータ38aおよび右モータ38bを停止させ、車椅子30を停止させる。 The computer 32 controls the driving of the left motor 38a and the right motor 38b in response to the operation data from the input device 10, and controls the movement of the wheelchair 30. As an example, when an upward click motion is detected by the touch detection unit 124c and operation data corresponding to the upward click motion is input, the computer 32 rotates the left motor 38a and the right motor 38b at a first predetermined speed, and moves the wheelchair 30 forward. When a downward click motion is detected by the touch detection unit 124d and operation data corresponding to the click motion is input, the computer 32 stops the left motor 38a and the right motor 38b, and stops the wheelchair 30.

また、車椅子30が前進している場合に、タッチ検出部124aによって左側のクリック動作が検出され、そのクリック動作に応じた操作データが入力されると、コンピュータ32は、右モータ38bの回転速度を第1所定速度から第2所定速度に上昇させて、車椅子30を左折させる。車椅子30が前進している場合にタッチ検出部124bによって、右側のクリック動作が検出され、そのクリック動作に応じた操作データが入力されると、コンピュータ32は、左モータ38aの回転速度を第1所定速度から第2所定速度に上昇させて、車椅子30を右折させる。 When the wheelchair 30 is moving forward, if the touch detection unit 124a detects a left-side click action and inputs operation data corresponding to the click action, the computer 32 increases the rotation speed of the right motor 38b from a first predetermined speed to a second predetermined speed, causing the wheelchair 30 to turn left. When the wheelchair 30 is moving forward, if the touch detection unit 124b detects a right-side click action and inputs operation data corresponding to the click action, the computer 32 increases the rotation speed of the left motor 38a from a first predetermined speed to a second predetermined speed, causing the wheelchair 30 to turn right.

さらに、車椅子30が停止している場合に、タッチ検出部124aによって左側のクリック動作が検出され、そのクリック動作に応じた操作データが入力されると、コンピュータ32は、左モータ38aを停止させた状態で右モータ38bを第3所定速度で回転させて、車椅子30を左に旋回させる。ただし、第3所定速度は、第1所定速度以下に設定される。また、車椅子30が停止している場合に、タッチ検出部124bによって右側のクリック動作が検出され、そのクリック動作に応じた操作データが入力されると、コンピュータ32は、右モータ38bを停止させた状態で左モータ38aを第3所定速度で回転させて、車椅子30を右に旋回させる。 Furthermore, when the wheelchair 30 is stopped, if the touch detection unit 124a detects a left-side click operation and inputs operation data corresponding to the click operation, the computer 32 rotates the right motor 38b at a third predetermined speed with the left motor 38a stopped, thereby turning the wheelchair 30 to the left. However, the third predetermined speed is set to be equal to or lower than the first predetermined speed. Also, when the wheelchair 30 is stopped, if the touch detection unit 124b detects a right-side click operation and inputs operation data corresponding to the click operation, the computer 32 rotates the left motor 38a at the third predetermined speed with the right motor 38b stopped, thereby turning the wheelchair 30 to the right.

また、タッチ検出部124dによって下側のクリック動作が検出され、そのクリック動作に応じた操作データが第2所定時間内に所定回数検出されると、コンピュータ32は、車椅子30の制御処理を終了する。 In addition, when the touch detection unit 124d detects a downward click action and operation data corresponding to the click action is detected a predetermined number of times within a second predetermined time, the computer 32 ends the control process of the wheelchair 30.

具体的には、車椅子30のコンピュータ32に内蔵されるCPU32aが図15-図17に示す車椅子制御処理を実行する。図15-図17に示すフロー図である。 Specifically, the CPU 32a built into the computer 32 of the wheelchair 30 executes the wheelchair control process shown in Figures 15 to 17. The flowcharts shown in Figures 15 to 17 are as follows.

なお、入力装置10の処理は、第1実施例と同じであるため、重複した説明は省略する。ただし、第2実施例では、マスク型検出部120は、4つのタッチ検出部124を備えるため、4つのタッチ検出部124の各々について、図9に示した動作検出および操作データの生成処理が実行され、上下左右の各々のタッチ検出部124の検出結果に基づく操作データが識別可能にコンピュータ32に入力される。 The processing of the input device 10 is the same as in the first embodiment, so a duplicated description will be omitted. However, in the second embodiment, the mask-type detection unit 120 has four touch detection units 124, so the motion detection and operation data generation processing shown in FIG. 9 is executed for each of the four touch detection units 124, and operation data based on the detection results of each of the top, bottom, left, and right touch detection units 124 is input to the computer 32 in an identifiable manner.

また、図15-図17に示す車椅子制御処理においても、クリック動作の操作データのみを使用するため、ユーザ端末20は、押下動作の操作データを受信しても、車椅子制御処理には使用しない。このため、入力装置10は、押下動作の操作データをユーザ端末20に送信しないようにしてもよい。 15 to 17, only the operation data of the click action is used, so even if the user terminal 20 receives the operation data of the press action, the user terminal 20 does not use the operation data for the wheelchair control process. Therefore, the input device 10 may not transmit the operation data of the press action to the user terminal 20.

車椅子30の主電源がオンされると、図15に示すように、CPU32aは、車椅子制御処理を開始し、ステップS71で、下側のクリック動作が有るかどうかを判断する。ここでは、CPU20aは、コンピュータ14から顎によるクリック動作の操作データすなわちタッチ検出部124dの出力に基づくクリック動作の操作データが入力されたかどうかを判断する。他のクリック動作が有るかどうかを判断する場合も同様である。 When the main power supply of the wheelchair 30 is turned on, as shown in FIG. 15, the CPU 32a starts the wheelchair control process, and in step S71, determines whether or not a downward click action has been performed. Here, the CPU 20a determines whether or not operation data for a chin click action, i.e., operation data for a click action based on the output of the touch detection unit 124d, has been input from the computer 14. The same applies when determining whether or not there is another click action.

ステップS71で“NO”であれば、つまり、下側のクリック動作が無ければ、図16に示すステップS89に進む。一方、ステップS71で“YES”であれば、つまり、下側のクリック動作が有れば、ステップS73で、下側のクリック動作の回数(すなわち、クリック回数)が0であるかどうかを判断する。 If step S71 is "NO," that is, if there is no downward click action, proceed to step S89 shown in FIG. 16. On the other hand, if step S71 is "YES," that is, if there is a downward click action, then in step S73, it is determined whether the number of downward click actions (i.e., the number of clicks) is 0.

なお、図示は省略するが、車椅子制御処理が開始されたときに、クリック回数をカウントするカウンタはリセットされる(つまり、カウント値=0)。 Although not shown in the figure, when the wheelchair control process starts, the counter that counts the number of clicks is reset (i.e., the count value = 0).

ステップS73で“YES”であれば、つまり、下側のクリック回数が0であれば、ステップS75で、左モータ38aおよび右モータ38bの回転速度を0(m/sec)に設定し、ステップS77で、クリック回数を1加算し(クリック回数=1)、ステップS79で、タイマをスタートして、ステップS71に戻る。 If the answer is "YES" in step S73, that is, if the number of clicks on the lower side is 0, the rotation speed of the left motor 38a and the right motor 38b is set to 0 (m/sec) in step S75, the number of clicks is incremented by 1 (number of clicks = 1) in step S77, the timer is started in step S79, and the process returns to step S71.

ただし、ステップS75では、CPU32aは、インターフェイス34を介して、モータドライバ36aおよびモータドライバ36bを制御し、左モータ38aおよび右モータ38bの回転速度を設定(制御)する。以下、左モータ38aおよび右モータ38bの回転速度を設定する場合について同様である。 However, in step S75, the CPU 32a controls the motor drivers 36a and 36b via the interface 34 to set (control) the rotation speeds of the left motor 38a and the right motor 38b. The same applies below when setting the rotation speeds of the left motor 38a and the right motor 38b.

一方、ステップS73で“NO”であれば、つまり、下側のクリック回数が0でなければ、ステップS81で、クリック回数が3であるかどうかを判断する。
ステップS81で“NO”であれば、つまり、クリック回数が1または2であれば、ステップS83で、クリック回数を1加算して、ステップS71に戻る。
On the other hand, if "NO" in the step S73, that is, if the number of clicks on the lower side is not 0, in a step S81, it is determined whether the number of clicks is 3 or not.
If "NO" in the step S81, that is, if the number of clicks is 1 or 2, in a step S83, the number of clicks is incremented by 1, and the process returns to the step S71.

一方、ステップS81で“YES”であれば、つまり、クリック回数が3であれば、ステップS83で、タイマのカウント値が第2所定時間(たとえば、1秒)を経過したかどうかを判断する。 On the other hand, if step S81 returns "YES," i.e., if the number of clicks is 3, then step S83 determines whether the timer count has reached a second predetermined time (e.g., 1 second).

ステップS83で“YES”であれば、つまり、タイマのカウント値が第2所定時間を経過していれば、ステップS87で、カウンタをリセットして(つまり、クリック回数=0)、ステップS71に戻る。つまり、第2所定時間内に下側のクリック動作が3回行われない場合には、車椅子制御処理は終了されない。一方、ステップS83で“NO”であれば、つまり、タイマのカウント値が第2所定時間を経過していなければ、車椅子制御処理を終了する。 If step S83 is "YES", that is, if the timer count has passed the second predetermined time, the counter is reset (i.e., the number of clicks = 0) in step S87, and the process returns to step S71. In other words, if the downward click action is not performed three times within the second predetermined time, the wheelchair control process is not terminated. On the other hand, if step S83 is "NO", that is, if the timer count has not passed the second predetermined time, the wheelchair control process is terminated.

図16に示すステップS89では、上側のクリック動作が有るかどうかを判断する。ステップS89で“YES”であれば、つまり、上側のクリック動作が有れば、ステップS91で、左モータ38aおよび右モータ38bの回転速度を第1所定速度に設定して、ステップS95に進む。したがって、車椅子30は第1所定速度に応じた移動速度で前進する。 In step S89 shown in FIG. 16, it is determined whether or not an upward click motion has occurred. If the answer is "YES" in step S89, that is, if an upward click motion has occurred, the rotation speeds of the left motor 38a and the right motor 38b are set to a first predetermined speed in step S91, and the process proceeds to step S95. Therefore, the wheelchair 30 moves forward at a travel speed corresponding to the first predetermined speed.

一方、ステップS89で“NO”であれば、つまり、上側のクリック動作が無ければ、ステップSS93で、左モータ38aおよび右モータ38bの回転速度を0に設定して、ステップS95に進む。したがって、車椅子30は、停止中であれば、停止を継続し、移動中であれば、減速または停止する。 On the other hand, if step S89 is "NO," that is, if there is no upward click action, in step S93, the rotation speed of the left motor 38a and the right motor 38b is set to 0, and the process proceeds to step S95. Therefore, if the wheelchair 30 is stopped, it remains stopped, and if it is moving, it decelerates or stops.

ステップS95では、左側のクリック動作が有るかどうかを判断する。ステップS95で“NO”であれば、つまり、左側のクリック動作が無ければ、ステップS97で、右モータ38bの回転速度をゼロに設定して、図17に示すステップS105に進む。ただし、右モータ38bの回転速度が既にゼロに設定されている場合には、ステップS97の処理はスキップされる。 In step S95, it is determined whether or not a left click operation has occurred. If step S95 is "NO," that is, if there has been no left click operation, in step S97, the rotation speed of the right motor 38b is set to zero, and the process proceeds to step S105 shown in FIG. 17. However, if the rotation speed of the right motor 38b has already been set to zero, the process of step S97 is skipped.

一方、ステップS95で“YES”であれば、つまり、左側のクリック動作が有れば、ステップS99で、車椅子30が前進中かどうかを判断する。ここでは、CPU32aは、左モータ38aおよび右モータ38bを回転させているかどうかを判断する。このことは、後述するステップS109も同じである。 On the other hand, if step S95 is "YES", that is, if there is a left click operation, then in step S99 it is determined whether the wheelchair 30 is moving forward. Here, the CPU 32a determines whether the left motor 38a and the right motor 38b are rotating. The same applies to step S109, which will be described later.

ステップS99で“YES”であれば、つまり、車椅子30が前進中であれば、ステップS101で、右モータ38bの回転速度を第2所定速度に設定して、ステップS105に進む。したがって、車椅子30は左折する(つまり、左に曲がる)。一方、ステップS99で“NO”であれば、つまり、車椅子30が停止中であれば、ステップS103で、右モータ38bの回転速度を第3所定速度に設定して、ステップS105に進む。したがって、車椅子30は左に旋回する。 If step S99 is "YES", that is, if the wheelchair 30 is moving forward, then in step S101, the rotation speed of the right motor 38b is set to a second predetermined speed, and the process proceeds to step S105. Therefore, the wheelchair 30 turns left (i.e., turns left). On the other hand, if step S99 is "NO", that is, if the wheelchair 30 is stopped, then in step S103, the rotation speed of the right motor 38b is set to a third predetermined speed, and the process proceeds to step S105. Therefore, the wheelchair 30 turns left.

図17に示すように、ステップS105では、右側のクリック動作が有るかどうかを判断する。ステップS105で“NO”であれば、つまり、右側のクリック動作が無ければ、ステップS107で、左モータ38aの回転速度をゼロに設定して、図15に示したステップS71に戻る。ただし、左モータ38aの回転速度が既にゼロに設定されている場合には、ステップS107の処理はスキップされる。 As shown in FIG. 17, in step S105, it is determined whether or not a right-side click operation has occurred. If the answer is "NO" in step S105, that is, if there has been no right-side click operation, in step S107, the rotation speed of the left motor 38a is set to zero, and the process returns to step S71 shown in FIG. 15. However, if the rotation speed of the left motor 38a has already been set to zero, the process of step S107 is skipped.

一方、ステップS105で“YES”であれば、つまり、右側のクリック動作が有れば、ステップS109で、車椅子30が前進中かどうかを判断する。ステップS109で“YES”であれば、ステップS111で、左モータ38aの回転速度を第2所定速度に設定して、ステップS71に戻る。したがって、車椅子30は左折する(つまり、左に曲がる)。一方、ステップS109で“NO”であれば、つまり、車椅子30が停止中であれば、ステップS113で、左モータ38aの回転速度を第3所定速度に設定して、ステップS71に戻る。したがって、車椅子30は右に旋回する。 On the other hand, if step S105 is "YES", that is, if there is a right-side click operation, then in step S109 it is determined whether the wheelchair 30 is moving forward. If step S109 is "YES", then in step S111 the rotation speed of the left motor 38a is set to a second predetermined speed, and the process returns to step S71. Therefore, the wheelchair 30 turns left (i.e., turns left). On the other hand, if step S109 is "NO", that is, if the wheelchair 30 is stopped, then in step S113 the rotation speed of the left motor 38a is set to a third predetermined speed, and the process returns to step S71. Therefore, the wheelchair 30 turns right.

第2実施例によれば、第1実施例と同じ効果を奏するとともに、車椅子の移動を制御することができる。 The second embodiment achieves the same effect as the first embodiment and also allows the movement of the wheelchair to be controlled.

なお、第2実施例に示した車椅子の制御方法は一例であり、限定されるべきでない。他の例では、下側のクリック動作を第2所定時間内に3回検出することに代えて、左側および右側のクリック動作を同時に検出したり、上側、左側および右側のクリック動作を同時に検出したり、下側、左側および右側のクリック動作を同時に検出したり、上側、下側、左側および右側のクリック動作を同時に検出したりした場合に、車椅子制御処理を終了するようにしてもよい。 The wheelchair control method shown in the second embodiment is an example and should not be limited to the above. In another example, instead of detecting a downward click motion three times within the second predetermined time, the wheelchair control process may be terminated when left and right click motions are detected simultaneously, or when upper, left and right click motions are detected simultaneously, or when lower, left and right click motions are detected simultaneously, or when upper, lower, left and right click motions are detected simultaneously.

[第3実施例]
第3実施例は、本願発明の入力装置10を、マウス動作の制御に用いたシステムである。以下、このシステムについて説明するが、入力装置10については、第1実施例および第2実施例で説明してあるため、重複した説明は省略する。
[Third Example]
The third embodiment is a system in which the input device 10 of the present invention is used to control mouse operations. This system will be described below, but as the input device 10 has been described in the first and second embodiments, a duplicate description will be omitted.

図示は省略するが、第3実施例のシステムは、第1実施例のシステム400において、視線入力装置22を削除し、第2実施例の入力装置10を用いたものである。 Although not shown in the figures, the system of the third embodiment is the system 400 of the first embodiment in which the eye-gaze input device 22 has been removed and the input device 10 of the second embodiment is used.

したがって、ユーザ端末20は、入力装置10からの押下動作およびクリック動作に基づいて、マウスカーソルの位置を制御すなわち移動を制御するとともに、左側のクリック動作および右側のクリック動作に基づいてコマンドを実行する。 The user terminal 20 therefore controls the position, i.e., movement, of the mouse cursor based on pressing and clicking operations from the input device 10, and executes commands based on left-clicking and right-clicking operations.

具体的には、第3実施例では、ユーザ端末20のCPU20aは、図18に示すマウス動作の処理を実行する。第1実施例で説明したソフトウェアキーボードが表示されているものとするが、ソフトウェアキーボードは表示されなくてもよい。また、マウス動作処理は、所定のアプリケーションと並行して実行される。 Specifically, in the third embodiment, the CPU 20a of the user terminal 20 executes the mouse operation process shown in FIG. 18. It is assumed that the software keyboard described in the first embodiment is displayed, but the software keyboard does not have to be displayed. In addition, the mouse operation process is executed in parallel with a predetermined application.

図18に示すように、CPU20aは、マウス動作を開始すると、ステップS121で、上下左右のいずれかの押下動作が第3所定時間(たとえば、1秒)以上継続しているかどうかを判断する。 As shown in FIG. 18, when the CPU 20a starts mouse operation, in step S121 it determines whether the pressing of any of the up, down, left, and right buttons continues for a third predetermined time (e.g., one second) or more.

ステップS121で“NO”であれば、上下左右のいずれの押下動作も第3所定時間以上継続していなければ、ステップS125に進む。ただし、ステップS121では、上下左右のいずれの押下動作も行われていない場合も、“NO”と判断される。 If the answer is "NO" in step S121, and if no pressing action to the top, bottom, left, or right continues for more than the third predetermined time, proceed to step S125. However, in step S121, if no pressing action to the top, bottom, left, or right is performed, it is also determined to be "NO".

一方、ステップS121で“YES”であれば、つまり、上下左右のいずれかの押下動作が第3所定時間以上継続していれば、ステップS123で、押下動作が第3所定時間以上継続した方向にマウスカーソルを移動させて、ステップS121に戻る。 On the other hand, if step S121 returns "YES," meaning that the pressing action in either the up, down, left, or right direction continues for a third predetermined time or longer, then in step S123, the mouse cursor is moved in the direction in which the pressing action continued for a third predetermined time or longer, and the process returns to step S121.

ステップS125では、マウスカーソルの移動速度を0に設定する。次のステップS127では、左側のクリック動作が有るかどうかを判断する。ステップS127で“NO”であれば、つまり、左側のクリック動作が無ければ、ステップS129で、右側のクイック動作が有るかどうかを判断する。 In step S125, the mouse cursor movement speed is set to 0. In the next step S127, it is determined whether or not a left click action has been performed. If the answer is "NO" in step S127, that is, if a left click action has not been performed, then in step S129, it is determined whether or not a right quick action has been performed.

ステップS129で“NO”であれば、つまり、右側のクリック動作も無ければ、ステップS121に戻る。一方、ステップS129で“YES”であれば、つまり、右側のクリック動作が有れば、ステップS131で、右側のクリックコマンドを実行して、ステップS121に戻る。たとえば、ステップS131では、文字入力が実行されている場合には、第1実施例で説明したように、一文字削除したり、マウスカーソルが所定のアプリケーションの実行画面に表示されたボタンを指示している場合には、そのボタンのプロパティをディスプレイに表示したりする。 If step S129 is "NO", that is, if there has been no right-click action, the process returns to step S121. On the other hand, if step S129 is "YES", that is, if there has been a right-click action, the process executes a right-click command in step S131 and returns to step S121. For example, in step S131, if character input is being performed, one character is deleted as described in the first embodiment, or if the mouse cursor is pointing to a button displayed on the execution screen of a specified application, the properties of that button are displayed on the display.

また、ステップS127で“YES”であれば、つまり、左側のクリック動作があれば、ステップS133で、マウスカーソルが所定のアプリケーションの終了ボタン上であるかどうかを判断する。 Also, if the answer is "YES" in step S127, that is, if a left click has been performed, then in step S133 it is determined whether the mouse cursor is over the end button of a specific application.

ステップS133で“NO”であれば、つまり、マウスカーソルが所定のアプリケーションの終了ボタン上でなければ、ステップS135で、左側のクリックコマンドを実行して、ステップS121に戻る。たとえば、ステップS135では、ソフトウェアキーによって文字が入力されたり、所定のアプリケーションの実行画面に設けられたボタンに割り当てられた機能が実行されたりする。 If the answer is "NO" in step S133, that is, if the mouse cursor is not on the end button of the specified application, a left click command is executed in step S135, and the process returns to step S121. For example, in step S135, characters are entered using a software key, or a function assigned to a button on the execution screen of the specified application is executed.

一方、ステップS133で“YES”であれば、つまり、マウスカーソルが所定のアプリケーションの終了ボタン上であれば、ステップS137で、所定のアプリケーションの終了を指示して、マウス動作の処理を終了する。 On the other hand, if the answer is "YES" in step S133, that is, if the mouse cursor is on the end button of a specific application, in step S137, an instruction to end the specific application is issued, and the mouse operation processing ends.

第3実施例によれば、第1実施例と同様の効果を奏するとともに、マウスカーソルの移動およびクリック動作によるコマンドの実行を行うことができる。 The third embodiment achieves the same effects as the first embodiment, and also allows commands to be executed by moving the mouse cursor and clicking.

なお、上記の各実施例で示した具体的な数値および制御方法は単なる例示であり、限定される必要は無く、実際の製品および製品が適用される環境などに応じて適宜変更可能である。 Note that the specific numerical values and control methods shown in each of the above examples are merely examples and are not limited to these, and can be modified as appropriate depending on the actual product and the environment in which the product is used.

10 …入力装置
12 …頬動作検出装置
14、32、 …コンピュータ
20 …ユーザ端末
22 …視線入力装置
30 …車椅子
400、500 …システム
REFERENCE SIGNS LIST 10 Input device 12 Cheek movement detection device 14, 32, Computer 20 User terminal 22 Line-of-sight input device 30 Wheelchair 400, 500 System

Claims (6)

ユーザの少なくとも頬の一部を覆い、変形可能なシート状の被覆部、
前記被覆部の前記ユーザの顔の接触する側に取り付けられ、少なくとも前記ユーザの左頬の動作および右頬の動作を検出可能な検出部、および
前記検出部によって検出された前記ユーザの左頬の動作に基づく操作データまたは/および右頬の動作に基づく操作データを生成する生成部を備える、入力装置。
A deformable sheet-like covering portion that covers at least a portion of the cheek of the user;
an input device comprising: a detection unit attached to a side of the covering unit that comes into contact with the user's face, the detection unit being capable of detecting at least a left cheek movement and a right cheek movement of the user; and a generation unit that generates operation data based on the left cheek movement and/or the right cheek movement of the user detected by the detection unit.
前記生成部によって生成された操作データを外部のコンピュータに送信する送信部をさらに備える、請求項1記載の入力装置。 The input device according to claim 1, further comprising a transmission unit that transmits the operation data generated by the generation unit to an external computer. 前記検出部は、2つの静電容量型タッチセンサであり、
前記2つの静電容量型タッチセンサは、前記被覆部の左右にそれぞれ配置され、前記ユーザの左頬または/および右頬の動作を検出する、請求項1または2記載の入力装置。
the detection unit is two capacitive touch sensors,
The input device according to claim 1 , wherein the two capacitive touch sensors are disposed on the left and right sides of the covering portion, respectively, and detect motion of the left cheek and/or the right cheek of the user.
前記検出部は、4つの静電容量型タッチセンサを含み、
前記4つの静電容量型タッチセンサは、前記被覆部の上下左右にそれぞれ配置され、前記ユーザの左頬、右頬、人中および顎の少なくとも1つの動作を検出し、
前記生成部は、前記4つの静電容量型タッチセンサによって検出された、前記ユーザの左頬の動作に基づく操作データ、前記ユーザの右頬の動作に基づく操作データ、前記ユーザの人中の動作に基づく操作データ、および前記ユーザの顎の動作に基づく操作データの少なくとも1つを生成する、請求項1または2記載の入力装置。
the detection unit includes four capacitive touch sensors;
The four capacitive touch sensors are arranged on the top, bottom, left and right of the covering portion, respectively, and detect at least one movement of the left cheek, right cheek, philtrum and chin of the user;
3. The input device according to claim 1, wherein the generation unit generates at least one of operation data based on the movement of the user's left cheek, operation data based on the movement of the user's right cheek, operation data based on the movement of the user's philtrum, and operation data based on the movement of the user's jaw detected by the four capacitive touch sensors.
前記静電容量型タッチセンサは、
導電性の糸を編んで形成された第1布と絶縁性の糸を編んで形成された第2布を重ね合わせた導電性布、
前記第1布と同じ大きさを有し、当該第1布に重ねて貼り付けた絶縁シート、および
前記第1布と電気的に接続された静電容量センサICを備える、請求項3または4記載の入力装置。
The capacitive touch sensor includes:
A conductive cloth in which a first cloth formed by knitting a conductive thread and a second cloth formed by knitting an insulating thread are overlapped with each other;
The input device according to claim 3 or 4, further comprising: an insulating sheet having the same size as the first cloth and attached to the first cloth; and a capacitance sensor IC electrically connected to the first cloth.
前記導電性布は、伸縮性を有する、請求項5記載の入力装置。 The input device according to claim 5, wherein the conductive cloth is stretchable.
JP2021023076A 2021-02-17 2021-02-17 Input Devices Active JP7627485B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021023076A JP7627485B2 (en) 2021-02-17 2021-02-17 Input Devices

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021023076A JP7627485B2 (en) 2021-02-17 2021-02-17 Input Devices

Publications (2)

Publication Number Publication Date
JP2022125479A JP2022125479A (en) 2022-08-29
JP7627485B2 true JP7627485B2 (en) 2025-02-06

Family

ID=83058336

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021023076A Active JP7627485B2 (en) 2021-02-17 2021-02-17 Input Devices

Country Status (1)

Country Link
JP (1) JP7627485B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115589555A (en) * 2022-10-09 2023-01-10 深圳市新恒声电子科技有限公司 Helmet Bluetooth headset capable of automatically answering call

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010134057A (en) 2008-12-02 2010-06-17 Brother Ind Ltd Head-mounted display
US20160048235A1 (en) 2014-08-15 2016-02-18 Google, Inc. Interactive Textiles
JP2020176362A (en) 2019-04-16 2020-10-29 株式会社ネットアプリ Mask with display

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04225385A (en) * 1990-12-26 1992-08-14 Shuzo Ito Communication method for physically handicapped

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010134057A (en) 2008-12-02 2010-06-17 Brother Ind Ltd Head-mounted display
US20160048235A1 (en) 2014-08-15 2016-02-18 Google, Inc. Interactive Textiles
JP2017524181A (en) 2014-08-15 2017-08-24 グーグル インコーポレイテッド Interactive textile
JP2020176362A (en) 2019-04-16 2020-10-29 株式会社ネットアプリ Mask with display

Also Published As

Publication number Publication date
JP2022125479A (en) 2022-08-29

Similar Documents

Publication Publication Date Title
US12175053B2 (en) Method and apparatus for ego-centric 3D human computer interface
Surale et al. Experimental analysis of barehand mid-air mode-switching techniques in virtual reality
JP7191714B2 (en) Systems and methods for direct pointing detection for interaction with digital devices
KR101620777B1 (en) Enhanced virtual touchpad and touchscreen
US10254844B2 (en) Systems, methods, apparatuses, computer readable medium for controlling electronic devices
TWI483143B (en) Hybrid pointing device
WO2018187171A1 (en) Methods and systems for hand tracking
JP6932267B2 (en) Controller device
WO2011119154A1 (en) Gesture mapping for display device
US20150057804A1 (en) Method for operating an industrial robot
US20150123891A1 (en) Methods for automatically assessing user handedness in computer systems and the utilization of such information
US20100134409A1 (en) Three-dimensional user interface
WO2015091638A1 (en) Method for providing user commands to an electronic processor and related processor program and electronic circuit.
US10268282B2 (en) Foot-operated touchpad system and operation method thereof
JP7627485B2 (en) Input Devices
KR20250005559A (en) Electronic apparatus and program
CN117784926A (en) Control device, control method, and computer-readable storage medium
CN108536285B (en) Mouse interaction method and system based on eye movement recognition and control
CN106796462B (en) Determining a position of an input object
JP2025104251A (en) How to achieve realistic typing or touch
CN118170259B (en) Screen interaction method and device based on gesture control, electronic equipment and medium
CN117093078B (en) System for inputting by hand in three-dimensional space
CN118470063A (en) Cockpit man-machine interaction method based on multi-vision sensing human body tracking
WO2023234822A1 (en) An extended-reality interaction system
JP7517099B2 (en) Information processing device, display system, information processing method, and program

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20210305

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20241203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250120

R150 Certificate of patent or registration of utility model

Ref document number: 7627485

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150