[go: up one dir, main page]

JP6147149B2 - Screen input operation device - Google Patents

Screen input operation device Download PDF

Info

Publication number
JP6147149B2
JP6147149B2 JP2013184642A JP2013184642A JP6147149B2 JP 6147149 B2 JP6147149 B2 JP 6147149B2 JP 2013184642 A JP2013184642 A JP 2013184642A JP 2013184642 A JP2013184642 A JP 2013184642A JP 6147149 B2 JP6147149 B2 JP 6147149B2
Authority
JP
Japan
Prior art keywords
parameter
gesture
unit
correction
button
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013184642A
Other languages
Japanese (ja)
Other versions
JP2015052865A (en
Inventor
昇吾 米山
昇吾 米山
晃 御田村
晃 御田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2013184642A priority Critical patent/JP6147149B2/en
Publication of JP2015052865A publication Critical patent/JP2015052865A/en
Application granted granted Critical
Publication of JP6147149B2 publication Critical patent/JP6147149B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Description

この発明は、タッチパネルに対するジェスチャーにより入力を行う画面入力操作装置の誤操作を抑制する技術に関する。   The present invention relates to a technique for suppressing erroneous operation of a screen input operation device that performs input by a gesture on a touch panel.

従来、直感的な入力操作が可能な入力操作装置として、タッチパネルに触れるジェスチャーにより入力操作を行う画面入力操作装置がある。このような画面入力操作装置によれば、直感的な操作が可能である一方、タッチパネルの面積が小さかったり、タッチパネルがユーザから遠いところに設置されていたりすると、ユーザが所望の位置にタッチすることが困難で、誤操作を行ってしまうという問題がある。   2. Description of the Related Art Conventionally, as an input operation device capable of intuitive input operation, there is a screen input operation device that performs an input operation by a gesture touching a touch panel. According to such a screen input operation device, while intuitive operation is possible, when the area of the touch panel is small or the touch panel is installed at a location far from the user, the user touches a desired position. However, it is difficult to perform an erroneous operation.

特に、カーナビゲーション装置等、車両等の移動体に搭載された画面入力操作装置では、移動体の走行に伴い発生する振動や加速度の変化によって、ユーザが所望の位置にタッチすることはより一層困難であり、誤操作が起こりやすい。   In particular, in a screen input operation device mounted on a moving body such as a vehicle such as a car navigation device, it is even more difficult for a user to touch a desired position due to a change in vibration or acceleration that occurs as the moving body travels. It is easy to make mistakes.

この問題に対して、特許文献1に開示された画面入力操作装置は、車両の振動が所定の強度を超えると操作ボタン画像とその反応領域を縦方向に拡大することにより、縦方向の振動下でも所望の操作ボタンを選択しやすくしている。   With respect to this problem, the screen input operation device disclosed in Patent Document 1 expands the operation button image and its reaction area in the vertical direction when the vibration of the vehicle exceeds a predetermined intensity, thereby reducing the vibration in the vertical direction. However, it is easy to select a desired operation button.

特開2008−265544号公報JP 2008-265544 A

しかしながら、車両の振動以外にもユーザが誤操作を行う原因となるものは様々存在し、更なる誤操作の抑制が求められていた。本発明は上述の問題に鑑みてなされたものであり、操作履歴を考慮して操作の内容を判定する画面入力操作装置の提供を目的とする。   However, there are various factors that cause the user to perform an erroneous operation other than the vibration of the vehicle, and further suppression of the erroneous operation has been demanded. The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a screen input operation device that determines an operation content in consideration of an operation history.

本発明の画面入力操作装置は、画面に対するジェスチャーにより入力を行う、移動体に搭載された画面入力操作装置であって、ジェスチャーを受け付け、ジェスチャーにおける画面上のタッチ位置をジェスチャー情報として出力する操作受付部と、ジェスチャーの内容を判定するためのパラメータであるジェスチャーパラメータを記憶するパラメータ記憶部と、ユーザの操作頻度に基づきジェスチャーパラメータを補正ジェスチャーパラメータとして補正するパラメータ補正部と、ジェスチャー情報を補正ジェスチャーパラメータと照合してジェスチャーの内容を判定するジェスチャー判定部と、を備え、ジェスチャーパラメータは、ジェスチャーの種別を判定するための種別判定パラメータを含むThe screen input operation device of the present invention is a screen input operation device mounted on a moving body that performs input by a gesture on a screen, and accepts an operation, and accepts an operation to output a touch position on the screen in the gesture as gesture information. parts and a parameter storage unit for storing a gesture parameter is a parameter for determining the content of the gesture, a parameter correction unit which corrects the gesture parameters based on the operation frequency of the user as correction gesture parameters, corrects the gesture information gesture parameters A gesture determination unit that determines the content of the gesture by comparing with the above, and the gesture parameter includes a type determination parameter for determining the type of gesture .

本発明の画面入力操作装置は、画面に対するジェスチャーにより入力を行う、移動体に搭載された画面入力操作装置であって、ジェスチャーを受け付け、ジェスチャーにおける画面上のタッチ位置をジェスチャー情報として出力する操作受付部と、ジェスチャーの内容を判定するためのパラメータであるジェスチャーパラメータを記憶するパラメータ記憶部と、ユーザの操作頻度に基づきジェスチャーパラメータを補正ジェスチャーパラメータとして補正するパラメータ補正部と、ジェスチャー情報を補正ジェスチャーパラメータと照合してジェスチャーの内容を判定するジェスチャー判定部と、を備え、ジェスチャーパラメータは、ジェスチャーの種別を判定するための種別判定パラメータを含む。したがって、操作頻度を考慮して操作の内容を判定することで、誤操作を抑制することができる。
The screen input operation device of the present invention is a screen input operation device mounted on a moving body that performs input by a gesture on a screen, and accepts an operation, and accepts an operation to output a touch position on the screen in the gesture as gesture information. parts and a parameter storage unit for storing a gesture parameter is a parameter for determining the content of the gesture, a parameter correction unit which corrects the gesture parameters based on the operation frequency of the user as correction gesture parameters, corrects the gesture information gesture parameters A gesture determination unit that determines the content of the gesture by comparing with the above, and the gesture parameter includes a type determination parameter for determining the type of gesture . Therefore, erroneous operation can be suppressed by determining the content of the operation in consideration of the operation frequency .

実施の形態1に係る画面入力操作装置の構成図である。1 is a configuration diagram of a screen input operation device according to Embodiment 1. FIG. 実施の形態1に係る画面入力操作装置の動作を示すフローチャートである。4 is a flowchart showing an operation of the screen input operation device according to the first embodiment. 実施の形態1に係る画面入力操作装置の画面表示例を示す図である。6 is a diagram illustrating a screen display example of the screen input operation device according to Embodiment 1. FIG. 実施の形態1に係る画面入力操作装置の画面表示例を示す図である。6 is a diagram illustrating a screen display example of the screen input operation device according to Embodiment 1. FIG. 実施の形態1に係る画面入力操作装置の画面表示例を示す図である。6 is a diagram illustrating a screen display example of the screen input operation device according to Embodiment 1. FIG. 反応領域パラメータを示す図である。It is a figure which shows the reaction area | region parameter. ボタン選択履歴を示す図である。It is a figure which shows a button selection log | history. 最頻出ボタン反応領域補正パラメータを示す図である。It is a figure which shows the most frequent button reaction area | region correction parameter. 車両情報に応じた反応領域補正パラメータと種別判定補正パラメータのパラメータ番号を示す図である。It is a figure which shows the parameter number of the reaction area correction parameter according to vehicle information, and a classification determination correction parameter. ジェスチャー履歴を示す図である。It is a figure which shows a gesture history. 種別判定パラメータを示す図である。It is a figure which shows a classification determination parameter. 最頻出ジェスチャー種別判定補正パラメータを示す図である。It is a figure which shows the most frequent gesture classification determination correction parameter. 操作履歴に基づく補正後の種別判定パラメータを示す図である。It is a figure which shows the classification determination parameter after correction | amendment based on an operation history. 種別判定補正パラメータを示す図である。It is a figure which shows a classification determination correction parameter. 車両情報に基づく補正後の種別判定パラメータを示す図である。It is a figure which shows the classification determination parameter after correction | amendment based on vehicle information. 実施の形態1の変形例に係る画面入力操作装置の構成図である。6 is a configuration diagram of a screen input operation device according to a modification of the first embodiment. FIG. 実施の形態1の変形例に係る画面入力操作装置の画面表示例を示す図である。FIG. 11 is a diagram showing a screen display example of a screen input operation device according to a modification of the first embodiment.

<A.実施の形態1>
<A−1.構成>
図1に、本発明の実施の形態1に係る画面入力操作装置100の構成を示す。以下、画面入力操作装置100を車両に搭載されるものとして説明するが、車両以外の移動体に搭載されるものであっても良い。
<A. Embodiment 1>
<A-1. Configuration>
FIG. 1 shows the configuration of a screen input operation device 100 according to Embodiment 1 of the present invention. Hereinafter, although screen input operation device 100 is explained as what is carried in vehicles, it may be carried in vehicles other than vehicles.

画面入力操作装置100は、操作受付部10、車両情報取得部20、操作履歴格納部30、パラメータ記憶部40、パラメータ補正部50、ジェスチャー判定部60、表示制御部70、および表示部80を備えている。   The screen input operation device 100 includes an operation receiving unit 10, a vehicle information acquisition unit 20, an operation history storage unit 30, a parameter storage unit 40, a parameter correction unit 50, a gesture determination unit 60, a display control unit 70, and a display unit 80. ing.

操作受付部10、表示部80は、それぞれ画面入力操作装置100の入力インタフェース、出力インタフェースである。操作受付部10はタッチパッドで実現され、タッチ位置やタッチした時間等、ユーザのジェスチャーに関する情報(ジェスチャー情報)を後述のジェスチャー判定部60に出力する。表示部80は液晶パネルなどの画像表示装置により実現される。また、表示部80を実現する画像表示装置は、操作受付部10を実現するタッチパッドと共にタッチパネルを構成する。   The operation reception unit 10 and the display unit 80 are an input interface and an output interface of the screen input operation device 100, respectively. The operation reception unit 10 is realized by a touch pad, and outputs information related to the user's gesture (gesture information) such as a touch position and a touch time to the gesture determination unit 60 described later. The display unit 80 is realized by an image display device such as a liquid crystal panel. Further, the image display device that realizes the display unit 80 constitutes a touch panel together with the touch pad that realizes the operation accepting unit 10.

車両情報取得部20は、車両に設けられた加速度センサ等の各種センサや、図示しない地図データ格納部と接続した通信インタフェースであり、これらの接続先から車両情報を取得して後述のパラメータ補正部50に出力する。ここで車両情報とは、画面入力操作装置100が搭載されている車両に関する情報であり、例えば車両の振動方向、車両の走行速度の他、車両が走行する道路の種類(高速道、一般道)についての情報である。走行中の道路の種類は、例えばGPS(Global Positioning System)信号から取得した車両の現在位置と地図データを照合することにより取得することができる。   The vehicle information acquisition unit 20 is a communication interface connected to various sensors such as an acceleration sensor provided in the vehicle and a map data storage unit (not shown). The vehicle information acquisition unit 20 acquires vehicle information from these connection destinations to obtain a parameter correction unit described later. Output to 50. Here, the vehicle information is information related to the vehicle on which the screen input operation device 100 is mounted. For example, in addition to the vibration direction of the vehicle and the traveling speed of the vehicle, the type of road on which the vehicle travels (highway, general road) Information about. The type of road that is running can be acquired by collating the current position of the vehicle acquired from, for example, a GPS (Global Positioning System) signal with map data.

操作履歴格納部30は、HDD(Hard disk drive)、半導体メモリ、SDメモリカードなどの記憶媒体により実現され、操作履歴を記憶する。操作履歴には、ユーザの画面ごとのボタン選択割合を示すボタン選択履歴(図7に後述)と、ボタンごとに実施されるジェスチャーの種別割合を示すジェスチャー履歴(図10に後述)がある。これらは、後述するジェスチャー判定部60がユーザの入力操作を判定する度に随時更新される。   The operation history storage unit 30 is realized by a storage medium such as a hard disk drive (HDD), a semiconductor memory, or an SD memory card, and stores an operation history. The operation history includes a button selection history (described later in FIG. 7) indicating the button selection ratio for each screen of the user and a gesture history (described later in FIG. 10) indicating the type ratio of the gesture performed for each button. These are updated as needed whenever a gesture determination unit 60 described later determines a user input operation.

パラメータ記憶部40は、HDD、半導体メモリ、SDメモリカードなどの記憶媒体により実現され、ジェスチャーパラメータ41、補正パラメータ42を記憶している。ジェスチャーパラメータ41には、表示部80に表示される各ボタンの反応領域を規定する反応領域パラメータ(図6に後述)と、ジェスチャー操作の種別を判定するための各種要素の閾値を示す種別判定パラメータ(図11に後述)とがある。ボタンの反応領域とは、ユーザが表示部80のタッチパッドをタッチしたときに当該ボタンを選択したと判定する、タッチパッド上の領域のことである。   The parameter storage unit 40 is realized by a storage medium such as an HDD, a semiconductor memory, or an SD memory card, and stores a gesture parameter 41 and a correction parameter 42. The gesture parameter 41 includes a reaction region parameter (described later in FIG. 6) that defines the reaction region of each button displayed on the display unit 80, and a type determination parameter that indicates threshold values of various elements for determining the type of gesture operation. (Described later in FIG. 11). The button reaction area is an area on the touch pad that is determined to be selected when the user touches the touch pad of the display unit 80.

補正パラメータ42は、ジェスチャーパラメータ41の補正量を規定するパラメータである。車両情報に基づく補正パラメータ42として、反応領域パラメータの補正量を示す反応領域補正パラメータ(図9に後述)と、種別判定パラメータの補正量を示す種別判定補正パラメータ(図9,14に後述)とがある。また、操作履歴に基づく補正パラメータとして、最頻出ボタン反応領域補正パラメータ(図8に後述)と、最頻出ジェスチャー種別判定補正パラメータ(図12に後述)とがある。   The correction parameter 42 is a parameter that defines the correction amount of the gesture parameter 41. As the correction parameter 42 based on the vehicle information, a reaction region correction parameter indicating the correction amount of the reaction region parameter (described later in FIG. 9), a type determination correction parameter indicating the correction amount of the type determination parameter (described later in FIGS. 9 and 14), and There is. In addition, as the correction parameters based on the operation history, there are a most frequent button response region correction parameter (described later in FIG. 8) and a most frequent gesture type determination correction parameter (described later in FIG. 12).

パラメータ補正部50は、車両情報取得部20から車両情報を、操作履歴格納部30から操作履歴をそれぞれ取得し、これらの情報に基づき補正パラメータ42を用いてジェスチャーパラメータ41を補正する。パラメータ補正部50は、反応領域パラメータ補正部51と、種別判定パラメータ補正部52を備えている。反応領域パラメータ補正部51は、反応領域補正パラメータと最頻出ボタン反応領域補正パラメータによって反応領域パラメータを補正する。種別判定パラメータ補正部52は、種別判定補正パラメータと最頻出ジェスチャー種別判定補正パラメータによって種別判定パラメータを補正する。   The parameter correction unit 50 acquires vehicle information from the vehicle information acquisition unit 20 and operation history from the operation history storage unit 30, and corrects the gesture parameter 41 using the correction parameter 42 based on these information. The parameter correction unit 50 includes a reaction region parameter correction unit 51 and a type determination parameter correction unit 52. The reaction region parameter correction unit 51 corrects the reaction region parameter by using the reaction region correction parameter and the most frequent button reaction region correction parameter. The type determination parameter correction unit 52 corrects the type determination parameter using the type determination correction parameter and the most frequent gesture type determination correction parameter.

ジェスチャー判定部60は、操作受付部10から取得したジェスチャー情報を、パラメータ補正部50から取得した補正後の反応領域パラメータおよび種別判定パラメータと照合し、ユーザのジェスチャー内容を判定する。ジェスチャー内容とは、ユーザの選択ボタンと、選択ボタンに対するジェスチャー種別のことである。ジェスチャー判定部60は、判定したジェスチャー内容を表示制御部70と操作履歴格納部30に出力する。そして、操作履歴格納部30はジェスチャー内容を受けて操作履歴を更新する。   The gesture determination unit 60 collates the gesture information acquired from the operation reception unit 10 with the corrected reaction region parameter and type determination parameter acquired from the parameter correction unit 50, and determines the user's gesture content. The gesture content is a user selection button and a gesture type for the selection button. The gesture determination unit 60 outputs the determined gesture content to the display control unit 70 and the operation history storage unit 30. Then, the operation history storage unit 30 receives the gesture content and updates the operation history.

表示制御部70は、表示部80における表示を制御する。表示制御部70は、パラメータ記憶部40に記憶された反応領域パラメータに基づきボタンの表示を行う。具体的には、表示領域が反応領域パラメータにより規定されるボタンの反応領域と一致するように、ボタンの表示を行う。また、ジェスチャー判定部60が判定した操作内容を取得した場合には、当該操作内容に基づき、表示部80における表示を制御する。   The display control unit 70 controls display on the display unit 80. The display control unit 70 displays buttons based on the reaction region parameters stored in the parameter storage unit 40. Specifically, the buttons are displayed so that the display area matches the reaction area of the button defined by the reaction area parameter. When the operation content determined by the gesture determination unit 60 is acquired, the display on the display unit 80 is controlled based on the operation content.

パラメータ補正部50及びジェスチャー判定部60は、メモリに記憶されたプログラムを実行するCPU(Central Processing Unit)により実現する。表示制御部70は、メモリに記憶されたプログラムを実行するCPUやGPU(Graphics Processing Unit)により実現する。   The parameter correction unit 50 and the gesture determination unit 60 are realized by a CPU (Central Processing Unit) that executes a program stored in the memory. The display control unit 70 is realized by a CPU or a GPU (Graphics Processing Unit) that executes a program stored in the memory.

<A−2.操作ボタンの判定>
図2に、本発明の実施の形態1に係る画面入力操作装置100の動作のフローチャートを示す。図3〜5は、画面入力操作装置100の画面表示例であって、ボタンB,Dが表示された表示部80の画面上でドラッグ操作が行われたときの、ボタンB,Dの反応領域の変化を示している。なお、ボタンB,Dの表示位置は、図6に示す反応領域パラメータにより規定されている。反応領域パラメータは、ボタンの反応領域を規定するものであるが、後述する補正が行われる前の初期状態において反応領域は表示領域と一致する。
以下、図2のフローチャートに沿って、上記ドラッグ操作を受けた画面入力操作装置100の動作を説明する。
<A-2. Operation button judgment>
FIG. 2 shows a flowchart of the operation of the screen input operation device 100 according to Embodiment 1 of the present invention. 3 to 5 are screen display examples of the screen input operation device 100, and the reaction areas of the buttons B and D when a drag operation is performed on the screen of the display unit 80 on which the buttons B and D are displayed. Shows changes. The display positions of the buttons B and D are defined by the reaction region parameters shown in FIG. The reaction area parameter defines the reaction area of the button, but the reaction area coincides with the display area in an initial state before correction described later is performed.
The operation of the screen input operation device 100 that has received the drag operation will be described below with reference to the flowchart of FIG.

図3の矢印で示すように、ユーザが、座標(115,8)を起点にして右方向にドラッグ操作を行ったとする。操作受付部10はこのジェスチャーを検出し(ステップS1)、例えば、ジェスチャー情報「指数1、タッチパネル接触時間8ms、移動距離30dot、座標(115,8)」をジェスチャー判定部60に送る。   Assume that the user performs a drag operation in the right direction starting from the coordinates (115, 8) as indicated by an arrow in FIG. The operation reception unit 10 detects this gesture (step S1), and sends, for example, gesture information “index 1, touch panel touch time 8 ms, movement distance 30 dots, coordinates (115, 8)” to the gesture determination unit 60.

次に、パラメータ補正部50が、車両情報取得部20から車両情報を、操作履歴格納部30から操作履歴をそれぞれ取得する(ステップS2)。   Next, the parameter correction unit 50 acquires the vehicle information from the vehicle information acquisition unit 20 and the operation history from the operation history storage unit 30 (step S2).

反応領域パラメータ補正部51は、表示部80の現画面に表示されているボタンの中で、これまでにユーザが最も高い頻度で選択してきたボタン(以下、「最頻出ボタン」と称する)を、操作履歴に基づき判定する(ステップS3)。ここで用いる操作履歴は、図7に例示するボタン選択履歴である。ボタン選択履歴は、表示部80が表示する各画面(画面1〜3)について、ユーザがこれまでに選択したボタン(ボタンA〜D)の割合を示している。現在の表示画面は図7の画面2にあたり、画面2の中ではボタンBが最も高頻度(60%)に選択されている。したがって、反応領域パラメータ補正部51はボタンBを最頻出ボタンとする。   The reaction region parameter correction unit 51 selects a button that has been selected by the user with the highest frequency so far among the buttons displayed on the current screen of the display unit 80 (hereinafter, referred to as “most frequent button”). A determination is made based on the operation history (step S3). The operation history used here is the button selection history illustrated in FIG. The button selection history indicates the ratio of buttons (buttons A to D) that the user has selected so far for each screen (screens 1 to 3) displayed by the display unit 80. The current display screen corresponds to the screen 2 in FIG. 7. In the screen 2, the button B is selected most frequently (60%). Therefore, the reaction region parameter correction unit 51 sets the button B as the most frequent button.

次に、反応領域パラメータ補正部51は、最頻出ボタンBの反応領域を補正する(ステップS4)。具体的には、パラメータ記憶部40から、ジェスチャーパラメータ41として反応領域パラメータを、補正パラメータ42として最頻出ボタン反応領域補正パラメータを取得し、最頻出ボタン反応領域補正パラメータを用いて反応領域パラメータを補正する。   Next, the reaction region parameter correction unit 51 corrects the reaction region of the most frequently appearing button B (step S4). Specifically, the reaction area parameter is acquired from the parameter storage unit 40 as the gesture parameter 41, the most frequent button reaction area correction parameter is acquired as the correction parameter 42, and the reaction area parameter is corrected using the most frequent button reaction area correction parameter. To do.

図6は、ボタンA〜Dの反応領域パラメータを示している。ここには反応領域が矩形形状の場合の例を示しており、反応領域パラメータは、反応領域の左上頂点のX座標およびY座標、反応領域の幅(W)および高さ(H)という4項目からなる。図8は、最頻出ボタン反応領域補正パラメータを示している。最頻出ボタン反応領域補正パラメータは、反応領域パラメータの4項目に対する補正量を示している。   FIG. 6 shows the reaction region parameters for buttons A-D. Here, an example in the case where the reaction area is rectangular is shown, and the reaction area parameters include four items, that is, the X coordinate and Y coordinate of the upper left vertex of the reaction area, and the width (W) and height (H) of the reaction area. Consists of. FIG. 8 shows the most frequent button response region correction parameter. The most frequent button reaction region correction parameter indicates a correction amount for the four items of the reaction region parameter.

図8によれば、最頻出ボタンBの反応領域補正パラメータは、幅と高さがそれぞれ+5dotである。したがって、図6に示すボタンBの反応領域パラメータの幅と高さにそれぞれ5dotを加算し、ボタンBの反応領域は幅と高さがそれぞれ105dotになる。最頻出ボタン反応領域補正パラメータによる補正後の反応領域を図4に点線枠で示す。   According to FIG. 8, the response region correction parameter of the most frequently appearing button B has a width and a height of +5 dots, respectively. Accordingly, 5 dots are added to the width and height of the reaction area parameter of the button B shown in FIG. 6, and the width and height of the reaction area of the button B are 105 dots, respectively. FIG. 4 shows a response region after correction by the most frequently used button response region correction parameter by a dotted frame.

次に、車両情報に基づき表示中の各ボタンの反応領域を補正する(ステップS5)。図9は、車両情報の各項目に応じた、反応領域補正パラメータと、種別判定補正パラメータのパラメータ番号を示している。車両情報の項目には、縦方向振動、横方向振動、車両速度、道路種別(高速道又は一般道)がある。縦方向振動、横方向振動、車両速度については、閾値を超える場合に反応領域パラメータの補正と種別判定パラメータの補正(後述)を行う。また、種別判定補正パラメータのパラメータ番号についても後述する。   Next, the reaction area of each button being displayed is corrected based on the vehicle information (step S5). FIG. 9 shows the reaction region correction parameter and the parameter number of the type determination correction parameter corresponding to each item of the vehicle information. The items of vehicle information include longitudinal vibration, lateral vibration, vehicle speed, and road type (highway or general road). For the longitudinal vibration, the lateral vibration, and the vehicle speed, the reaction region parameter and the type determination parameter are corrected (described later) when the threshold value is exceeded. The parameter number of the type determination correction parameter will also be described later.

今、車両情報取得部20により縦方向の振動15が検出されているとすると、図9より縦方向の振動の閾値を超えている。縦方向振動が閾値を超えたときの反応領域補正パラメータは、上下共に+5dotである。したがって、ボタンBについては最頻出ボタン反応領域補正パラメータによる補正後の反応領域パラメータ(X座標:10、Y座標:10、幅:105dot、高さ:105dot)に対して、ボタンDについては図6に示す反応領域パラメータに対して、それぞれ、Y座標を−5し、高さを+10dotする。反応領域補正パラメータによる補正後の反応領域を図5に点線枠で示す。   Assuming that the vertical vibration 15 is detected by the vehicle information acquisition unit 20, the vertical vibration threshold is exceeded in FIG. The reaction region correction parameter when the vertical vibration exceeds the threshold value is +5 dots in both the upper and lower sides. Therefore, for the button B, the response region parameters (X coordinate: 10, Y coordinate: 10, width: 105 dots, height: 105 dots) after correction by the most frequent button response region correction parameter are shown, and for the button D, FIG. For the reaction region parameters shown in (1), the Y coordinate is -5 and the height is +10 dots. The reaction area after correction by the reaction area correction parameter is shown by a dotted frame in FIG.

ここでは、縦方向の振動のみを車両情報として考慮した。しかし、例えば横方向振動15に加えて車両速度が80km/hであるなど、車両情報の複数の項目について条件を満たす場合には、複数の項目につき反応領域パラメータを重ねて補正しても良いし、いずれか一つの項目につき反応領域パラメータを補正しても良い。   Here, only longitudinal vibration is considered as vehicle information. However, for example, when the condition is satisfied for a plurality of items of vehicle information such as the vehicle speed is 80 km / h in addition to the lateral vibration 15, the reaction region parameter may be corrected by overlapping the plurality of items. The reaction region parameter may be corrected for any one item.

図2に戻って、ジェスチャー判定部60が操作ボタンの判定を行う(ステップS6)。ここでジェスチャー判定部60は、操作受付部10から取得したジェスチャー情報をステップS5における補正後の反応領域パラメータと照合し、操作ボタンを判定する。図5に示すように、ジェスチャー操作の起点となる座標(115,8)は、操作履歴と車両情報に基づく補正後のボタンBの反応領域に含まれるので、ボタンBを操作ボタンと判定する。   Returning to FIG. 2, the gesture determination unit 60 determines the operation button (step S6). Here, the gesture determination unit 60 collates the gesture information acquired from the operation reception unit 10 with the corrected reaction region parameter in step S5, and determines an operation button. As shown in FIG. 5, since the coordinates (115, 8) that are the starting point of the gesture operation are included in the corrected response region of the button B based on the operation history and the vehicle information, the button B is determined as an operation button.

<A−3.ジェスチャー種別の判定>
次に、種別判定パラメータ補正部52は、操作履歴に基づき操作ボタンBに対する最頻出ジェスチャー種別を判定する(ステップS7)。最頻出ジェスチャー種別とは、操作ボタンに対してこれまでに行われたジェスチャーの中で、最も頻度の高いジェスチャーの種別のことである。ここで用いる操作履歴は、図10に示すジェスチャー履歴である。ジェスチャー履歴は、ジェスチャー種別の操作割合をボタン毎に示している。ジェスチャー種別には、タップ(タッチパネルを1回たたく動作)、プレス(タッチスクリーンに触れたまま静止する動作)、ドラッグ(タッチパネルに触れたまま指を移動する動作)、ピンチイン(タッチパネルに触れた2本の指の間隔を狭める動作)、ピンチアウト(タッチパネルに触れた2本の指の間隔を拡げる動作)、回転(タッチパネルに触れた2本の指の間隔を保ちながら、2本の指を時計回りまたは半時計まわりに回転する動作)がある。図10によれば、操作ボタンBに対して最も高頻度に行われるジェスチャーはドラッグ(90%)である。したがって、種別判定パラメータ補正部52はドラッグを最頻出ジェスチャー種別と判定する。
<A-3. Determination of gesture type>
Next, the type determination parameter correction unit 52 determines the most frequently used gesture type for the operation button B based on the operation history (step S7). The most frequent gesture type is the most frequently used gesture type among the gestures that have been performed on the operation buttons so far. The operation history used here is the gesture history shown in FIG. The gesture history indicates the operation ratio of the gesture type for each button. Gesture types include tap (touching the touch panel once), press (moving while touching the touch screen), drag (moving fingers while touching the touch panel), pinch-in (two touches on the touch panel) ), Pinch out (increase the distance between the two fingers touching the touch panel), rotate (rotate the two fingers clockwise while keeping the distance between the two fingers touching the touch panel) Or an operation that rotates counterclockwise). According to FIG. 10, the gesture most frequently performed on the operation button B is a drag (90%). Therefore, the type determination parameter correction unit 52 determines that the drag is the most frequent gesture type.

次に、種別判定パラメータ補正部52は、最頻出ジェスチャー種別であるドラッグの種別判定パラメータを補正する(ステップS8)。具体的には、パラメータ記憶部40から、ジェスチャーパラメータ41として種別判定パラメータを、補正パラメータ42として最頻出ジェスチャー種別判定補正パラメータを取得し、最頻出ジェスチャー種別判定補正パラメータを用いて種別判定パラメータを補正する。   Next, the type determination parameter correction unit 52 corrects the drag type determination parameter which is the most frequently used gesture type (step S8). Specifically, the type determination parameter is acquired as the gesture parameter 41 and the most frequently used gesture type determination correction parameter is acquired as the correction parameter 42 from the parameter storage unit 40, and the type determination parameter is corrected using the most frequent gesture type determination correction parameter. To do.

図11に種別判定パラメータを示す。ここでは種別判定パラメータとして、指数、タッチパネル接触時間、チャタリング許容時間、移動距離、指間隔、2指の変動距離という6項目を示している。移動距離は、タッチパネルに接触した状態で指が移動した距離のことである。指間隔は、タッチパネルに接触した2本の指の間隔のことであり、ピンチインやピンチアウトでは操作開始時の間隔を示している。ピンチイン(ピンチアウト)では、初めに2本の指でタッチパネルに接触し、接触したまま指の間隔を狭める(拡げる)動作をする。そのときの指の間隔の変動距離が、2指の変動距離である。   FIG. 11 shows the type determination parameters. Here, six items of index, touch panel contact time, chattering allowable time, movement distance, finger interval, and two-finger fluctuation distance are shown as type determination parameters. The movement distance is the distance that the finger has moved in contact with the touch panel. The finger interval is the interval between two fingers that have touched the touch panel, and pinch-in and pinch-out indicate the interval at the start of operation. In pinch-in (pinch-out), first, the touch panel is touched with two fingers, and the operation of narrowing (expanding) the distance between the fingers is performed. The fluctuation distance of the finger interval at that time is the fluctuation distance of two fingers.

図12に、最頻出ジェスチャー種別判定補正パラメータを示す。ここで最頻出ジェスチャー種別判定補正パラメータは、種別判定パラメータの上記6項目のうちチャタリング許容時間、移動距離、2指の変動距離についての補正量を示している。ドラッグ操作に関する最頻出ジェスチャー種別判定補正パラメータは、チャタリング許容時間が+2ms、移動距離が下限を−2dotである。したがって種別判定パラメータ補正部52は、ドラッグ操作に関する種別判定パラメータのチャタリング許容時間を2msから2ms加算して4msとし、移動距離の下限を5dotから2dot少なくして3dot以上とする。当該補正後の種別判定パラメータを図13に示す。このように種別判定パラメータを補正することにより、補正前に比べてジェスチャー種別がドラッグ操作であると判定されやすくしている。   FIG. 12 shows the most frequently used gesture type determination correction parameter. Here, the most frequently used gesture type determination correction parameter indicates a correction amount for the chattering allowable time, the moving distance, and the two-finger fluctuation distance among the above six items of the type determination parameter. The most frequently used gesture type determination correction parameter related to the drag operation has a chattering allowable time of +2 ms and a movement distance of −2 dots. Therefore, the type determination parameter correcting unit 52 adds the chattering allowable time of the type determination parameter related to the drag operation to 2 ms from 2 ms to 4 ms, and reduces the lower limit of the moving distance from 5 to 2 dots to 3 dots or more. The corrected type determination parameter is shown in FIG. By correcting the type determination parameter in this way, it is easier to determine that the gesture type is a drag operation than before the correction.

図2に戻って、種別判定パラメータ補正部52は、車両情報に基づき各ジェスチャーの種別判定パラメータを補正する(ステップS9)。ステップS5でも検討したように、今、車両情報取得部20により閾値を超えた縦方向の振動15が検出されているので、図9に基づきパラメータ番号1の種別判定補正パラメータを用いる。車両情報の種類によって対応するパラメータ番号の種別判定補正パラメータを用いる。   Returning to FIG. 2, the type determination parameter correction unit 52 corrects the type determination parameter of each gesture based on the vehicle information (step S9). As discussed in step S5, since the vertical vibration 15 exceeding the threshold value is detected by the vehicle information acquisition unit 20, the type determination correction parameter of parameter number 1 is used based on FIG. A parameter number type determination correction parameter corresponding to the type of vehicle information is used.

図14に、パラメータ番号1の種別判定補正パラメータを示している。種別判定パラメータ補正部52は、パラメータ番号1の種別判定補正パラメータを操作履歴による補正後の種別判定パラメータ(図13)に加算する。ここでは、全てのジェスチャー種別について種別判定パラメータを補正する。補正後の種別判定パラメータを図15に示す。   FIG. 14 shows the type determination correction parameter of parameter number 1. The type determination parameter correction unit 52 adds the type determination correction parameter of parameter number 1 to the type determination parameter after correction based on the operation history (FIG. 13). Here, the type determination parameters are corrected for all gesture types. FIG. 15 shows the type determination parameters after correction.

ここでは、縦方向の振動のみを車両情報として考慮した。しかし、例えば横方向振動15に加えて車両速度が80km/hであるなど、車両情報の複数の項目について条件を満たす場合には、複数の項目につき種別判定パラメータを重ねて補正しても良いし、いずれか一つの項目につき種別判定パラメータを補正しても良い。   Here, only longitudinal vibration is considered as vehicle information. However, for example, when the condition is satisfied for a plurality of items of vehicle information such as the vehicle speed is 80 km / h in addition to the lateral vibration 15, the type determination parameter may be corrected by overlapping the items. The type determination parameter may be corrected for any one item.

次に、ジェスチャー判定部60がジェスチャー種別の判定を行う(ステップS10)。ここでジェスチャー判定部60は、操作受付部10から取得したジェスチャー情報をステップS9における補正後の種別判定パラメータ(図15)と照合し、ジェスチャー情報が条件を満たすジェスチャー種別を判定する。ここで、ジェスチャー情報「指数1、タッチパネル接触時間8ms、移動距離30dot、座標(115,8)」を満たすジェスチャー種別はドラッグであるため、ジェスチャー判定部60はジェスチャー種別をドラッグと判定する。なお、プレスとドラッグで条件が重複しているが、ジェスチャー情報がプレスとドラッグ双方の条件を満たす場合は、例えば最頻出ジェスチャー種別であるドラッグを優先してジェスチャー種別と判定する。   Next, the gesture determination unit 60 determines the gesture type (step S10). Here, the gesture determination unit 60 collates the gesture information acquired from the operation reception unit 10 with the type determination parameter after correction in step S9 (FIG. 15), and determines a gesture type that satisfies the gesture information. Here, since the gesture type that satisfies the gesture information “index 1, touch panel touch time 8 ms, moving distance 30 dots, coordinates (115, 8)” is a drag, the gesture determination unit 60 determines the gesture type as a drag. In addition, although the conditions overlap between press and drag, when the gesture information satisfies both the press and drag conditions, for example, the most frequent gesture type is determined as the gesture type with priority.

ジェスチャー判定部は判定結果「操作ボタン:B、ジェスチャー種別:ドラッグ」を、操作履歴格納部30と表示制御部70に出力する。操作履歴格納部30では判定結果を受けて、反応領域パラメータ(図6)と種別判定パラメータ(図11)を更新する(ステップS11)。表示制御部70は表示部80における画像の表示を制御し、操作ボタンBに対するドラッグ操作を反映する表示が表示部80で行われる。   The gesture determination unit outputs the determination result “operation button: B, gesture type: drag” to the operation history storage unit 30 and the display control unit 70. The operation history storage unit 30 receives the determination result, and updates the reaction region parameter (FIG. 6) and the type determination parameter (FIG. 11) (step S11). The display control unit 70 controls display of an image on the display unit 80, and a display that reflects the drag operation on the operation button B is performed on the display unit 80.

<A−4.変形例>
実施の形態1に係る画面入力操作装置100は、ユーザのジェスチャー操作を検出した後(図3)に、操作履歴に基づきジェスチャーパラメータ41(反応領域パラメータおよび種別判定パラメータ)の補正を行った(図4,5)。補正後のジェスチャーパラメータはジェスチャー判定に用いた後に破棄し、次回のジェスチャー判定では、再び補正前のジェスチャーパラメータ41を用いて補正を行うものであった。
<A-4. Modification>
After detecting the user's gesture operation (FIG. 3), screen input operation device 100 according to Embodiment 1 corrects gesture parameter 41 (reaction region parameter and type determination parameter) based on the operation history (FIG. 3). 4, 5). The corrected gesture parameters are discarded after being used for gesture determination. In the next gesture determination, correction is performed again using the gesture parameter 41 before correction.

しかし、変形例に係る画面入力操作装置101では、ジェスチャー判定を行う度に操作履歴を更新し、当該操作履歴に基づき補正した値によりパラメータ記憶部40のジェスチャーパラメータ41を更新する。そうすれば、ジェスチャー操作を検出した後は、車両情報に基づきジェスチャーパラメータ41を補正するだけでジェスチャー判定を行うことができる。   However, the screen input operation device 101 according to the modification updates the operation history each time gesture determination is performed, and updates the gesture parameter 41 of the parameter storage unit 40 with a value corrected based on the operation history. If it does so, after detecting gesture operation, gesture determination can be performed only by correcting the gesture parameter 41 based on vehicle information.

図16は、変形例に係る画面入力操作装置101の構成図である。画面入力操作装置101は、画面入力操作装置100の構成に加えて、パラメータ更新部90を備えている。パラメータ更新部90は、パラメータ補正部50で操作履歴に基づき補正した反応領域パラメータおよび種別判定パラメータを、再びパラメータ記憶部40に記憶する。言い換えれば、ジェスチャーパラメータ41を操作履歴に基づき補正した値に更新する。パラメータ更新部90以外の構成は画面入力操作装置100と同様であるので、説明を省略する。   FIG. 16 is a configuration diagram of a screen input operation device 101 according to a modification. The screen input operation device 101 includes a parameter update unit 90 in addition to the configuration of the screen input operation device 100. The parameter update unit 90 stores the reaction region parameter and the type determination parameter corrected by the parameter correction unit 50 based on the operation history in the parameter storage unit 40 again. In other words, the gesture parameter 41 is updated to a value corrected based on the operation history. Since the configuration other than the parameter update unit 90 is the same as that of the screen input operation device 100, description thereof is omitted.

表示制御部70は、パラメータ記憶部40のジェスチャーパラメータ41を用いて、反応領域に表示領域が一致するようにボタンを描画する。したがって、同一の画面を再度表示する際には、最頻出ボタンが大きく表示されるので、ユーザの誤操作を抑制することが可能である。図17は、画面入力操作装置101が図3に示すボタンB,Dの表示を行った後、再度ボタンB,Dからなる同じ画面を表示するときの表示画面を示している。操作履歴に基づき更新されたボタンBの反応領域パラメータに基づき、最頻出ボタンBの表示領域が拡大されて表示される。   The display control unit 70 uses the gesture parameter 41 of the parameter storage unit 40 to draw a button so that the display area matches the reaction area. Therefore, when the same screen is displayed again, the most frequently appearing button is displayed large, so that it is possible to suppress the user's erroneous operation. FIG. 17 shows a display screen when the screen input operation device 101 displays the buttons B and D shown in FIG. 3 and then displays the same screen consisting of the buttons B and D again. Based on the reaction area parameter of the button B updated based on the operation history, the display area of the most frequently appearing button B is enlarged and displayed.

また、画面入力操作装置100,101は、操作履歴と車両情報の両方に基づき、ジェスチャーパラメータ41を補正してジェスチャー判定を行ったが、車両情報に基づくジェスチャーパラメータ41の補正は、本発明に必須の処理ではない。しかし、操作履歴と車両情報の両方に基づき、ジェスチャーパラメータ41を補正することにより、ユーザの過去の操作の傾向に加えて車両の状況を加味してジェスチャー判定を行うことができ、誤操作の抑制効果がさらに向上する。   Further, the screen input operation devices 100 and 101 perform the gesture determination by correcting the gesture parameter 41 based on both the operation history and the vehicle information. However, the correction of the gesture parameter 41 based on the vehicle information is essential for the present invention. It is not processing. However, by correcting the gesture parameter 41 based on both the operation history and the vehicle information, it is possible to perform gesture determination in consideration of the situation of the vehicle in addition to the tendency of the user's past operation, and the effect of suppressing erroneous operations Is further improved.

なお、画面入力操作装置100,101は車両に搭載されるものとして説明したが、車両に搭載可能なPND(Portable Navigation Device)、携帯端末(例えば携帯電話、スマートフォン、及びタブレットなど)、並びにサーバなどを適宜に組み合せてシステムとして構築される画面入力操作装置にも適用することができる。この場合、以上で説明した画面入力操作装置100,101の各機能あるいは各構成要素は、上記システムを構築する各機器に分散して配置される。   Although the screen input operation devices 100 and 101 have been described as being mounted on a vehicle, a PND (Portable Navigation Device) that can be mounted on the vehicle, a mobile terminal (for example, a mobile phone, a smartphone, a tablet, and the like), a server, and the like The present invention can also be applied to a screen input operation device constructed as a system by appropriately combining the above. In this case, each function or each component of the screen input operation devices 100 and 101 described above is distributed and arranged in each device constituting the system.

<A−5.効果>
本発明の実施の形態1に係る画面入力操作装置100は、画面に対するジェスチャーにより入力を行う、移動体に搭載された画面入力操作装置である。画面入力操作装置100は、ジェスチャーを受け付け、ジェスチャーにおける画面上のタッチ位置をジェスチャー情報として出力する操作受付部10と、ジェスチャー内容を判定するためのパラメータであるジェスチャーパラメータ41を記憶するパラメータ記憶部40と、ユーザの操作履歴に基づきジェスチャーパラメータ41を補正するパラメータ補正部50と、ジェスチャー情報を補正後のジェスチャーパラメータ41と照合してジェスチャー内容を判定するジェスチャー判定部60と、を備える。操作履歴を考慮してジェスチャー内容の判定を行うことにより、誤操作を抑制することができる。例えば、ユーザが所望のボタンの表示領域から少し外れた位置をタッチした場合でも、操作履歴に基づき当該ボタンの反応領域を拡大することにより、当該ボタンを操作ボタンと判定し、誤操作を抑制する。
<A-5. Effect>
The screen input operation device 100 according to Embodiment 1 of the present invention is a screen input operation device mounted on a moving body that performs an input by a gesture on the screen. The screen input operation device 100 receives a gesture and outputs an operation reception unit 10 that outputs a touch position on the screen in the gesture as gesture information, and a parameter storage unit 40 that stores a gesture parameter 41 that is a parameter for determining the gesture content. A parameter correction unit 50 that corrects the gesture parameter 41 based on the user's operation history, and a gesture determination unit 60 that checks the gesture information by comparing the gesture information with the corrected gesture parameter 41. By determining the gesture content in consideration of the operation history, erroneous operations can be suppressed. For example, even when the user touches a position slightly deviated from the display area of a desired button, the button is determined as an operation button by enlarging the response area of the button based on the operation history, and erroneous operations are suppressed.

また、ジェスチャーパラメータ41は、ボタンの反応領域を示す反応領域パラメータ及びジェスチャーの種別を判定するための種別判定パラメータのいずれかを少なくとも含む。ジェスチャーパラメータ41が反応領域パラメータを含む場合は、ボタンの反応領域を操作履歴に基づき補正することにより、操作ボタンを精度良く判定することができる。ジェスチャーパラメータ41が種別判定パラメータを含む場合は、種別判定パラメータを操作履歴に基づき補正することにより、ジェスチャー種別を精度良く判定することができる。   The gesture parameter 41 includes at least one of a reaction area parameter indicating a reaction area of the button and a type determination parameter for determining the type of gesture. When the gesture parameter 41 includes a reaction region parameter, the operation button can be accurately determined by correcting the reaction region of the button based on the operation history. When the gesture parameter 41 includes a type determination parameter, the gesture type can be accurately determined by correcting the type determination parameter based on the operation history.

また、画面入力操作装置100は、車両の速度、加速度変化、走行する道路の種別のいずれかを少なくとも含む車両情報(移動体情報)を取得する車両情報取得部20(移動体情報取得部)をさらに備え、パラメータ補正部50は、車両情報にも基づきジェスチャーパラメータを補正する。これにより、車両の走行により生じる要因による誤操作を抑制することが可能である。   Further, the screen input operation device 100 includes a vehicle information acquisition unit 20 (moving body information acquisition unit) that acquires vehicle information (moving body information) including at least one of a vehicle speed, a change in acceleration, and a type of road on which the vehicle travels. In addition, the parameter correction unit 50 corrects the gesture parameter based on the vehicle information. Thereby, it is possible to suppress an erroneous operation due to a factor caused by traveling of the vehicle.

また、変形例に係る画面入力操作装置101は、パラメータ記憶部40に記憶された反応領域パラメータに基づき、反応領域と同じ領域にボタンを表示させる表示制御部70と、補正ジェスチャーパラメータをジェスチャーパラメータ41としてパラメータ記憶部40に記憶するパラメータ更新部90とを備える。よって、ジェスチャー操作を検出した後、車両情報に基づきジェスチャーパラメータ41を補正するだけでジェスチャー判定を行うことができる。また、表示制御部70が、更新後の反応領域パラメータに基づき反応領域に一致する表示領域のボタンを描画することにより、最頻出ボタンが大きく表示され、ユーザの誤操作を抑制することも可能である。   The screen input operation device 101 according to the modification includes a display control unit 70 that displays buttons in the same region as the reaction region based on the reaction region parameter stored in the parameter storage unit 40, and the corrected gesture parameter as the gesture parameter 41. The parameter update unit 90 stores the parameter storage unit 40 in the parameter storage unit 40. Therefore, after detecting the gesture operation, the gesture determination can be performed only by correcting the gesture parameter 41 based on the vehicle information. In addition, the display control unit 70 draws a button in the display region that matches the reaction region based on the updated reaction region parameter, so that the most frequently appearing button is displayed large, and it is possible to suppress erroneous operations by the user. .

なお、本発明は、その発明の範囲内において、各実施の形態を適宜、変形、省略することが可能である。   In the present invention, each embodiment can be appropriately modified or omitted within the scope of the invention.

10 操作受付部、20 車両情報取得部、30 操作履歴格納部、40 パラメータ記憶部、41 ジェスチャーパラメータ、42 補正パラメータ、50 パラメータ補正部、51 反応領域パラメータ補正部、52 種別判定パラメータ補正部、60 ジェスチャー判定部、70 表示制御部、80 表示部、90 パラメータ更新部、100,101 画面入力操作装置。
DESCRIPTION OF SYMBOLS 10 Operation reception part, 20 Vehicle information acquisition part, 30 Operation history storage part, 40 Parameter storage part, 41 Gesture parameter, 42 Correction parameter, 50 Parameter correction part, 51 Reaction area parameter correction part, 52 Type determination parameter correction part, 60 Gesture determination unit, 70 display control unit, 80 display unit, 90 parameter update unit, 100, 101 screen input operation device.

Claims (3)

画面に対するジェスチャーにより入力を行う、移動体に搭載された画面入力操作装置であって、
前記ジェスチャーを受け付け、前記ジェスチャーにおける前記画面上のタッチ位置をジェスチャー情報として出力する操作受付部と、
前記ジェスチャーの内容を判定するためのパラメータであるジェスチャーパラメータを記憶するパラメータ記憶部と、
ユーザの操作頻度に基づき前記ジェスチャーパラメータを補正ジェスチャーパラメータとして補正するパラメータ補正部と、
前記ジェスチャー情報を前記補正ジェスチャーパラメータと照合して前記ジェスチャーの内容を判定するジェスチャー判定部と、を備え、
前記ジェスチャーパラメータは、前記ジェスチャーの種別を判定するための種別判定パラメータを含む、
画面入力操作装置。
A screen input operation device mounted on a moving body that performs input by gestures on the screen,
An operation receiving unit that receives the gesture and outputs a touch position on the screen in the gesture as gesture information;
A parameter storage unit that stores a gesture parameter that is a parameter for determining the content of the gesture;
A parameter correction unit that corrects the gesture parameter as a correction gesture parameter based on the operation frequency of the user;
A gesture determination unit that determines the content of the gesture by comparing the gesture information with the corrected gesture parameter,
The gesture parameter includes a type determination parameter for determining the type of the gesture.
Screen input operation device.
前記ジェスチャーパラメータは前記画面上のボタンの反応領域を示す反応領域パラメータを含み、
前記パラメータ記憶部に記憶された前記反応領域パラメータに基づき、前記反応領域と同じ領域に前記ボタンを表示させる表示制御部と、
前記補正ジェスチャーパラメータを前記ジェスチャーパラメータとして前記パラメータ記憶部に記憶するパラメータ更新部とをさらに備える、
請求項1に記載の画面入力操作装置。
The gesture parameter includes a reaction area parameter indicating a reaction area of a button on the screen ,
Based on the reaction region parameter stored in the parameter storage unit, a display control unit that displays the button in the same region as the reaction region;
A parameter updating unit that stores the corrected gesture parameter as the gesture parameter in the parameter storage unit;
The screen input operation device according to claim 1.
前記移動体の速度、加速度変化、前記移動体が走行する道路の種別のいずれかを少なくとも含む移動体情報を取得する移動体情報取得部をさらに備え、
前記パラメータ補正部は、前記移動体情報にも基づき前記ジェスチャーパラメータを補正する、
請求項1又は2に記載の画面入力操作装置。
A moving body information acquisition unit that acquires moving body information including at least one of a speed, a change in acceleration of the moving body, and a type of road on which the moving body travels;
The parameter correction unit corrects the gesture parameter based on the moving body information;
The screen input operation device according to claim 1 or 2.
JP2013184642A 2013-09-06 2013-09-06 Screen input operation device Expired - Fee Related JP6147149B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013184642A JP6147149B2 (en) 2013-09-06 2013-09-06 Screen input operation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013184642A JP6147149B2 (en) 2013-09-06 2013-09-06 Screen input operation device

Publications (2)

Publication Number Publication Date
JP2015052865A JP2015052865A (en) 2015-03-19
JP6147149B2 true JP6147149B2 (en) 2017-06-14

Family

ID=52701864

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013184642A Expired - Fee Related JP6147149B2 (en) 2013-09-06 2013-09-06 Screen input operation device

Country Status (1)

Country Link
JP (1) JP6147149B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11414079B2 (en) 2017-01-13 2022-08-16 Honda Motor Co., Ltd. Vehicle control system, vehicle control method, and storage medium
US11334243B2 (en) 2018-06-11 2022-05-17 Mitsubishi Electric Corporation Input control device
JP7129897B2 (en) * 2018-12-19 2022-09-02 京セラ株式会社 Electronics

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4290920B2 (en) * 2002-03-06 2009-07-08 クラリオン株式会社 Information equipment
JP2003281604A (en) * 2002-03-25 2003-10-03 Hitachi Ltd Display control of operation panel in automatic transaction equipment
JP2004355426A (en) * 2003-05-30 2004-12-16 Hitachi Ltd Touch panel operability improvement software and terminal
JP4966764B2 (en) * 2007-06-27 2012-07-04 パイオニア株式会社 Touch panel display device and touch panel control method
JP2009163625A (en) * 2008-01-09 2009-07-23 Kyocera Mita Corp Display input device and image forming apparatus
JP2009301301A (en) * 2008-06-12 2009-12-24 Tokai Rika Co Ltd Input device and input method
JP2011192231A (en) * 2010-03-17 2011-09-29 Aisin Aw Co Ltd In-vehicle input device, and input program therefor
CN102713822A (en) * 2010-06-16 2012-10-03 松下电器产业株式会社 Information input device, information input method and programme

Also Published As

Publication number Publication date
JP2015052865A (en) 2015-03-19

Similar Documents

Publication Publication Date Title
US10996844B2 (en) Program, method, and device for controlling application, and recording medium
JP4645179B2 (en) Vehicle navigation device
US11334211B2 (en) Information control device and method for changing display region sizes and positional relationships
US20140125615A1 (en) Input device, information terminal, input control method, and input control program
US10936188B2 (en) In-vehicle device, display area splitting method, program, and information control device
JP6221265B2 (en) Touch panel operation device and operation event determination method in touch panel operation device
CN112997142B (en) Display control device and display control method
JP2009009261A (en) Touch panel display device and control method
US12118204B2 (en) Display control device and display change method with user touch control
US8922514B2 (en) Display device, control method and program thereof
JP2016181129A (en) Touch panel control device and touch panel control program
JP6147149B2 (en) Screen input operation device
JP2012093860A (en) Display device, display method and display program
US20190087077A1 (en) Information processing apparatus, screen control method
US20160253088A1 (en) Display control apparatus and display control method
JP2012212318A (en) Navigation device
US11942011B2 (en) Display control device and display control method
US11693545B2 (en) Device and method for arranging objects displayed on divided areas in a vehicle display
JP2014137300A (en) Navigation device and display method
JP2018128968A (en) Input device for vehicle and control method for input device for vehicle
JP6093635B2 (en) Information processing device
US20140337805A1 (en) Information processor and computer program product
WO2018147160A1 (en) Display control device, display control method, and program for display control device
JP5423279B2 (en) User interface device
JP2018128998A (en) User interface device, map display device, and navigation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160830

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170516

R150 Certificate of patent or registration of utility model

Ref document number: 6147149

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees