[go: up one dir, main page]

JP6275809B1 - Display control method and program for causing a computer to execute the display control method - Google Patents

Display control method and program for causing a computer to execute the display control method Download PDF

Info

Publication number
JP6275809B1
JP6275809B1 JP2016239624A JP2016239624A JP6275809B1 JP 6275809 B1 JP6275809 B1 JP 6275809B1 JP 2016239624 A JP2016239624 A JP 2016239624A JP 2016239624 A JP2016239624 A JP 2016239624A JP 6275809 B1 JP6275809 B1 JP 6275809B1
Authority
JP
Japan
Prior art keywords
target object
control method
display control
virtual camera
virtual space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016239624A
Other languages
Japanese (ja)
Other versions
JP2018097477A (en
Inventor
元 紅林
元 紅林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2016239624A priority Critical patent/JP6275809B1/en
Application granted granted Critical
Publication of JP6275809B1 publication Critical patent/JP6275809B1/en
Publication of JP2018097477A publication Critical patent/JP2018097477A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】仮想空間における空間把握を容易にするための表示制御方法を提供する。
【解決手段】HMDを備えたシステムにおける表示制御方法であって、仮想カメラ300と対象オブジェクトFC、SCとを含む仮想空間200データを生成し、仮想カメラの視野CV、仮想空間データに基づいてHMDに視野画像を表示させ、HMDの動きに基づいて仮想カメラを動かし、視野画像を更新する。さらに、入力操作に基づいて、仮想カメラから遠い側に開口を有する図形で構成される特定処理オブジェクトTPを表示させる。視野内における特定処理オブジェクトよりも仮想カメラ側に対象オブジェクトの少なくとも一部が存在するか否かを判定し、特定処理オブジェクトを移動させることにより、仮想カメラ側に少なくとも一部が存在すると判定された対象オブジェクトの、少なくとも一部を透過処理する。
【選択図】図10
A display control method for facilitating grasping of a space in a virtual space is provided.
A display control method in a system including an HMD, wherein virtual space 200 data including a virtual camera 300 and target objects FC and SC is generated, and the HMD is based on a visual field CV and virtual space data of the virtual camera. The visual field image is displayed, the virtual camera is moved based on the movement of the HMD, and the visual field image is updated. Furthermore, based on the input operation, the specific processing object TP composed of a figure having an opening on the side far from the virtual camera is displayed. It is determined whether or not at least a part of the target object exists on the virtual camera side relative to the specific processing object in the field of view, and it is determined that at least a part exists on the virtual camera side by moving the specific processing object At least a part of the target object is transparently processed.
[Selection] Figure 10

Description

本開示は、表示制御方法及び当該表示制御方法をコンピュータに実行させるためのプログラムに関する。   The present disclosure relates to a display control method and a program for causing a computer to execute the display control method.

近年、ヘッドマウントデバイス(HMD:Head‐Mounted Device)を装着して仮想現実(VR:Virtual Reality)空間に没入できるゲーム(以下、VRゲームと称することがある)が知られている。
特許文献1は、仮想空間内において、基準視線上に配置されているオブジェクトを特定し、オブジェクトの特定に応じてHMDの所定方向への頭部傾け動作に従って特定されたオブジェクトを動かすことができることが開示されている。
In recent years, games (hereinafter sometimes referred to as VR games) in which a head-mounted device (HMD: Head-Mounted Device) can be attached and immersed in a virtual reality (VR) space are known.
Patent Document 1 can identify an object arranged on a reference line of sight in a virtual space, and can move the identified object according to a head tilting operation in a predetermined direction of the HMD in accordance with the identification of the object. It is disclosed.

特開2016−173698号公報Japanese Patent Laid-Open No. 2006-173698 特開2016−52396号公報JP, 2006-52396, A

特許文献1では、複数のオブジェクトがHMDの視線方向に対して重なっている場合に、視認可能で、且つ、選択可能なオブジェクトは、原則として手前側のオブジェクトであるため、奥側のオブジェクトを視認および選択することが難しい。   In Patent Document 1, when a plurality of objects overlap with the line-of-sight direction of the HMD, the object that can be visually recognized and can be selected is the object on the near side in principle. And difficult to choose.

本開示は、VR空間における空間把握を容易にするための表示制御方法を提供することを目的とする。また、本開示は、当該表示制御方法をコンピュータに実行させるためのプログラムを提供することを目的とする。   An object of the present disclosure is to provide a display control method for facilitating space grasp in a VR space. Moreover, this indication aims at providing the program for making a computer perform the said display control method.

本開示が示す一態様によれば、ヘッドマウントデバイスを備えたシステムにおける表示制御方法であって、
当該表示制御方法は、
(a)仮想カメラと対象オブジェクトとを含む仮想空間を定義する仮想空間データを生成するステップと、
(b)前記仮想カメラの視野および前記仮想空間データに基づいて前記ヘッドマウントデバイスに視野画像を表示させるステップと、
(c)前記ヘッドマウントデバイスの動きに基づいて前記仮想カメラを動かすことで前記視野画像を更新するステップと、
(d)所定の入力操作に基づいて、前記仮想カメラから遠い側に開口を有する図形で構成される特定処理オブジェクトを前記仮想空間内に表示させるステップと、
(e)前記視野内における前記特定処理オブジェクトよりも前記仮想カメラ側に前記対象オブジェクトの少なくとも一部が存在するか否かを判定するステップと、
(f)前記特定処理オブジェクトを移動させることにより、前記ステップ(e)において前記特定処理オブジェクトより前記仮想カメラ側に少なくとも一部が存在すると判定された前記対象オブジェクトの前記少なくとも一部を透過処理するステップと、
を含む。
According to one aspect of the present disclosure, a display control method in a system including a head mounted device,
The display control method is
(A) generating virtual space data defining a virtual space including the virtual camera and the target object;
(B) displaying a visual field image on the head mounted device based on the visual field of the virtual camera and the virtual space data;
(C) updating the visual field image by moving the virtual camera based on the movement of the head mounted device;
(D) displaying a specific processing object formed of a graphic having an opening on the side far from the virtual camera in the virtual space based on a predetermined input operation;
(E) determining whether at least a part of the target object is present on the virtual camera side with respect to the specific processing object in the visual field;
(F) By moving the specific processing object, the at least a part of the target object determined to be present at least at the virtual camera side from the specific processing object in the step (e) is transparently processed. Steps,
including.

本開示によれば、VR空間における空間把握を容易にするための表示制御方法を提供することができる。   According to the present disclosure, it is possible to provide a display control method for facilitating space grasp in the VR space.

本実施形態に係るヘッドマウントデバイス(HMD)システムを示す概略図である。1 is a schematic diagram illustrating a head mounted device (HMD) system according to an embodiment. HMDを装着したユーザの頭部を示す図である。It is a figure which shows the head of the user with which HMD was mounted | worn. 制御装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of a control apparatus. 視野画像をHMDに表示する処理を示すフローチャートである。It is a flowchart which shows the process which displays a visual field image on HMD. 仮想空間の一例を示すxyz空間図である。It is xyz space figure which shows an example of virtual space. (a)は、図5に示す仮想空間のyx平面図であり、(b)は、図5に示す仮想空間のzx平面図である。(A) is a yx plan view of the virtual space shown in FIG. 5, and (b) is a zx plan view of the virtual space shown in FIG. 5. 本実施形態に係る表示制御方法を説明するためのフローチャートである。It is a flowchart for demonstrating the display control method which concerns on this embodiment. (a)は、本実施形態に係る表示制御方法で規定される仮想空間の模式図であり、(b)は、当該仮想空間に基づいて生成される視野画像である。(A) is a schematic diagram of the virtual space prescribed | regulated with the display control method which concerns on this embodiment, (b) is a visual field image produced | generated based on the said virtual space. (a)は、本実施形態に係る表示制御方法で規定される仮想空間の模式図であり、(b)は、当該仮想空間に基づいて生成される視野画像である。(A) is a schematic diagram of the virtual space prescribed | regulated with the display control method which concerns on this embodiment, (b) is a visual field image produced | generated based on the said virtual space. (a)は、本実施形態に係る表示制御方法で規定される仮想空間の模式図であり、(b)は、当該仮想空間に基づいて生成される視野画像である。(A) is a schematic diagram of the virtual space prescribed | regulated with the display control method which concerns on this embodiment, (b) is a visual field image produced | generated based on the said virtual space. (a)は、本実施形態に係る表示制御方法で規定される仮想空間の模式図であり、(b)は、当該仮想空間に基づいて生成される視野画像である。(A) is a schematic diagram of the virtual space prescribed | regulated with the display control method which concerns on this embodiment, (b) is a visual field image produced | generated based on the said virtual space. 透過処理オブジェクトの制御方法に関する模式図である。It is a schematic diagram regarding the control method of a transparent process object. 透過処理オブジェクトの制御方法に関する視野画像である。It is a visual field image regarding the control method of a transparent processing object. (a),(b)は、透過処理オブジェクトの変形例を示す図である。(A), (b) is a figure which shows the modification of a transparent process object. 変形例1に係る表示制御方法で規定される仮想空間の模式図である。10 is a schematic diagram of a virtual space defined by a display control method according to Modification 1. (a)は、変形例1に係る表示制御方法で規定される仮想空間の模式図であり、(b)は、当該仮想空間に基づいて生成される視野画像である。(A) is a schematic diagram of the virtual space prescribed | regulated by the display control method which concerns on the modification 1, (b) is a visual field image produced | generated based on the said virtual space. (a)は、変形例2に係る表示制御方法で規定される仮想空間の模式図であり、(b)は、当該仮想空間に基づいて生成される視野画像である。(A) is a schematic diagram of the virtual space prescribed | regulated by the display control method which concerns on the modification 2, (b) is a visual field image produced | generated based on the said virtual space.

[本開示が示す実施形態の説明]
本開示が示す実施形態の概要を説明する。
(1)ヘッドマウントデバイスを備えたシステムにおける表示制御方法であって、
当該表示制御方法は、
(a)仮想カメラと対象オブジェクトとを含む仮想空間を定義する仮想空間データを生成するステップと、
(b)前記仮想カメラの視野および前記仮想空間データに基づいて前記ヘッドマウントデバイスに視野画像を表示させるステップと、
(c)前記ヘッドマウントデバイスの動きに基づいて前記仮想カメラを動かすことで前記視野画像を更新するステップと、
(d)所定の入力操作に基づいて、前記仮想カメラから遠い側に開口を有する図形で構成される特定処理オブジェクトを前記仮想空間内に表示させるステップと、
(e)前記視野内における前記特定処理オブジェクトよりも前記仮想カメラ側に前記対象オブジェクトの少なくとも一部が存在するか否かを判定するステップと、
(f)前記特定処理オブジェクトを移動させることにより、前記ステップ(e)において前記特定処理オブジェクトより前記仮想カメラ側に少なくとも一部が存在すると判定された前記対象オブジェクトの前記少なくとも一部を透過処理するステップと、
を含む。
[Description of Embodiments Presented by the Present Disclosure]
An overview of an embodiment indicated by the present disclosure will be described.
(1) A display control method in a system including a head mounted device,
The display control method is
(A) generating virtual space data defining a virtual space including the virtual camera and the target object;
(B) displaying a visual field image on the head mounted device based on the visual field of the virtual camera and the virtual space data;
(C) updating the visual field image by moving the virtual camera based on the movement of the head mounted device;
(D) displaying a specific processing object formed of a graphic having an opening on the side far from the virtual camera in the virtual space based on a predetermined input operation;
(E) determining whether at least a part of the target object is present on the virtual camera side with respect to the specific processing object in the visual field;
(F) By moving the specific processing object, the at least a part of the target object determined to be present at least at the virtual camera side from the specific processing object in the step (e) is transparently processed. Steps,
including.

上記方法によれば、VR空間における空間把握を容易にすることができる。   According to the above method, it is possible to easily grasp the space in the VR space.

(2)前記ステップ(f)では、前記開口を形成する二次元的な前記図形の三次元直交座標系における位置および傾きを変更することによって、前記仮想空間において透過処理する二次元的な領域の三次元直交座標系における位置および傾きが変更されても良い。   (2) In the step (f), by changing the position and inclination of the two-dimensional figure forming the opening in the three-dimensional orthogonal coordinate system, the two-dimensional area to be transparently processed in the virtual space is changed. The position and inclination in the three-dimensional orthogonal coordinate system may be changed.

上記方法によれば、三次元空間である仮想空間内において特定処理オブジェクトを任意の位置や向きに自由に動かして透過処理された視野画像を視認できるため、リッチな仮想空間体験を提供することができる。   According to the above method, since the perceived visual field image can be viewed by freely moving the specific processing object to an arbitrary position and orientation in the virtual space that is a three-dimensional space, it is possible to provide a rich virtual space experience. it can.

(3)前記ステップ(f)では、前記特定処理オブジェクトの前記開口の大きさが変更可能であっても良い。   (3) In the step (f), the size of the opening of the specific processing object may be changeable.

上記方法によれば、よりリッチな仮想空間体験を提供することができる。   According to the above method, a richer virtual space experience can be provided.

(4)前記システムは、前記ヘッドマウントデバイスの位置とユーザの頭部以外の身体の一部の位置を検出するように構成された位置センサをさらに備え、
前記仮想空間は、前記ユーザの身体の前記一部の動きに応じて動作可能な操作オブジェクトをさらに含み、
前記ステップ(f)では、前記操作オブジェクトの動きに基づいて前記特定処理オブジェクトを移動可能であっても良い。
(4) The system further includes a position sensor configured to detect a position of the head mounted device and a position of a body part other than the user's head,
The virtual space further includes an operation object operable according to the movement of the part of the user's body,
In the step (f), the specific processing object may be movable based on the movement of the operation object.

上記方法によれば、例えば、視野画像に表示される仮想手オブジェクト(ハンドデバイス)を動かすことによって、特定処理オブジェクトを任意に移動させることができる。   According to the above method, for example, the specific processing object can be arbitrarily moved by moving the virtual hand object (hand device) displayed in the visual field image.

(5)前記システムは、前記ヘッドマウントデバイスの位置とユーザの頭部以外の身体の一部の位置を検出するように構成された位置センサをさらに備え、
前記仮想空間は、前記ユーザの身体の前記一部の動きに応じて動作可能な操作オブジェクトをさらに含み、
前記ステップ(f)において、前記開口の大きさは、前記操作オブジェクトの形状に基づいて変更可能であっても良い。
(5) The system further includes a position sensor configured to detect a position of the head mounted device and a position of a body part other than the user's head,
The virtual space further includes an operation object operable according to the movement of the part of the user's body,
In the step (f), the size of the opening may be changeable based on the shape of the operation object.

上記方法によれば、例えば、仮想手オブジェクトの指の形状によって、特定処理オブジェクトの開口の広さを任意に変更することができる。   According to the above method, for example, the size of the opening of the specific processing object can be arbitrarily changed according to the shape of the finger of the virtual hand object.

(6)前記ステップ(f)では、前記特定処理オブジェクトより前記仮想カメラ側に少なくとも一部が存在すると判定された複数の対象オブジェクトのうち、前記仮想カメラに最も近い対象オブジェクトのみを透過処理しても良い。   (6) In the step (f), only the target object closest to the virtual camera is transparently processed among the plurality of target objects determined to be at least partially present on the virtual camera side from the specific processing object. Also good.

上記方法によれば、複数の対象オブジェクトのうち奥側の対象オブジェクトまで透過処理されてしまうことを防止することができる。   According to the above-described method, it is possible to prevent a transparent target object from being subjected to a transparent process among a plurality of target objects.

(7)上記(1)から(6)のいずれかに記載の表示制御方法をコンピュータに実行させるためのプログラムである。   (7) A program for causing a computer to execute the display control method according to any one of (1) to (6) above.

この構成によれば、VR空間における空間把握を容易にするプログラムを提供することができる。   According to this configuration, it is possible to provide a program that facilitates space grasp in the VR space.

[本開示が示す実施形態の詳細]
以下、本開示が示す実施形態について図面を参照しながら説明する。なお、本実施形態の説明において既に説明された部材と同一の参照番号を有する部材については、説明の便宜上、その説明は繰り返さない。
[Details of Embodiments Presented by the Present Disclosure]
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. In addition, about the member which has the same reference number as the member already demonstrated in description of this embodiment, the description is not repeated for convenience of explanation.

図1は、本開示が示す実施形態(以下、単に本実施形態という。)に係る情報処理方法を実現するヘッドマウントデバイス(以下、単にHMDという。)システム1を示す概略図である。図1に示すように、HMDシステム1は、ユーザUの頭部に装着されたHMD110と、位置センサ130と、制御装置120と、外部コントローラ320とを備える。   FIG. 1 is a schematic diagram illustrating a head mounted device (hereinafter simply referred to as an HMD) system 1 that implements an information processing method according to an embodiment (hereinafter simply referred to as the present embodiment) described in the present disclosure. As shown in FIG. 1, the HMD system 1 includes an HMD 110 mounted on the head of the user U, a position sensor 130, a control device 120, and an external controller 320.

HMD110は、表示部112と、HMDセンサ114と、ヘッドホン116(音声出力部の一例)とを備えている。   The HMD 110 includes a display unit 112, an HMD sensor 114, and headphones 116 (an example of an audio output unit).

表示部112は、HMD110を装着したユーザUの視界(視野)を覆うように構成された非透過型の表示装置を備えている。HMD110は、透過型表示装置を備えており、当該透過型表示装置の透過率を調整することにより、一時的に非透過型の表示装置として構成可能であってもよい。これにより、ユーザUは、表示部112に表示された視野画像のみを見ることで仮想空間に没入することができる。なお、表示部112は、ユーザUの左眼に投影される左眼用の表示部とユーザUの右眼に投影される右眼用の表示部とから構成されてもよい。   The display unit 112 includes a non-transmissive display device configured to cover the field of view (field of view) of the user U wearing the HMD 110. The HMD 110 may include a transmissive display device, and may be temporarily configured as a non-transmissive display device by adjusting the transmittance of the transmissive display device. Thereby, the user U can immerse in the virtual space by viewing only the visual field image displayed on the display unit 112. Note that the display unit 112 may include a display unit for the left eye that is projected onto the left eye of the user U and a display unit for the right eye that is projected onto the right eye of the user U.

HMDセンサ114は、HMD110の表示部112の近傍に搭載される。HMDセンサ114は、地磁気センサ、加速度センサ、傾きセンサ(角速度センサやジャイロセンサ等)のうちの少なくとも1つを含み、ユーザUの頭部に装着されたHMD110の各種動きを検出することができる。   The HMD sensor 114 is mounted in the vicinity of the display unit 112 of the HMD 110. The HMD sensor 114 includes at least one of a geomagnetic sensor, an acceleration sensor, and a tilt sensor (such as an angular velocity sensor and a gyro sensor), and can detect various movements of the HMD 110 mounted on the head of the user U.

ヘッドホン116は、ユーザUの左耳と右耳にそれぞれ装着されている。ヘッドホン116は、制御装置120から音声データ(電気信号)を受信し、当該受信した音声データに基づいて音声を出力するように構成されている。ヘッドホン116の右耳用のスピーカに出力される音声は、ヘッドホン116の左耳用のスピーカに出力される音声と異なってもよい。例えば、制御装置120は、頭部伝達関数に基づいて、右耳用スピーカに入力される音声データと、左耳用スピーカに入力される音声データを取得し、当該異なる2つの音声データをヘッドホン116の左耳用スピーカと右耳用スピーカのそれぞれに出力してもよい。なお、HMD110にヘッドホン116を設けずに、HMD110とは独立したスピーカ(例えば、2つの据置型スピーカ)やイヤホンを設けてもよい。   The headphones 116 are attached to the left and right ears of the user U, respectively. The headphones 116 are configured to receive audio data (electrical signals) from the control device 120 and output audio based on the received audio data. The sound output to the right ear speaker of the headphone 116 may be different from the sound output to the left ear speaker of the headphone 116. For example, the control device 120 acquires audio data input to the right ear speaker and audio data input to the left ear speaker based on the head-related transfer function, and uses the two different audio data to the headphones 116. May be output to each of the left ear speaker and the right ear speaker. In addition, you may provide a speaker (for example, two stationary speakers) and an earphone independent of HMD110, without providing headphones 116 in HMD110.

位置センサ130は、例えば、ポジション・トラッキング・カメラにより構成され、HMD110の位置を検出するように構成されている。位置センサ130は、制御装置120に無線または有線により通信可能に接続されており、HMD110に設けられた図示しない複数の検知点の位置、傾きまたは発光強度に関する情報を検出するように構成されている。また、位置センサ130は、赤外線センサや複数の光学カメラを含んでもよい。   The position sensor 130 is composed of, for example, a position tracking camera, and is configured to detect the position of the HMD 110. The position sensor 130 is communicably connected to the control device 120 by wireless or wired communication, and is configured to detect information on the position, inclination, or light emission intensity of a plurality of detection points (not shown) provided in the HMD 110. . The position sensor 130 may include an infrared sensor and a plurality of optical cameras.

制御装置120は、位置センサ130から取得された情報に基づいて、HMD110の位置情報を取得し、当該取得された位置情報に基づいて、仮想空間における仮想カメラの位置と、現実空間におけるHMD110を装着したユーザUの位置を正確に対応付けることができる。   The control device 120 acquires the position information of the HMD 110 based on the information acquired from the position sensor 130, and wears the position of the virtual camera in the virtual space and the HMD 110 in the real space based on the acquired position information. Thus, the position of the user U can be accurately associated.

次に、図2を参照して、HMD110の位置や傾きに関する情報を取得する方法について説明する。図2は、HMD110を装着したユーザUの頭部を示す図である。HMD110を装着したユーザUの頭部の動きに連動したHMD110の位置や傾きに関する情報は、位置センサ130および/またはHMD110に搭載されたHMDセンサ114により検出可能である。図2に示すように、HMD110を装着したユーザUの頭部を中心として、3次元座標(uvw座標)が規定される。ユーザUが直立する垂直方向をv軸として規定し、v軸と直交し表示部112の中心とユーザUとを結ぶ方向をw軸として規定し、v軸およびw軸と直交する方向をu軸として規定する。位置センサ130および/またはHMDセンサ114は、各uvw軸回りの角度(すなわち、v軸を中心とする回転を示すヨー角、u軸を中心とした回転を示すピッチ角、w軸を中心とした回転を示すロール角で決定される傾き)を検出する。制御装置120は、検出された各uvw軸回りの角度変化に基づいて、視野情報を定義する仮想カメラの視軸を制御するための角度情報を決定する。   Next, with reference to FIG. 2, a method for acquiring information related to the position and inclination of the HMD 110 will be described. FIG. 2 is a diagram illustrating the head of the user U wearing the HMD 110. Information regarding the position and inclination of the HMD 110 that is linked to the movement of the head of the user U wearing the HMD 110 can be detected by the position sensor 130 and / or the HMD sensor 114 mounted on the HMD 110. As shown in FIG. 2, three-dimensional coordinates (uvw coordinates) are defined centering on the head of the user U wearing the HMD 110. The vertical direction in which the user U stands upright is defined as the v axis, the direction orthogonal to the v axis and connecting the center of the display unit 112 and the user U is defined as the w axis, and the direction perpendicular to the v axis and the w axis is the u axis. It prescribes as The position sensor 130 and / or the HMD sensor 114 is an angle around each uvw axis (that is, a yaw angle indicating rotation about the v axis, a pitch angle indicating rotation about the u axis, and a center about the w axis). The inclination determined by the roll angle indicating rotation) is detected. The control device 120 determines angle information for controlling the visual axis of the virtual camera that defines the visual field information based on the detected angle change around each uvw axis.

次に、図3を参照して、制御装置120のハードウェア構成について説明する。図3に示すように、制御装置120は、制御部121と、記憶部123と、I/O(入出力)インターフェース124と、通信インターフェース125と、バス126とを備える。制御部121と、記憶部123と、I/Oインターフェース124と、通信インターフェース125とは、バス126を介して互いに通信可能に接続されている。   Next, the hardware configuration of the control device 120 will be described with reference to FIG. As shown in FIG. 3, the control device 120 includes a control unit 121, a storage unit 123, an I / O (input / output) interface 124, a communication interface 125, and a bus 126. The control unit 121, the storage unit 123, the I / O interface 124, and the communication interface 125 are connected to each other via a bus 126 so as to communicate with each other.

制御装置120は、HMD110とは別体に、パーソナルコンピュータ、タブレットまたはウェアラブルデバイスとして構成されてもよいし、HMD110の内部に搭載されていてもよい。また、制御装置120の一部の機能がHMD110に搭載されると共に、制御装置120の残りの機能がHMD110とは別体の他の装置に搭載されてもよい。   The control device 120 may be configured as a personal computer, a tablet, or a wearable device separately from the HMD 110, or may be mounted inside the HMD 110. In addition, some functions of the control device 120 may be mounted on the HMD 110, and the remaining functions of the control device 120 may be mounted on another device separate from the HMD 110.

制御部121は、メモリとプロセッサを備えている。メモリは、例えば、各種プログラム等が格納されたROM(Read Only Memory)やプロセッサにより実行される各種プログラム等が格納される複数ワークエリアを有するRAM(Random Access Memory)等から構成される。プロセッサは、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)および/またはGPU(Graphics Processing Unit)であって、ROMに組み込まれた各種プログラムから指定されたプログラムをRAM上に展開し、RAMとの協働で各種処理を実行するように構成されている。   The control unit 121 includes a memory and a processor. The memory includes, for example, a ROM (Read Only Memory) in which various programs are stored, a RAM (Random Access Memory) having a plurality of work areas in which various programs executed by the processor are stored, and the like. The processor is, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), and / or a GPU (Graphics Processing Unit), and a program specified from various programs incorporated in the ROM is expanded on the RAM. It is comprised so that various processes may be performed in cooperation with.

特に、プロセッサが本実施形態に係る情報処理方法をコンピュータに実行させるための情報処理プログラム(後述する)をRAM上に展開し、RAMとの協働で当該プログラムを実行することで、制御部121は、制御装置120の各種動作を制御してもよい。制御部121は、メモリや記憶部123に格納された所定のアプリケーション(ゲームプログラム)を実行することで、HMD110の表示部112に仮想空間(視野画像)を提供する。これにより、ユーザUは、表示部112に提供された仮想空間に没入することができる。   In particular, the processor 121 develops an information processing program (to be described later) for causing a computer to execute the information processing method according to the present embodiment on the RAM, and executes the program in cooperation with the RAM. May control various operations of the control device 120. The control unit 121 provides a virtual space (view image) to the display unit 112 of the HMD 110 by executing a predetermined application (game program) stored in the memory or the storage unit 123. Thereby, the user U can be immersed in the virtual space provided on the display unit 112.

記憶部(ストレージ)123は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、USBフラッシュメモリ等の記憶装置であって、プログラムや各種データを格納するように構成されている。記憶部123には、情報処理プログラムが組み込まれてもよい。また、ユーザの認証プログラムや各種画像やオブジェクトに関するデータを含むゲームプログラム等が格納されてもよい。さらに、記憶部123には、各種データを管理するためのテーブルを含むデータベースが構築されてもよい。   The storage unit (storage) 123 is a storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), or a USB flash memory, and is configured to store programs and various data. The storage unit 123 may incorporate an information processing program. In addition, a user authentication program, a game program including data on various images and objects, and the like may be stored. Furthermore, a database including tables for managing various data may be constructed in the storage unit 123.

I/Oインターフェース124は、位置センサ130と、HMD110と、ヘッドホン116と、外部コントローラ320と、をそれぞれ制御装置120に通信可能に接続するように構成されており、例えば、USB(Universal Serial Bus)端子、DVI(Digital Visual Interface)端子、HDMI(登録商標)(High―Definition Multimedia Interface)端子等により構成されている。なお、制御装置120は、位置センサ130と、HMD110と、ヘッドホン116と、外部コントローラ320とのそれぞれと無線接続されていてもよい。   The I / O interface 124 is configured to connect the position sensor 130, the HMD 110, the headphones 116, and the external controller 320 to the control device 120 so that they can communicate with each other. For example, the I / O interface 124 is a USB (Universal Serial Bus). A terminal, a DVI (Digital Visual Interface) terminal, a HDMI (registered trademark) (High-Definition Multimedia Interface) terminal, and the like. The control device 120 may be wirelessly connected to each of the position sensor 130, the HMD 110, the headphones 116, and the external controller 320.

通信インターフェース125は、制御装置120をLAN(Local Area Network)、WAN(Wide Area Network)またはインターネット等の通信ネットワーク3に接続させるように構成されている。通信インターフェース125は、通信ネットワーク3を介して外部装置と通信するための各種有線接続端子や、無線接続のための各種処理回路を含んでおり、通信ネットワーク3を介して通信するための通信規格に適合するように構成されている。   The communication interface 125 is configured to connect the control device 120 to a communication network 3 such as a LAN (Local Area Network), a WAN (Wide Area Network), or the Internet. The communication interface 125 includes various wired connection terminals for communicating with an external device via the communication network 3 and various processing circuits for wireless connection. The communication interface 125 conforms to a communication standard for communicating via the communication network 3. Configured to fit.

次に、図4から図6を参照することで視野画像をHMD110に表示するための処理について説明する。図4は、視野画像をHMD110に表示するための処理を示すフローチャートである。図5は、仮想空間200の一例を示すxyz空間図を示す。図6の状態(a)は、図5に示す仮想空間200のyx平面図であって、図6の状態(b)は、図5に示す仮想空間200のzx平面図である。   Next, processing for displaying a field-of-view image on the HMD 110 will be described with reference to FIGS. 4 to 6. FIG. 4 is a flowchart showing a process for displaying the visual field image on the HMD 110. FIG. 5 shows an xyz space diagram showing an example of the virtual space 200. The state (a) in FIG. 6 is a yx plan view of the virtual space 200 shown in FIG. 5, and the state (b) in FIG. 6 is a zx plan view of the virtual space 200 shown in FIG.

図4に示すように、ステップS1において、制御部121(図3参照)は、仮想カメラ300を含む仮想空間200を定義する仮想空間データを生成する。図5および図6に示すように、仮想空間200は、中心位置21を中心とした全天球として規定される(図5および図6では、上半分の天球のみが図示されている)。また、仮想空間200には、中心位置21を原点とするxyz座標系が設定されている。HMDシステム1の初期状態では、仮想カメラ300が仮想空間200の中心位置21に配置されている。
仮想カメラ300の視野を定義するuvw座標系は、現実空間におけるユーザUの頭部を中心として規定されたuvw座標系に連動するように決定される。また、HMD110を装着したユーザUの現実空間における移動に連動して、仮想カメラ300を仮想空間200内で移動させてもよい。
As shown in FIG. 4, in step S <b> 1, the control unit 121 (see FIG. 3) generates virtual space data that defines the virtual space 200 including the virtual camera 300. As shown in FIGS. 5 and 6, the virtual space 200 is defined as a celestial sphere centered on the center position 21 (only the upper half celestial sphere is shown in FIGS. 5 and 6). In the virtual space 200, an xyz coordinate system with the center position 21 as the origin is set. In the initial state of the HMD system 1, the virtual camera 300 is disposed at the center position 21 of the virtual space 200.
The uvw coordinate system that defines the visual field of the virtual camera 300 is determined so as to be linked to the uvw coordinate system that is defined around the head of the user U in the real space. Further, the virtual camera 300 may be moved in the virtual space 200 in conjunction with the movement of the user U wearing the HMD 110 in the real space.

次に、ステップS2において、制御部121は、仮想カメラ300の視野CV(図6参照)を特定する。具体的には、制御部121は、位置センサ130および/またはHMDセンサ114から送信されたHMD110の状態を示すデータに基づいて、HMD110の位置や傾きに関する情報を取得する。次に、制御部121は、HMD110の位置や傾きに関する情報に基づいて、仮想空間200内における仮想カメラ300の位置や向きを決定する。次に、制御部121は、仮想カメラ300の位置や向きから仮想カメラ300の視軸に相当する基準視線Lを決定し、決定された基準視線Lから仮想カメラ300の視野CVを特定する。ここで、仮想カメラ300の視野CVは、HMD110を装着したユーザUが視認可能な仮想空間200の一部の領域と一致する。換言すれば、視野CVは、HMD110に表示される仮想空間200の一部の領域に一致する。また、視野CVは、図6の状態(a)に示すxy平面において、基準視線Lを中心とした極角θαの角度範囲として設定される第1領域CVaと、図6の状態(b)に示すxz平面において、基準視線Lを中心とした方位角θβの角度範囲として設定される第2領域CVbとを有する。   Next, in step S2, the control unit 121 specifies the field of view CV (see FIG. 6) of the virtual camera 300. Specifically, the control unit 121 acquires information on the position and inclination of the HMD 110 based on data indicating the state of the HMD 110 transmitted from the position sensor 130 and / or the HMD sensor 114. Next, the control unit 121 determines the position and orientation of the virtual camera 300 in the virtual space 200 based on information regarding the position and inclination of the HMD 110. Next, the control unit 121 determines a reference line of sight L corresponding to the visual axis of the virtual camera 300 from the position and orientation of the virtual camera 300, and specifies the field of view CV of the virtual camera 300 from the determined reference line of sight L. Here, the visual field CV of the virtual camera 300 coincides with a partial region of the virtual space 200 that is visible to the user U wearing the HMD 110. In other words, the visual field CV coincides with a partial area of the virtual space 200 displayed on the HMD 110. Further, the visual field CV includes a first region CVa set as an angular range of the polar angle θα centered on the reference line of sight L in the xy plane shown in the state (a) of FIG. 6, and a state (b) of FIG. The xz plane shown has a second region CVb set as an angular range of the azimuth angle θβ with the reference line of sight L as the center.

このように、制御部121は、位置センサ130および/またはHMDセンサ114からのデータに基づいて、仮想カメラ300の視野CVを特定することができる。ここで、HMD110を装着したユーザUが動くと、制御部121は、位置センサ130および/またはHMDセンサ114から送信されたHMD110の動きを示すデータに基づいて、仮想カメラ300の視野CVを特定することができる。つまり、制御部121は、HMD110の動きに応じて、視野CVを移動させることができる。   As described above, the control unit 121 can specify the visual field CV of the virtual camera 300 based on the data from the position sensor 130 and / or the HMD sensor 114. Here, when the user U wearing the HMD 110 moves, the control unit 121 specifies the visual field CV of the virtual camera 300 based on the data indicating the movement of the HMD 110 transmitted from the position sensor 130 and / or the HMD sensor 114. be able to. That is, the control unit 121 can move the visual field CV according to the movement of the HMD 110.

次に、ステップS3において、制御部121は、HMD110の表示部112に表示される視野画像を示す視野画像データを生成する。具体的には、制御部121は、仮想空間200を規定する仮想空間データと、仮想カメラ300の視野CVとに基づいて、視野画像データを生成する。すなわち、仮想カメラ300の視野CVにより、仮想空間データのうち視野画像データとして描画される範囲が定まる。   Next, in step S <b> 3, the control unit 121 generates visual field image data indicating the visual field image displayed on the display unit 112 of the HMD 110. Specifically, the control unit 121 generates visual field image data based on virtual space data defining the virtual space 200 and the visual field CV of the virtual camera 300. In other words, the visual field CV of the virtual camera 300 determines the range to be drawn as visual field image data in the virtual space data.

次に、ステップS4において、制御部121は、視野画像データに基づいて、HMD110の表示部112に視野画像を表示する。このように、HMD110を装着しているユーザUの動きに応じて、仮想カメラ300の視野CVが変化し、HMD110に表示される視野画像Vが変化するので、ユーザUは仮想空間200に没入することができる。   Next, in step S <b> 4, the control unit 121 displays a field image on the display unit 112 of the HMD 110 based on the field image data. As described above, the visual field CV of the virtual camera 300 is changed according to the movement of the user U wearing the HMD 110, and the visual field image V displayed on the HMD 110 is changed, so that the user U is immersed in the virtual space 200. be able to.

次に、本実施形態に係る表示制御方法について、図7から図11を参照して説明する。図7は、本実施形態に係る表示制御方法を説明するためのフローチャートである。図8から図11は、本実施形態に係る表示制御方法で規定される仮想空間の模式図、および、当該仮想空間に基づいて生成される視野画像である。   Next, the display control method according to the present embodiment will be described with reference to FIGS. FIG. 7 is a flowchart for explaining the display control method according to the present embodiment. 8 to 11 are a schematic diagram of a virtual space defined by the display control method according to the present embodiment, and a visual field image generated based on the virtual space.

最初に、図8の状態(a)に示すように、仮想空間200は、仮想カメラ300と、第一の対象オブジェクトFCと、第二の対象オブジェクトSCと、を含む。制御部121は、これらのオブジェクトを含む仮想空間200を規定する仮想空間データを生成している。   First, as shown in the state (a) of FIG. 8, the virtual space 200 includes a virtual camera 300, a first target object FC, and a second target object SC. The control unit 121 generates virtual space data that defines the virtual space 200 including these objects.

仮想カメラ300は、ユーザUが操作するHMDシステム1に関連付けられている。すなわち、ユーザUが装着するHMD110の動きに応じて仮想カメラ300の位置や向き(すなわち、仮想カメラ300の視野CV)が変更される。なお、図8等においては、仮想カメラ300が仮想空間200の中心から離れた位置に配置されているが、仮想カメラ300は、仮想空間200の中心に配置されていても良い。   The virtual camera 300 is associated with the HMD system 1 operated by the user U. That is, the position and orientation of the virtual camera 300 (that is, the visual field CV of the virtual camera 300) are changed according to the movement of the HMD 110 worn by the user U. 8 and the like, the virtual camera 300 is disposed at a position away from the center of the virtual space 200, but the virtual camera 300 may be disposed at the center of the virtual space 200.

仮想空間200内には、ゲームプログラムの進行に応じて複数の対象オブジェクトが配置され得るが、説明の容易化のため、本例では第一の対象オブジェクトFCおよび第二の対象オブジェクトSCのみを図示している。第一の対象オブジェクトFCは、第二の対象オブジェクトSCよりも仮想カメラ300に対して手前側に配置されているオブジェクトである。本実施形態では、第一の対象オブジェクトFCは、例えば樹木のオブジェクトであり、第二の対象オブジェクトSCは、例えば、他のユーザや制御部が制御可能な敵キャラクタである。   In the virtual space 200, a plurality of target objects can be arranged according to the progress of the game program. However, for ease of explanation, only the first target object FC and the second target object SC are illustrated in this example. Show. The first target object FC is an object arranged closer to the virtual camera 300 than the second target object SC. In the present embodiment, the first target object FC is, for example, a tree object, and the second target object SC is, for example, an enemy character that can be controlled by another user or the control unit.

上述の通り、第二の対象オブジェクトSCよりも大きな第一の対象オブジェクトFCが第二の対象オブジェクトSCの手前に配置されている場合、図8の状態(b)に示すように、HMD110の表示部112に表示される視野画像Vにおいては、奥側の第二の対象オブジェクトSCは第一の対象オブジェクトFCで隠れてしまいユーザが視認することができない。   As described above, when the first target object FC larger than the second target object SC is arranged in front of the second target object SC, the display of the HMD 110 is displayed as shown in the state (b) of FIG. In the visual field image V displayed on the part 112, the second target object SC on the back side is hidden by the first target object FC and cannot be viewed by the user.

そこで、本実施形態では、仮想空間での空間把握を容易にするための透過処理オブジェクトTP(特定処理オブジェクトの一例)をユーザUの入力操作に基づいて仮想空間200内に配置可能(視野画像V内に表示可能)としている。この透過処理オブジェクトTPに関する表示制御方法について図7等を参照して以下説明する。   Therefore, in the present embodiment, a transparent processing object TP (an example of a specific processing object) for facilitating the understanding of the space in the virtual space can be arranged in the virtual space 200 based on the input operation of the user U (view image V Can be displayed inside). A display control method related to the transparent processing object TP will be described below with reference to FIG.

まず、制御部121は、ユーザUが所定のモード(例えば、ビューモード)を選択したか否かを判定する(図7のステップS10)。このビューモードは、例えば、視野画像V内に表示されるメニュー画面(不図示)等から、ユーザUが外部コントローラ320を操作して選択し得る。あるいは、ユーザUの視線方向を検出するアイ・トラッキング・センサ(注視センサ)を設け、当該アイ・トラッキング・センサでの検知に基づいて制御部121においてビューモードが選択されたと判定されても良い。   First, the control unit 121 determines whether or not the user U has selected a predetermined mode (for example, a view mode) (step S10 in FIG. 7). This view mode can be selected by the user U operating the external controller 320 from a menu screen (not shown) displayed in the visual field image V, for example. Alternatively, an eye tracking sensor (gaze sensor) that detects the user's U gaze direction may be provided, and it may be determined that the view mode has been selected by the control unit 121 based on detection by the eye tracking sensor.

ユーザUの入力操作によりビューモードが選択されたと判定された場合には(ステップS10のYes)、制御部121は、図9の状態(a)に示すように、仮想空間200内の所定の位置に、透過処理オブジェクトTPを配置する(ステップS12)。具体的には、仮想空間200のうち仮想カメラ300の視野CV内に透過処理オブジェクトTPを配置することが好ましい。これにより、図9の状態(b)に示すように、視野画像V内の所定位置に、当該透過処理オブジェクトTPが表示される。透過処理オブジェクトTPは、仮想カメラ300から遠い側に開口を有する二次元的な図形、例えば、仮想カメラ300側に頂点があり仮想カメラ300から遠い側に開口があるV字状の図形オブジェクトとして構成されている。この透過処理オブジェクトTPは、ユーザUの入力操作によって、仮想空間200を構成する三次元直交座標系における位置および傾きが変更可能である。   When it is determined that the view mode is selected by the input operation of the user U (Yes in step S10), the control unit 121, as illustrated in the state (a) of FIG. Then, the transparent processing object TP is arranged (step S12). Specifically, it is preferable to arrange the transparent processing object TP in the visual field CV of the virtual camera 300 in the virtual space 200. As a result, the transparent processed object TP is displayed at a predetermined position in the field-of-view image V as shown in the state (b) of FIG. The transparent processing object TP is configured as a two-dimensional figure having an opening on the side far from the virtual camera 300, for example, a V-shaped figure object having a vertex on the virtual camera 300 side and an opening on the side far from the virtual camera 300. Has been. The position and inclination of the transparent processing object TP in the three-dimensional orthogonal coordinate system constituting the virtual space 200 can be changed by an input operation of the user U.

次に、制御部121は、視野CV内における透過処理オブジェクトTPよりも仮想カメラ300側に対象オブジェクト(例えば、第一の対象オブジェクトFCや第二の対象オブジェクトSC)の少なくとも一部が存在するか否かを判定する(ステップS14)。ここで、「透過処理オブジェクトTPよりも仮想カメラ300側に対象オブジェクトの少なくとも一部が存在する」とは、二次元的なV字型オブジェクトである透過処理オブジェクトTPが対象オブジェクトにかかる、すなわち、対象オブジェクトと重複するような位置に配置されたことを意味する。   Next, the control unit 121 determines whether at least a part of the target object (for example, the first target object FC or the second target object SC) exists closer to the virtual camera 300 than the transparent processing object TP in the field of view CV. It is determined whether or not (step S14). Here, “at least a part of the target object exists closer to the virtual camera 300 than the transparent processing object TP” means that the transparent processing object TP, which is a two-dimensional V-shaped object, is applied to the target object. It means that it is placed at a position that overlaps the target object.

透過処理オブジェクトTPよりも仮想カメラ300側に第一の対象オブジェクトFCや第二の対象オブジェクトSCの少なくとも一部が存在しないと判定された場合には(ステップS14のNo)、制御部121は、透過処理オブジェクトTPに対するユーザUの入力操作を受け付けたか否かを判定する(ステップS16)。当該入力操作には、透過処理オブジェクトTPの移動だけではなく、傾き(向き)の変更や、開口角度の調整も含まれる。例えば、ユーザUが外部コントローラ320を操作することで、透過処理オブジェクトTPに対する入力操作信号が制御部121へと送信される。   When it is determined that at least a part of the first target object FC or the second target object SC does not exist on the virtual camera 300 side with respect to the transparent processing object TP (No in step S14), the control unit 121 It is determined whether or not an input operation of the user U with respect to the transparent processing object TP has been received (step S16). The input operation includes not only the movement of the transparent processing object TP but also the change of inclination (orientation) and the adjustment of the opening angle. For example, when the user U operates the external controller 320, an input operation signal for the transparent processing object TP is transmitted to the control unit 121.

透過処理オブジェクトTPに対するユーザUの入力操作を受け付けたと判定された場合には(ステップS16のYes)、制御部121は、当該入力操作に基づいて、透過処理オブジェクトTPを制御する(ステップS18)。例えば、透過処理オブジェクトTPの移動に関する入力操作を受け付けた場合には、制御部121は、当該入力操作に応じて、透過処理オブジェクトTPを移動させる。例えば、図10の状態(a)に示すように、制御部121は透過処理オブジェクトTPを初期位置よりも右側に移動させる。これにより、図10の状態(b)に示すように、視野画像V内においても透過処理オブジェクトTPが右側に移動される。その後、制御部121は、処理をステップS14へ戻す。   When it is determined that the input operation of the user U with respect to the transparent processing object TP is received (Yes in step S16), the control unit 121 controls the transparent processing object TP based on the input operation (step S18). For example, when an input operation related to the movement of the transparent processing object TP is received, the control unit 121 moves the transparent processing object TP in accordance with the input operation. For example, as shown in the state (a) of FIG. 10, the control unit 121 moves the transparent processing object TP to the right side from the initial position. As a result, as shown in the state (b) of FIG. Then, the control part 121 returns a process to step S14.

ステップS14において、透過処理オブジェクトTPよりも仮想カメラ300側に対象オブジェクト(第一の対象オブジェクトFCや第二の対象オブジェクトSC)の少なくとも一部が存在すると判定された場合には(ステップS14のYes)、制御部121は、当該対象オブジェクトを透過処理する(ステップS20)。例えば、図10の状態(a)に示すように、透過処理オブジェクトTPが初期位置よりも右側に移動されることにより、第一の対象オブジェクトFCの少なくとも一部が透過処理オブジェクトTPよりも仮想カメラ300側に存在することとなった場合には、制御部121は、第一の対象オブジェクトFCを透過処理(例えば、完全に透明化)する(図11の状態(a)参照)。これにより、図11の状態(b)に示すように、視野画像Vでは第一の対象オブジェクトFCが透過処理され、第一の対象オブジェクトFCよりも仮想カメラ300に対して奥側に存在している第二の対象オブジェクトSCが視認可能な状態となる。なお、対象オブジェクトの透過処理は、完全透過に限られず、その奥が視認可能な程度であれば半透過であっても良い。   If it is determined in step S14 that at least a part of the target object (first target object FC or second target object SC) is present on the virtual camera 300 side with respect to the transparent process object TP (Yes in step S14). ), The control unit 121 performs transparent processing on the target object (step S20). For example, as shown in the state (a) of FIG. 10, when the transparent processing object TP is moved to the right side of the initial position, at least a part of the first target object FC is more virtual than the transparent processing object TP. If it is present on the 300 side, the control unit 121 performs the transparency process (for example, completely transparentized) on the first target object FC (see the state (a) in FIG. 11). As a result, as shown in the state (b) of FIG. 11, the first target object FC is transparently processed in the view image V and exists behind the virtual camera 300 with respect to the first target object FC. The second target object SC is visible. Note that the transmission processing of the target object is not limited to complete transmission, and may be semi-transparent as long as the depth is visible.

その後、制御部121は、処理をステップS16へ戻し、ユーザUの入力操作を受け付けた場合には、当該入力操作に基づいて透過処理オブジェクトTPを制御しつつ(ステップS18)、透過処理オブジェクトTPと重複することとなった所定の対象オブジェクトを透過処理する(ステップS14およびステップS20)。すなわち、制御部121が、ユーザの入力操作に基づいて、開口を形成する二次元的な透過処理オブジェクトTPの三次元直交座標系における位置および傾きを変更することによって、仮想空間200において透過処理する二次元的な領域の三次元直交座標系における位置および傾きが変更される。これにより、三次元空間である仮想空間内において透過処理オブジェクトTPを任意の位置や向きに自由に動かして透過処理された視野画像を視認できるため、リッチな仮想空間体験を提供することができる。   Thereafter, the control unit 121 returns the process to step S16. When the input operation of the user U is accepted, the control unit 121 controls the transparent process object TP based on the input operation (step S18), and A predetermined target object that overlaps is subjected to a transparent process (steps S14 and S20). That is, the control unit 121 performs transparency processing in the virtual space 200 by changing the position and inclination of the two-dimensional transparency processing object TP forming the opening in the three-dimensional orthogonal coordinate system based on a user input operation. The position and inclination of the two-dimensional region in the three-dimensional orthogonal coordinate system are changed. Thereby, since the visual field image subjected to the transmission processing can be viewed by freely moving the transmission processing object TP to an arbitrary position and orientation in the virtual space which is a three-dimensional space, a rich virtual space experience can be provided.

また、ステップS20の後に、制御部121は、ユーザUがビューモードの選択を解除したか否かを判定する(ステップS22)。ビューモードの選択解除は、例えば、ユーザUによる外部コントローラ320の操作や、アイ・トラッキング・センサでの検知により判定可能である。ユーザUがビューモードの選択を解除したと判定された場合には(ステップS22のYes)、制御部121は、透過処理オブジェクトTPを非表示とするとともに、透過処理オブジェクトTPにより透過処理されていた第一の対象オブジェクトFCを非透過とする(ステップS24)。これにより、図8の状態(a)に示す仮想空間200の状態に戻り、ユーザUは図8の状態(b)に示す視野画像Vを視認可能となる。すなわち、第二の対象オブジェクトSCは、第一の対象オブジェクトFCによって再び隠される。その後、制御部121は、処理をステップS10へ戻す。   Further, after step S20, the control unit 121 determines whether or not the user U has canceled the selection of the view mode (step S22). Deselection of the view mode can be determined, for example, by operation of the external controller 320 by the user U or detection by an eye tracking sensor. When it is determined that the user U has canceled the selection of the view mode (Yes in step S22), the control unit 121 hides the transparent processing object TP and has been transparently processed by the transparent processing object TP. The first target object FC is made opaque (step S24). Thereby, it returns to the state of the virtual space 200 shown in the state (a) of FIG. 8, and the user U can visually recognize the visual field image V shown in the state (b) of FIG. That is, the second target object SC is hidden again by the first target object FC. Then, the control part 121 returns a process to step S10.

以上説明したように、本実施形態によれば、制御部121は、ユーザUの入力操作に基づいて、仮想カメラ300から遠い側に開口を有するV字型の透過処理オブジェクトTPを仮想空間200内に表示させ、視野CV内における透過処理オブジェクトTPよりも仮想カメラ300側に対象オブジェクトFC,SCの少なくとも一部が存在するか否かを判定し、透過処理オブジェクトTPを移動させることにより、透過処理オブジェクトTPよりも仮想カメラ300側に少なくとも一部が存在すると判定された対象オブジェクト(例えば、第一の対象オブジェクトFC)を透過処理する。これにより、ユーザUは第一の対象オブジェクトFCによって隠れていた奥側の第二の対象オブジェクトSCを視認できるようになり、VR空間における空間把握が容易となる。   As described above, according to the present embodiment, the control unit 121 transmits the V-shaped transparent processing object TP having an opening on the side far from the virtual camera 300 in the virtual space 200 based on the input operation of the user U. Is displayed, and it is determined whether or not at least a part of the target objects FC and SC are present on the virtual camera 300 side with respect to the transparent processing object TP in the field of view CV, and the transparent processing object TP is moved to thereby perform the transparent processing. The target object (for example, the first target object FC) determined to be at least partially present on the virtual camera 300 side with respect to the object TP is subjected to a transparent process. As a result, the user U can visually recognize the second target object SC on the back side hidden by the first target object FC, and the space in the VR space can be easily grasped.

なお、本例においては、透過処理オブジェクトTPの移動や各種調整(開口角度や向きの調整など)を、外部コントローラ320の入力操作に応じて行っているが、この例に限られない。例えば、図12に示すように、仮想空間200内にユーザUの入力操作により操作可能な仮想手オブジェクトH(操作オブジェクトの一例)を配置し、当該仮想手オブジェクトHで透過処理オブジェクトTPを掴んで移動させるような態様であってもよい。これにより、より直感的に透過処理オブジェクトTPを制御することができる。   In this example, the movement of the transparent processing object TP and various adjustments (such as adjustment of the opening angle and direction) are performed according to the input operation of the external controller 320, but the present invention is not limited to this example. For example, as shown in FIG. 12, a virtual hand object H (an example of an operation object) that can be operated by an input operation of the user U is arranged in the virtual space 200, and the transparent processing object TP is grasped by the virtual hand object H. It may be a mode of moving. Thereby, it is possible to control the transparent processing object TP more intuitively.

また、図13に示すように、透過処理オブジェクトTPの開口角度θを仮想手オブジェクトHの例えば親指と人差し指とで形成されるV字形に対応させ、仮想手オブジェクトHの指で形成されるV字形の角度を変化させることで開口角度θを変化させても良い。これにより、より直感的に透過処理オブジェクトTPを制御することができる。   Further, as shown in FIG. 13, the opening angle θ of the transparent processing object TP is made to correspond to the V shape formed by the virtual hand object H, for example, the thumb and the index finger, and the V shape formed by the finger of the virtual hand object H. The opening angle θ may be changed by changing the angle. Thereby, it is possible to control the transparent processing object TP more intuitively.

なお、本例においては、透過処理オブジェクトTPは、仮想カメラ300から遠い側に開口を有する二次元的な図形であれば、その形状は図8等に示されるものに限られない。例えば、図14の状態(a)に示すような曲線形状(U字状)の透過処理オブジェクトTP1や、図14の状態(b)に示すような分離された形状の透過処理オブジェクトTP2であっても良い。   In this example, as long as the transparent object TP is a two-dimensional figure having an opening on the side far from the virtual camera 300, the shape is not limited to that shown in FIG. For example, a transparent processing object TP1 having a curved shape (U-shape) as shown in the state (a) of FIG. 14 and a transparent processing object TP2 having a separated shape as shown in the state (b) of FIG. Also good.

(変形例1)
図15は、変形例1に係る表示制御方法で規定される仮想空間の模式図である。図16の状態(a)は、変形例1に係る表示制御方法で規定される仮想空間の模式図であり、図16の状態(b)は、当該仮想空間に基づいて生成される視野画像である。
図15に示すように、仮想空間200内において重なった第一の対象オブジェクトFCおよび第二の対象オブジェクトSCの両者の一部が透過処理オブジェクトTPよりも仮想カメラ300側に存在するようになった場合には、制御部121は、第一の対象オブジェクトFCおよび第二の対象オブジェクトSCをともに透過処理しても良く、図16の状態(a)に示すように、手前側の第一の対象オブジェクトFCのみを透過処理し、奥側の第二の対象オブジェクトSCは透過処理しないようにしても良い。後者の場合は、図16の状態(b)に示すように、視野画像V内において奥側の第二の対象オブジェクトSCが視認可能となる。本開示は、仮想空間200内において手前側の大きな対象オブジェクト(例えば、第一の対象オブジェクトFC)によって奥側の小さな対象オブジェクト(例えば、第二の対象オブジェクトSC)が隠れている場合に、奥側の対象オブジェクトを視認可能にすることを目的としているため、第一および第二の対象オブジェクトFC,SCの両方に透過処理を施すのではなく、手前側の第一の対象オブジェクトFCのみを透過処理すれば十分である。
(Modification 1)
FIG. 15 is a schematic diagram of a virtual space defined by the display control method according to the first modification. A state (a) in FIG. 16 is a schematic diagram of a virtual space defined by the display control method according to the first modification, and a state (b) in FIG. 16 is a visual field image generated based on the virtual space. is there.
As shown in FIG. 15, a part of both the first target object FC and the second target object SC that overlap in the virtual space 200 is located closer to the virtual camera 300 than the transparent processing object TP. In this case, the control unit 121 may perform the transparent process on both the first target object FC and the second target object SC. As shown in the state (a) of FIG. Only the object FC may be transparently processed and the second target object SC on the back side may not be transparently processed. In the latter case, as shown in the state (b) of FIG. 16, the second target object SC on the back side in the visual field image V is visible. In the present disclosure, when a small target object (for example, the second target object SC) on the back side is hidden by a large target object (for example, the first target object FC) on the near side in the virtual space 200, Since the target object on the side is made visible, only the first target object FC on the near side is transmitted instead of performing the transparent process on both the first and second target objects FC and SC. It is enough to process.

(変形例2)
図17の状態(a)は、変形例2に係る表示制御方法で規定される仮想空間の模式図であり、図17の状態(b)は、当該仮想空間に基づいて生成される視野画像である。
上記の実施形態においては、透過処理オブジェクトTPよりも仮想カメラ300側に第一の対象オブジェクトFCの少なくとも一部が存在すると判定された場合には、制御部121は、当該第一の対象オブジェクトFCの全体を透過処理する構成となっているが、この例に限られない。例えば、仮想空間200内に配置された第一の対象オブジェクトFCに対して透過処理オブジェクトTPがかかった場合に、制御部121は、図17の状態(a)に示すように、第一の対象オブジェクトFCの透過処理オブジェクトTPよりも手前側に存在する部分のみを透過処理するようにしても良い。これにより、図17の状態(b)に示すように、視野画像V内において手前側の第一の対象オブジェクトFCの一部が透過されて奥側の第二の対象オブジェクトSCの一部が視認可能となり、上記の実施形態と同様に、ユーザUが容易に空間把握をすることができる。
(Modification 2)
A state (a) in FIG. 17 is a schematic diagram of a virtual space defined by the display control method according to the modification 2. A state (b) in FIG. 17 is a visual field image generated based on the virtual space. is there.
In the above-described embodiment, when it is determined that at least a part of the first target object FC exists on the virtual camera 300 side with respect to the transparent processing object TP, the control unit 121 performs the first target object FC. However, the present invention is not limited to this example. For example, when the transparent processing object TP is applied to the first target object FC arranged in the virtual space 200, the control unit 121 sets the first target object FC as shown in the state (a) of FIG. Only the part existing in front of the transparent processing object TP of the object FC may be transparently processed. Thereby, as shown in the state (b) of FIG. 17, a part of the first target object FC on the near side in the visual field image V is transmitted and a part of the second target object SC on the far side is visually recognized. It becomes possible, and the user U can easily grasp the space as in the above embodiment.

以上、本開示の実施形態について説明をしたが、本発明の技術的範囲が本実施形態の説明によって限定的に解釈されるべきではない。本実施形態は一例であって、特許請求の範囲に記載された発明の範囲内において、様々な実施形態の変更が可能であることが当業者によって理解されるところである。本発明の技術的範囲は特許請求の範囲に記載された発明の範囲およびその均等の範囲に基づいて定められるべきである。   As mentioned above, although embodiment of this indication was described, the technical scope of this invention should not be limitedly interpreted by description of this embodiment. This embodiment is an example, and it is understood by those skilled in the art that various modifications can be made within the scope of the invention described in the claims. The technical scope of the present invention should be determined based on the scope of the invention described in the claims and the equivalents thereof.

制御部121によって実行される各種処理をソフトウェアによって実現するために、本実施形態に係る情報処理方法をコンピュータ(プロセッサ)に実行させるための情報処理プログラムが記憶部123またはROMに予め組み込まれていてもよい。または、情報処理プログラムは、磁気ディスク(HDD、フロッピーディスク)、光ディスク(CD−ROM,DVD−ROM、Blu−rayディスク等)、光磁気ディスク(MO等)、フラッシュメモリ(SDカード、USBメモリ、SSD等)等のコンピュータ読取可能な記憶媒体に格納されていてもよい。この場合、記憶媒体が制御装置120に接続されることで、当該記憶媒体に格納されたプログラムが、記憶部123に組み込まれる。そして、記憶部123に組み込まれた情報処理プログラムがRAM上にロードされて、プロセッサがロードされた当該プログラムを実行することで、制御部121は本実施形態に係る情報処理方法を実行する。   An information processing program for causing a computer (processor) to execute the information processing method according to the present embodiment is incorporated in advance in the storage unit 123 or the ROM in order to implement various processes executed by the control unit 121 by software. Also good. Alternatively, the information processing program includes a magnetic disk (HDD, floppy disk), an optical disk (CD-ROM, DVD-ROM, Blu-ray disk, etc.), a magneto-optical disk (MO, etc.), flash memory (SD card, USB memory, It may be stored in a computer-readable storage medium such as SSD. In this case, the program stored in the storage medium is incorporated into the storage unit 123 by connecting the storage medium to the control device 120. The control unit 121 executes the information processing method according to the present embodiment by loading the information processing program incorporated in the storage unit 123 onto the RAM and executing the program loaded by the processor.

また、情報処理プログラムは、通信ネットワーク3上のコンピュータから通信インターフェース125を介してダウンロードされてもよい。この場合も同様に、ダウンロードされた当該プログラムが記憶部123に組み込まれる。   Further, the information processing program may be downloaded from a computer on the communication network 3 via the communication interface 125. Similarly in this case, the downloaded program is incorporated in the storage unit 123.

1:HMDシステム
3:通信ネットワーク
21:中心位置
110:ヘッドマウントデバイス(HMD)
112:表示部
114:HMDセンサ
116:ヘッドホン
120:制御装置
121:制御部
123:記憶部
124:I/Oインターフェース
125:通信インターフェース
126:バス
130:位置センサ
200:仮想空間
300:仮想カメラ
400:移動経路
CV:視野
FC:第一の対象オブジェクト(対象オブジェクトの一例)
SC:第二の対象オブジェクト(対象オブジェクトの一例)
TP:透過処理オブジェクト(特定処理オブジェクトの一例)
H:仮想手オブジェクト(操作オブジェクトの一例)
1: HMD system 3: Communication network 21: Center position 110: Head mounted device (HMD)
112: Display unit 114: HMD sensor 116: Headphone 120: Control device 121: Control unit 123: Storage unit 124: I / O interface 125: Communication interface 126: Bus 130: Position sensor 200: Virtual space 300: Virtual camera 400: Movement path CV: Field of view FC: First target object (an example of a target object)
SC: second target object (an example of a target object)
TP: Transparent processing object (an example of a specific processing object)
H: Virtual hand object (an example of an operation object)

Claims (10)

ヘッドマウントデバイスを備えたシステムにおける表示制御方法であって、
想カメラと対象オブジェクトとを含む仮想空間を定義する仮想空間データを生成するステップと、
記仮想カメラの視野および前記仮想空間データに基づいて前記ヘッドマウントデバイスに視野画像を表示させるステップと、
記ヘッドマウントデバイスの動きに基づいて前記仮想カメラを動かすことで前記視野画像を更新するステップと、
ユーザの入力操作に基づいて、前記仮想カメラから遠い側に開口を有する図形で構成される特定処理オブジェクトを前記仮想空間内に表示させるステップと、
記視野内における前記特定処理オブジェクトよりも前記仮想カメラ側に前記対象オブジェクトの少なくとも一部が存在するか否かを判定するステップと、
記特定処理オブジェクトを移動させることにより、前記特定処理オブジェクトより前記仮想カメラ側に少なくとも一部が存在すると判定された前記対象オブジェクトの前記少なくとも一部を透過処理するステップと、
を含む、表示制御方法。
A display control method in a system including a head mounted device,
Generating a virtual space data defining a virtual space including a virtual camera and the target object,
A step of displaying the viewing image on the head mounted device based on the previous SL virtual camera view and the virtual space data,
And updating the view image by moving the virtual camera based on the motion of prior SL head-mounted device,
Based on a user input operation, displaying in the virtual space a specific processing object composed of a figure having an opening on the side far from the virtual camera;
Determining whether at least a portion is present in the target object in the virtual camera than the specific treatment object before Symbol the field of view,
By moving the pre Symbol specific processing object, comprising the steps of: transmitting processing said at least a portion of the target object is determined to at least a portion is present than before the SL specific treatment object in the virtual camera,
Including a display control method.
前記対象オブジェクトの前記少なくとも一部を透過処理するステップでは、前記開口を形成する二次元的な前記図形の三次元直交座標系における位置および傾きを変更することによって、前記仮想空間において透過処理する二次元的な領域の三次元直交座標系における位置および傾きが変更される、請求項1に記載の表示制御方法。 In the step of performing transparent processing on the at least part of the target object , the transparent processing is performed in the virtual space by changing the position and inclination of the two-dimensional figure forming the opening in the three-dimensional orthogonal coordinate system. The display control method according to claim 1, wherein the position and inclination of the three-dimensional region in the three-dimensional orthogonal coordinate system are changed. 前記対象オブジェクトの前記少なくとも一部を透過処理するステップでは、前記特定処理オブジェクトの前記開口の大きさが変更可能である、請求項1または2に記載の表示制御方法。 The display control method according to claim 1, wherein the size of the opening of the specific processing object can be changed in the step of transparently processing the at least part of the target object . 前記システムは、前記ヘッドマウントデバイスの位置とユーザの頭部以外の身体の一部の位置を検出するように構成された位置センサをさらに備え、
前記仮想空間は、前記ユーザの身体の前記一部の動きに応じて動作可能な操作オブジェクトをさらに含み、
前記対象オブジェクトの前記少なくとも一部を透過処理するステップでは、前記操作オブジェクトの動きに基づいて前記特定処理オブジェクトを移動可能である、請求項1から3のいずれか一項に記載の表示制御方法。
The system further comprises a position sensor configured to detect the position of the head mounted device and the position of a body part other than the user's head;
The virtual space further includes an operation object operable according to the movement of the part of the user's body,
4. The display control method according to claim 1, wherein in the step of transparently processing the at least part of the target object, the specific processing object can be moved based on a movement of the operation object. 5.
前記システムは、前記ヘッドマウントデバイスの位置とユーザの頭部以外の身体の一部の位置を検出するように構成された位置センサをさらに備え、
前記仮想空間は、前記ユーザの身体の前記一部の動きに応じて動作可能な操作オブジェクトをさらに含み、
前記対象オブジェクトの前記少なくとも一部を透過処理するステップにおいて、前記開口の大きさは、前記操作オブジェクトの形状に基づいて変更可能である、請求項3に記載の表示制御方法。
The system further comprises a position sensor configured to detect the position of the head mounted device and the position of a body part other than the user's head;
The virtual space further includes an operation object operable according to the movement of the part of the user's body,
The display control method according to claim 3, wherein the size of the opening can be changed based on a shape of the operation object in the step of transparently processing the at least part of the target object .
前記対象オブジェクトの前記少なくとも一部を透過処理するステップでは、前記特定処理オブジェクトより前記仮想カメラ側に少なくとも一部が存在すると判定された複数の対象オブジェクトのうち、前記仮想カメラに最も近い対象オブジェクトのみを透過処理する、請求項1から5のいずれか一項に記載の表示制御方法。 In the step of transparently processing at least a part of the target object, only a target object closest to the virtual camera among a plurality of target objects determined to have at least a part on the virtual camera side from the specific processing object. The display control method according to any one of claims 1 to 5, wherein a transparent process is performed. 前記特定処理オブジェクトは、前記ユーザの入力操作に基づいて、前記開口よりも前記仮想カメラに近い側の部分が移動可能である、請求項1から6のいずれか一項に記載の表示制御方法。The display control method according to any one of claims 1 to 6, wherein the specific processing object is capable of moving a portion closer to the virtual camera than the opening based on an input operation of the user. 前記対象オブジェクトの前記少なくとも一部を透過処理するステップでは、前記特定処理オブジェクトより前記仮想カメラ側に少なくとも一部が存在すると判定された場合に、前記対象オブジェクトの全体を透過処理する、請求項1から7のいずれか一項に記載の表示制御方法。The transparent processing of the at least part of the target object includes transparently processing the entire target object when it is determined that at least part of the target object is present on the virtual camera side from the specific processing object. 8. The display control method according to any one of items 1 to 7. 請求項1からのいずれか一項に記載の表示制御方法をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute the display control method according to any one of claims 1 to 8 . プロセッサと、コンピュータ可読命令を記憶するメモリと、を備えた装置であって、  An apparatus comprising a processor and a memory for storing computer readable instructions,
前記コンピュータ可読命令が前記プロセッサにより実行されると、前記装置は請求項1から8のうちいずれか一項に記載の表示制御方法を実行する、装置。  The apparatus for executing the display control method according to any one of claims 1 to 8, when the computer-readable instruction is executed by the processor.
JP2016239624A 2016-12-09 2016-12-09 Display control method and program for causing a computer to execute the display control method Active JP6275809B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016239624A JP6275809B1 (en) 2016-12-09 2016-12-09 Display control method and program for causing a computer to execute the display control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016239624A JP6275809B1 (en) 2016-12-09 2016-12-09 Display control method and program for causing a computer to execute the display control method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018001535A Division JP2018106723A (en) 2018-01-09 2018-01-09 Display control method and program for causing a computer to execute the display control method

Publications (2)

Publication Number Publication Date
JP6275809B1 true JP6275809B1 (en) 2018-02-07
JP2018097477A JP2018097477A (en) 2018-06-21

Family

ID=61158409

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016239624A Active JP6275809B1 (en) 2016-12-09 2016-12-09 Display control method and program for causing a computer to execute the display control method

Country Status (1)

Country Link
JP (1) JP6275809B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114442810A (en) * 2022-01-28 2022-05-06 歌尔科技有限公司 Control method of head-mounted device, head-mounted device and storage medium

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3491832B2 (en) * 2001-01-30 2004-01-26 株式会社ナムコ GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP3701647B2 (en) * 2002-09-26 2005-10-05 コナミ株式会社 Image processing apparatus and program
JP3877077B2 (en) * 2004-08-31 2007-02-07 任天堂株式会社 Game device and image processing program
JP5824537B2 (en) * 2014-01-16 2015-11-25 キヤノン株式会社 Information processing apparatus and information processing method
JP5767371B1 (en) * 2014-07-08 2015-08-19 株式会社コロプラ Game program for controlling display of objects placed on a virtual space plane

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114442810A (en) * 2022-01-28 2022-05-06 歌尔科技有限公司 Control method of head-mounted device, head-mounted device and storage medium

Also Published As

Publication number Publication date
JP2018097477A (en) 2018-06-21

Similar Documents

Publication Publication Date Title
JP6228640B1 (en) Display control method and program for causing a computer to execute the display control method
JP6087453B1 (en) Method and program for providing virtual space
JP6058855B1 (en) Information processing method and program for causing computer to execute information processing method
JP2018120519A (en) Information processing method and program for causing computer to execute the same
JP6223533B1 (en) Information processing method and program for causing computer to execute information processing method
JP2018018326A (en) Information processing method and program for causing computer to execute information processing method
JP6535699B2 (en) INFORMATION PROCESSING METHOD, INFORMATION PROCESSING PROGRAM, AND INFORMATION PROCESSING APPARATUS
JP6207691B1 (en) Information processing method and program for causing computer to execute information processing method
JP6118444B1 (en) Information processing method and program for causing computer to execute information processing method
JP6113337B1 (en) Display control method and program for causing a computer to execute the display control method
JP6275809B1 (en) Display control method and program for causing a computer to execute the display control method
JP6266823B1 (en) Information processing method, information processing program, information processing system, and information processing apparatus
JP2018025955A (en) Information processing method, and program for causing computer to implement information processing method
JP2018106723A (en) Display control method and program for causing a computer to execute the display control method
JP2018109940A (en) Information processing method and program for causing computer to execute the same
JP2018120583A (en) Information processing method and program for causing computer to execute information processing method
JP2018185567A (en) Information processing method, information processing program, information processing system, and information processing apparatus
JP6403843B1 (en) Information processing method, information processing program, and information processing apparatus
JP2018018499A (en) Information processing method and program for causing computer to execute the method
JP2018026105A (en) Information processing method and program for causing computer to execute information processing method
JP2018026099A (en) Information processing method and program for causing computer to execute information processing method
JP2018007227A (en) Information processing method and program for computer to execute the information processing method
JP6449922B2 (en) Information processing method and program for causing computer to execute information processing method
JP6941130B2 (en) Information processing method, information processing program and information processing device
JP6205047B1 (en) Information processing method and program for causing computer to execute information processing method

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180110

R150 Certificate of patent or registration of utility model

Ref document number: 6275809

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250