JP6275809B1 - Display control method and program for causing a computer to execute the display control method - Google Patents
Display control method and program for causing a computer to execute the display control method Download PDFInfo
- Publication number
- JP6275809B1 JP6275809B1 JP2016239624A JP2016239624A JP6275809B1 JP 6275809 B1 JP6275809 B1 JP 6275809B1 JP 2016239624 A JP2016239624 A JP 2016239624A JP 2016239624 A JP2016239624 A JP 2016239624A JP 6275809 B1 JP6275809 B1 JP 6275809B1
- Authority
- JP
- Japan
- Prior art keywords
- target object
- control method
- display control
- virtual camera
- virtual space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- Position Input By Displaying (AREA)
Abstract
【課題】仮想空間における空間把握を容易にするための表示制御方法を提供する。
【解決手段】HMDを備えたシステムにおける表示制御方法であって、仮想カメラ300と対象オブジェクトFC、SCとを含む仮想空間200データを生成し、仮想カメラの視野CV、仮想空間データに基づいてHMDに視野画像を表示させ、HMDの動きに基づいて仮想カメラを動かし、視野画像を更新する。さらに、入力操作に基づいて、仮想カメラから遠い側に開口を有する図形で構成される特定処理オブジェクトTPを表示させる。視野内における特定処理オブジェクトよりも仮想カメラ側に対象オブジェクトの少なくとも一部が存在するか否かを判定し、特定処理オブジェクトを移動させることにより、仮想カメラ側に少なくとも一部が存在すると判定された対象オブジェクトの、少なくとも一部を透過処理する。
【選択図】図10A display control method for facilitating grasping of a space in a virtual space is provided.
A display control method in a system including an HMD, wherein virtual space 200 data including a virtual camera 300 and target objects FC and SC is generated, and the HMD is based on a visual field CV and virtual space data of the virtual camera. The visual field image is displayed, the virtual camera is moved based on the movement of the HMD, and the visual field image is updated. Furthermore, based on the input operation, the specific processing object TP composed of a figure having an opening on the side far from the virtual camera is displayed. It is determined whether or not at least a part of the target object exists on the virtual camera side relative to the specific processing object in the field of view, and it is determined that at least a part exists on the virtual camera side by moving the specific processing object At least a part of the target object is transparently processed.
[Selection] Figure 10
Description
本開示は、表示制御方法及び当該表示制御方法をコンピュータに実行させるためのプログラムに関する。 The present disclosure relates to a display control method and a program for causing a computer to execute the display control method.
近年、ヘッドマウントデバイス(HMD:Head‐Mounted Device)を装着して仮想現実(VR:Virtual Reality)空間に没入できるゲーム(以下、VRゲームと称することがある)が知られている。
特許文献1は、仮想空間内において、基準視線上に配置されているオブジェクトを特定し、オブジェクトの特定に応じてHMDの所定方向への頭部傾け動作に従って特定されたオブジェクトを動かすことができることが開示されている。
In recent years, games (hereinafter sometimes referred to as VR games) in which a head-mounted device (HMD: Head-Mounted Device) can be attached and immersed in a virtual reality (VR) space are known.
Patent Document 1 can identify an object arranged on a reference line of sight in a virtual space, and can move the identified object according to a head tilting operation in a predetermined direction of the HMD in accordance with the identification of the object. It is disclosed.
特許文献1では、複数のオブジェクトがHMDの視線方向に対して重なっている場合に、視認可能で、且つ、選択可能なオブジェクトは、原則として手前側のオブジェクトであるため、奥側のオブジェクトを視認および選択することが難しい。 In Patent Document 1, when a plurality of objects overlap with the line-of-sight direction of the HMD, the object that can be visually recognized and can be selected is the object on the near side in principle. And difficult to choose.
本開示は、VR空間における空間把握を容易にするための表示制御方法を提供することを目的とする。また、本開示は、当該表示制御方法をコンピュータに実行させるためのプログラムを提供することを目的とする。 An object of the present disclosure is to provide a display control method for facilitating space grasp in a VR space. Moreover, this indication aims at providing the program for making a computer perform the said display control method.
本開示が示す一態様によれば、ヘッドマウントデバイスを備えたシステムにおける表示制御方法であって、
当該表示制御方法は、
(a)仮想カメラと対象オブジェクトとを含む仮想空間を定義する仮想空間データを生成するステップと、
(b)前記仮想カメラの視野および前記仮想空間データに基づいて前記ヘッドマウントデバイスに視野画像を表示させるステップと、
(c)前記ヘッドマウントデバイスの動きに基づいて前記仮想カメラを動かすことで前記視野画像を更新するステップと、
(d)所定の入力操作に基づいて、前記仮想カメラから遠い側に開口を有する図形で構成される特定処理オブジェクトを前記仮想空間内に表示させるステップと、
(e)前記視野内における前記特定処理オブジェクトよりも前記仮想カメラ側に前記対象オブジェクトの少なくとも一部が存在するか否かを判定するステップと、
(f)前記特定処理オブジェクトを移動させることにより、前記ステップ(e)において前記特定処理オブジェクトより前記仮想カメラ側に少なくとも一部が存在すると判定された前記対象オブジェクトの前記少なくとも一部を透過処理するステップと、
を含む。
According to one aspect of the present disclosure, a display control method in a system including a head mounted device,
The display control method is
(A) generating virtual space data defining a virtual space including the virtual camera and the target object;
(B) displaying a visual field image on the head mounted device based on the visual field of the virtual camera and the virtual space data;
(C) updating the visual field image by moving the virtual camera based on the movement of the head mounted device;
(D) displaying a specific processing object formed of a graphic having an opening on the side far from the virtual camera in the virtual space based on a predetermined input operation;
(E) determining whether at least a part of the target object is present on the virtual camera side with respect to the specific processing object in the visual field;
(F) By moving the specific processing object, the at least a part of the target object determined to be present at least at the virtual camera side from the specific processing object in the step (e) is transparently processed. Steps,
including.
本開示によれば、VR空間における空間把握を容易にするための表示制御方法を提供することができる。 According to the present disclosure, it is possible to provide a display control method for facilitating space grasp in the VR space.
[本開示が示す実施形態の説明]
本開示が示す実施形態の概要を説明する。
(1)ヘッドマウントデバイスを備えたシステムにおける表示制御方法であって、
当該表示制御方法は、
(a)仮想カメラと対象オブジェクトとを含む仮想空間を定義する仮想空間データを生成するステップと、
(b)前記仮想カメラの視野および前記仮想空間データに基づいて前記ヘッドマウントデバイスに視野画像を表示させるステップと、
(c)前記ヘッドマウントデバイスの動きに基づいて前記仮想カメラを動かすことで前記視野画像を更新するステップと、
(d)所定の入力操作に基づいて、前記仮想カメラから遠い側に開口を有する図形で構成される特定処理オブジェクトを前記仮想空間内に表示させるステップと、
(e)前記視野内における前記特定処理オブジェクトよりも前記仮想カメラ側に前記対象オブジェクトの少なくとも一部が存在するか否かを判定するステップと、
(f)前記特定処理オブジェクトを移動させることにより、前記ステップ(e)において前記特定処理オブジェクトより前記仮想カメラ側に少なくとも一部が存在すると判定された前記対象オブジェクトの前記少なくとも一部を透過処理するステップと、
を含む。
[Description of Embodiments Presented by the Present Disclosure]
An overview of an embodiment indicated by the present disclosure will be described.
(1) A display control method in a system including a head mounted device,
The display control method is
(A) generating virtual space data defining a virtual space including the virtual camera and the target object;
(B) displaying a visual field image on the head mounted device based on the visual field of the virtual camera and the virtual space data;
(C) updating the visual field image by moving the virtual camera based on the movement of the head mounted device;
(D) displaying a specific processing object formed of a graphic having an opening on the side far from the virtual camera in the virtual space based on a predetermined input operation;
(E) determining whether at least a part of the target object is present on the virtual camera side with respect to the specific processing object in the visual field;
(F) By moving the specific processing object, the at least a part of the target object determined to be present at least at the virtual camera side from the specific processing object in the step (e) is transparently processed. Steps,
including.
上記方法によれば、VR空間における空間把握を容易にすることができる。 According to the above method, it is possible to easily grasp the space in the VR space.
(2)前記ステップ(f)では、前記開口を形成する二次元的な前記図形の三次元直交座標系における位置および傾きを変更することによって、前記仮想空間において透過処理する二次元的な領域の三次元直交座標系における位置および傾きが変更されても良い。 (2) In the step (f), by changing the position and inclination of the two-dimensional figure forming the opening in the three-dimensional orthogonal coordinate system, the two-dimensional area to be transparently processed in the virtual space is changed. The position and inclination in the three-dimensional orthogonal coordinate system may be changed.
上記方法によれば、三次元空間である仮想空間内において特定処理オブジェクトを任意の位置や向きに自由に動かして透過処理された視野画像を視認できるため、リッチな仮想空間体験を提供することができる。 According to the above method, since the perceived visual field image can be viewed by freely moving the specific processing object to an arbitrary position and orientation in the virtual space that is a three-dimensional space, it is possible to provide a rich virtual space experience. it can.
(3)前記ステップ(f)では、前記特定処理オブジェクトの前記開口の大きさが変更可能であっても良い。 (3) In the step (f), the size of the opening of the specific processing object may be changeable.
上記方法によれば、よりリッチな仮想空間体験を提供することができる。 According to the above method, a richer virtual space experience can be provided.
(4)前記システムは、前記ヘッドマウントデバイスの位置とユーザの頭部以外の身体の一部の位置を検出するように構成された位置センサをさらに備え、
前記仮想空間は、前記ユーザの身体の前記一部の動きに応じて動作可能な操作オブジェクトをさらに含み、
前記ステップ(f)では、前記操作オブジェクトの動きに基づいて前記特定処理オブジェクトを移動可能であっても良い。
(4) The system further includes a position sensor configured to detect a position of the head mounted device and a position of a body part other than the user's head,
The virtual space further includes an operation object operable according to the movement of the part of the user's body,
In the step (f), the specific processing object may be movable based on the movement of the operation object.
上記方法によれば、例えば、視野画像に表示される仮想手オブジェクト(ハンドデバイス)を動かすことによって、特定処理オブジェクトを任意に移動させることができる。 According to the above method, for example, the specific processing object can be arbitrarily moved by moving the virtual hand object (hand device) displayed in the visual field image.
(5)前記システムは、前記ヘッドマウントデバイスの位置とユーザの頭部以外の身体の一部の位置を検出するように構成された位置センサをさらに備え、
前記仮想空間は、前記ユーザの身体の前記一部の動きに応じて動作可能な操作オブジェクトをさらに含み、
前記ステップ(f)において、前記開口の大きさは、前記操作オブジェクトの形状に基づいて変更可能であっても良い。
(5) The system further includes a position sensor configured to detect a position of the head mounted device and a position of a body part other than the user's head,
The virtual space further includes an operation object operable according to the movement of the part of the user's body,
In the step (f), the size of the opening may be changeable based on the shape of the operation object.
上記方法によれば、例えば、仮想手オブジェクトの指の形状によって、特定処理オブジェクトの開口の広さを任意に変更することができる。 According to the above method, for example, the size of the opening of the specific processing object can be arbitrarily changed according to the shape of the finger of the virtual hand object.
(6)前記ステップ(f)では、前記特定処理オブジェクトより前記仮想カメラ側に少なくとも一部が存在すると判定された複数の対象オブジェクトのうち、前記仮想カメラに最も近い対象オブジェクトのみを透過処理しても良い。 (6) In the step (f), only the target object closest to the virtual camera is transparently processed among the plurality of target objects determined to be at least partially present on the virtual camera side from the specific processing object. Also good.
上記方法によれば、複数の対象オブジェクトのうち奥側の対象オブジェクトまで透過処理されてしまうことを防止することができる。 According to the above-described method, it is possible to prevent a transparent target object from being subjected to a transparent process among a plurality of target objects.
(7)上記(1)から(6)のいずれかに記載の表示制御方法をコンピュータに実行させるためのプログラムである。 (7) A program for causing a computer to execute the display control method according to any one of (1) to (6) above.
この構成によれば、VR空間における空間把握を容易にするプログラムを提供することができる。 According to this configuration, it is possible to provide a program that facilitates space grasp in the VR space.
[本開示が示す実施形態の詳細]
以下、本開示が示す実施形態について図面を参照しながら説明する。なお、本実施形態の説明において既に説明された部材と同一の参照番号を有する部材については、説明の便宜上、その説明は繰り返さない。
[Details of Embodiments Presented by the Present Disclosure]
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. In addition, about the member which has the same reference number as the member already demonstrated in description of this embodiment, the description is not repeated for convenience of explanation.
図1は、本開示が示す実施形態(以下、単に本実施形態という。)に係る情報処理方法を実現するヘッドマウントデバイス(以下、単にHMDという。)システム1を示す概略図である。図1に示すように、HMDシステム1は、ユーザUの頭部に装着されたHMD110と、位置センサ130と、制御装置120と、外部コントローラ320とを備える。
FIG. 1 is a schematic diagram illustrating a head mounted device (hereinafter simply referred to as an HMD) system 1 that implements an information processing method according to an embodiment (hereinafter simply referred to as the present embodiment) described in the present disclosure. As shown in FIG. 1, the HMD system 1 includes an
HMD110は、表示部112と、HMDセンサ114と、ヘッドホン116(音声出力部の一例)とを備えている。
The
表示部112は、HMD110を装着したユーザUの視界(視野)を覆うように構成された非透過型の表示装置を備えている。HMD110は、透過型表示装置を備えており、当該透過型表示装置の透過率を調整することにより、一時的に非透過型の表示装置として構成可能であってもよい。これにより、ユーザUは、表示部112に表示された視野画像のみを見ることで仮想空間に没入することができる。なお、表示部112は、ユーザUの左眼に投影される左眼用の表示部とユーザUの右眼に投影される右眼用の表示部とから構成されてもよい。
The
HMDセンサ114は、HMD110の表示部112の近傍に搭載される。HMDセンサ114は、地磁気センサ、加速度センサ、傾きセンサ(角速度センサやジャイロセンサ等)のうちの少なくとも1つを含み、ユーザUの頭部に装着されたHMD110の各種動きを検出することができる。
The
ヘッドホン116は、ユーザUの左耳と右耳にそれぞれ装着されている。ヘッドホン116は、制御装置120から音声データ(電気信号)を受信し、当該受信した音声データに基づいて音声を出力するように構成されている。ヘッドホン116の右耳用のスピーカに出力される音声は、ヘッドホン116の左耳用のスピーカに出力される音声と異なってもよい。例えば、制御装置120は、頭部伝達関数に基づいて、右耳用スピーカに入力される音声データと、左耳用スピーカに入力される音声データを取得し、当該異なる2つの音声データをヘッドホン116の左耳用スピーカと右耳用スピーカのそれぞれに出力してもよい。なお、HMD110にヘッドホン116を設けずに、HMD110とは独立したスピーカ(例えば、2つの据置型スピーカ)やイヤホンを設けてもよい。
The
位置センサ130は、例えば、ポジション・トラッキング・カメラにより構成され、HMD110の位置を検出するように構成されている。位置センサ130は、制御装置120に無線または有線により通信可能に接続されており、HMD110に設けられた図示しない複数の検知点の位置、傾きまたは発光強度に関する情報を検出するように構成されている。また、位置センサ130は、赤外線センサや複数の光学カメラを含んでもよい。
The
制御装置120は、位置センサ130から取得された情報に基づいて、HMD110の位置情報を取得し、当該取得された位置情報に基づいて、仮想空間における仮想カメラの位置と、現実空間におけるHMD110を装着したユーザUの位置を正確に対応付けることができる。
The
次に、図2を参照して、HMD110の位置や傾きに関する情報を取得する方法について説明する。図2は、HMD110を装着したユーザUの頭部を示す図である。HMD110を装着したユーザUの頭部の動きに連動したHMD110の位置や傾きに関する情報は、位置センサ130および/またはHMD110に搭載されたHMDセンサ114により検出可能である。図2に示すように、HMD110を装着したユーザUの頭部を中心として、3次元座標(uvw座標)が規定される。ユーザUが直立する垂直方向をv軸として規定し、v軸と直交し表示部112の中心とユーザUとを結ぶ方向をw軸として規定し、v軸およびw軸と直交する方向をu軸として規定する。位置センサ130および/またはHMDセンサ114は、各uvw軸回りの角度(すなわち、v軸を中心とする回転を示すヨー角、u軸を中心とした回転を示すピッチ角、w軸を中心とした回転を示すロール角で決定される傾き)を検出する。制御装置120は、検出された各uvw軸回りの角度変化に基づいて、視野情報を定義する仮想カメラの視軸を制御するための角度情報を決定する。
Next, with reference to FIG. 2, a method for acquiring information related to the position and inclination of the
次に、図3を参照して、制御装置120のハードウェア構成について説明する。図3に示すように、制御装置120は、制御部121と、記憶部123と、I/O(入出力)インターフェース124と、通信インターフェース125と、バス126とを備える。制御部121と、記憶部123と、I/Oインターフェース124と、通信インターフェース125とは、バス126を介して互いに通信可能に接続されている。
Next, the hardware configuration of the
制御装置120は、HMD110とは別体に、パーソナルコンピュータ、タブレットまたはウェアラブルデバイスとして構成されてもよいし、HMD110の内部に搭載されていてもよい。また、制御装置120の一部の機能がHMD110に搭載されると共に、制御装置120の残りの機能がHMD110とは別体の他の装置に搭載されてもよい。
The
制御部121は、メモリとプロセッサを備えている。メモリは、例えば、各種プログラム等が格納されたROM(Read Only Memory)やプロセッサにより実行される各種プログラム等が格納される複数ワークエリアを有するRAM(Random Access Memory)等から構成される。プロセッサは、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)および/またはGPU(Graphics Processing Unit)であって、ROMに組み込まれた各種プログラムから指定されたプログラムをRAM上に展開し、RAMとの協働で各種処理を実行するように構成されている。
The
特に、プロセッサが本実施形態に係る情報処理方法をコンピュータに実行させるための情報処理プログラム(後述する)をRAM上に展開し、RAMとの協働で当該プログラムを実行することで、制御部121は、制御装置120の各種動作を制御してもよい。制御部121は、メモリや記憶部123に格納された所定のアプリケーション(ゲームプログラム)を実行することで、HMD110の表示部112に仮想空間(視野画像)を提供する。これにより、ユーザUは、表示部112に提供された仮想空間に没入することができる。
In particular, the
記憶部(ストレージ)123は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、USBフラッシュメモリ等の記憶装置であって、プログラムや各種データを格納するように構成されている。記憶部123には、情報処理プログラムが組み込まれてもよい。また、ユーザの認証プログラムや各種画像やオブジェクトに関するデータを含むゲームプログラム等が格納されてもよい。さらに、記憶部123には、各種データを管理するためのテーブルを含むデータベースが構築されてもよい。
The storage unit (storage) 123 is a storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), or a USB flash memory, and is configured to store programs and various data. The
I/Oインターフェース124は、位置センサ130と、HMD110と、ヘッドホン116と、外部コントローラ320と、をそれぞれ制御装置120に通信可能に接続するように構成されており、例えば、USB(Universal Serial Bus)端子、DVI(Digital Visual Interface)端子、HDMI(登録商標)(High―Definition Multimedia Interface)端子等により構成されている。なお、制御装置120は、位置センサ130と、HMD110と、ヘッドホン116と、外部コントローラ320とのそれぞれと無線接続されていてもよい。
The I /
通信インターフェース125は、制御装置120をLAN(Local Area Network)、WAN(Wide Area Network)またはインターネット等の通信ネットワーク3に接続させるように構成されている。通信インターフェース125は、通信ネットワーク3を介して外部装置と通信するための各種有線接続端子や、無線接続のための各種処理回路を含んでおり、通信ネットワーク3を介して通信するための通信規格に適合するように構成されている。
The
次に、図4から図6を参照することで視野画像をHMD110に表示するための処理について説明する。図4は、視野画像をHMD110に表示するための処理を示すフローチャートである。図5は、仮想空間200の一例を示すxyz空間図を示す。図6の状態(a)は、図5に示す仮想空間200のyx平面図であって、図6の状態(b)は、図5に示す仮想空間200のzx平面図である。
Next, processing for displaying a field-of-view image on the
図4に示すように、ステップS1において、制御部121(図3参照)は、仮想カメラ300を含む仮想空間200を定義する仮想空間データを生成する。図5および図6に示すように、仮想空間200は、中心位置21を中心とした全天球として規定される(図5および図6では、上半分の天球のみが図示されている)。また、仮想空間200には、中心位置21を原点とするxyz座標系が設定されている。HMDシステム1の初期状態では、仮想カメラ300が仮想空間200の中心位置21に配置されている。
仮想カメラ300の視野を定義するuvw座標系は、現実空間におけるユーザUの頭部を中心として規定されたuvw座標系に連動するように決定される。また、HMD110を装着したユーザUの現実空間における移動に連動して、仮想カメラ300を仮想空間200内で移動させてもよい。
As shown in FIG. 4, in step S <b> 1, the control unit 121 (see FIG. 3) generates virtual space data that defines the
The uvw coordinate system that defines the visual field of the
次に、ステップS2において、制御部121は、仮想カメラ300の視野CV(図6参照)を特定する。具体的には、制御部121は、位置センサ130および/またはHMDセンサ114から送信されたHMD110の状態を示すデータに基づいて、HMD110の位置や傾きに関する情報を取得する。次に、制御部121は、HMD110の位置や傾きに関する情報に基づいて、仮想空間200内における仮想カメラ300の位置や向きを決定する。次に、制御部121は、仮想カメラ300の位置や向きから仮想カメラ300の視軸に相当する基準視線Lを決定し、決定された基準視線Lから仮想カメラ300の視野CVを特定する。ここで、仮想カメラ300の視野CVは、HMD110を装着したユーザUが視認可能な仮想空間200の一部の領域と一致する。換言すれば、視野CVは、HMD110に表示される仮想空間200の一部の領域に一致する。また、視野CVは、図6の状態(a)に示すxy平面において、基準視線Lを中心とした極角θαの角度範囲として設定される第1領域CVaと、図6の状態(b)に示すxz平面において、基準視線Lを中心とした方位角θβの角度範囲として設定される第2領域CVbとを有する。
Next, in step S2, the
このように、制御部121は、位置センサ130および/またはHMDセンサ114からのデータに基づいて、仮想カメラ300の視野CVを特定することができる。ここで、HMD110を装着したユーザUが動くと、制御部121は、位置センサ130および/またはHMDセンサ114から送信されたHMD110の動きを示すデータに基づいて、仮想カメラ300の視野CVを特定することができる。つまり、制御部121は、HMD110の動きに応じて、視野CVを移動させることができる。
As described above, the
次に、ステップS3において、制御部121は、HMD110の表示部112に表示される視野画像を示す視野画像データを生成する。具体的には、制御部121は、仮想空間200を規定する仮想空間データと、仮想カメラ300の視野CVとに基づいて、視野画像データを生成する。すなわち、仮想カメラ300の視野CVにより、仮想空間データのうち視野画像データとして描画される範囲が定まる。
Next, in step S <b> 3, the
次に、ステップS4において、制御部121は、視野画像データに基づいて、HMD110の表示部112に視野画像を表示する。このように、HMD110を装着しているユーザUの動きに応じて、仮想カメラ300の視野CVが変化し、HMD110に表示される視野画像Vが変化するので、ユーザUは仮想空間200に没入することができる。
Next, in step S <b> 4, the
次に、本実施形態に係る表示制御方法について、図7から図11を参照して説明する。図7は、本実施形態に係る表示制御方法を説明するためのフローチャートである。図8から図11は、本実施形態に係る表示制御方法で規定される仮想空間の模式図、および、当該仮想空間に基づいて生成される視野画像である。 Next, the display control method according to the present embodiment will be described with reference to FIGS. FIG. 7 is a flowchart for explaining the display control method according to the present embodiment. 8 to 11 are a schematic diagram of a virtual space defined by the display control method according to the present embodiment, and a visual field image generated based on the virtual space.
最初に、図8の状態(a)に示すように、仮想空間200は、仮想カメラ300と、第一の対象オブジェクトFCと、第二の対象オブジェクトSCと、を含む。制御部121は、これらのオブジェクトを含む仮想空間200を規定する仮想空間データを生成している。
First, as shown in the state (a) of FIG. 8, the
仮想カメラ300は、ユーザUが操作するHMDシステム1に関連付けられている。すなわち、ユーザUが装着するHMD110の動きに応じて仮想カメラ300の位置や向き(すなわち、仮想カメラ300の視野CV)が変更される。なお、図8等においては、仮想カメラ300が仮想空間200の中心から離れた位置に配置されているが、仮想カメラ300は、仮想空間200の中心に配置されていても良い。
The
仮想空間200内には、ゲームプログラムの進行に応じて複数の対象オブジェクトが配置され得るが、説明の容易化のため、本例では第一の対象オブジェクトFCおよび第二の対象オブジェクトSCのみを図示している。第一の対象オブジェクトFCは、第二の対象オブジェクトSCよりも仮想カメラ300に対して手前側に配置されているオブジェクトである。本実施形態では、第一の対象オブジェクトFCは、例えば樹木のオブジェクトであり、第二の対象オブジェクトSCは、例えば、他のユーザや制御部が制御可能な敵キャラクタである。
In the
上述の通り、第二の対象オブジェクトSCよりも大きな第一の対象オブジェクトFCが第二の対象オブジェクトSCの手前に配置されている場合、図8の状態(b)に示すように、HMD110の表示部112に表示される視野画像Vにおいては、奥側の第二の対象オブジェクトSCは第一の対象オブジェクトFCで隠れてしまいユーザが視認することができない。
As described above, when the first target object FC larger than the second target object SC is arranged in front of the second target object SC, the display of the
そこで、本実施形態では、仮想空間での空間把握を容易にするための透過処理オブジェクトTP(特定処理オブジェクトの一例)をユーザUの入力操作に基づいて仮想空間200内に配置可能(視野画像V内に表示可能)としている。この透過処理オブジェクトTPに関する表示制御方法について図7等を参照して以下説明する。
Therefore, in the present embodiment, a transparent processing object TP (an example of a specific processing object) for facilitating the understanding of the space in the virtual space can be arranged in the
まず、制御部121は、ユーザUが所定のモード(例えば、ビューモード)を選択したか否かを判定する(図7のステップS10)。このビューモードは、例えば、視野画像V内に表示されるメニュー画面(不図示)等から、ユーザUが外部コントローラ320を操作して選択し得る。あるいは、ユーザUの視線方向を検出するアイ・トラッキング・センサ(注視センサ)を設け、当該アイ・トラッキング・センサでの検知に基づいて制御部121においてビューモードが選択されたと判定されても良い。
First, the
ユーザUの入力操作によりビューモードが選択されたと判定された場合には(ステップS10のYes)、制御部121は、図9の状態(a)に示すように、仮想空間200内の所定の位置に、透過処理オブジェクトTPを配置する(ステップS12)。具体的には、仮想空間200のうち仮想カメラ300の視野CV内に透過処理オブジェクトTPを配置することが好ましい。これにより、図9の状態(b)に示すように、視野画像V内の所定位置に、当該透過処理オブジェクトTPが表示される。透過処理オブジェクトTPは、仮想カメラ300から遠い側に開口を有する二次元的な図形、例えば、仮想カメラ300側に頂点があり仮想カメラ300から遠い側に開口があるV字状の図形オブジェクトとして構成されている。この透過処理オブジェクトTPは、ユーザUの入力操作によって、仮想空間200を構成する三次元直交座標系における位置および傾きが変更可能である。
When it is determined that the view mode is selected by the input operation of the user U (Yes in step S10), the
次に、制御部121は、視野CV内における透過処理オブジェクトTPよりも仮想カメラ300側に対象オブジェクト(例えば、第一の対象オブジェクトFCや第二の対象オブジェクトSC)の少なくとも一部が存在するか否かを判定する(ステップS14)。ここで、「透過処理オブジェクトTPよりも仮想カメラ300側に対象オブジェクトの少なくとも一部が存在する」とは、二次元的なV字型オブジェクトである透過処理オブジェクトTPが対象オブジェクトにかかる、すなわち、対象オブジェクトと重複するような位置に配置されたことを意味する。
Next, the
透過処理オブジェクトTPよりも仮想カメラ300側に第一の対象オブジェクトFCや第二の対象オブジェクトSCの少なくとも一部が存在しないと判定された場合には(ステップS14のNo)、制御部121は、透過処理オブジェクトTPに対するユーザUの入力操作を受け付けたか否かを判定する(ステップS16)。当該入力操作には、透過処理オブジェクトTPの移動だけではなく、傾き(向き)の変更や、開口角度の調整も含まれる。例えば、ユーザUが外部コントローラ320を操作することで、透過処理オブジェクトTPに対する入力操作信号が制御部121へと送信される。
When it is determined that at least a part of the first target object FC or the second target object SC does not exist on the
透過処理オブジェクトTPに対するユーザUの入力操作を受け付けたと判定された場合には(ステップS16のYes)、制御部121は、当該入力操作に基づいて、透過処理オブジェクトTPを制御する(ステップS18)。例えば、透過処理オブジェクトTPの移動に関する入力操作を受け付けた場合には、制御部121は、当該入力操作に応じて、透過処理オブジェクトTPを移動させる。例えば、図10の状態(a)に示すように、制御部121は透過処理オブジェクトTPを初期位置よりも右側に移動させる。これにより、図10の状態(b)に示すように、視野画像V内においても透過処理オブジェクトTPが右側に移動される。その後、制御部121は、処理をステップS14へ戻す。
When it is determined that the input operation of the user U with respect to the transparent processing object TP is received (Yes in step S16), the
ステップS14において、透過処理オブジェクトTPよりも仮想カメラ300側に対象オブジェクト(第一の対象オブジェクトFCや第二の対象オブジェクトSC)の少なくとも一部が存在すると判定された場合には(ステップS14のYes)、制御部121は、当該対象オブジェクトを透過処理する(ステップS20)。例えば、図10の状態(a)に示すように、透過処理オブジェクトTPが初期位置よりも右側に移動されることにより、第一の対象オブジェクトFCの少なくとも一部が透過処理オブジェクトTPよりも仮想カメラ300側に存在することとなった場合には、制御部121は、第一の対象オブジェクトFCを透過処理(例えば、完全に透明化)する(図11の状態(a)参照)。これにより、図11の状態(b)に示すように、視野画像Vでは第一の対象オブジェクトFCが透過処理され、第一の対象オブジェクトFCよりも仮想カメラ300に対して奥側に存在している第二の対象オブジェクトSCが視認可能な状態となる。なお、対象オブジェクトの透過処理は、完全透過に限られず、その奥が視認可能な程度であれば半透過であっても良い。
If it is determined in step S14 that at least a part of the target object (first target object FC or second target object SC) is present on the
その後、制御部121は、処理をステップS16へ戻し、ユーザUの入力操作を受け付けた場合には、当該入力操作に基づいて透過処理オブジェクトTPを制御しつつ(ステップS18)、透過処理オブジェクトTPと重複することとなった所定の対象オブジェクトを透過処理する(ステップS14およびステップS20)。すなわち、制御部121が、ユーザの入力操作に基づいて、開口を形成する二次元的な透過処理オブジェクトTPの三次元直交座標系における位置および傾きを変更することによって、仮想空間200において透過処理する二次元的な領域の三次元直交座標系における位置および傾きが変更される。これにより、三次元空間である仮想空間内において透過処理オブジェクトTPを任意の位置や向きに自由に動かして透過処理された視野画像を視認できるため、リッチな仮想空間体験を提供することができる。
Thereafter, the
また、ステップS20の後に、制御部121は、ユーザUがビューモードの選択を解除したか否かを判定する(ステップS22)。ビューモードの選択解除は、例えば、ユーザUによる外部コントローラ320の操作や、アイ・トラッキング・センサでの検知により判定可能である。ユーザUがビューモードの選択を解除したと判定された場合には(ステップS22のYes)、制御部121は、透過処理オブジェクトTPを非表示とするとともに、透過処理オブジェクトTPにより透過処理されていた第一の対象オブジェクトFCを非透過とする(ステップS24)。これにより、図8の状態(a)に示す仮想空間200の状態に戻り、ユーザUは図8の状態(b)に示す視野画像Vを視認可能となる。すなわち、第二の対象オブジェクトSCは、第一の対象オブジェクトFCによって再び隠される。その後、制御部121は、処理をステップS10へ戻す。
Further, after step S20, the
以上説明したように、本実施形態によれば、制御部121は、ユーザUの入力操作に基づいて、仮想カメラ300から遠い側に開口を有するV字型の透過処理オブジェクトTPを仮想空間200内に表示させ、視野CV内における透過処理オブジェクトTPよりも仮想カメラ300側に対象オブジェクトFC,SCの少なくとも一部が存在するか否かを判定し、透過処理オブジェクトTPを移動させることにより、透過処理オブジェクトTPよりも仮想カメラ300側に少なくとも一部が存在すると判定された対象オブジェクト(例えば、第一の対象オブジェクトFC)を透過処理する。これにより、ユーザUは第一の対象オブジェクトFCによって隠れていた奥側の第二の対象オブジェクトSCを視認できるようになり、VR空間における空間把握が容易となる。
As described above, according to the present embodiment, the
なお、本例においては、透過処理オブジェクトTPの移動や各種調整(開口角度や向きの調整など)を、外部コントローラ320の入力操作に応じて行っているが、この例に限られない。例えば、図12に示すように、仮想空間200内にユーザUの入力操作により操作可能な仮想手オブジェクトH(操作オブジェクトの一例)を配置し、当該仮想手オブジェクトHで透過処理オブジェクトTPを掴んで移動させるような態様であってもよい。これにより、より直感的に透過処理オブジェクトTPを制御することができる。
In this example, the movement of the transparent processing object TP and various adjustments (such as adjustment of the opening angle and direction) are performed according to the input operation of the
また、図13に示すように、透過処理オブジェクトTPの開口角度θを仮想手オブジェクトHの例えば親指と人差し指とで形成されるV字形に対応させ、仮想手オブジェクトHの指で形成されるV字形の角度を変化させることで開口角度θを変化させても良い。これにより、より直感的に透過処理オブジェクトTPを制御することができる。 Further, as shown in FIG. 13, the opening angle θ of the transparent processing object TP is made to correspond to the V shape formed by the virtual hand object H, for example, the thumb and the index finger, and the V shape formed by the finger of the virtual hand object H. The opening angle θ may be changed by changing the angle. Thereby, it is possible to control the transparent processing object TP more intuitively.
なお、本例においては、透過処理オブジェクトTPは、仮想カメラ300から遠い側に開口を有する二次元的な図形であれば、その形状は図8等に示されるものに限られない。例えば、図14の状態(a)に示すような曲線形状(U字状)の透過処理オブジェクトTP1や、図14の状態(b)に示すような分離された形状の透過処理オブジェクトTP2であっても良い。
In this example, as long as the transparent object TP is a two-dimensional figure having an opening on the side far from the
(変形例1)
図15は、変形例1に係る表示制御方法で規定される仮想空間の模式図である。図16の状態(a)は、変形例1に係る表示制御方法で規定される仮想空間の模式図であり、図16の状態(b)は、当該仮想空間に基づいて生成される視野画像である。
図15に示すように、仮想空間200内において重なった第一の対象オブジェクトFCおよび第二の対象オブジェクトSCの両者の一部が透過処理オブジェクトTPよりも仮想カメラ300側に存在するようになった場合には、制御部121は、第一の対象オブジェクトFCおよび第二の対象オブジェクトSCをともに透過処理しても良く、図16の状態(a)に示すように、手前側の第一の対象オブジェクトFCのみを透過処理し、奥側の第二の対象オブジェクトSCは透過処理しないようにしても良い。後者の場合は、図16の状態(b)に示すように、視野画像V内において奥側の第二の対象オブジェクトSCが視認可能となる。本開示は、仮想空間200内において手前側の大きな対象オブジェクト(例えば、第一の対象オブジェクトFC)によって奥側の小さな対象オブジェクト(例えば、第二の対象オブジェクトSC)が隠れている場合に、奥側の対象オブジェクトを視認可能にすることを目的としているため、第一および第二の対象オブジェクトFC,SCの両方に透過処理を施すのではなく、手前側の第一の対象オブジェクトFCのみを透過処理すれば十分である。
(Modification 1)
FIG. 15 is a schematic diagram of a virtual space defined by the display control method according to the first modification. A state (a) in FIG. 16 is a schematic diagram of a virtual space defined by the display control method according to the first modification, and a state (b) in FIG. 16 is a visual field image generated based on the virtual space. is there.
As shown in FIG. 15, a part of both the first target object FC and the second target object SC that overlap in the
(変形例2)
図17の状態(a)は、変形例2に係る表示制御方法で規定される仮想空間の模式図であり、図17の状態(b)は、当該仮想空間に基づいて生成される視野画像である。
上記の実施形態においては、透過処理オブジェクトTPよりも仮想カメラ300側に第一の対象オブジェクトFCの少なくとも一部が存在すると判定された場合には、制御部121は、当該第一の対象オブジェクトFCの全体を透過処理する構成となっているが、この例に限られない。例えば、仮想空間200内に配置された第一の対象オブジェクトFCに対して透過処理オブジェクトTPがかかった場合に、制御部121は、図17の状態(a)に示すように、第一の対象オブジェクトFCの透過処理オブジェクトTPよりも手前側に存在する部分のみを透過処理するようにしても良い。これにより、図17の状態(b)に示すように、視野画像V内において手前側の第一の対象オブジェクトFCの一部が透過されて奥側の第二の対象オブジェクトSCの一部が視認可能となり、上記の実施形態と同様に、ユーザUが容易に空間把握をすることができる。
(Modification 2)
A state (a) in FIG. 17 is a schematic diagram of a virtual space defined by the display control method according to the modification 2. A state (b) in FIG. 17 is a visual field image generated based on the virtual space. is there.
In the above-described embodiment, when it is determined that at least a part of the first target object FC exists on the
以上、本開示の実施形態について説明をしたが、本発明の技術的範囲が本実施形態の説明によって限定的に解釈されるべきではない。本実施形態は一例であって、特許請求の範囲に記載された発明の範囲内において、様々な実施形態の変更が可能であることが当業者によって理解されるところである。本発明の技術的範囲は特許請求の範囲に記載された発明の範囲およびその均等の範囲に基づいて定められるべきである。 As mentioned above, although embodiment of this indication was described, the technical scope of this invention should not be limitedly interpreted by description of this embodiment. This embodiment is an example, and it is understood by those skilled in the art that various modifications can be made within the scope of the invention described in the claims. The technical scope of the present invention should be determined based on the scope of the invention described in the claims and the equivalents thereof.
制御部121によって実行される各種処理をソフトウェアによって実現するために、本実施形態に係る情報処理方法をコンピュータ(プロセッサ)に実行させるための情報処理プログラムが記憶部123またはROMに予め組み込まれていてもよい。または、情報処理プログラムは、磁気ディスク(HDD、フロッピーディスク)、光ディスク(CD−ROM,DVD−ROM、Blu−rayディスク等)、光磁気ディスク(MO等)、フラッシュメモリ(SDカード、USBメモリ、SSD等)等のコンピュータ読取可能な記憶媒体に格納されていてもよい。この場合、記憶媒体が制御装置120に接続されることで、当該記憶媒体に格納されたプログラムが、記憶部123に組み込まれる。そして、記憶部123に組み込まれた情報処理プログラムがRAM上にロードされて、プロセッサがロードされた当該プログラムを実行することで、制御部121は本実施形態に係る情報処理方法を実行する。
An information processing program for causing a computer (processor) to execute the information processing method according to the present embodiment is incorporated in advance in the
また、情報処理プログラムは、通信ネットワーク3上のコンピュータから通信インターフェース125を介してダウンロードされてもよい。この場合も同様に、ダウンロードされた当該プログラムが記憶部123に組み込まれる。
Further, the information processing program may be downloaded from a computer on the communication network 3 via the
1:HMDシステム
3:通信ネットワーク
21:中心位置
110:ヘッドマウントデバイス(HMD)
112:表示部
114:HMDセンサ
116:ヘッドホン
120:制御装置
121:制御部
123:記憶部
124:I/Oインターフェース
125:通信インターフェース
126:バス
130:位置センサ
200:仮想空間
300:仮想カメラ
400:移動経路
CV:視野
FC:第一の対象オブジェクト(対象オブジェクトの一例)
SC:第二の対象オブジェクト(対象オブジェクトの一例)
TP:透過処理オブジェクト(特定処理オブジェクトの一例)
H:仮想手オブジェクト(操作オブジェクトの一例)
1: HMD system 3: Communication network 21: Center position 110: Head mounted device (HMD)
112: Display unit 114: HMD sensor 116: Headphone 120: Control device 121: Control unit 123: Storage unit 124: I / O interface 125: Communication interface 126: Bus 130: Position sensor 200: Virtual space 300: Virtual camera 400: Movement path CV: Field of view FC: First target object (an example of a target object)
SC: second target object (an example of a target object)
TP: Transparent processing object (an example of a specific processing object)
H: Virtual hand object (an example of an operation object)
Claims (10)
仮想カメラと対象オブジェクトとを含む仮想空間を定義する仮想空間データを生成するステップと、
前記仮想カメラの視野および前記仮想空間データに基づいて前記ヘッドマウントデバイスに視野画像を表示させるステップと、
前記ヘッドマウントデバイスの動きに基づいて前記仮想カメラを動かすことで前記視野画像を更新するステップと、
ユーザの入力操作に基づいて、前記仮想カメラから遠い側に開口を有する図形で構成される特定処理オブジェクトを前記仮想空間内に表示させるステップと、
前記視野内における前記特定処理オブジェクトよりも前記仮想カメラ側に前記対象オブジェクトの少なくとも一部が存在するか否かを判定するステップと、
前記特定処理オブジェクトを移動させることにより、前記特定処理オブジェクトより前記仮想カメラ側に少なくとも一部が存在すると判定された前記対象オブジェクトの前記少なくとも一部を透過処理するステップと、
を含む、表示制御方法。 A display control method in a system including a head mounted device,
Generating a virtual space data defining a virtual space including a virtual camera and the target object,
A step of displaying the viewing image on the head mounted device based on the previous SL virtual camera view and the virtual space data,
And updating the view image by moving the virtual camera based on the motion of prior SL head-mounted device,
Based on a user input operation, displaying in the virtual space a specific processing object composed of a figure having an opening on the side far from the virtual camera;
Determining whether at least a portion is present in the target object in the virtual camera than the specific treatment object before Symbol the field of view,
By moving the pre Symbol specific processing object, comprising the steps of: transmitting processing said at least a portion of the target object is determined to at least a portion is present than before the SL specific treatment object in the virtual camera,
Including a display control method.
前記仮想空間は、前記ユーザの身体の前記一部の動きに応じて動作可能な操作オブジェクトをさらに含み、
前記対象オブジェクトの前記少なくとも一部を透過処理するステップでは、前記操作オブジェクトの動きに基づいて前記特定処理オブジェクトを移動可能である、請求項1から3のいずれか一項に記載の表示制御方法。 The system further comprises a position sensor configured to detect the position of the head mounted device and the position of a body part other than the user's head;
The virtual space further includes an operation object operable according to the movement of the part of the user's body,
4. The display control method according to claim 1, wherein in the step of transparently processing the at least part of the target object, the specific processing object can be moved based on a movement of the operation object. 5.
前記仮想空間は、前記ユーザの身体の前記一部の動きに応じて動作可能な操作オブジェクトをさらに含み、
前記対象オブジェクトの前記少なくとも一部を透過処理するステップにおいて、前記開口の大きさは、前記操作オブジェクトの形状に基づいて変更可能である、請求項3に記載の表示制御方法。 The system further comprises a position sensor configured to detect the position of the head mounted device and the position of a body part other than the user's head;
The virtual space further includes an operation object operable according to the movement of the part of the user's body,
The display control method according to claim 3, wherein the size of the opening can be changed based on a shape of the operation object in the step of transparently processing the at least part of the target object .
前記コンピュータ可読命令が前記プロセッサにより実行されると、前記装置は請求項1から8のうちいずれか一項に記載の表示制御方法を実行する、装置。 The apparatus for executing the display control method according to any one of claims 1 to 8, when the computer-readable instruction is executed by the processor.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016239624A JP6275809B1 (en) | 2016-12-09 | 2016-12-09 | Display control method and program for causing a computer to execute the display control method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016239624A JP6275809B1 (en) | 2016-12-09 | 2016-12-09 | Display control method and program for causing a computer to execute the display control method |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018001535A Division JP2018106723A (en) | 2018-01-09 | 2018-01-09 | Display control method and program for causing a computer to execute the display control method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP6275809B1 true JP6275809B1 (en) | 2018-02-07 |
| JP2018097477A JP2018097477A (en) | 2018-06-21 |
Family
ID=61158409
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016239624A Active JP6275809B1 (en) | 2016-12-09 | 2016-12-09 | Display control method and program for causing a computer to execute the display control method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6275809B1 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN114442810A (en) * | 2022-01-28 | 2022-05-06 | 歌尔科技有限公司 | Control method of head-mounted device, head-mounted device and storage medium |
Family Cites Families (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP3491832B2 (en) * | 2001-01-30 | 2004-01-26 | 株式会社ナムコ | GAME DEVICE AND INFORMATION STORAGE MEDIUM |
| JP3701647B2 (en) * | 2002-09-26 | 2005-10-05 | コナミ株式会社 | Image processing apparatus and program |
| JP3877077B2 (en) * | 2004-08-31 | 2007-02-07 | 任天堂株式会社 | Game device and image processing program |
| JP5824537B2 (en) * | 2014-01-16 | 2015-11-25 | キヤノン株式会社 | Information processing apparatus and information processing method |
| JP5767371B1 (en) * | 2014-07-08 | 2015-08-19 | 株式会社コロプラ | Game program for controlling display of objects placed on a virtual space plane |
-
2016
- 2016-12-09 JP JP2016239624A patent/JP6275809B1/en active Active
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN114442810A (en) * | 2022-01-28 | 2022-05-06 | 歌尔科技有限公司 | Control method of head-mounted device, head-mounted device and storage medium |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2018097477A (en) | 2018-06-21 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6228640B1 (en) | Display control method and program for causing a computer to execute the display control method | |
| JP6087453B1 (en) | Method and program for providing virtual space | |
| JP6058855B1 (en) | Information processing method and program for causing computer to execute information processing method | |
| JP2018120519A (en) | Information processing method and program for causing computer to execute the same | |
| JP6223533B1 (en) | Information processing method and program for causing computer to execute information processing method | |
| JP2018018326A (en) | Information processing method and program for causing computer to execute information processing method | |
| JP6535699B2 (en) | INFORMATION PROCESSING METHOD, INFORMATION PROCESSING PROGRAM, AND INFORMATION PROCESSING APPARATUS | |
| JP6207691B1 (en) | Information processing method and program for causing computer to execute information processing method | |
| JP6118444B1 (en) | Information processing method and program for causing computer to execute information processing method | |
| JP6113337B1 (en) | Display control method and program for causing a computer to execute the display control method | |
| JP6275809B1 (en) | Display control method and program for causing a computer to execute the display control method | |
| JP6266823B1 (en) | Information processing method, information processing program, information processing system, and information processing apparatus | |
| JP2018025955A (en) | Information processing method, and program for causing computer to implement information processing method | |
| JP2018106723A (en) | Display control method and program for causing a computer to execute the display control method | |
| JP2018109940A (en) | Information processing method and program for causing computer to execute the same | |
| JP2018120583A (en) | Information processing method and program for causing computer to execute information processing method | |
| JP2018185567A (en) | Information processing method, information processing program, information processing system, and information processing apparatus | |
| JP6403843B1 (en) | Information processing method, information processing program, and information processing apparatus | |
| JP2018018499A (en) | Information processing method and program for causing computer to execute the method | |
| JP2018026105A (en) | Information processing method and program for causing computer to execute information processing method | |
| JP2018026099A (en) | Information processing method and program for causing computer to execute information processing method | |
| JP2018007227A (en) | Information processing method and program for computer to execute the information processing method | |
| JP6449922B2 (en) | Information processing method and program for causing computer to execute information processing method | |
| JP6941130B2 (en) | Information processing method, information processing program and information processing device | |
| JP6205047B1 (en) | Information processing method and program for causing computer to execute information processing method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171212 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180110 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6275809 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |