JP2014219621A - Display device and display control program - Google Patents
Display device and display control program Download PDFInfo
- Publication number
- JP2014219621A JP2014219621A JP2013100076A JP2013100076A JP2014219621A JP 2014219621 A JP2014219621 A JP 2014219621A JP 2013100076 A JP2013100076 A JP 2013100076A JP 2013100076 A JP2013100076 A JP 2013100076A JP 2014219621 A JP2014219621 A JP 2014219621A
- Authority
- JP
- Japan
- Prior art keywords
- display
- image
- virtual space
- line
- eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 claims description 19
- 210000001508 eye Anatomy 0.000 description 22
- 210000000695 crystalline len Anatomy 0.000 description 20
- 210000005252 bulbus oculi Anatomy 0.000 description 17
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000000034 method Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 6
- 239000004973 liquid crystal related substance Substances 0.000 description 5
- 210000001747 pupil Anatomy 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 210000001525 retina Anatomy 0.000 description 3
- 239000000470 constituent Substances 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 210000004087 cornea Anatomy 0.000 description 1
- 239000013078 crystal Substances 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/02—Viewing or reading apparatus
-
- G02B27/22—
-
- H04N13/04—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/64—Constructional details of receivers, e.g. cabinets or dust covers
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
本発明は、ヘッドマウントディスプレイ等の表示装置、及び表示装置を制御するための表示制御プログラムに関する。 The present invention relates to a display device such as a head mounted display, and a display control program for controlling the display device.
ゲーム用の画像や映画などのコンテンツの映像等を表示する表示装置としてヘッドマウントディスプレイ(HMD(head mount display))が知られている。ヘッドマウントディスプレイは、例えば左右の眼球にそれぞれ対応した位置にディスプレイを設け、各ディスプレイに画像(映像)を表示することで、1つの画像(映像)として認識できるようにした表示装置である。ヘッドマウントディスプレイは、頭部(あるいは眼前)に装着可能な小形の装置でありながら、大画面の表示装置に表示された画像(映像)を離れた位置から見ている感覚が得られる。 A head-mounted display (HMD (head mount display)) is known as a display device that displays game images, video content, and the like. The head-mounted display is a display device that can be recognized as one image (video) by providing a display at a position corresponding to each of the left and right eyeballs, for example, and displaying an image (video) on each display. The head-mounted display is a small device that can be mounted on the head (or in front of the eyes), but can provide a sense of viewing an image (video) displayed on a large-screen display device from a remote position.
また、ヘッドマウントディスプレイでは、左右の眼球にそれぞれ対応するディスプレイが設けられているため、立体画像(3D画像)を表示するために生成された左眼用の映像と右眼用の映像を各ディスプレイに表示することができる。例えば、特許文献1に記載された液晶表示装置は、画像を表示する第1の液晶ディスプレイと第2の液晶ディスプレイを用いて1つの画像を構成することができる。 In addition, since the head-mounted display is provided with a display corresponding to each of the left and right eyeballs, the left-eye video and the right-eye video generated to display a stereoscopic image (3D image) are displayed on each display. Can be displayed. For example, the liquid crystal display device described in Patent Document 1 can form one image using a first liquid crystal display and a second liquid crystal display that display an image.
特許文献1に記載された技術では、ヘッドマウントディスプレイにおいて立体画像(3D)を表示させる場合には、左眼用の映像と右眼用の映像をそれぞれ生成して、異なる映像を左眼用と右眼用のディスプレイにそれぞれ表示させている。一般には、立体画像(3D)を表示するために、視差を利用して左眼用の映像と右眼用の映像を生成している。 In the technique described in Patent Document 1, when a stereoscopic image (3D) is displayed on a head mounted display, a left-eye image and a right-eye image are generated, and different images are used for the left-eye. Each is displayed on the display for the right eye. In general, in order to display a stereoscopic image (3D), an image for the left eye and an image for the right eye are generated using parallax.
このように従来のヘッドマウントディスプレイでは、視差を利用して左眼用の映像と右眼用の映像を生成して、それぞれ左眼用と右眼用のディスプレイに表示することにより立体視を実現している。しかし、従来のヘッドマウントディスプレイでは、結像距離(認識されるディスプレイの位置)を固定にしているため、結像距離を基準距離とした特定範囲では自然な立体表現が可能となるものの、基準距離から大きく外れると違和感を生じる場合があった。すなわち、人間は、視差だけでなく、視認する対象物との距離に応じて対象物に焦点を合わせることにより立体認識しているため、結像距離を固定していると違和感を覚える場合があった。 As described above, the conventional head-mounted display uses the parallax to generate the left-eye video and the right-eye video and display them on the left-eye and right-eye displays, respectively, thereby realizing stereoscopic viewing. doing. However, in conventional head-mounted displays, the imaging distance (the position of the recognized display) is fixed, so natural three-dimensional expression is possible in a specific range with the imaging distance as the reference distance, but the reference distance If it is far from the above, there may be a sense of incongruity. In other words, since humans perform three-dimensional recognition by focusing on an object according to the distance to the object to be viewed in addition to the parallax, there may be a sense of incongruity when the imaging distance is fixed. It was.
本発明は前述した事情に考慮してなされたもので、その目的は、違和感のない立体視が可能な表示装置、表示制御プログラムを提供することにある。 The present invention has been made in view of the above-described circumstances, and an object thereof is to provide a display device and a display control program capable of stereoscopic viewing without a sense of incongruity.
上記の課題を解決するために、本発明は、左眼用の画像を表示するための第1ディスプレイと、前記第1ディスプレイに表示される左眼用の画像を拡大して虚像を形成するための、焦点距離を動的に変更可能な第1レンズユニットと、右眼用の画像を表示するための第2ディスプレイと、前記第2ディスプレイに表示される右眼用の画像を拡大して虚像を形成するための、焦点距離を動的に変更可能な第2レンズユニットと、前記第1レンズユニットと前記第2レンズユニットの焦点距離を制御する制御手段とを具備する。 In order to solve the above-described problem, the present invention forms a virtual image by enlarging a first display for displaying an image for the left eye and an image for the left eye displayed on the first display. A first lens unit capable of dynamically changing a focal length, a second display for displaying an image for the right eye, and a virtual image by enlarging the image for the right eye displayed on the second display And a control unit that controls the focal length of the first lens unit and the second lens unit.
本発明によれば、違和感のない立体視が可能となる。 According to the present invention, stereoscopic viewing without a sense of incongruity is possible.
以下、図面を参照して本発明の実施の形態について説明する。
図1は、本実施形態におけるヘッドマウントディスプレイ10の外観構成を示す図である。図1に示すヘッドマウントディスプレイ10は、例えば眼鏡型に構成されており、眼前に位置する横長の表示ユニット部14と、表示ユニット部14の両側から後方に延出された取付部材12a,12bとが設けられている。取付部材12a,12bを耳の上部に係止することで、表示ユニット部14が眼前に位置するように、ヘッドマウントディスプレイ10を装着することができる。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a diagram illustrating an external configuration of a head mounted
表示ユニット部14の内面部16の中央には、ノーズパッド18が設けられている。ノーズパッド18の左側には、左眼用の画像(映像)を表示するための表示ユニット20aが配置され、ノーズパッド18の右側には、右眼用の画像(映像)を表示するための表示ユニット20bが配置されている。
A nose pad 18 is provided at the center of the
表示ユニット20aの上部には、視線検知センサ22aが設けられ、表示ユニット20bの上部には、視線検知センサ22bが設けられている。視線検知センサ22a,22bは、ヘッドマウントディスプレイ10を装着したユーザの視線を検出するためのセンサであり、例えば表示ユニット20a,20bに近接される眼球(瞳)の画像を撮影する。
A line-of-
また、ヘッドマウントディスプレイ10は、ケーブル19を介して、ヘッドマウントディスプレイ10において表示する画像(映像)を制御する制御部30と接続される。制御部30は、表示ユニット20a,20bにおいて、左眼用画像(映像)と右眼用画像(映像)を個々に表示させることにより、立体画像(3D画像)を、ヘッドマウントディスプレイ10において表示させる。
The head mounted
なお、ヘッドマウントディスプレイ10は、図1に示すような眼鏡型に限定されるものではなく、例えば帽子型(ヘルメット型)などの他の形状であっても良い。
The head mounted
図2は、本実施形態におけるヘッドマウントディスプレイ10と制御部30の構成を示すブロック図である。
図2に示すように、ヘッドマウントディスプレイ10は、表示ユニット20a,20b、視線検知センサ22a,22b、レンズ駆動部50a,50b、表示駆動部52a,52bが設けられる。表示ユニット20aは、接眼レンズユニット54aとディスプレイ56aとを含む。また、表示ユニット20bは、接眼レンズユニット54bとディスプレイ56bとを含む。
FIG. 2 is a block diagram showing the configuration of the head mounted
As shown in FIG. 2, the head mounted
接眼レンズユニット54a,54bは、ヘッドマウントディスプレイ10を装着したユーザの眼球と、ディスプレイ56a,56bとの間に配置され(詳細については図3に示す)、レンズ駆動部50a,50bの駆動により、位置を変えることなく焦点距離を動的に変更することができる。接眼レンズユニット54a,54bは、例えば流体レンズのようにレンズの厚みを変化させるユニットや、複数のレンズを組み合わせてレンズ間の距離を変化させるユニットにより実現することができる。
The
レンズ駆動部50a,50bは、制御部30(プロセッサ40)の制御により接眼レンズユニット54a,54bを駆動して、接眼レンズユニット54a,54bの焦点距離を変更する。
The
ディスプレイ56a,56bは、例えば液晶ディスプレイ(LCD(Liquid Crystal Display))、有機EL(Electroluminescence)ディスプレイなどにより構成される。
The
表示駆動部52a,52bは、画像処理部46の制御によりディスプレイ56a,56bを駆動して、画像(映像)を表示させる。表示駆動部52aは、ディスプレイ56aにおいて左眼用の画像(映像)を表示させ、表示駆動部52bは、ディスプレイ56bにおいて右眼用の画像(映像)を表示させる。
The
制御部30は、プロセッサ40、メモリ42、記憶装置44、画像処理部46、及びI/Oインタフェース48を有している。
The
プロセッサ40は、メモリ42に記憶されたプログラムを実行することにより各種機能を実現する。プロセッサ40は、バスを介して、メモリ42、記憶装置44、画像処理部46、及びI/Oインタフェース48と相互に接続されている。
The
メモリ42は、プロセッサ40で処理されるプログラムや、プロセッサ40が処理するデータを一時的に記憶する。メモリ42に記憶されるプログラムには、画像生成プログラム42aや焦点制御プログラム42bが含まれる。
The
画像生成プログラム42aは、コンテンツデータ44aをもとに、表示ユニット20a,20b(ディスプレイ56a,56b)に表示するための画像データを生成するためのプログラムである。本実施形態の画像生成プログラム42aは、仮想空間を表現する立体画像(3D画像)をCG(computer graphics)の技術を利用してリアルタイムで生成する機能(リアルタイム3DCG生成機能)を実現する。プロセッサ40は、画像生成プログラム42aを実行することにより、立体画像(3D画像)をヘッドマウントディスプレイ10において表示させるために、左眼用の画像データと右眼用の画像データをそれぞれ生成して画像処理部46に出力する。
The
焦点制御プログラム42bは、接眼レンズユニット54a,54bの焦点を制御するためのプログラムである。焦点制御プログラム42bは、I/Oインタフェース48を介して入力される視線検知センサ22a,22bにより撮影された画像をもとに、ヘッドマウントディスプレイ10を装着しているユーザの視線を検出するための処理をプロセッサ40に実行させる。例えば、プロセッサ40は、視線検知センサ22a,22bにより撮影された画像から眼球(瞳)を抽出し、眼球(瞳)の動きを追尾することで視線を検出する。なお、視線の検出は、他の検出方法を用いることも可能である。
The
また、焦点制御プログラム42bは、ユーザの視線をもとに、画像生成プログラム42aにより表示される仮想空間中の何れのオブジェクトをユーザが注視しているか検出し、該当するオブジェクトの仮想空間中における位置に応じて、ディスプレイ56a,56bの焦点距離を変更するための処理をプロセッサ40に実行させる。
Further, the
記憶装置44は、不揮発性の記憶媒体に、制御部30を制御する各種プログラムやデータが記憶される。記憶装置44に記憶されるプログラムには、画像生成プログラムや焦点制御プログラムなどがある。また、記憶装置44には、リアルタイム3DCG生成機能によって仮想空間を表現する立体画像(3D画像)を生成するためのコンテンツデータ44aが記憶される。コンテンツデータ44aは、例えばゲーム画面をCGによって表示するためのデータであり、仮想空間(ゲーム空間)に各種のキャラクタや構造物などのオブジェクトを表示するためのデータ(CGデータ)である。各種のオブジェクトは、コンテンツデータ44aをもとにした演算処理により、仮想空間(ゲーム空間)において位置を移動し、ヘッドマウントディスプレイ10を装着したユーザからの見かけ上の距離が変化するように表現することができる。すなわち、仮想空間(ゲーム空間)におけるオブジェクトの位置は、コンテンツデータ44aをもとにした演算処理により判別することができる。
The
画像処理部46は、プロセッサ40の制御のもとで、プロセッサ40により生成される画像データに応じて、表示駆動部52a,52bを駆動して、ディスプレイ56a,56bに画像(映像)を表示させる。
I/Oインタフェース48は、視線検知センサ22a,22bとレンズ駆動部50a,50bとが接続される。
The image processing unit 46 drives the
The I / O interface 48 is connected to the line-of-
なお、図2においては、ヘッドマウントディスプレイ10と制御部30とが分離した構成例を示しているが、ヘッドマウントディスプレイ10に制御部30の各機能が搭載された構成(ヘッドマウントディスプレイ10と制御部30とを一体化した構成)としても良い。
2 shows a configuration example in which the head-mounted
次に、本実施形態におけるヘッドマウントディスプレイ10の光学系の概要について説明する。
図3は、左眼用の光学系(接眼レンズユニット54a、ディスプレイ56a)を示す図である。図3に示すように、ヘッドマウントディスプレイ10には、ヘッドマウントディスプレイ10を装着した時のユーザの眼球60と表示ユニット20aとの間に接眼レンズユニット54aが配置される。眼球60は、前面の水晶体64(及び角膜)によって光線を屈折させて、網膜62に結像させる。ユーザは、注視しようとする対象物に合わせて水晶体64の厚さを調整することで、対象物に焦点を合わせる。
Next, an outline of the optical system of the head mounted
FIG. 3 is a diagram showing an optical system for the left eye (
接眼レンズユニット54aと表示ユニット20aの取り付け位置は、固定されている。すなわち、図3中に示す網膜62と水晶体64との距離S0、眼球60(水晶体64)と接眼レンズユニット54aとの距離S1、接眼レンズユニット54aと表示ユニット20aとの距離S2、網膜62と表示ユニット20aとの距離L(S0+S1+S2)はそれぞれ固定となる。
The attachment positions of the
ヘッドマウントディスプレイ10は、眼球60と表示ユニット20aとの物理的な距離は短いが、接眼レンズユニット54aの焦点距離を調整することで、水晶体64からの距離D(仮想視聴距離)の位置に見かけ上のディスプレイがあるように認識させることができる。また、本実施形態におけるヘッドマウントディスプレイ10は、接眼レンズユニット54a,54bの焦点距離を変更することで、例えば仮想視聴距離(距離D)を数m〜20m、ディスプレイサイズを数10インチ〜750インチ程度に変更することができる。
Although the physical distance between the eyeball 60 and the
本実施形態におけるヘッドマウントディスプレイ10は、視線検知センサ22aにより検知される視線をもとに、表示ユニット20aに表示されるオブジェクトの何れをユーザが注視しているか検出し、距離S1,S2,Lを固定したままで、注視しているオブジェクトの仮想空間中の位置に応じて接眼レンズユニット54aの焦点距離を変化させる。すなわち、注視されているオブジェクトの仮想空間中の位置に、見かけ上のディスプレイがあるように接眼レンズユニット54aの焦点距離を変化させる。
The head mounted
なお、右眼用の光学系(接眼レンズユニット54b、ディスプレイ56b)も図3と同様にして構成されるものとして、詳細な説明を省略する。
Note that the right-eye optical system (the
次に、本実施形態におけるヘッドマウントディスプレイ10の動作について、図4に示すフローチャートを参照しながら説明する。
プロセッサ40は、画像生成プログラム42aを実行することにより、リアルタイム3DCG生成機能により立体画像を表示するための左眼用の画像データと右眼用の画像データとを、コンテンツデータ44aをもとに生成する。ここでは、視差を利用して立体画像を認識させるための画像データを生成する。
Next, the operation of the head mounted
The
画像処理部46は、左眼用と右眼用の画像データに応じて、それぞれ表示駆動部52a,52bを駆動する。表示駆動部52aは、左眼用の画像データに応じた画像をディスプレイ56aにおいて表示させ、表示駆動部52bは、右眼用の画像データに応じた画像をディスプレイ56bに表示させる。
The image processing unit 46 drives the
一方、プロセッサ40は、焦点制御プログラム42bを実行することにより、視線検知センサ22a,22bにより撮影された画像のデータをI/Oインタフェース48を通じて入力し、このデータから眼球(瞳)の領域を抽出し、眼球(瞳)の動きを追尾することで視線を検出する(ステップA1)。
On the other hand, by executing the
プロセッサ40は、視線をもとにして、ディスプレイ56bに表示している仮想空間中の物体の何れをユーザが注視しているかを判別する(ステップA2)。ディスプレイ56a,56bにおいて表示される画像(映像)は、CGにより作成されるため、仮想空間中のオブジェクト(仮想空間物体)の位置を、コンテンツデータ44aをもとにした演算処理により判別することができる。また、プロセッサ40は、ユーザが注視しているオブジェクトの仮想空間中における位置を検出する(ステップA3)。
Based on the line of sight, the
次に、プロセッサ40は、仮想空間中のオブジェクト(仮想空間物体)の位置に焦点が合うように、レンズ駆動部50a,50bを駆動して、接眼レンズユニット54a,54bの焦点距離を変動させる(ステップA4)。すなわち、ユーザによる見かけ上のディスプレイの位置を、注視しているオブジェクト(仮想空間物体)の位置と一致するように焦点距離を変動させる。
Next, the
図5及び図6は、仮想空間中のオブジェクト(仮想空間物体)の位置に応じた焦点距離の変動を説明するための図である。
図5は、仮想空間中の遠い位置に存在しているオブジェクトBにユーザが注視している例を示す図である。この場合、プロセッサ40は、オブジェクトBの仮想空間中の位置(ユーザからの見かけ上の距離)に応じて、接眼レンズユニット54aを短焦点状態となるように制御し、仮想空間中のオブジェクトBの位置に見かけ上のディスプレイがあるように調整する。
5 and 6 are diagrams for explaining the variation of the focal length according to the position of the object (virtual space object) in the virtual space.
FIG. 5 is a diagram illustrating an example in which the user is gazing at the object B existing at a distant position in the virtual space. In this case, the
一方、ユーザは、実際の表示ユニット20aに焦点を合わせるために、接眼レンズユニット54aが短焦点状態にされるに伴って眼球60の水晶体64を長焦点状態にする。すなわち、ユーザは、実在する遠くにある物体を見る場合と同じように、眼球60の焦点を調整する。
On the other hand, in order to focus on the
図6は、仮想空間中の近い位置に存在しているオブジェクトAにユーザが注視している例を示す図である。この場合、プロセッサ40は、オブジェクトAの仮想空間中の位置(ユーザからの見かけ上の距離)に応じて、接眼レンズユニット54aを長焦点状態となるように制御し、仮想空間中のオブジェクトAの位置に見かけ上のディスプレイがあるように調整する。
FIG. 6 is a diagram illustrating an example in which the user is gazing at the object A existing at a close position in the virtual space. In this case, the
一方、ユーザは、実際の表示ユニット20aに焦点を合わせるために、接眼レンズユニット54aが長焦点状態にされるに伴って眼球60の水晶体64を短焦点状態にする。すなわち、ユーザは、実在する近くにある物体を見る場合と同じように、眼球60の焦点を調整する。
On the other hand, in order to focus on the
なお、図5と図6では、左眼用の光学系(接眼レンズユニット54a、表示ユニット20a)について説明しているが、右眼用の光学系(接眼レンズユニット54b、表示ユニット20b)についても同様の制御が行われるものとして図示を省略する。
5 and 6 describe the left-eye optical system (the
こうして、ユーザが注視しているオブジェクトの仮想空間中の位置(ユーザからの見かけ上の距離)に応じて、接眼レンズユニット54aの焦点距離を変動させることにより、ユーザがオブジェクトまでの見かけ上の距離に応じて焦点を調整することになる。人間は、視差だけでなく、視認する対象物との距離に応じて対象物に焦点を合わせることにより立体認識している。このため、表示ユニット20a,20bにおいて視差を利用して立体画像を認識させるための画像を表示させると共に、ユーザの眼球(水晶体)による焦点の調整を加えることにより、違和感のない立体画像をユーザに認識させることができる。
Thus, the apparent distance to the object by the user is changed by changing the focal length of the
さらに、プロセッサ40は、ユーザが注視しているオブジェクトの仮想空間中の位置を基準位置とし、基準位置から奥行き方向の距離に応じて、仮想空間に存在する他のオブジェクト(物体)に対して画像処理を施す(ステップA5)。すなわち、プロセッサ40は、仮想空間を表す画像において、仮想空間の奥行き方向の距離に応じてボケを与えて、注視しているオブジェクトから離れるに従ってボケ量が増えるようにする。これにより、カメラのピント表現をすることができる。
Further, the
なお、前述した説明では、リアルタイム3DCG生成機能により立体画像を表示させる場合を例にして説明しているが、コンテンツデータ44aを2次元画像表示用のデータとすることも可能である。この場合、2次元画像について、2次元画像を3次元画像に変換するための画像処理技術(2D3D変換技術)を利用する。
In the above description, a case where a stereoscopic image is displayed by the real-time 3DCG generation function has been described as an example. However, the
2D3D変換技術では、例えば2次元画像に対して構図を識別する構図識別、時間経過に伴って変化する画像中のオブジェクトの動きを識別する動き識別などを組み合わせることにより、画像中の各オブジェクトの奥行き方向の位置を判別し、その位置に基づいて3D画像を表示するための視差画像を生成する。以下、前述した説明のとおりに、2D3D変換技術により生成された視差画像(3D画像)中の何れのオブジェクトにユーザが注視しているかを判別して、そのオブジェクトの奥行き方向の位置に応じて接眼レンズユニットの位置を制御する。 In the 2D3D conversion technique, for example, composition identification for identifying a composition with respect to a two-dimensional image, motion identification for identifying movement of an object in an image that changes over time, and the like are combined to obtain the depth of each object in the image. A position in the direction is determined, and a parallax image for displaying a 3D image is generated based on the position. Hereinafter, as described above, it is determined which object in the parallax image (3D image) generated by the 2D3D conversion technique is being watched by the user, and the eyepiece is set according to the position of the object in the depth direction. Control the position of the lens unit.
また、前述した説明では、記憶装置44に記憶されたコンテンツデータ44aをもとに画像を生成して、ヘッドマウントディスプレイ10のディスプレイ56a,56bに表示させるとしているが、外部の画像(映像)再生装置からディスプレイ56a,56bに表示させる画像データを入力するようにしても良い。
In the above description, an image is generated based on the
また、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 Further, the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.
10…ヘッドマウントディスプレイ、20a,20b…表示ユニット、22a,22b…視線検知センサ、30…制御部、40…プロセッサ、42a…画像生成プログラム、42b…焦点制御プログラム、54a,54b…接眼レンズユニット、56a,56b…ディスプレイ。
DESCRIPTION OF
Claims (5)
前記第1ディスプレイに表示される左眼用の画像を拡大して虚像を形成するための、焦点距離を動的に変更可能な第1レンズユニットと、
右眼用の画像を表示するための第2ディスプレイと、
前記第2ディスプレイに表示される右眼用の画像を拡大して虚像を形成するための、焦点距離を動的に変更可能な第2レンズユニットと、
前記第1レンズユニットと前記第2レンズユニットの焦点距離を制御する制御手段と
を具備したことを特徴とする表示装置。 A first display for displaying an image for the left eye;
A first lens unit capable of dynamically changing a focal length for enlarging a left-eye image displayed on the first display to form a virtual image;
A second display for displaying an image for the right eye;
A second lens unit capable of dynamically changing a focal length for enlarging an image for the right eye displayed on the second display to form a virtual image;
A display device comprising control means for controlling a focal length of the first lens unit and the second lens unit.
前記視線が示す仮想空間物体を検出する検出手段とをさらに具備し、
前記制御手段は、前記検出手段により検出された仮想空間物体の仮想空間中における位置に応じて、前記第1及び第2レンズユニットの焦点距離を変動させることを特徴とする請求項1記載の表示装置。 Line-of-sight detection means for detecting line-of-sight with respect to a virtual space object in an image representing the virtual space displayed on the first and second displays;
Detecting means for detecting a virtual space object indicated by the line of sight;
2. The display according to claim 1, wherein the control unit varies a focal length of the first and second lens units in accordance with a position in the virtual space of the virtual space object detected by the detection unit. apparatus.
前記第1ディスプレイの近傍に配置された第1視線検知センサと、
前記第2ディスプレイの近傍に配置された第2視線検知センサとを含むことを特徴とする請求項2記載の表示装置。 The line-of-sight detection means includes
A first line-of-sight detection sensor disposed in the vicinity of the first display;
The display device according to claim 2, further comprising a second line-of-sight detection sensor disposed in the vicinity of the second display.
前記第1ディスプレイに表示される左眼用の画像を拡大して虚像を形成するための、焦点距離を動的に変更可能な第1レンズユニットと、
右眼用の画像を表示するための第2ディスプレイと、
前記第2ディスプレイに表示される右眼用の画像を拡大して虚像を形成するための、焦点距離を動的に変更可能な第2レンズユニットとを有する表示装置を制御するコンピュータを、
前記第1及び第2ディスプレイに表示された仮想空間を表現する画像中の仮想空間物体に対する視線を検出する視線検出手段と、
前記視線が示す仮想空間物体を検出する検出手段と、
前記検出手段により検出された仮想空間物体の仮想空間中における位置に応じて、前記第1及び第2レンズユニットの焦点距離を変動させる制御手段として機能させるための表示制御プログラム。 A first display for displaying an image for the left eye;
A first lens unit capable of dynamically changing a focal length for enlarging a left-eye image displayed on the first display to form a virtual image;
A second display for displaying an image for the right eye;
A computer for controlling a display device having a second lens unit capable of dynamically changing a focal length for enlarging a right-eye image displayed on the second display to form a virtual image;
Line-of-sight detection means for detecting line-of-sight with respect to a virtual space object in an image representing the virtual space displayed on the first and second displays;
Detecting means for detecting a virtual space object indicated by the line of sight;
A display control program for functioning as control means for changing the focal lengths of the first and second lens units according to the position of the virtual space object detected by the detection means in the virtual space.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013100076A JP2014219621A (en) | 2013-05-10 | 2013-05-10 | Display device and display control program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013100076A JP2014219621A (en) | 2013-05-10 | 2013-05-10 | Display device and display control program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2014219621A true JP2014219621A (en) | 2014-11-20 |
Family
ID=51938074
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2013100076A Pending JP2014219621A (en) | 2013-05-10 | 2013-05-10 | Display device and display control program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2014219621A (en) |
Cited By (23)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPWO2016098412A1 (en) * | 2014-12-19 | 2017-04-27 | 株式会社ソニー・インタラクティブエンタテインメント | Head-mounted display device and video display system |
| US20170160798A1 (en) * | 2015-12-08 | 2017-06-08 | Oculus Vr, Llc | Focus adjustment method for a virtual reality headset |
| WO2017099824A1 (en) * | 2015-12-08 | 2017-06-15 | Oculus Vr, Llc | Focus adjusting virtual reality headset |
| US9976849B2 (en) | 2016-01-15 | 2018-05-22 | Oculus Vr, Llc | Depth mapping using structured light and time of flight |
| US9983709B2 (en) | 2015-11-02 | 2018-05-29 | Oculus Vr, Llc | Eye tracking using structured light |
| US20180157320A1 (en) * | 2016-12-01 | 2018-06-07 | Oculus Vr, Llc | Air spaced optical assembly with integrated eye tracking |
| US10025384B1 (en) | 2017-01-06 | 2018-07-17 | Oculus Vr, Llc | Eye tracking architecture for common structured light and time-of-flight framework |
| JP2018523147A (en) * | 2015-05-08 | 2018-08-16 | ビ−エイイ− システムズ パブリック リミテッド カンパニ−BAE SYSTEMS plc | Improvements in and related to displays |
| WO2018156523A1 (en) * | 2017-02-21 | 2018-08-30 | Oculus Vr, Llc | Focus adjusting multiplanar head mounted display |
| US10154254B2 (en) | 2017-01-17 | 2018-12-11 | Facebook Technologies, Llc | Time-of-flight depth sensing for eye tracking |
| JP2019507367A (en) * | 2015-12-22 | 2019-03-14 | イー−ビジョン スマート オプティックス, インク.E−Vision Smart Optics, Inc. | Dynamic focusing head mounted display |
| US10310598B2 (en) | 2017-01-17 | 2019-06-04 | Facebook Technologies, Llc | Varifocal head-mounted display including modular air spaced optical assembly |
| US10379356B2 (en) | 2016-04-07 | 2019-08-13 | Facebook Technologies, Llc | Accommodation based optical correction |
| US10429647B2 (en) | 2016-06-10 | 2019-10-01 | Facebook Technologies, Llc | Focus adjusting virtual reality headset |
| US10445860B2 (en) | 2015-12-08 | 2019-10-15 | Facebook Technologies, Llc | Autofocus virtual reality headset |
| JP2019532535A (en) * | 2016-08-04 | 2019-11-07 | ドルビー ラボラトリーズ ライセンシング コーポレイション | Single depth tracking perspective accommodation-binocular transduction solution |
| CN110891533A (en) * | 2017-05-29 | 2020-03-17 | 爱威愿景有限公司 | Eye projection system and method with focus management |
| US10610775B1 (en) * | 2017-01-04 | 2020-04-07 | Facebook Technologies, Llc | Actuation for a focus adjusting head mounted display |
| US11004222B1 (en) | 2017-01-30 | 2021-05-11 | Facebook Technologies, Llc | High speed computational tracking sensor |
| US11106276B2 (en) | 2016-03-11 | 2021-08-31 | Facebook Technologies, Llc | Focus adjusting headset |
| JP2023505230A (en) * | 2019-12-06 | 2023-02-08 | マジック リープ, インコーポレイテッド | Virtual, Augmented, and Mixed Reality Systems and Methods |
| WO2023021732A1 (en) * | 2021-08-20 | 2023-02-23 | ソニーグループ株式会社 | Display apparatus and display method |
| JP2023059918A (en) * | 2017-10-11 | 2023-04-27 | マジック リープ, インコーポレイテッド | Augmented reality display with eyepiece having transparent emissive display |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH03292093A (en) * | 1990-04-10 | 1991-12-24 | Seiko Epson Corp | Three-dimensional display device |
| JPH08223609A (en) * | 1995-02-09 | 1996-08-30 | Atr Tsushin Syst Kenkyusho:Kk | Three-dimensional display method and display device for enabling focus control |
| JPH09218376A (en) * | 1996-02-09 | 1997-08-19 | Sharp Corp | 3D display device |
| JPH10239634A (en) * | 1997-02-27 | 1998-09-11 | Minolta Co Ltd | Stereoscopic video display device |
| JP2000249974A (en) * | 1999-03-02 | 2000-09-14 | Canon Inc | Display device and stereoscopic display device |
| US20110075257A1 (en) * | 2009-09-14 | 2011-03-31 | The Arizona Board Of Regents On Behalf Of The University Of Arizona | 3-Dimensional electro-optical see-through displays |
-
2013
- 2013-05-10 JP JP2013100076A patent/JP2014219621A/en active Pending
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH03292093A (en) * | 1990-04-10 | 1991-12-24 | Seiko Epson Corp | Three-dimensional display device |
| JPH08223609A (en) * | 1995-02-09 | 1996-08-30 | Atr Tsushin Syst Kenkyusho:Kk | Three-dimensional display method and display device for enabling focus control |
| JPH09218376A (en) * | 1996-02-09 | 1997-08-19 | Sharp Corp | 3D display device |
| JPH10239634A (en) * | 1997-02-27 | 1998-09-11 | Minolta Co Ltd | Stereoscopic video display device |
| JP2000249974A (en) * | 1999-03-02 | 2000-09-14 | Canon Inc | Display device and stereoscopic display device |
| US20110075257A1 (en) * | 2009-09-14 | 2011-03-31 | The Arizona Board Of Regents On Behalf Of The University Of Arizona | 3-Dimensional electro-optical see-through displays |
Cited By (61)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPWO2016098412A1 (en) * | 2014-12-19 | 2017-04-27 | 株式会社ソニー・インタラクティブエンタテインメント | Head-mounted display device and video display system |
| US10353207B2 (en) | 2014-12-19 | 2019-07-16 | Sony Interactive Entertainment Inc. | Head-mounted display device and video display system |
| JP2018523147A (en) * | 2015-05-08 | 2018-08-16 | ビ−エイイ− システムズ パブリック リミテッド カンパニ−BAE SYSTEMS plc | Improvements in and related to displays |
| US10268290B2 (en) | 2015-11-02 | 2019-04-23 | Facebook Technologies, Llc | Eye tracking using structured light |
| US9983709B2 (en) | 2015-11-02 | 2018-05-29 | Oculus Vr, Llc | Eye tracking using structured light |
| EP3341783A4 (en) * | 2015-11-02 | 2019-11-20 | Facebook Technologies, LLC | Eye tracking using structured light |
| CN108369325A (en) * | 2015-12-08 | 2018-08-03 | 欧库勒斯虚拟现实有限责任公司 | Focus adjusts virtual reality headset |
| US10025060B2 (en) | 2015-12-08 | 2018-07-17 | Oculus Vr, Llc | Focus adjusting virtual reality headset |
| US10445860B2 (en) | 2015-12-08 | 2019-10-15 | Facebook Technologies, Llc | Autofocus virtual reality headset |
| KR20180091014A (en) * | 2015-12-08 | 2018-08-14 | 아큘러스 브이알, 엘엘씨 | Focus adjustment virtual reality headset |
| KR102038379B1 (en) | 2015-12-08 | 2019-10-31 | 페이스북 테크놀로지스, 엘엘씨 | Focus Adjusting Virtual Reality Headset |
| WO2017099824A1 (en) * | 2015-12-08 | 2017-06-15 | Oculus Vr, Llc | Focus adjusting virtual reality headset |
| US10937129B1 (en) | 2015-12-08 | 2021-03-02 | Facebook Technologies, Llc | Autofocus virtual reality headset |
| CN108369325B (en) * | 2015-12-08 | 2019-04-26 | 脸谱科技有限责任公司 | Focus adjustment virtual reality headset |
| JP2019507363A (en) * | 2015-12-08 | 2019-03-14 | フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc | Virtual reality headset for focus adjustment |
| KR101958390B1 (en) | 2015-12-08 | 2019-03-14 | 페이스북 테크놀로지스, 엘엘씨 | Focus adjustment virtual reality headset |
| US20170160798A1 (en) * | 2015-12-08 | 2017-06-08 | Oculus Vr, Llc | Focus adjustment method for a virtual reality headset |
| KR20190027950A (en) * | 2015-12-08 | 2019-03-15 | 페이스북 테크놀로지스, 엘엘씨 | Focus Adjusting Virtual Reality Headset |
| US10241569B2 (en) * | 2015-12-08 | 2019-03-26 | Facebook Technologies, Llc | Focus adjustment method for a virtual reality headset |
| US11668941B2 (en) | 2015-12-22 | 2023-06-06 | E-Vision Smart Optics, Inc. | Dynamic focusing head mounted display |
| JP2019507367A (en) * | 2015-12-22 | 2019-03-14 | イー−ビジョン スマート オプティックス, インク.E−Vision Smart Optics, Inc. | Dynamic focusing head mounted display |
| US11237396B2 (en) | 2015-12-22 | 2022-02-01 | E-Vision Smart Optics, Inc. | Dynamic focusing head mounted display |
| JP7180873B2 (en) | 2015-12-22 | 2022-11-30 | イー-ビジョン スマート オプティックス, インク. | dynamic focus head mounted display |
| US12222511B2 (en) | 2015-12-22 | 2025-02-11 | E-Vision Smart Optics, Inc. | Dynamic focusing head mounted display |
| US10228240B2 (en) | 2016-01-15 | 2019-03-12 | Facebook Technologies, Llc | Depth mapping using structured light and time of flight |
| US9976849B2 (en) | 2016-01-15 | 2018-05-22 | Oculus Vr, Llc | Depth mapping using structured light and time of flight |
| US11106276B2 (en) | 2016-03-11 | 2021-08-31 | Facebook Technologies, Llc | Focus adjusting headset |
| US10379356B2 (en) | 2016-04-07 | 2019-08-13 | Facebook Technologies, Llc | Accommodation based optical correction |
| US11016301B1 (en) | 2016-04-07 | 2021-05-25 | Facebook Technologies, Llc | Accommodation based optical correction |
| US10429647B2 (en) | 2016-06-10 | 2019-10-01 | Facebook Technologies, Llc | Focus adjusting virtual reality headset |
| US11694353B2 (en) | 2016-08-04 | 2023-07-04 | Dolby Laboratories Licensing Corporation | Single depth tracked accommodation-vergence solutions |
| JP7335285B2 (en) | 2016-08-04 | 2023-08-29 | ドルビー ラボラトリーズ ライセンシング コーポレイション | Single Depth Tracking Accommodation-Binocular Diversion Solution |
| US20210264631A1 (en) | 2016-08-04 | 2021-08-26 | Dolby Laboratories Licensing Corporation | Single depth tracked accommodation-vergence solutions |
| JP2019532535A (en) * | 2016-08-04 | 2019-11-07 | ドルビー ラボラトリーズ ライセンシング コーポレイション | Single depth tracking perspective accommodation-binocular transduction solution |
| US10943359B2 (en) | 2016-08-04 | 2021-03-09 | Dolby Laboratories Licensing Corporation | Single depth tracked accommodation-vergence solutions |
| JP2021122109A (en) * | 2016-08-04 | 2021-08-26 | ドルビー ラボラトリーズ ライセンシング コーポレイション | Single-depth tracking accommodation-binocular accommodation solution |
| US20180157320A1 (en) * | 2016-12-01 | 2018-06-07 | Oculus Vr, Llc | Air spaced optical assembly with integrated eye tracking |
| US10610775B1 (en) * | 2017-01-04 | 2020-04-07 | Facebook Technologies, Llc | Actuation for a focus adjusting head mounted display |
| US11607607B1 (en) | 2017-01-04 | 2023-03-21 | Meta Platforms Technologies, Llc | Actuation for a focus adjusting head mounted display |
| US11318375B1 (en) | 2017-01-04 | 2022-05-03 | Facebook Technologies, Llc | Actuation for a focus adjusting head mounted display |
| US10994196B1 (en) | 2017-01-04 | 2021-05-04 | Facebook Technologies, Llc | Actuation for a focus adjusting head mounted display |
| US10025384B1 (en) | 2017-01-06 | 2018-07-17 | Oculus Vr, Llc | Eye tracking architecture for common structured light and time-of-flight framework |
| US10310598B2 (en) | 2017-01-17 | 2019-06-04 | Facebook Technologies, Llc | Varifocal head-mounted display including modular air spaced optical assembly |
| US10257507B1 (en) | 2017-01-17 | 2019-04-09 | Facebook Technologies, Llc | Time-of-flight depth sensing for eye tracking |
| US10154254B2 (en) | 2017-01-17 | 2018-12-11 | Facebook Technologies, Llc | Time-of-flight depth sensing for eye tracking |
| US10416766B1 (en) | 2017-01-17 | 2019-09-17 | Facebook Technologies, Llc | Varifocal head-mounted display including modular air spaced optical assembly |
| US11004222B1 (en) | 2017-01-30 | 2021-05-11 | Facebook Technologies, Llc | High speed computational tracking sensor |
| US10983354B2 (en) | 2017-02-21 | 2021-04-20 | Facebook Technologies, Llc | Focus adjusting multiplanar head mounted display |
| WO2018156523A1 (en) * | 2017-02-21 | 2018-08-30 | Oculus Vr, Llc | Focus adjusting multiplanar head mounted display |
| US10866418B2 (en) | 2017-02-21 | 2020-12-15 | Facebook Technologies, Llc | Focus adjusting multiplanar head mounted display |
| JP2020522010A (en) * | 2017-05-29 | 2020-07-27 | アイウェイ ビジョン リミテッドEyeWay Vision Ltd. | Title: Eye projection system with focus management and method |
| CN110891533A (en) * | 2017-05-29 | 2020-03-17 | 爱威愿景有限公司 | Eye projection system and method with focus management |
| EP3630028A4 (en) * | 2017-05-29 | 2021-03-10 | Eyeway Vision Ltd. | Eye projection systems and methods with focusing management |
| JP2023059918A (en) * | 2017-10-11 | 2023-04-27 | マジック リープ, インコーポレイテッド | Augmented reality display with eyepiece having transparent emissive display |
| JP2024103517A (en) * | 2017-10-11 | 2024-08-01 | マジック リープ, インコーポレイテッド | Augmented reality display with eyepiece having transparent emissive display - Patent Application 20070123633 |
| JP7540022B2 (en) | 2017-10-11 | 2024-08-26 | マジック リープ, インコーポレイテッド | Augmented reality display with eyepiece having transparent emissive display - Patent Application 20070123633 |
| US12124040B2 (en) | 2017-10-11 | 2024-10-22 | Magic Leap, Inc. | Augmented reality display comprising eyepiece having a transparent emissive display |
| US12158986B2 (en) | 2019-12-06 | 2024-12-03 | Magic Leap, Inc. | Virtual, augmented, and mixed reality systems and methods |
| JP2023505230A (en) * | 2019-12-06 | 2023-02-08 | マジック リープ, インコーポレイテッド | Virtual, Augmented, and Mixed Reality Systems and Methods |
| JP7693673B2 (en) | 2019-12-06 | 2025-06-17 | マジック リープ, インコーポレイテッド | Virtual, augmented, and mixed reality systems and methods |
| WO2023021732A1 (en) * | 2021-08-20 | 2023-02-23 | ソニーグループ株式会社 | Display apparatus and display method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2014219621A (en) | Display device and display control program | |
| US11132056B2 (en) | Predictive eye tracking systems and methods for foveated rendering for electronic displays | |
| US10871825B1 (en) | Predictive eye tracking systems and methods for variable focus electronic displays | |
| US10241329B2 (en) | Varifocal aberration compensation for near-eye displays | |
| JP6507241B2 (en) | Head-mounted display device and vision assistance method using the same | |
| AU2015374071B2 (en) | Light projector using an acousto-optical control device | |
| US10659771B2 (en) | Non-planar computational displays | |
| JP6339239B2 (en) | Head-mounted display device and video display system | |
| KR20210100175A (en) | Adaptive Viewport for Hyper Vocal Viewport (HVP) Display | |
| US20150187115A1 (en) | Dynamically adjustable 3d goggles | |
| JP6378781B2 (en) | Head-mounted display device and video display system | |
| US9905143B1 (en) | Display apparatus and method of displaying using image renderers and optical combiners | |
| JP6349660B2 (en) | Image display device, image display method, and image display program | |
| US12333068B2 (en) | Eye tracking using alternate sampling | |
| WO2020115815A1 (en) | Head-mounted display device | |
| US11743447B2 (en) | Gaze tracking apparatus and systems | |
| JP2018513656A (en) | Eyeglass structure for image enhancement | |
| JP4270347B2 (en) | Distance calculator | |
| JP2013131884A (en) | Spectacles |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160426 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170118 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170124 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170327 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170829 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171129 |
|
| A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20171208 |
|
| A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20180126 |