[go: up one dir, main page]

JP2014219621A - Display device and display control program - Google Patents

Display device and display control program Download PDF

Info

Publication number
JP2014219621A
JP2014219621A JP2013100076A JP2013100076A JP2014219621A JP 2014219621 A JP2014219621 A JP 2014219621A JP 2013100076 A JP2013100076 A JP 2013100076A JP 2013100076 A JP2013100076 A JP 2013100076A JP 2014219621 A JP2014219621 A JP 2014219621A
Authority
JP
Japan
Prior art keywords
display
image
virtual space
line
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013100076A
Other languages
Japanese (ja)
Inventor
淳 星谷
Atsushi Hoshitani
淳 星谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Taito Corp
Original Assignee
Taito Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Taito Corp filed Critical Taito Corp
Priority to JP2013100076A priority Critical patent/JP2014219621A/en
Publication of JP2014219621A publication Critical patent/JP2014219621A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • G02B27/22
    • H04N13/04
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable stereoscopic vision producing no uncomfortable feeling.SOLUTION: A head-mounted display 10 includes: a first display for displaying a left-eye image; a first lens unit capable of dynamically varying the focal distance in order to extend the left-eye image displayed on the first display and form a virtual image; a second display for displaying a right-eye image; a second lens unit capable of dynamically varying the focal distance in order to extend the right-eye image displayed on the second display and form a virtual image; and controlling means for controlling the focal distances of the first lens unit and second lens unit.

Description

本発明は、ヘッドマウントディスプレイ等の表示装置、及び表示装置を制御するための表示制御プログラムに関する。   The present invention relates to a display device such as a head mounted display, and a display control program for controlling the display device.

ゲーム用の画像や映画などのコンテンツの映像等を表示する表示装置としてヘッドマウントディスプレイ(HMD(head mount display))が知られている。ヘッドマウントディスプレイは、例えば左右の眼球にそれぞれ対応した位置にディスプレイを設け、各ディスプレイに画像(映像)を表示することで、1つの画像(映像)として認識できるようにした表示装置である。ヘッドマウントディスプレイは、頭部(あるいは眼前)に装着可能な小形の装置でありながら、大画面の表示装置に表示された画像(映像)を離れた位置から見ている感覚が得られる。   A head-mounted display (HMD (head mount display)) is known as a display device that displays game images, video content, and the like. The head-mounted display is a display device that can be recognized as one image (video) by providing a display at a position corresponding to each of the left and right eyeballs, for example, and displaying an image (video) on each display. The head-mounted display is a small device that can be mounted on the head (or in front of the eyes), but can provide a sense of viewing an image (video) displayed on a large-screen display device from a remote position.

また、ヘッドマウントディスプレイでは、左右の眼球にそれぞれ対応するディスプレイが設けられているため、立体画像(3D画像)を表示するために生成された左眼用の映像と右眼用の映像を各ディスプレイに表示することができる。例えば、特許文献1に記載された液晶表示装置は、画像を表示する第1の液晶ディスプレイと第2の液晶ディスプレイを用いて1つの画像を構成することができる。   In addition, since the head-mounted display is provided with a display corresponding to each of the left and right eyeballs, the left-eye video and the right-eye video generated to display a stereoscopic image (3D image) are displayed on each display. Can be displayed. For example, the liquid crystal display device described in Patent Document 1 can form one image using a first liquid crystal display and a second liquid crystal display that display an image.

特開2004−117894号公報JP 2004-117894 A

特許文献1に記載された技術では、ヘッドマウントディスプレイにおいて立体画像(3D)を表示させる場合には、左眼用の映像と右眼用の映像をそれぞれ生成して、異なる映像を左眼用と右眼用のディスプレイにそれぞれ表示させている。一般には、立体画像(3D)を表示するために、視差を利用して左眼用の映像と右眼用の映像を生成している。   In the technique described in Patent Document 1, when a stereoscopic image (3D) is displayed on a head mounted display, a left-eye image and a right-eye image are generated, and different images are used for the left-eye. Each is displayed on the display for the right eye. In general, in order to display a stereoscopic image (3D), an image for the left eye and an image for the right eye are generated using parallax.

このように従来のヘッドマウントディスプレイでは、視差を利用して左眼用の映像と右眼用の映像を生成して、それぞれ左眼用と右眼用のディスプレイに表示することにより立体視を実現している。しかし、従来のヘッドマウントディスプレイでは、結像距離(認識されるディスプレイの位置)を固定にしているため、結像距離を基準距離とした特定範囲では自然な立体表現が可能となるものの、基準距離から大きく外れると違和感を生じる場合があった。すなわち、人間は、視差だけでなく、視認する対象物との距離に応じて対象物に焦点を合わせることにより立体認識しているため、結像距離を固定していると違和感を覚える場合があった。   As described above, the conventional head-mounted display uses the parallax to generate the left-eye video and the right-eye video and display them on the left-eye and right-eye displays, respectively, thereby realizing stereoscopic viewing. doing. However, in conventional head-mounted displays, the imaging distance (the position of the recognized display) is fixed, so natural three-dimensional expression is possible in a specific range with the imaging distance as the reference distance, but the reference distance If it is far from the above, there may be a sense of incongruity. In other words, since humans perform three-dimensional recognition by focusing on an object according to the distance to the object to be viewed in addition to the parallax, there may be a sense of incongruity when the imaging distance is fixed. It was.

本発明は前述した事情に考慮してなされたもので、その目的は、違和感のない立体視が可能な表示装置、表示制御プログラムを提供することにある。   The present invention has been made in view of the above-described circumstances, and an object thereof is to provide a display device and a display control program capable of stereoscopic viewing without a sense of incongruity.

上記の課題を解決するために、本発明は、左眼用の画像を表示するための第1ディスプレイと、前記第1ディスプレイに表示される左眼用の画像を拡大して虚像を形成するための、焦点距離を動的に変更可能な第1レンズユニットと、右眼用の画像を表示するための第2ディスプレイと、前記第2ディスプレイに表示される右眼用の画像を拡大して虚像を形成するための、焦点距離を動的に変更可能な第2レンズユニットと、前記第1レンズユニットと前記第2レンズユニットの焦点距離を制御する制御手段とを具備する。   In order to solve the above-described problem, the present invention forms a virtual image by enlarging a first display for displaying an image for the left eye and an image for the left eye displayed on the first display. A first lens unit capable of dynamically changing a focal length, a second display for displaying an image for the right eye, and a virtual image by enlarging the image for the right eye displayed on the second display And a control unit that controls the focal length of the first lens unit and the second lens unit.

本発明によれば、違和感のない立体視が可能となる。   According to the present invention, stereoscopic viewing without a sense of incongruity is possible.

本実施形態におけるヘッドマウントディスプレイの外観構成を示す図。The figure which shows the external appearance structure of the head mounted display in this embodiment. 本実施形態におけるヘッドマウントディスプレイと制御部の構成を示すブロック図。The block diagram which shows the structure of the head mounted display and control part in this embodiment. 本実施形態における左眼用の光学系を示す図。The figure which shows the optical system for left eyes in this embodiment. 本実施形態におけるヘッドマウントディスプレイの動作を示すフローチャート。The flowchart which shows operation | movement of the head mounted display in this embodiment. 本実施形態における仮想空間中のオブジェクト(仮想空間物体)の位置に応じた焦点距離の変動を説明するための図。The figure for demonstrating the fluctuation | variation of the focal distance according to the position of the object (virtual space object) in the virtual space in this embodiment. 本実施形態における仮想空間中のオブジェクト(仮想空間物体)の位置に応じた焦点距離の変動を説明するための図。The figure for demonstrating the fluctuation | variation of the focal distance according to the position of the object (virtual space object) in the virtual space in this embodiment.

以下、図面を参照して本発明の実施の形態について説明する。
図1は、本実施形態におけるヘッドマウントディスプレイ10の外観構成を示す図である。図1に示すヘッドマウントディスプレイ10は、例えば眼鏡型に構成されており、眼前に位置する横長の表示ユニット部14と、表示ユニット部14の両側から後方に延出された取付部材12a,12bとが設けられている。取付部材12a,12bを耳の上部に係止することで、表示ユニット部14が眼前に位置するように、ヘッドマウントディスプレイ10を装着することができる。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a diagram illustrating an external configuration of a head mounted display 10 according to the present embodiment. A head-mounted display 10 shown in FIG. 1 is configured, for example, in a glasses shape, and includes a horizontally long display unit portion 14 positioned in front of eyes and mounting members 12a and 12b extending rearward from both sides of the display unit portion 14. Is provided. The head mounted display 10 can be mounted so that the display unit portion 14 is positioned in front of the eyes by locking the attachment members 12a and 12b to the upper part of the ear.

表示ユニット部14の内面部16の中央には、ノーズパッド18が設けられている。ノーズパッド18の左側には、左眼用の画像(映像)を表示するための表示ユニット20aが配置され、ノーズパッド18の右側には、右眼用の画像(映像)を表示するための表示ユニット20bが配置されている。   A nose pad 18 is provided at the center of the inner surface 16 of the display unit 14. A display unit 20a for displaying an image (video) for the left eye is disposed on the left side of the nose pad 18, and a display for displaying an image (video) for the right eye is displayed on the right side of the nose pad 18. A unit 20b is arranged.

表示ユニット20aの上部には、視線検知センサ22aが設けられ、表示ユニット20bの上部には、視線検知センサ22bが設けられている。視線検知センサ22a,22bは、ヘッドマウントディスプレイ10を装着したユーザの視線を検出するためのセンサであり、例えば表示ユニット20a,20bに近接される眼球(瞳)の画像を撮影する。   A line-of-sight detection sensor 22a is provided above the display unit 20a, and a line-of-sight detection sensor 22b is provided above the display unit 20b. The line-of-sight detection sensors 22a and 22b are sensors for detecting the line of sight of the user wearing the head mounted display 10, and for example, take an image of an eyeball (pupil) that is close to the display units 20a and 20b.

また、ヘッドマウントディスプレイ10は、ケーブル19を介して、ヘッドマウントディスプレイ10において表示する画像(映像)を制御する制御部30と接続される。制御部30は、表示ユニット20a,20bにおいて、左眼用画像(映像)と右眼用画像(映像)を個々に表示させることにより、立体画像(3D画像)を、ヘッドマウントディスプレイ10において表示させる。   The head mounted display 10 is connected via a cable 19 to a control unit 30 that controls an image (video) displayed on the head mounted display 10. The control unit 30 displays a stereoscopic image (3D image) on the head mounted display 10 by individually displaying the left-eye image (video) and the right-eye image (video) on the display units 20a and 20b. .

なお、ヘッドマウントディスプレイ10は、図1に示すような眼鏡型に限定されるものではなく、例えば帽子型(ヘルメット型)などの他の形状であっても良い。   The head mounted display 10 is not limited to the eyeglass type as shown in FIG. 1, and may have another shape such as a hat type (helmet type).

図2は、本実施形態におけるヘッドマウントディスプレイ10と制御部30の構成を示すブロック図である。
図2に示すように、ヘッドマウントディスプレイ10は、表示ユニット20a,20b、視線検知センサ22a,22b、レンズ駆動部50a,50b、表示駆動部52a,52bが設けられる。表示ユニット20aは、接眼レンズユニット54aとディスプレイ56aとを含む。また、表示ユニット20bは、接眼レンズユニット54bとディスプレイ56bとを含む。
FIG. 2 is a block diagram showing the configuration of the head mounted display 10 and the control unit 30 in the present embodiment.
As shown in FIG. 2, the head mounted display 10 includes display units 20a and 20b, line-of-sight detection sensors 22a and 22b, lens driving units 50a and 50b, and display driving units 52a and 52b. The display unit 20a includes an eyepiece unit 54a and a display 56a. The display unit 20b includes an eyepiece unit 54b and a display 56b.

接眼レンズユニット54a,54bは、ヘッドマウントディスプレイ10を装着したユーザの眼球と、ディスプレイ56a,56bとの間に配置され(詳細については図3に示す)、レンズ駆動部50a,50bの駆動により、位置を変えることなく焦点距離を動的に変更することができる。接眼レンズユニット54a,54bは、例えば流体レンズのようにレンズの厚みを変化させるユニットや、複数のレンズを組み合わせてレンズ間の距離を変化させるユニットにより実現することができる。   The eyepiece units 54a and 54b are disposed between the user's eyeball wearing the head mounted display 10 and the displays 56a and 56b (details are shown in FIG. 3), and are driven by the lens driving units 50a and 50b. The focal length can be changed dynamically without changing the position. The eyepiece units 54a and 54b can be realized by a unit that changes the thickness of the lens, such as a fluid lens, or a unit that changes the distance between lenses by combining a plurality of lenses.

レンズ駆動部50a,50bは、制御部30(プロセッサ40)の制御により接眼レンズユニット54a,54bを駆動して、接眼レンズユニット54a,54bの焦点距離を変更する。   The lens driving units 50a and 50b drive the eyepiece units 54a and 54b under the control of the control unit 30 (processor 40) to change the focal lengths of the eyepiece units 54a and 54b.

ディスプレイ56a,56bは、例えば液晶ディスプレイ(LCD(Liquid Crystal Display))、有機EL(Electroluminescence)ディスプレイなどにより構成される。   The displays 56a and 56b are constituted by, for example, a liquid crystal display (LCD (Liquid Crystal Display)), an organic EL (Electroluminescence) display, or the like.

表示駆動部52a,52bは、画像処理部46の制御によりディスプレイ56a,56bを駆動して、画像(映像)を表示させる。表示駆動部52aは、ディスプレイ56aにおいて左眼用の画像(映像)を表示させ、表示駆動部52bは、ディスプレイ56bにおいて右眼用の画像(映像)を表示させる。   The display driving units 52a and 52b drive the displays 56a and 56b under the control of the image processing unit 46 to display an image (video). The display driving unit 52a displays an image (video) for the left eye on the display 56a, and the display driving unit 52b displays an image (video) for the right eye on the display 56b.

制御部30は、プロセッサ40、メモリ42、記憶装置44、画像処理部46、及びI/Oインタフェース48を有している。   The control unit 30 includes a processor 40, a memory 42, a storage device 44, an image processing unit 46, and an I / O interface 48.

プロセッサ40は、メモリ42に記憶されたプログラムを実行することにより各種機能を実現する。プロセッサ40は、バスを介して、メモリ42、記憶装置44、画像処理部46、及びI/Oインタフェース48と相互に接続されている。   The processor 40 implements various functions by executing a program stored in the memory 42. The processor 40 is mutually connected to the memory 42, the storage device 44, the image processing unit 46, and the I / O interface 48 via a bus.

メモリ42は、プロセッサ40で処理されるプログラムや、プロセッサ40が処理するデータを一時的に記憶する。メモリ42に記憶されるプログラムには、画像生成プログラム42aや焦点制御プログラム42bが含まれる。   The memory 42 temporarily stores programs processed by the processor 40 and data processed by the processor 40. Programs stored in the memory 42 include an image generation program 42a and a focus control program 42b.

画像生成プログラム42aは、コンテンツデータ44aをもとに、表示ユニット20a,20b(ディスプレイ56a,56b)に表示するための画像データを生成するためのプログラムである。本実施形態の画像生成プログラム42aは、仮想空間を表現する立体画像(3D画像)をCG(computer graphics)の技術を利用してリアルタイムで生成する機能(リアルタイム3DCG生成機能)を実現する。プロセッサ40は、画像生成プログラム42aを実行することにより、立体画像(3D画像)をヘッドマウントディスプレイ10において表示させるために、左眼用の画像データと右眼用の画像データをそれぞれ生成して画像処理部46に出力する。   The image generation program 42a is a program for generating image data to be displayed on the display units 20a and 20b (displays 56a and 56b) based on the content data 44a. The image generation program 42a of the present embodiment realizes a function (real-time 3DCG generation function) for generating a stereoscopic image (3D image) representing a virtual space in real time using a CG (computer graphics) technique. The processor 40 executes the image generation program 42a to generate image data for the left eye and image data for the right eye, respectively, in order to display a stereoscopic image (3D image) on the head mounted display 10. The data is output to the processing unit 46.

焦点制御プログラム42bは、接眼レンズユニット54a,54bの焦点を制御するためのプログラムである。焦点制御プログラム42bは、I/Oインタフェース48を介して入力される視線検知センサ22a,22bにより撮影された画像をもとに、ヘッドマウントディスプレイ10を装着しているユーザの視線を検出するための処理をプロセッサ40に実行させる。例えば、プロセッサ40は、視線検知センサ22a,22bにより撮影された画像から眼球(瞳)を抽出し、眼球(瞳)の動きを追尾することで視線を検出する。なお、視線の検出は、他の検出方法を用いることも可能である。   The focus control program 42b is a program for controlling the focus of the eyepiece units 54a and 54b. The focus control program 42b is for detecting the line of sight of the user wearing the head mounted display 10 based on the images photographed by the line-of-sight detection sensors 22a and 22b input via the I / O interface 48. The processing is executed by the processor 40. For example, the processor 40 extracts an eyeball (pupil) from images captured by the line-of-sight detection sensors 22a and 22b, and detects the line of sight by tracking the movement of the eyeball (pupil). Note that other detection methods can be used for the detection of the line of sight.

また、焦点制御プログラム42bは、ユーザの視線をもとに、画像生成プログラム42aにより表示される仮想空間中の何れのオブジェクトをユーザが注視しているか検出し、該当するオブジェクトの仮想空間中における位置に応じて、ディスプレイ56a,56bの焦点距離を変更するための処理をプロセッサ40に実行させる。   Further, the focus control program 42b detects which object in the virtual space displayed by the image generation program 42a is based on the user's line of sight, and detects the position of the corresponding object in the virtual space. Accordingly, the processor 40 is caused to execute processing for changing the focal length of the displays 56a and 56b.

記憶装置44は、不揮発性の記憶媒体に、制御部30を制御する各種プログラムやデータが記憶される。記憶装置44に記憶されるプログラムには、画像生成プログラムや焦点制御プログラムなどがある。また、記憶装置44には、リアルタイム3DCG生成機能によって仮想空間を表現する立体画像(3D画像)を生成するためのコンテンツデータ44aが記憶される。コンテンツデータ44aは、例えばゲーム画面をCGによって表示するためのデータであり、仮想空間(ゲーム空間)に各種のキャラクタや構造物などのオブジェクトを表示するためのデータ(CGデータ)である。各種のオブジェクトは、コンテンツデータ44aをもとにした演算処理により、仮想空間(ゲーム空間)において位置を移動し、ヘッドマウントディスプレイ10を装着したユーザからの見かけ上の距離が変化するように表現することができる。すなわち、仮想空間(ゲーム空間)におけるオブジェクトの位置は、コンテンツデータ44aをもとにした演算処理により判別することができる。   The storage device 44 stores various programs and data for controlling the control unit 30 in a nonvolatile storage medium. Examples of programs stored in the storage device 44 include an image generation program and a focus control program. In addition, the storage device 44 stores content data 44a for generating a stereoscopic image (3D image) representing the virtual space by the real-time 3DCG generation function. The content data 44a is, for example, data for displaying a game screen by CG, and is data (CG data) for displaying objects such as various characters and structures in a virtual space (game space). The various objects are expressed in such a manner that the apparent distance from the user wearing the head mounted display 10 changes by moving the position in the virtual space (game space) by the arithmetic processing based on the content data 44a. be able to. That is, the position of the object in the virtual space (game space) can be determined by a calculation process based on the content data 44a.

画像処理部46は、プロセッサ40の制御のもとで、プロセッサ40により生成される画像データに応じて、表示駆動部52a,52bを駆動して、ディスプレイ56a,56bに画像(映像)を表示させる。
I/Oインタフェース48は、視線検知センサ22a,22bとレンズ駆動部50a,50bとが接続される。
The image processing unit 46 drives the display driving units 52a and 52b in accordance with the image data generated by the processor 40 under the control of the processor 40, and displays images (videos) on the displays 56a and 56b. .
The I / O interface 48 is connected to the line-of-sight detection sensors 22a and 22b and the lens driving units 50a and 50b.

なお、図2においては、ヘッドマウントディスプレイ10と制御部30とが分離した構成例を示しているが、ヘッドマウントディスプレイ10に制御部30の各機能が搭載された構成(ヘッドマウントディスプレイ10と制御部30とを一体化した構成)としても良い。   2 shows a configuration example in which the head-mounted display 10 and the control unit 30 are separated, but a configuration in which each function of the control unit 30 is mounted on the head-mounted display 10 (the head-mounted display 10 and the control unit 30). It is good also as a structure which united the part 30).

次に、本実施形態におけるヘッドマウントディスプレイ10の光学系の概要について説明する。
図3は、左眼用の光学系(接眼レンズユニット54a、ディスプレイ56a)を示す図である。図3に示すように、ヘッドマウントディスプレイ10には、ヘッドマウントディスプレイ10を装着した時のユーザの眼球60と表示ユニット20aとの間に接眼レンズユニット54aが配置される。眼球60は、前面の水晶体64(及び角膜)によって光線を屈折させて、網膜62に結像させる。ユーザは、注視しようとする対象物に合わせて水晶体64の厚さを調整することで、対象物に焦点を合わせる。
Next, an outline of the optical system of the head mounted display 10 in the present embodiment will be described.
FIG. 3 is a diagram showing an optical system for the left eye (eyepiece unit 54a, display 56a). As shown in FIG. 3, the head mounted display 10 has an eyepiece unit 54a disposed between the user's eyeball 60 and the display unit 20a when the head mounted display 10 is mounted. The eyeball 60 refracts light rays by the front lens 64 (and cornea) and forms an image on the retina 62. The user focuses on the object by adjusting the thickness of the crystalline lens 64 according to the object to be watched.

接眼レンズユニット54aと表示ユニット20aの取り付け位置は、固定されている。すなわち、図3中に示す網膜62と水晶体64との距離S0、眼球60(水晶体64)と接眼レンズユニット54aとの距離S1、接眼レンズユニット54aと表示ユニット20aとの距離S2、網膜62と表示ユニット20aとの距離L(S0+S1+S2)はそれぞれ固定となる。   The attachment positions of the eyepiece unit 54a and the display unit 20a are fixed. 3, the distance S0 between the retina 62 and the crystalline lens 64, the distance S1 between the eyeball 60 (the crystalline lens 64) and the eyepiece unit 54a, the distance S2 between the eyepiece unit 54a and the display unit 20a, and the retina 62 and display. The distance L (S0 + S1 + S2) from the unit 20a is fixed.

ヘッドマウントディスプレイ10は、眼球60と表示ユニット20aとの物理的な距離は短いが、接眼レンズユニット54aの焦点距離を調整することで、水晶体64からの距離D(仮想視聴距離)の位置に見かけ上のディスプレイがあるように認識させることができる。また、本実施形態におけるヘッドマウントディスプレイ10は、接眼レンズユニット54a,54bの焦点距離を変更することで、例えば仮想視聴距離(距離D)を数m〜20m、ディスプレイサイズを数10インチ〜750インチ程度に変更することができる。   Although the physical distance between the eyeball 60 and the display unit 20a is short, the head mounted display 10 appears at a position of a distance D (virtual viewing distance) from the crystalline lens 64 by adjusting the focal length of the eyepiece unit 54a. It can be recognized as if there is an upper display. Moreover, the head mounted display 10 in this embodiment changes the focal distance of the eyepiece unit 54a, 54b, for example, the virtual viewing distance (distance D) is several meters to 20 meters, and the display size is several tens inches to 750 inches. Can be changed to a degree.

本実施形態におけるヘッドマウントディスプレイ10は、視線検知センサ22aにより検知される視線をもとに、表示ユニット20aに表示されるオブジェクトの何れをユーザが注視しているか検出し、距離S1,S2,Lを固定したままで、注視しているオブジェクトの仮想空間中の位置に応じて接眼レンズユニット54aの焦点距離を変化させる。すなわち、注視されているオブジェクトの仮想空間中の位置に、見かけ上のディスプレイがあるように接眼レンズユニット54aの焦点距離を変化させる。   The head mounted display 10 in the present embodiment detects which of the objects displayed on the display unit 20a is being watched by the user based on the line of sight detected by the line of sight detection sensor 22a, and the distances S1, S2, L The focal length of the eyepiece unit 54a is changed according to the position in the virtual space of the object being watched. That is, the focal length of the eyepiece unit 54a is changed so that the apparent display is at the position in the virtual space of the object being watched.

なお、右眼用の光学系(接眼レンズユニット54b、ディスプレイ56b)も図3と同様にして構成されるものとして、詳細な説明を省略する。   Note that the right-eye optical system (the eyepiece unit 54b and the display 56b) is also configured in the same manner as in FIG.

次に、本実施形態におけるヘッドマウントディスプレイ10の動作について、図4に示すフローチャートを参照しながら説明する。
プロセッサ40は、画像生成プログラム42aを実行することにより、リアルタイム3DCG生成機能により立体画像を表示するための左眼用の画像データと右眼用の画像データとを、コンテンツデータ44aをもとに生成する。ここでは、視差を利用して立体画像を認識させるための画像データを生成する。
Next, the operation of the head mounted display 10 in this embodiment will be described with reference to the flowchart shown in FIG.
The processor 40 generates the image data for the left eye and the image data for the right eye for displaying the stereoscopic image by the real-time 3DCG generation function based on the content data 44a by executing the image generation program 42a. To do. Here, image data for recognizing a stereoscopic image is generated using parallax.

画像処理部46は、左眼用と右眼用の画像データに応じて、それぞれ表示駆動部52a,52bを駆動する。表示駆動部52aは、左眼用の画像データに応じた画像をディスプレイ56aにおいて表示させ、表示駆動部52bは、右眼用の画像データに応じた画像をディスプレイ56bに表示させる。   The image processing unit 46 drives the display driving units 52a and 52b according to the left-eye and right-eye image data, respectively. The display driving unit 52a displays an image corresponding to the image data for the left eye on the display 56a, and the display driving unit 52b displays an image corresponding to the image data for the right eye on the display 56b.

一方、プロセッサ40は、焦点制御プログラム42bを実行することにより、視線検知センサ22a,22bにより撮影された画像のデータをI/Oインタフェース48を通じて入力し、このデータから眼球(瞳)の領域を抽出し、眼球(瞳)の動きを追尾することで視線を検出する(ステップA1)。   On the other hand, by executing the focus control program 42b, the processor 40 inputs data of images taken by the line-of-sight detection sensors 22a and 22b through the I / O interface 48, and extracts an eyeball (pupil) region from this data. Then, the line of sight is detected by tracking the movement of the eyeball (pupil) (step A1).

プロセッサ40は、視線をもとにして、ディスプレイ56bに表示している仮想空間中の物体の何れをユーザが注視しているかを判別する(ステップA2)。ディスプレイ56a,56bにおいて表示される画像(映像)は、CGにより作成されるため、仮想空間中のオブジェクト(仮想空間物体)の位置を、コンテンツデータ44aをもとにした演算処理により判別することができる。また、プロセッサ40は、ユーザが注視しているオブジェクトの仮想空間中における位置を検出する(ステップA3)。   Based on the line of sight, the processor 40 determines which of the objects in the virtual space displayed on the display 56b is being watched by the user (step A2). Since images (videos) displayed on the displays 56a and 56b are created by CG, the position of the object (virtual space object) in the virtual space can be determined by arithmetic processing based on the content data 44a. it can. Further, the processor 40 detects the position in the virtual space of the object being watched by the user (step A3).

次に、プロセッサ40は、仮想空間中のオブジェクト(仮想空間物体)の位置に焦点が合うように、レンズ駆動部50a,50bを駆動して、接眼レンズユニット54a,54bの焦点距離を変動させる(ステップA4)。すなわち、ユーザによる見かけ上のディスプレイの位置を、注視しているオブジェクト(仮想空間物体)の位置と一致するように焦点距離を変動させる。   Next, the processor 40 drives the lens driving units 50a and 50b so as to focus on the position of the object (virtual space object) in the virtual space, thereby changing the focal length of the eyepiece units 54a and 54b ( Step A4). That is, the focal length is changed so that the apparent display position of the user matches the position of the object (virtual space object) that is being watched.

図5及び図6は、仮想空間中のオブジェクト(仮想空間物体)の位置に応じた焦点距離の変動を説明するための図である。
図5は、仮想空間中の遠い位置に存在しているオブジェクトBにユーザが注視している例を示す図である。この場合、プロセッサ40は、オブジェクトBの仮想空間中の位置(ユーザからの見かけ上の距離)に応じて、接眼レンズユニット54aを短焦点状態となるように制御し、仮想空間中のオブジェクトBの位置に見かけ上のディスプレイがあるように調整する。
5 and 6 are diagrams for explaining the variation of the focal length according to the position of the object (virtual space object) in the virtual space.
FIG. 5 is a diagram illustrating an example in which the user is gazing at the object B existing at a distant position in the virtual space. In this case, the processor 40 controls the eyepiece unit 54a to be in a short focus state according to the position of the object B in the virtual space (apparent distance from the user), and the object B in the virtual space Adjust the position so that there is an apparent display.

一方、ユーザは、実際の表示ユニット20aに焦点を合わせるために、接眼レンズユニット54aが短焦点状態にされるに伴って眼球60の水晶体64を長焦点状態にする。すなわち、ユーザは、実在する遠くにある物体を見る場合と同じように、眼球60の焦点を調整する。   On the other hand, in order to focus on the actual display unit 20a, the user places the crystalline lens 64 of the eyeball 60 in the long focus state as the eyepiece unit 54a is brought into the short focus state. That is, the user adjusts the focus of the eyeball 60 in the same manner as when viewing a real object located far away.

図6は、仮想空間中の近い位置に存在しているオブジェクトAにユーザが注視している例を示す図である。この場合、プロセッサ40は、オブジェクトAの仮想空間中の位置(ユーザからの見かけ上の距離)に応じて、接眼レンズユニット54aを長焦点状態となるように制御し、仮想空間中のオブジェクトAの位置に見かけ上のディスプレイがあるように調整する。   FIG. 6 is a diagram illustrating an example in which the user is gazing at the object A existing at a close position in the virtual space. In this case, the processor 40 controls the eyepiece unit 54a to be in a long focus state according to the position of the object A in the virtual space (apparent distance from the user), and the object A in the virtual space is controlled. Adjust the position so that there is an apparent display.

一方、ユーザは、実際の表示ユニット20aに焦点を合わせるために、接眼レンズユニット54aが長焦点状態にされるに伴って眼球60の水晶体64を短焦点状態にする。すなわち、ユーザは、実在する近くにある物体を見る場合と同じように、眼球60の焦点を調整する。   On the other hand, in order to focus on the actual display unit 20a, the user places the crystalline lens 64 of the eyeball 60 in the short focus state as the eyepiece unit 54a is set in the long focus state. That is, the user adjusts the focus of the eyeball 60 in the same manner as when viewing an object that is close to the real object.

なお、図5と図6では、左眼用の光学系(接眼レンズユニット54a、表示ユニット20a)について説明しているが、右眼用の光学系(接眼レンズユニット54b、表示ユニット20b)についても同様の制御が行われるものとして図示を省略する。   5 and 6 describe the left-eye optical system (the eyepiece unit 54a and the display unit 20a), but the right-eye optical system (the eyepiece unit 54b and the display unit 20b) is also described. The illustration is omitted as the same control is performed.

こうして、ユーザが注視しているオブジェクトの仮想空間中の位置(ユーザからの見かけ上の距離)に応じて、接眼レンズユニット54aの焦点距離を変動させることにより、ユーザがオブジェクトまでの見かけ上の距離に応じて焦点を調整することになる。人間は、視差だけでなく、視認する対象物との距離に応じて対象物に焦点を合わせることにより立体認識している。このため、表示ユニット20a,20bにおいて視差を利用して立体画像を認識させるための画像を表示させると共に、ユーザの眼球(水晶体)による焦点の調整を加えることにより、違和感のない立体画像をユーザに認識させることができる。   Thus, the apparent distance to the object by the user is changed by changing the focal length of the eyepiece unit 54a according to the position (the apparent distance from the user) of the object that the user is gazing at. The focus will be adjusted accordingly. Humans recognize three-dimensionally by focusing on an object according to the distance to the object to be visually recognized as well as parallax. For this reason, an image for recognizing a stereoscopic image using parallax is displayed on the display units 20a and 20b, and a stereoscopic image without a sense of incongruity is displayed to the user by adjusting the focus with the user's eyeball (crystal). Can be recognized.

さらに、プロセッサ40は、ユーザが注視しているオブジェクトの仮想空間中の位置を基準位置とし、基準位置から奥行き方向の距離に応じて、仮想空間に存在する他のオブジェクト(物体)に対して画像処理を施す(ステップA5)。すなわち、プロセッサ40は、仮想空間を表す画像において、仮想空間の奥行き方向の距離に応じてボケを与えて、注視しているオブジェクトから離れるに従ってボケ量が増えるようにする。これにより、カメラのピント表現をすることができる。   Further, the processor 40 uses the position in the virtual space of the object that the user is gazing at as a reference position, and images the other objects (objects) existing in the virtual space according to the distance in the depth direction from the reference position. Processing is performed (step A5). That is, the processor 40 gives blur in the image representing the virtual space according to the distance in the depth direction of the virtual space so that the amount of blur increases as the distance from the object being watched increases. Thereby, it is possible to express the focus of the camera.

なお、前述した説明では、リアルタイム3DCG生成機能により立体画像を表示させる場合を例にして説明しているが、コンテンツデータ44aを2次元画像表示用のデータとすることも可能である。この場合、2次元画像について、2次元画像を3次元画像に変換するための画像処理技術(2D3D変換技術)を利用する。   In the above description, a case where a stereoscopic image is displayed by the real-time 3DCG generation function has been described as an example. However, the content data 44a may be data for displaying a two-dimensional image. In this case, an image processing technique (2D3D conversion technique) for converting a two-dimensional image into a three-dimensional image is used for the two-dimensional image.

2D3D変換技術では、例えば2次元画像に対して構図を識別する構図識別、時間経過に伴って変化する画像中のオブジェクトの動きを識別する動き識別などを組み合わせることにより、画像中の各オブジェクトの奥行き方向の位置を判別し、その位置に基づいて3D画像を表示するための視差画像を生成する。以下、前述した説明のとおりに、2D3D変換技術により生成された視差画像(3D画像)中の何れのオブジェクトにユーザが注視しているかを判別して、そのオブジェクトの奥行き方向の位置に応じて接眼レンズユニットの位置を制御する。   In the 2D3D conversion technique, for example, composition identification for identifying a composition with respect to a two-dimensional image, motion identification for identifying movement of an object in an image that changes over time, and the like are combined to obtain the depth of each object in the image. A position in the direction is determined, and a parallax image for displaying a 3D image is generated based on the position. Hereinafter, as described above, it is determined which object in the parallax image (3D image) generated by the 2D3D conversion technique is being watched by the user, and the eyepiece is set according to the position of the object in the depth direction. Control the position of the lens unit.

また、前述した説明では、記憶装置44に記憶されたコンテンツデータ44aをもとに画像を生成して、ヘッドマウントディスプレイ10のディスプレイ56a,56bに表示させるとしているが、外部の画像(映像)再生装置からディスプレイ56a,56bに表示させる画像データを入力するようにしても良い。   In the above description, an image is generated based on the content data 44a stored in the storage device 44 and displayed on the displays 56a and 56b of the head mounted display 10. However, external image (video) reproduction is performed. You may make it input the image data displayed on the displays 56a and 56b from an apparatus.

また、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   Further, the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

10…ヘッドマウントディスプレイ、20a,20b…表示ユニット、22a,22b…視線検知センサ、30…制御部、40…プロセッサ、42a…画像生成プログラム、42b…焦点制御プログラム、54a,54b…接眼レンズユニット、56a,56b…ディスプレイ。   DESCRIPTION OF SYMBOLS 10 ... Head mounted display, 20a, 20b ... Display unit, 22a, 22b ... Eye-gaze detection sensor, 30 ... Control part, 40 ... Processor, 42a ... Image generation program, 42b ... Focus control program, 54a, 54b ... Eyepiece unit, 56a, 56b ... display.

Claims (5)

左眼用の画像を表示するための第1ディスプレイと、
前記第1ディスプレイに表示される左眼用の画像を拡大して虚像を形成するための、焦点距離を動的に変更可能な第1レンズユニットと、
右眼用の画像を表示するための第2ディスプレイと、
前記第2ディスプレイに表示される右眼用の画像を拡大して虚像を形成するための、焦点距離を動的に変更可能な第2レンズユニットと、
前記第1レンズユニットと前記第2レンズユニットの焦点距離を制御する制御手段と
を具備したことを特徴とする表示装置。
A first display for displaying an image for the left eye;
A first lens unit capable of dynamically changing a focal length for enlarging a left-eye image displayed on the first display to form a virtual image;
A second display for displaying an image for the right eye;
A second lens unit capable of dynamically changing a focal length for enlarging an image for the right eye displayed on the second display to form a virtual image;
A display device comprising control means for controlling a focal length of the first lens unit and the second lens unit.
前記第1及び第2ディスプレイに表示された仮想空間を表現する画像中の仮想空間物体に対する視線を検出する視線検出手段と、
前記視線が示す仮想空間物体を検出する検出手段とをさらに具備し、
前記制御手段は、前記検出手段により検出された仮想空間物体の仮想空間中における位置に応じて、前記第1及び第2レンズユニットの焦点距離を変動させることを特徴とする請求項1記載の表示装置。
Line-of-sight detection means for detecting line-of-sight with respect to a virtual space object in an image representing the virtual space displayed on the first and second displays;
Detecting means for detecting a virtual space object indicated by the line of sight;
2. The display according to claim 1, wherein the control unit varies a focal length of the first and second lens units in accordance with a position in the virtual space of the virtual space object detected by the detection unit. apparatus.
前記視線検出手段は、
前記第1ディスプレイの近傍に配置された第1視線検知センサと、
前記第2ディスプレイの近傍に配置された第2視線検知センサとを含むことを特徴とする請求項2記載の表示装置。
The line-of-sight detection means includes
A first line-of-sight detection sensor disposed in the vicinity of the first display;
The display device according to claim 2, further comprising a second line-of-sight detection sensor disposed in the vicinity of the second display.
仮想空間を表現する画像をCG(computer graphics)データをもとに、前記第1及び第2ディスプレイに表示する画像を生成する画像生成手段をさらに具備したことを特徴とする請求項1記載の表示装置。   2. The display according to claim 1, further comprising image generation means for generating an image to be displayed on the first and second displays based on CG (computer graphics) data representing an image representing a virtual space. apparatus. 左眼用の画像を表示するための第1ディスプレイと、
前記第1ディスプレイに表示される左眼用の画像を拡大して虚像を形成するための、焦点距離を動的に変更可能な第1レンズユニットと、
右眼用の画像を表示するための第2ディスプレイと、
前記第2ディスプレイに表示される右眼用の画像を拡大して虚像を形成するための、焦点距離を動的に変更可能な第2レンズユニットとを有する表示装置を制御するコンピュータを、
前記第1及び第2ディスプレイに表示された仮想空間を表現する画像中の仮想空間物体に対する視線を検出する視線検出手段と、
前記視線が示す仮想空間物体を検出する検出手段と、
前記検出手段により検出された仮想空間物体の仮想空間中における位置に応じて、前記第1及び第2レンズユニットの焦点距離を変動させる制御手段として機能させるための表示制御プログラム。
A first display for displaying an image for the left eye;
A first lens unit capable of dynamically changing a focal length for enlarging a left-eye image displayed on the first display to form a virtual image;
A second display for displaying an image for the right eye;
A computer for controlling a display device having a second lens unit capable of dynamically changing a focal length for enlarging a right-eye image displayed on the second display to form a virtual image;
Line-of-sight detection means for detecting line-of-sight with respect to a virtual space object in an image representing the virtual space displayed on the first and second displays;
Detecting means for detecting a virtual space object indicated by the line of sight;
A display control program for functioning as control means for changing the focal lengths of the first and second lens units according to the position of the virtual space object detected by the detection means in the virtual space.
JP2013100076A 2013-05-10 2013-05-10 Display device and display control program Pending JP2014219621A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013100076A JP2014219621A (en) 2013-05-10 2013-05-10 Display device and display control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013100076A JP2014219621A (en) 2013-05-10 2013-05-10 Display device and display control program

Publications (1)

Publication Number Publication Date
JP2014219621A true JP2014219621A (en) 2014-11-20

Family

ID=51938074

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013100076A Pending JP2014219621A (en) 2013-05-10 2013-05-10 Display device and display control program

Country Status (1)

Country Link
JP (1) JP2014219621A (en)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2016098412A1 (en) * 2014-12-19 2017-04-27 株式会社ソニー・インタラクティブエンタテインメント Head-mounted display device and video display system
US20170160798A1 (en) * 2015-12-08 2017-06-08 Oculus Vr, Llc Focus adjustment method for a virtual reality headset
WO2017099824A1 (en) * 2015-12-08 2017-06-15 Oculus Vr, Llc Focus adjusting virtual reality headset
US9976849B2 (en) 2016-01-15 2018-05-22 Oculus Vr, Llc Depth mapping using structured light and time of flight
US9983709B2 (en) 2015-11-02 2018-05-29 Oculus Vr, Llc Eye tracking using structured light
US20180157320A1 (en) * 2016-12-01 2018-06-07 Oculus Vr, Llc Air spaced optical assembly with integrated eye tracking
US10025384B1 (en) 2017-01-06 2018-07-17 Oculus Vr, Llc Eye tracking architecture for common structured light and time-of-flight framework
JP2018523147A (en) * 2015-05-08 2018-08-16 ビ−エイイ− システムズ パブリック リミテッド カンパニ−BAE SYSTEMS plc Improvements in and related to displays
WO2018156523A1 (en) * 2017-02-21 2018-08-30 Oculus Vr, Llc Focus adjusting multiplanar head mounted display
US10154254B2 (en) 2017-01-17 2018-12-11 Facebook Technologies, Llc Time-of-flight depth sensing for eye tracking
JP2019507367A (en) * 2015-12-22 2019-03-14 イー−ビジョン スマート オプティックス, インク.E−Vision Smart Optics, Inc. Dynamic focusing head mounted display
US10310598B2 (en) 2017-01-17 2019-06-04 Facebook Technologies, Llc Varifocal head-mounted display including modular air spaced optical assembly
US10379356B2 (en) 2016-04-07 2019-08-13 Facebook Technologies, Llc Accommodation based optical correction
US10429647B2 (en) 2016-06-10 2019-10-01 Facebook Technologies, Llc Focus adjusting virtual reality headset
US10445860B2 (en) 2015-12-08 2019-10-15 Facebook Technologies, Llc Autofocus virtual reality headset
JP2019532535A (en) * 2016-08-04 2019-11-07 ドルビー ラボラトリーズ ライセンシング コーポレイション Single depth tracking perspective accommodation-binocular transduction solution
CN110891533A (en) * 2017-05-29 2020-03-17 爱威愿景有限公司 Eye projection system and method with focus management
US10610775B1 (en) * 2017-01-04 2020-04-07 Facebook Technologies, Llc Actuation for a focus adjusting head mounted display
US11004222B1 (en) 2017-01-30 2021-05-11 Facebook Technologies, Llc High speed computational tracking sensor
US11106276B2 (en) 2016-03-11 2021-08-31 Facebook Technologies, Llc Focus adjusting headset
JP2023505230A (en) * 2019-12-06 2023-02-08 マジック リープ, インコーポレイテッド Virtual, Augmented, and Mixed Reality Systems and Methods
WO2023021732A1 (en) * 2021-08-20 2023-02-23 ソニーグループ株式会社 Display apparatus and display method
JP2023059918A (en) * 2017-10-11 2023-04-27 マジック リープ, インコーポレイテッド Augmented reality display with eyepiece having transparent emissive display

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03292093A (en) * 1990-04-10 1991-12-24 Seiko Epson Corp Three-dimensional display device
JPH08223609A (en) * 1995-02-09 1996-08-30 Atr Tsushin Syst Kenkyusho:Kk Three-dimensional display method and display device for enabling focus control
JPH09218376A (en) * 1996-02-09 1997-08-19 Sharp Corp 3D display device
JPH10239634A (en) * 1997-02-27 1998-09-11 Minolta Co Ltd Stereoscopic video display device
JP2000249974A (en) * 1999-03-02 2000-09-14 Canon Inc Display device and stereoscopic display device
US20110075257A1 (en) * 2009-09-14 2011-03-31 The Arizona Board Of Regents On Behalf Of The University Of Arizona 3-Dimensional electro-optical see-through displays

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03292093A (en) * 1990-04-10 1991-12-24 Seiko Epson Corp Three-dimensional display device
JPH08223609A (en) * 1995-02-09 1996-08-30 Atr Tsushin Syst Kenkyusho:Kk Three-dimensional display method and display device for enabling focus control
JPH09218376A (en) * 1996-02-09 1997-08-19 Sharp Corp 3D display device
JPH10239634A (en) * 1997-02-27 1998-09-11 Minolta Co Ltd Stereoscopic video display device
JP2000249974A (en) * 1999-03-02 2000-09-14 Canon Inc Display device and stereoscopic display device
US20110075257A1 (en) * 2009-09-14 2011-03-31 The Arizona Board Of Regents On Behalf Of The University Of Arizona 3-Dimensional electro-optical see-through displays

Cited By (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2016098412A1 (en) * 2014-12-19 2017-04-27 株式会社ソニー・インタラクティブエンタテインメント Head-mounted display device and video display system
US10353207B2 (en) 2014-12-19 2019-07-16 Sony Interactive Entertainment Inc. Head-mounted display device and video display system
JP2018523147A (en) * 2015-05-08 2018-08-16 ビ−エイイ− システムズ パブリック リミテッド カンパニ−BAE SYSTEMS plc Improvements in and related to displays
US10268290B2 (en) 2015-11-02 2019-04-23 Facebook Technologies, Llc Eye tracking using structured light
US9983709B2 (en) 2015-11-02 2018-05-29 Oculus Vr, Llc Eye tracking using structured light
EP3341783A4 (en) * 2015-11-02 2019-11-20 Facebook Technologies, LLC Eye tracking using structured light
CN108369325A (en) * 2015-12-08 2018-08-03 欧库勒斯虚拟现实有限责任公司 Focus adjusts virtual reality headset
US10025060B2 (en) 2015-12-08 2018-07-17 Oculus Vr, Llc Focus adjusting virtual reality headset
US10445860B2 (en) 2015-12-08 2019-10-15 Facebook Technologies, Llc Autofocus virtual reality headset
KR20180091014A (en) * 2015-12-08 2018-08-14 아큘러스 브이알, 엘엘씨 Focus adjustment virtual reality headset
KR102038379B1 (en) 2015-12-08 2019-10-31 페이스북 테크놀로지스, 엘엘씨 Focus Adjusting Virtual Reality Headset
WO2017099824A1 (en) * 2015-12-08 2017-06-15 Oculus Vr, Llc Focus adjusting virtual reality headset
US10937129B1 (en) 2015-12-08 2021-03-02 Facebook Technologies, Llc Autofocus virtual reality headset
CN108369325B (en) * 2015-12-08 2019-04-26 脸谱科技有限责任公司 Focus adjustment virtual reality headset
JP2019507363A (en) * 2015-12-08 2019-03-14 フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc Virtual reality headset for focus adjustment
KR101958390B1 (en) 2015-12-08 2019-03-14 페이스북 테크놀로지스, 엘엘씨 Focus adjustment virtual reality headset
US20170160798A1 (en) * 2015-12-08 2017-06-08 Oculus Vr, Llc Focus adjustment method for a virtual reality headset
KR20190027950A (en) * 2015-12-08 2019-03-15 페이스북 테크놀로지스, 엘엘씨 Focus Adjusting Virtual Reality Headset
US10241569B2 (en) * 2015-12-08 2019-03-26 Facebook Technologies, Llc Focus adjustment method for a virtual reality headset
US11668941B2 (en) 2015-12-22 2023-06-06 E-Vision Smart Optics, Inc. Dynamic focusing head mounted display
JP2019507367A (en) * 2015-12-22 2019-03-14 イー−ビジョン スマート オプティックス, インク.E−Vision Smart Optics, Inc. Dynamic focusing head mounted display
US11237396B2 (en) 2015-12-22 2022-02-01 E-Vision Smart Optics, Inc. Dynamic focusing head mounted display
JP7180873B2 (en) 2015-12-22 2022-11-30 イー-ビジョン スマート オプティックス, インク. dynamic focus head mounted display
US12222511B2 (en) 2015-12-22 2025-02-11 E-Vision Smart Optics, Inc. Dynamic focusing head mounted display
US10228240B2 (en) 2016-01-15 2019-03-12 Facebook Technologies, Llc Depth mapping using structured light and time of flight
US9976849B2 (en) 2016-01-15 2018-05-22 Oculus Vr, Llc Depth mapping using structured light and time of flight
US11106276B2 (en) 2016-03-11 2021-08-31 Facebook Technologies, Llc Focus adjusting headset
US10379356B2 (en) 2016-04-07 2019-08-13 Facebook Technologies, Llc Accommodation based optical correction
US11016301B1 (en) 2016-04-07 2021-05-25 Facebook Technologies, Llc Accommodation based optical correction
US10429647B2 (en) 2016-06-10 2019-10-01 Facebook Technologies, Llc Focus adjusting virtual reality headset
US11694353B2 (en) 2016-08-04 2023-07-04 Dolby Laboratories Licensing Corporation Single depth tracked accommodation-vergence solutions
JP7335285B2 (en) 2016-08-04 2023-08-29 ドルビー ラボラトリーズ ライセンシング コーポレイション Single Depth Tracking Accommodation-Binocular Diversion Solution
US20210264631A1 (en) 2016-08-04 2021-08-26 Dolby Laboratories Licensing Corporation Single depth tracked accommodation-vergence solutions
JP2019532535A (en) * 2016-08-04 2019-11-07 ドルビー ラボラトリーズ ライセンシング コーポレイション Single depth tracking perspective accommodation-binocular transduction solution
US10943359B2 (en) 2016-08-04 2021-03-09 Dolby Laboratories Licensing Corporation Single depth tracked accommodation-vergence solutions
JP2021122109A (en) * 2016-08-04 2021-08-26 ドルビー ラボラトリーズ ライセンシング コーポレイション Single-depth tracking accommodation-binocular accommodation solution
US20180157320A1 (en) * 2016-12-01 2018-06-07 Oculus Vr, Llc Air spaced optical assembly with integrated eye tracking
US10610775B1 (en) * 2017-01-04 2020-04-07 Facebook Technologies, Llc Actuation for a focus adjusting head mounted display
US11607607B1 (en) 2017-01-04 2023-03-21 Meta Platforms Technologies, Llc Actuation for a focus adjusting head mounted display
US11318375B1 (en) 2017-01-04 2022-05-03 Facebook Technologies, Llc Actuation for a focus adjusting head mounted display
US10994196B1 (en) 2017-01-04 2021-05-04 Facebook Technologies, Llc Actuation for a focus adjusting head mounted display
US10025384B1 (en) 2017-01-06 2018-07-17 Oculus Vr, Llc Eye tracking architecture for common structured light and time-of-flight framework
US10310598B2 (en) 2017-01-17 2019-06-04 Facebook Technologies, Llc Varifocal head-mounted display including modular air spaced optical assembly
US10257507B1 (en) 2017-01-17 2019-04-09 Facebook Technologies, Llc Time-of-flight depth sensing for eye tracking
US10154254B2 (en) 2017-01-17 2018-12-11 Facebook Technologies, Llc Time-of-flight depth sensing for eye tracking
US10416766B1 (en) 2017-01-17 2019-09-17 Facebook Technologies, Llc Varifocal head-mounted display including modular air spaced optical assembly
US11004222B1 (en) 2017-01-30 2021-05-11 Facebook Technologies, Llc High speed computational tracking sensor
US10983354B2 (en) 2017-02-21 2021-04-20 Facebook Technologies, Llc Focus adjusting multiplanar head mounted display
WO2018156523A1 (en) * 2017-02-21 2018-08-30 Oculus Vr, Llc Focus adjusting multiplanar head mounted display
US10866418B2 (en) 2017-02-21 2020-12-15 Facebook Technologies, Llc Focus adjusting multiplanar head mounted display
JP2020522010A (en) * 2017-05-29 2020-07-27 アイウェイ ビジョン リミテッドEyeWay Vision Ltd. Title: Eye projection system with focus management and method
CN110891533A (en) * 2017-05-29 2020-03-17 爱威愿景有限公司 Eye projection system and method with focus management
EP3630028A4 (en) * 2017-05-29 2021-03-10 Eyeway Vision Ltd. Eye projection systems and methods with focusing management
JP2023059918A (en) * 2017-10-11 2023-04-27 マジック リープ, インコーポレイテッド Augmented reality display with eyepiece having transparent emissive display
JP2024103517A (en) * 2017-10-11 2024-08-01 マジック リープ, インコーポレイテッド Augmented reality display with eyepiece having transparent emissive display - Patent Application 20070123633
JP7540022B2 (en) 2017-10-11 2024-08-26 マジック リープ, インコーポレイテッド Augmented reality display with eyepiece having transparent emissive display - Patent Application 20070123633
US12124040B2 (en) 2017-10-11 2024-10-22 Magic Leap, Inc. Augmented reality display comprising eyepiece having a transparent emissive display
US12158986B2 (en) 2019-12-06 2024-12-03 Magic Leap, Inc. Virtual, augmented, and mixed reality systems and methods
JP2023505230A (en) * 2019-12-06 2023-02-08 マジック リープ, インコーポレイテッド Virtual, Augmented, and Mixed Reality Systems and Methods
JP7693673B2 (en) 2019-12-06 2025-06-17 マジック リープ, インコーポレイテッド Virtual, augmented, and mixed reality systems and methods
WO2023021732A1 (en) * 2021-08-20 2023-02-23 ソニーグループ株式会社 Display apparatus and display method

Similar Documents

Publication Publication Date Title
JP2014219621A (en) Display device and display control program
US11132056B2 (en) Predictive eye tracking systems and methods for foveated rendering for electronic displays
US10871825B1 (en) Predictive eye tracking systems and methods for variable focus electronic displays
US10241329B2 (en) Varifocal aberration compensation for near-eye displays
JP6507241B2 (en) Head-mounted display device and vision assistance method using the same
AU2015374071B2 (en) Light projector using an acousto-optical control device
US10659771B2 (en) Non-planar computational displays
JP6339239B2 (en) Head-mounted display device and video display system
KR20210100175A (en) Adaptive Viewport for Hyper Vocal Viewport (HVP) Display
US20150187115A1 (en) Dynamically adjustable 3d goggles
JP6378781B2 (en) Head-mounted display device and video display system
US9905143B1 (en) Display apparatus and method of displaying using image renderers and optical combiners
JP6349660B2 (en) Image display device, image display method, and image display program
US12333068B2 (en) Eye tracking using alternate sampling
WO2020115815A1 (en) Head-mounted display device
US11743447B2 (en) Gaze tracking apparatus and systems
JP2018513656A (en) Eyeglass structure for image enhancement
JP4270347B2 (en) Distance calculator
JP2013131884A (en) Spectacles

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160426

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170327

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171129

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20171208

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20180126