JP2019521387A - Hybrid Photonic VR / AR System - Google Patents
Hybrid Photonic VR / AR System Download PDFInfo
- Publication number
- JP2019521387A JP2019521387A JP2018568159A JP2018568159A JP2019521387A JP 2019521387 A JP2019521387 A JP 2019521387A JP 2018568159 A JP2018568159 A JP 2018568159A JP 2018568159 A JP2018568159 A JP 2018568159A JP 2019521387 A JP2019521387 A JP 2019521387A
- Authority
- JP
- Japan
- Prior art keywords
- image composition
- channelized
- world
- image
- real
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/64—Circuits for processing colour signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Theoretical Computer Science (AREA)
- Optics & Photonics (AREA)
- Processing Or Creating Images (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
【課題】【解決手段】VR/ARシステム、方法、アーキテクチャは、合成世界画像組成信号を作成しつつ、現実世界画像組成信号を同時に受信かつ処理し、その後、これらの信号をさらに処理するためにインターリーブ/増強する、オーグメンタを含む。いくつかの実施態様では、現実世界信号(オーグメンタによって処理される可能性を有しつつ通過する)は、HVS用に意図された表示画像プリカーサのセットを作成するための、可視化(可視スペクトルへの変換)、振幅/帯域幅処理、及び出力整形を含む継続的処理のために、赤外線に変換され(例えば、偽カラーマップを用いて)かつ合成世界信号(赤外線に作成される)でインターリーブされる。【選択図】図5A VR / AR system, method, and architecture for simultaneously receiving and processing real world image composition signals while creating composite world image composition signals, and then further processing these signals. Includes augmentor to interleave / enhance. In some implementations, real-world signals (passed with the possibility of being processed by an augmentor) are visualized (to the visible spectrum) to create a set of display image precursors intended for HVS. Conversion), amplitude / bandwidth processing, and continuous processing including output shaping, converted to infrared (eg, using a false colormap) and interleaved with a synthetic world signal (created in infrared) . [Selection] Figure 5
Description
(関連出願の相互参照)
本出願は、2017年3月13日にすべて出願された米国特許出願第15/457,967号、第15/457,980号、第15/457,991号、及び第15/458,009号の利益を主張し、かつ2016年3月15日にすべて出願された米国特許出願第62/308,825号、第62/308,361号、第62/308,585号、及び第62/308,687号の利益を主張し、かつ本出願は米国特許出願第12/371,461号、第62/181,143号、及び第62/234,942号に関係し、これらの出願の内容はすべての目的のためにその全体として参照することによりすべて本明細書に明示的に組み込まれている。
(Cross-reference to related applications)
This application is related to U.S. Patent Application Nos. 15 / 457,967, 15 / 457,980, 15 / 457,991, and 15 / 458,009, all filed March 13, 2017. U.S. Patent Application Nos. 62 / 308,825, 62 / 308,361, 62 / 308,585, and 62/308 claiming the benefit of U.S. patent application Ser. No. 687, and the present application is related to US Patent Application Nos. 12 / 371,461, 62 / 181,143, and 62 / 234,942, the contents of which are incorporated herein by reference. It is expressly incorporated herein by reference in its entirety for all purposes.
本発明は概してビデオ及びデジタル画像、並びにこれらのデータを生成し、送信し、切り替え、割り当て、記憶し、かつ表示するデータ処理装置及びネットワーク、並びに感知アレイ及び空間光変調器などのアレイでの非ビデオ及び非ピクセルデータ処理、並びにこれらのためのデータの適用及び使用に関し、また特に(但し排他的にではない)、デジタル映像ディスプレイ(フラットスクリーン、フレキシブルスクリーン、2Dもしくは3D、又は投影画像のいずれかを問わない)及び素子アレイによる非表示データ処理に関し、かつこれらのプロセスの組織化及び配置の空間形態(フラットスクリーンテレビ及びコンシューマーモバイルデバイスなどのコンパクト装置を含む)、並びにピクセル信号もしくはデータ信号又はこれらの集約又は集まりの画像取込、送信、割当、分割、組織化、記憶、配送、表示及び投射を提供するデータネットワークに関する。 The present invention generally relates to data processing devices and networks that generate, transmit, switch, assign, store and display video and digital images, as well as their data, and non-arrays such as sensing arrays and spatial light modulators. With regard to video and non-pixel data processing, and the application and use of data for these, and in particular (but not exclusively) digital image displays (flat screen, flexible screen, 2D or 3D, or any of the projected images) And non-display data processing with arrays of elements, and the spatial form of organization and arrangement of these processes (including flat-screen TVs and compact devices such as consumer mobile devices), and pixel signals or data signals or these Aggregation of The image capture collection, transmission, assignment, division, organization, storage, delivery, to a data network to provide a display and projection.
背景セクションで論じられる主題は、背景セクションにおいて指摘されたという結果のみで従来技術であると想定すべきではない。同様に、背景セクションにて指摘された又は背景セクションの主題に関連付けられた課題は、従来技術において事前に認識されてきたものと想定すべきではない。背景セクションにおける主題は単に、それ自体が発明でもあり得る異なるアプローチを表している。 The subject matter discussed in the background section should not be assumed to be prior art only as a result of being pointed out in the background section. Similarly, the issues pointed out in the background section or associated with the subject matter of the background section should not be assumed to have been previously recognized in the prior art. The subject matter in the background section merely represents a different approach that may itself also be the invention.
本発明分野は1つではなく、むしろ拡張現実と仮想現実という2つの関連分野を組み合わせたものであり、両分野における従来技術の重要な問題及び制限を解決する一体化モバイル装置の解決策に取り組みかつこれを提供する。これらの関連分野の背景を簡単に見直すことで、解決すべき課題及び制限が明らかになり、かつ本開示の解決案の準備となることだろう。 The field of the invention is not one, but rather a combination of two related fields, augmented reality and virtual reality, and addresses an integrated mobile device solution that solves the key problems and limitations of the prior art in both fields. And provide this. A brief review of the background of these related areas will clarify the issues and limitations to be solved and will prepare for the proposed solution of the present disclosure.
これらの用語の2つの標準的辞書の定義(出典:Dictionary.com)は、以下の通りである。 The definitions of two standard dictionaries of these terms (Source: Dictionary.com) are as follows.
仮想現実:「対話型ソフトウェア及びハードウェアを用いたコンピュータシステムによる3次元グラフィックを含む環境の現実的シミュレーション。略語:VR」 Virtual Reality: "Realistic simulation of an environment including 3D graphics by a computer system using interactive software and hardware. Abbreviation: VR"
拡張現実:「現実世界環境でコンピュータ生成された画像、音声又はその他のデータを重ねることによって、スクリーン又はその他のディスプレイ上で見られるように拡張された画像又は環境。そして:「このような拡張環境を作成するために使用されるシステム又はテクノロジー。略語:AR」 Augmented Reality: "an image or environment expanded to be viewed on a screen or other display by overlaying computer generated images, sounds or other data in a real world environment. And:" such an expanded environment System or technology used to create a "abbreviation: AR"
上記定義(非技術的なものであるが)から、関連分野の当業者にとって、最も重要な違いは、シミュレートされた要素が、現実の部分的直視でさえ完全にスクリーニングする完全かつ没入型のシミュレーションであるか、又はシミュレートされた要素が、さもなければクリアで遮るもののない現実のビューにスーパーインポーズされているか否かであることが明白である。 From the above definition (although it is non-technical), the most important difference for the person skilled in the relevant field is the completely and immersive type in which the simulated elements are completely screened even in real partial dilation. It is clear whether it is a simulation or whether the simulated element is superimposed on a clear and unobstructed real view.
このトピックに関するWikipedia の見出し語で、そのページの編集への貢献の深さと範囲を前提として、当該分野をよく表していると見なされる、若干より技術的な定義が提供されている。 The Wikipedia entry for this topic provides a slightly more technical definition that is considered to be a good representation of the field, given the depth and extent of its contribution to the compilation of the page.
仮想現実(VR)(没入型マルチメディアという場合もある)は、現実世界又は想像世界の場所での物理的存在をシミュレートできるコンピュータでシミュレートされた環境である。仮想現実は、仮想の味覚、視覚、嗅覚、聴覚、触覚などの知覚経験を再現できる。 Virtual reality (VR) (sometimes referred to as immersive multimedia) is a computer-simulated environment that can simulate physical presence in the real world or a place in an imaginary world. Virtual reality can reproduce perceptual experiences such as virtual taste, vision, smell, hearing, and touch.
拡張現実(AR)は、音声、ビデオ、グラフィック又はGPSデータなどのコンピュータ生成された知覚入力によってその要素が増強(又は補足)された、物理的現実世界環境のライブの直視又は間接視である。 Augmented reality (AR) is a live, direct or indirect view of a physical real-world environment whose elements are augmented (or supplemented) by computer-generated perceptual inputs such as voice, video, graphics or GPS data.
これらの定義に固有であるが単に黙示的であることは、モバイル視点の非常に重要な属性である。より一般的なクラスのコンピュータシミュレーション(「リアルタイム」の、現実の「直接」イメージング(ローカル又はリモートのいずれか)との組み合わせ、融合、合成、又は一体化の有無を問わない)と、仮想又は拡張現実を区別するのは、シミュレートされた又はハイブリッドの(増強された又は「混合の」)現実の「同時現実」画像であり、ビューアーが現実世界内で移動するにつれて、ビューアーと共にビューアーの視点も移動するという点である。 Being specific to these definitions but simply implicit is a very important attribute of mobile perspectives. A more general class of computer simulation (with or without "real-time" real "direct" imaging (whether local or remote), fusion, synthesis, or integration), virtual or extended It is the simulated or hybrid (enhanced or "mixed") real "simultaneous" images that distinguish reality, and as the viewer moves in the real world, the viewer's viewpoint is also with the viewer It is the point of moving.
本開示は、このより正確な定義が、没入型で表示され経験されたシミュレートされた世界の静止ナビゲーション(シミュレータ)と、シミュレートされた世界(仮想現実)のモバイルナビゲーションとを区別するために必要であることを提案している。そしてシミュレータのサブカテゴリは、シミュレートされた世界の部分的に「仮想現実的な」ナビゲーションを可能にする、静止ユーザが没入型HMD(ヘッドマウントディスプレイ)及びハプティックインターフェース(例えば、モーション追跡グローブ)を装着した、「個人シミュレータ」又はせいぜい「部分仮想現実」となるであろう。 The present disclosure is intended to distinguish this more accurate definition from the immersive displayed and experienced simulated world static navigation (simulator) and mobile world of the simulated world (virtual reality). It proposes that it is necessary. And subcategories of the simulator allow partially "virtually realistic" navigation of the simulated world, stationary users wear immersive HMDs (head mounted displays) and haptic interfaces (eg motion tracking gloves) It will be an "Individual Simulator" or at most a "Partial Virtual Reality".
他方では、CAVEシステムが、制限付き仮想現実システムとして概略的に適していると見なされるであろう。なぜならば、CAVEのサイズを超えたナビゲーションが、可動床によってのみ可能になるであろうからであり、CAVE自体の限度に達してしまうと、その後に続くのはまた別の形態の「部分仮想現実」となる。 On the other hand, the CAVE system will be regarded as generally suitable as a restricted virtual reality system. This is because navigation beyond the size of CAVE will only be possible with movable floors, and once CAVE's own limit has been reached, another form of "partial virtual reality" follows. It becomes ".
「モバイル」視点と「可動」視点との差に注意。シミュレートされた世界の探索者が個人的に動いているのでない限り、又は別の人もしくはロボットの動作を指示しているのでない限り、ビデオゲームなどのコンピュータシミュレーションは、シミュレートされた世界又は「現実」であり、そこで言えることは(過去40年間でのコンピュータグラフィックの主要な成果のうちのこの成果は、ソフトウェアにおいて探索可能であるシミュレートされた世界を単に「構築する」ことであるが)、シミュレートされた世界は「ナビゲーション可能」ということである。 Note the difference between the "mobile" and "mobile" viewpoints. A computer simulation such as a video game is a simulated world or unless the seeker in the simulated world is personally moving or otherwise directing the movement of another person or robot. "Reality" and what can be said there (This achievement among the major achievements of computer graphics in the past 40 years is simply to "build up" a simulated world that is searchable in software ), The simulated world is "navigable".
シミュレーションは仮想又はハイブリッド(著者の好みの用語)現実のいずれかであるため、非常に重要で決定的な特徴とは、現実空間へのシミュレーションのマッピング(完全に合成か又はハイブリッドかを問わず)があるということである。このような現実空間は、研究室又はサウンドステージ内の部屋と同じくらい基本的で、かつシミュレートされた世界に対してある比率でマッピングしかつ較正を行う単なるグリッドであり得る。 Because simulation is either virtual or hybrid (author's favorite term) real, so critical features are mapping of the simulation to real space (whether completely synthetic or hybrid) It is that there is. Such real space may be just as simple as mapping and calibrating at a ratio to the simulated world, as basic as a room in a laboratory or sound stage.
この区別は評価的ではなく、なぜならば、モバイルではなく又は実際の現実トポグラフィー(自然か、人工であるか、又はハイブリッドであるか否かを問わず)へのマッピングなしに、リアルタイム自然インターフェース(ヘッドトラッキング、触覚の、聴覚の等)を提供する部分的VRは、物理的相互作用をシミュレートしかつ及び知覚没入を提供する部分的VRシステムよりも根本的に価値が低くはないからである。しかし、足病治療フィードバックシステム無しでは、又はより普遍的には全身動作範囲フィードバックシステム、及び/又はユーザのシミュレートされた、(その感覚として)地形(静止している)上での全身動作(立っているか、座っているか又はリクライニングしているかを問わず)をサポートする動的変形可能機械インターフェース・相互作用面無しでは、VRシステムは定義上、「部分的」である。 This distinction is not evaluative, because it does not map to real or non-mobile real reality topography (whether natural, artificial or hybrid or not) in real time natural interface ( Partial VR providing head tracking, tactile, auditory etc) is not of fundamentally lower value than partial VR systems simulating physical interaction and providing perceptual immersion . However, without the foot disease treatment feedback system, or more universally the whole body movement range feedback system, and / or the whole body movement on the terrain (as the rest) simulated (as the feeling of the user) ( The VR system is "partial" by definition, without a dynamically deformable mechanical interface or interaction surface that supports standing, sitting or reclining.
しかし、このような理想的な全身物理的インターフェース/フィードバックシステムが無い場合、VRを「完全」な全モバイルバージョンに制限することは、VR世界の地形を、現実世界で見つけることができる地形(修正されたか又はゼロから構築した)に制限することになるであろう。このような制限は、概して仮想現実経験の範囲及び力をひどく制限してしまうことになるであろう。 However, in the absence of such an ideal full-body physical interface / feedback system, restricting the VR to a "full" mobile version means that the topography of the VR world can be found in the real world Or built from scratch). Such limitations will generally severely limit the scope and power of the virtual reality experience.
しかし、以降の開示で明白になるが、この区別は変化をもたらす。なぜならば、この区別は、既存のVRシステムとARシステムがいかに異なるか、そしてこれらの制限についての「明快な境界基準」を設定し、並びに本開示の教示を知らせるための背景を提供するからである。 However, as will become apparent in the following disclosure, this distinction brings about changes. Because this distinction sets out how existing VR and AR systems differ, and sets a "clear boundary reference" for these limitations, as well as providing a background for informing the teachings of this disclosure. is there.
欠如しているが非常に重要なシミュレーションの特徴及び要件が、完全な「仮想現実」であることを証明してきたが、次のステップは、実現される「モバイル視点」というのが何を意味するのかという黙示的問題を特定することである。その答えは、モバイルであるシミュレーションのビューを提供することであり、これはそれ自体がハードウェアとソフトウェアの組み合わせによって実現される2つの構成要素、すなわち、動画表示手段(これによってシミュレーションを見ることができる)と、モーション追跡手段(3軸の動作でのディスプレイを含む装置の動きを追跡できる)とを必要とし、これは、3次元視聴装置の経時的位置を最低でも3つの追跡点(装置がマッピングされて測定がなされ、3番目の軸の3番目の位置が推測される場合には、2つの追跡点)で測定することを意味し、そして基準3軸フレーム(現実空間にマッピングされる任意の3D座標系であり得る)に関連して、空間のナビゲーションを機械的に行うという実用目的上、2軸は地面である平面を形成し、3番目の軸であるZ軸は、その地面に対して垂直となる。 Although missing but very important simulation features and requirements have proved to be a complete "virtual reality", the next step is what does the "mobile perspective" realized mean To identify the implicit problem of The answer is to provide a view of the simulation that is mobile, which is two components that are themselves realized by a combination of hardware and software, ie an animation display means (by which the simulation is viewed Requires motion tracking means (capable of tracking the movement of the device including the display in 3-axis motion), which means that the position of the 3D viewing device at least three tracking points at least If mapped and measured, and the third position of the third axis is inferred, it means to measure at two tracking points), and the reference three-axis frame (arbitrary mapped to the real space) A plane in which two axes are the ground for the practical purpose of mechanically performing navigation of space in relation to the 3D coordinate system of Formed, Z-axis is the third axis, perpendicular to the its ground.
正確にかつ時間機能として頻繁にこの位置的配向を実際的に達成するための解決策には、センサとソフトウェアの組み合わせが必要であり、これらの解決策における前進は、VR及びARハードウェア/ソフトウェアモバイル視聴装置及びシステムの両方の分野の開拓における主要な軌道を表す。 Solutions to practically achieve this positional orientation accurately and frequently as a function of time require a combination of sensors and software, and advances in these solutions include VR and AR hardware / software It represents the main trajectory in the development of the field of both mobile viewing devices and systems.
これらは、初期の実験と現在の実用的テクノロジー及び製品との間のタイム・フレームの観点から言うと比較的新しい分野であり、モバイル視覚シミュレーションシステムの両カテゴリーにおける起源と最新技術について書き留めることで十分であり、唯一の例外としては、本開示の開発にとって重要であるか、又は分野における現在の問題又は従来技術から本開示の解決策を区別するもののいずれかをより良く説明するために役に立つ重要な相違点又は類似点に関連する、従来技術における特定の革新である。 These are relatively new areas in terms of time frame between early experiments and current practical technologies and products, and it is sufficient to note the origin and the latest technologies in both categories of mobile visual simulation systems The only exception is that it is important to the development of the present disclosure or it serves to better explain either the current problem in the field or the distinction of the solution of the present disclosure from the prior art. It is a particular innovation in the prior art that relates to differences or similarities.
1968年以降から90年代後半までの期間は、関連シミュレーション及びシミュレータ、VR及びAR分野における多くの革新の期間であり、この期間中に、部分的VR及びARを達成する際の重要な問題の多くが、最初の又は部分的な解決策を見つけた。 The period from 1968 to the late 90's is the period of many innovations in relevant simulation and simulator, VR and AR fields, during this period many of the important issues in achieving partial VR and AR But found the first or partial solution.
1968年以降のIvan Sutherland及び彼の助手のBob Sprouellの独創的で影響力の強い実験及び実験的ヘッドマウント表示システムは、これらの関連分野の起源を記すものと一般的に見なされているが、より早い時期の取り組みでは、本質的に概念的な開発がこれに先立ち、没入感及びナビゲーションを達成するAR/VRのいずれかの形態の最初の実験的実施がある。 The original and influential experimental and experimental head-mounted display systems of Ivan Sutherland and his assistant Bob Sprouell since 1968 are generally regarded as marking the origin of these related areas, In earlier work, essentially conceptual development precedes this by the first experimental implementation of any form of AR / VR that achieves immersiveness and navigation.
静止シミュレータシステムの誕生は、フライトシミュレータへのコンピュータ生成されたイメージングの追加まで遡り、これは一般的に1960年代半ば〜後半に始まったと認識されている。これはユーザからCRTへの距離で完全に焦点が合った画像を表示する、CRTの使用に制限されていたが、1972年になって、Singer−Link Companyが、ビームスプリッタミラーシステムを通して遠方焦点画像を投影するコリメート投影システムを初公開し、これは各ユニットにつき約25〜35度まで視野を改良した(一人乗り用シミュレータで用いられる3ユニットで100度)。 The birth of the static simulator system dates back to the addition of computer-generated imaging to flight simulators, which is generally recognized to have begun in the mid to late 1960's. This was limited to the use of a CRT, which displays a fully focused image at a distance from the user to the CRT, but by 1972 the Singer-Link Company was able to First introduced a collimated projection system that projects the field of view to about 25-35 degrees for each unit (100 degrees for 3 units used in a single-seat simulator).
このベンチマークは、1982年になって初めて、ビューシステムの広視野を導入した広角インフィニティディスプレイシステムでRediffusion Companyによって改良され、このシステムは、複数のプロジェクタと大きな曲面コリメートスクリーンを使用することで、150度のFOV,そして最終的には240度のFOVを実現した。この段階になって、静止シミュレータは、ビューアーを隔離し、かつ周辺からの視覚的キューとなる気を散らすものを排除するためにHMDを使用することで、仮想現実におけるリアルな没入感の重要な程度を最終的に達成したと説明されるかもしれない。 This benchmark was first improved in 1982 with the wide-angle infinity display system that introduced a wide field of view system, and was refined by the Rediffusion Company, which used 150 degrees by using multiple projectors and large curved collimated screens. The FOV, and finally the FOV of 240 degrees was realized. At this stage, the static simulator is important for realistic immersiveness in virtual reality by using the HMD to isolate viewers and eliminate distracting visual cues from the surroundings It may be explained that the degree was finally achieved.
しかし、Singer−Link CompanyがVR型体験への足掛かりとしてシミュレータ用のスクリーンコリメーションシステムを紹介する頃には、最初の非常に制限された商用ヘルメットマウントディスプレイが軍事使用のために初めて開発されつつあり、これは、レチクルベースの電子標的システムをヘルメットのモーション追跡自体と一体化した。これらの最初の開発は、1970年代に南アフリカ空軍によって(これに続いて、当該時点から70年代半ばにかけてイスラエル空軍によって)初歩的な形態で達成されたと一般的に認識されており、初歩的AR又は媒介/ハイブリッドリアリティシステムの開始と言ってもよい。 However, as the Singer-Link Company introduced screen collimation systems for simulators as a stepping stone to VR-type experiences, the first very limited commercial helmet-mounted displays were being developed for military use for the first time, This integrated the reticle based electronic target system with the helmet's motion tracking itself. These initial developments were generally recognized as being achieved in a rudimentary form by the South African Air Force in the 1970s (following, from that point onwards to the mid-'70s by the Israeli Air Force), a rudimentary AR or It may be said that the initiation of an intermediary / hybrid reality system.
これらの初期の、グラフィック的には最小限度だが、それでもなお独創的で影響力の強いヘルメットマウントシステムは、レチクルに重ねられた位置的に調整された標的情報と、ユーザ作動のモーション追跡ターゲティングとの制限的複合を実施し、その後に、眼鏡にグラフィックをスーパーインポーズした、最初の「媒介現実」モバイルビュースルーシステムである第一世代「EyeTap」のSteve Mannによる本発明がある。 These early, graphically minimalistic, yet inventive and influential helmet mount systems combine positionally adjusted target information superimposed on a reticle with user-actuated motion tracking targeting. There is an invention by Steve Mann of the first generation "EyeTap", the first "intermediate reality" mobile view-through system that implemented restrictive compounding and then superimposed graphics on the glasses.
Mannによる後のバージョンは、ビームスプリッタ/コンバイナ光融合現実及び処理済みイメージに基づく光再結合システムを用いた。この研究の後に、Chunyu GaoとAugmented Vision Incによる研究があり、これは基本的に、処理済み実像と生成画像とを光学的に組み合わせる二重Mannシステムを提案しており、ここでMannのシステムは電子的に処理済み実像と生成画像の両方を達成した。Mannのシステムでは、イメージを通しての実景が保持されたが、Gaoのシステムでは、すべてビュースルーイメージが処理されて、オプションとしてさえも直接ビュースルーイメージが排除された。(2013年4月13日に出願されたChunyu Gaoの米国特許出願第20140177023号)。Gaoのシステムによって特定された「光路折り畳み光学体」構造及び方法は、その他の光学HMDシステムでも見られる。 Later versions by Mann used a beam splitter / combiner light fusion system based on light fusion reality and processed images. After this study, there is a study by Chunyu Gao and Augmented Vision Inc, which basically proposes a dual-Mann system that optically combines the processed real image and the generated image, where the Mann system is Both electronically processed real images and generated images were achieved. While Mann's system preserves the real view through the images, all of Gao's system processes view-through images, eliminating direct view-through images even as an option. (U.S. Patent Application No. 20140177023 to Chunyu Gao, filed April 13, 2013). The "optical path folding optics" structure and method specified by Gao's system can also be found in other optical HMD systems.
1985年までに、Jaron LanierとVPL Reseearchが結成されてHMDと「データグローブ」が開発されたため、1980年代までには、非常に活発な開発分野の中でも、最も重大な進歩のうちのいくつかで高い評価を得て、かつ大半の場合に現在まで最新技術として生き残っているいくつかの基本的ソリューションタイプを確立した、Mann、Lanier、そしてRedefussion Companyによる、シミュレーション、VR及びARの3つの主要な開発路が存在していた。 By 1985, Jaron Lanier and VPL Reseearch were formed to develop HMD and “Data Globe”, and by the 1980s, some of the most significant developments among the very active development areas Three major developments by Simulation, VR and AR by Mann, Lanier and Redefussion Company that have established several basic solution types that have received high praise and, in most cases, have survived to date as current technology A road existed.
コンピュータ生成されたイメージング(CGI)の精巧化、リアルタイム対話型CGテクノロジーでのゲーム機(ハードウェア及びソフトウェア)における継続的改良、複数のシステムの中でのより大きいシステム一体化、並びにARと(より制限された程度での)VRの両方の可動性の拡張は、1990年代の主要な開発トレンドに含まれていた。 Refinement of computer-generated imaging (CGI), continuous improvement on game consoles (hardware and software) with real-time interactive CG technology, greater system integration among multiple systems, and AR and (more The expansion of both VR's mobility to a limited degree was included in the major development trends of the 1990's.
モバイルVRの制限形態とシミュレータの新しい種類の両方であったのは、シカゴのイリノイ州立大学のElectronic Visualization Laboratoryが開発し、1992年に世界にデビューしたCAVEシステムであった。(Carolina Cruz−Neira、Daniel J. Sandin, Thomas A. DeFanti、Robert V. Kenyon及びJohn C. Hart、「The CAVE: Audio Visual Experience Automatic Virtual Environment(CAVE:オーディオビジュアル体験自動仮想環境)」、Communications of the ACM、第35(6)号、1992年64〜72頁)。LanierのHMD/データグローブの組み合わせに代わって、CAVEは、WFOVマルチウォールシミュレータ「ステージ」とハプティックインターフェースとを組み合わせた。 Both the restricted form of mobile VR and the new kind of simulator was the CAVE system, which was developed in 1992 by the Electronic Visualization Laboratory at Illinois State University in Chicago and debuted in the world. (Carolina Cruz-Neira, Daniel J. Sandin, Thomas A. DeFanti, Robert V. Kenyon and John C. Hart, "The CAVE: Audio Visual Experience Automatic Virtual Environment (CAVE)", Communications of the ACM, 35 (6), 1992, 64-72)). Instead of the Lanier HMD / Data Grove combination, CAVE combined the WFOV multi-wall simulator "stage" with a haptic interface.
同時に、静止部分ARの一形態が、アームストロング米国空軍研究所にてLouis Rosenbergによって、「Virtual Fixtures」システム(1992年)として開発され、その一方で、Jonathan Waldernの静止「Virtuality」VRシステム(1985年から1990年までの早い時期に最初の開発がなされたと認識されている)も、1992年に商的にデビューした。 At the same time, one form of the stationary part AR was developed by Louis Rosenberg at the Armstrong US Air Force Research Institute as the "Virtual Fixtures" system (1992), while Jonathan Waldern's stationary "Virtuality" VR system (1985) It is recognized that the first development was made early in the year from 1990 to 1990), and also made its commercial debut in 1992.
実際の車両と仮想車両を「増強されたシミュレーション」(「AUGSIMM」)に組み合わせてマルチユニットモバイル車両「戦争ゲーム」システムに一体化したモバイルARでは、1993年に業界でデモンストレーションされたLoral WDL の形態で、次の主要な前進が見られた。その後1999年に、最終的1995年SBIRレポートの研究結果についてコメントした、Peculiar Technologiesのプロジェクト参加者Jon Barrilleauxによって、「Experiences and Observations in Applying Augmented Reality to Live Training(ライブトレーニングへの拡張現実の適用における体験及び観察)」が書かれ、現時点にまで至るまでも継続してモバイルVR及び(モバイル)ARが直面している課題である以下の内容を記した。 A mobile AR that combines real and virtual vehicles with “enhanced simulation” (“AUGSIMM”) integrated into a multi-unit mobile vehicle “war game” system, a form of Loral WDL that was demonstrated in the industry in 1993 The next major step forward was seen. Then, in 1999, Peculiar Technologies project participant Jon Barrilleaux commented on the final 1995 SBIR report's findings, “Experiences and Observations in Applying Augmented Reality to Live Training And “Observations” were written, and the following contents, which are the challenges facing mobile VR and (mobile) AR, are described continuously until now.
AR対VR追跡 AR vs. VR tracking
概して、VR用に開発された市販製品は良好な解像度を有するが、ARに必要な絶対精度及び広域カバレッジは欠いており、AUGSIMでの使用についてはより少なくなっている。 In general, the commercial products developed for VR have good resolution but lack the absolute accuracy and wide area coverage needed for AR and are less for use in AUGSIM.
ユーザが合成環境に没入するVRアプリケーションについては、絶対精度よりも相対追跡の方がより関心が持たれている。ユーザの世界は完全に合成であり、自分の頭を0.1度だけ回したことが、たとえ10度以内でも真北を今現在指しているということを分かっていることよりもより重要であるという事実と自己矛盾がない。 For VR applications where users immerse themselves in synthetic environments, relative tracking is more concerned than absolute accuracy. The user's world is completely synthetic, and it is more important to turn your head only 0.1 degrees than to know that you are currently pointing to true north, even within 10 degrees There is no contradiction with the fact that
AUGSIMなどのARシステムにはこのような余裕はない。ユーザの頭部が回転し又は車両が動くにつれて、現実世界において仮想要素がスムーズに動くように見えるように、AR追跡は良好な解像度を有しなければならず、また、仮想要素が正確に重ねられて現実世界におけるオブジェクトによって目立たなくされるように、AR追跡は良好な精度を有しなければならない。 An AR system such as AUGSIM can not afford this. AR tracking must have good resolution so that virtual elements appear to move smoothly in the real world as the user's head rotates or the vehicle moves, and virtual elements overlap exactly AR tracking must have good accuracy so that it can be obscured by objects in the real world.
計算速度及びネットワーク速度は90年代の間改良し続け、屋外のARシステムでの新しいプロジェクトが開始され、それには米国海軍研究所でのBARSシステムのプロジェクト(「BARS: Battlefield Augmented Reality System(BARS:戦場拡張現実システム)」、Simon Julier、Yohan Baillot、Marco Lanzagorta、Dennis Brown、Lawrence Rosenblum;2000年軍事システムのための情報処理技術に関するNATOシンポジウム)が含まれる。要約には以下の記載がある。「このシステムは、ウェアラブルコンピュータと、無線ネットワークシステムと、被追跡シースルーヘッドマウントディスプレイ(HMD)とから構成される。ユーザによる環境の認知は、ユーザの視野にグラフィックをスーパーインポーズすることによって強化される。このグラフィックは、実際の環境に登録される(合わせられる)。」 Computational speed and network speed continue to improve during the 90's, and a new project on the outdoor AR system is launched, which is the project of BARS system at the US Naval Research Institute ("BARS: Battlefield Augmented Reality System (BARS: Battlefield) Augmented Reality System), Simon Julier, Yohan Baillot, Marco Lanzagorta, Dennis Brown, Lawrence Rosenblum; 2000 NATO Symposium on Information Processing Technology for Military Systems). The summary has the following description. "This system consists of a wearable computer, a wireless network system, and a tracked see-through head mounted display (HMD). The perception of the environment by the user is enhanced by superimposing graphics in the user's view This graphic is registered in the actual environment.
非軍事専用の開発も進行し、これは奈良先端科学技術大学院大学の加藤博一の研究であるARToolkitを含み、後に発表されてHITLabにてさらに開発され、ソフトウェア開発スイート及び視点追跡及び仮想オブジェクト追跡のためのプロトコルを紹介した。 Non-military development is also in progress, including ARToolkit, a study by Hirokazu Kato of Nara Institute of Science and Technology Graduate University, which will be announced later and further developed by HITLab, software development suite and viewpoint tracking and virtual object tracking Introduced the protocol for.
これらの画期的出来事は、この期間において最も重要であったとして頻繁に言及されるが、その他の研究者及び企業もこの分野において活発であった。 These landmark events are frequently mentioned as being most important in this period, but other researchers and companies were also active in this area.
訓練シミュレーション用のARの大規模開発及び検査のための軍の資金調達については文書で十分に裏付けがあり、その需要があったことは明白であるが、その他のシステムレベルの設計及びシステムデモンストレーションも、軍の資金調達された研究努力と同時に進行していた。 Although military funding for large-scale development and testing of the AR for training simulation is well documented and evident that there was a demand for it, other system-level design and system demonstrations are also available. The military funded research effort was proceeding at the same time.
最も重要な非軍事的実験の中で、南オーストラリア大学のウェアラブルコンピュータ研究所のBruce Thomasが開始しかつ引率した開発が、ビデオゲームQuakeのARバージョンであるAR Quakeであり、「ARQuake:An Outdoor/Indoor Augmented Reality First Person Application(ARQuake:屋外/屋内拡張現実一人称アプリケーション)」を発表した(ウェアラブルコンピュータについての第4回国際シンポジウム、139〜146頁、ジョージア州アトランタ、2000年10月;(Thomas, B.、Close, B.、Donoghue, J.、Squires, J.、De Bondi, P.、Morris, M.及びPiekarski, W.)。要約には以下の通り記載されている。「我々は、GPS、デジタルコンパス及び基準ビジョンに基づく追跡に基づく、低コストで適宜に正確な6自由度追跡システムを提示する。」 Among the most important non-military experiments, development started and led by Bruce Thomas at the University of South Australia's Wearable Computers Institute is AR Quake, an AR version of the video game Quake, “ARQ uake: An Outdoor / Indoor Augmented Reality First Person Application (ARQuake: Outdoor / Indoor Augmented Reality First Person Application) ”(The 4th International Symposium on Wearable Computers, pp. 139-146, Atlanta, GA, October 2000; (Thomas, B Close, B., Donoghue, J., Squires, J., De Bondi, P., Morris, M. and Piekarski, W.) The abstract states: "We present a low-cost, appropriately accurate 6-DOF tracking system based on GPS, digital compass and tracking based on reference vision. "
1995年に設計開発が開始された別のシステムは、本開示の著者によって開発されたものである。当初、屋外のARとテレビ番組で吹替の「Everquest Live」のハイブリッドを実現することを意図したもので、90年代後半を通してその設計がさらに開発され、その最も重要な要素が1999年までに仕上げられ、その時点で、オリジナルビデオゲーム/TVハイブリッドの資金調達を行うための商的努力が開始され、そして当該時点までに、最高級のテーマリゾート開発での使用のために別バージョンが含まれていた。2001年までに、このことはRidleyとTony Scottの会社を含む諸会社と、特に彼らのジョイントベンチャーであるAirtightplanet(その他のパートナーは、Renny Harlin、Jean Giraud、及びthe European Heavy Metalを含む)に対して機密ベースで開示され、本開示の著者は彼らのためにエグゼクティブ監督業務を務め、そしてこれについて当該時点で「Otherworld」及び「Otherworld Industries」プロジェクト兼ベンチャーを、ATPとの投資及び協同でのジョイントベンチャー案として提起した。 Another system, whose design development was launched in 1995, was developed by the author of the present disclosure. It was originally intended to realize a hybrid of the "Everquest Live" dubbed by outdoor AR and TV programs, and its design was further developed through the late 90's, the most important element being finished by 1999 At that time, a commercial effort to fund the original video game / TV hybrid was launched, and by that time, another version was included for use in the development of the finest theme resorts . By 2001, this is to companies including Ridley and Tony Scott, and in particular to their joint venture Airtightplanet (other partners including Renny Harlin, Jean Giraud, and the European Heavy Metal) Disclosed on a confidential basis, the authors of the present disclosure serve as executive supervision services for them, and at that time the “Otherworld” and “Otherworld Industries” projects and ventures at the same time, joint investment and collaboration with ATP It was submitted as a venture proposal.
以下は、1999年/2000年までに仕上げられたシステムデザイン及び構成要素の概要である。 The following is an overview of the system design and components completed by 1999/2000.
「OTHERWORLD INDUSTRIES BUSINESS PROPOSAL DOCUMENT(OTHERWORLD INDUSTRIESビジネス提案書)」(アーカイブ文書バージョン、2003年)からの抜粋: Excerpt from "OTHERWORLD INDUSTRIES BUSINESS PROPOSAL DOCUMENT (OTHERWORLD INDUSTRIES business proposal)" (archived document version, 2003):
技術背景説明:最先端技術「オープンフィールド」シミュレーション及びモバイル仮想現実の専有一体化:ツール、設備及びテクノロジー Technical background description: proprietary integration of state-of-the-art "Open Field" simulation and mobile virtual reality: tools, equipment and technology
これは単に、専有システムの骨格を共に形成する関連技術の部分的リスト及び概略である。いくつかのテクノロジー構成要素は専有のものであり、外部のベンダーからのものもある。しかし、証明された構成要素を組み合わせたユニークなシステムは、絶対的に専有的でかつ革新的なものとなるであろう。 This is simply a partial list and outline of the relevant art that together form the backbone of a proprietary system. Some technology components are proprietary and some are from external vendors. However, a unique system combining proven components will be absolutely proprietary and innovative.
VR改変世界とのインタラクション Interaction with the VR modified world
1)OTHERWORLDのVR拡張された風景にゲスト/参加者及び俳優を没入させるためのモバイル軍事規格VR機器。彼らの「冒険」(つまり、彼らがリゾート周辺のOTHERWORLD を探索する際の彼らの各動作)がモバイルモーションキャプチャーセンサ及びデジタルカメラにより(自動マッティングテクノロジーで)リアルタイムで取り込まれ、ゲスト/プレイヤー及び従業員/俳優は、コンピュータシミュレーションイメージの重ね合わせと共に、自身のバイザーを通してお互いを見ることができる。バイザーとは、双眼鏡(半透明フラットパネルディスプレイ)か、又は双眼鏡(但し、不透明フラットパネルディスプレイで、前面に双眼鏡カメラが取り付けられているもの)のいずれかである。 1) Mobile military standard VR equipment for immersing guests / participants and actors in OTHERWORLD VR extended landscapes. Their “adventures” (that is, their respective actions as they explore OTHERWORLD around the resort) are captured in real time (with automatic matting technology) by mobile motion capture sensors and digital cameras, guest / player and employee Members / Actors can see each other through their visors, with the superposition of computer simulation images. A visor is either binoculars (semi-transparent flat panel displays) or binoculars (but opaque flat panel displays with a binocular camera mounted on the front).
視野にフラットパネルディスプレイでスーパーインポーズされたこれらの「合成要素」は、風景の改変部分(又はデジタル処理で改変された風景全体)を含むことができる。実際に、実際にそこあるものを置き換えるこれらの「合成」風景部分は、リゾートの各部分のオリジナル3D写真を「キャプチャーしたもの」に基づいて生成されている。(以下第7項をご参照下さい)。コンピュータ内の正確で写真に基づく幾何学的「仮想空間」として、オリジナルキャプチャーの写実的品質及び幾何学的/空間精度を維持しつつ、この仮想空間を何らかの方法でデジタル処理で改変することが可能である。これによって、同一空間と改変されたデジタル部分のライブデジタル写真の正確な組み合わせが生み出される。 These "composite elements" superimposed on the flat panel display in the field of view can include the altered portion of the landscape (or the entire digitally altered landscape). In fact, these "composite" landscape parts, which actually replace what is there, are generated based on "captured" the original 3D photos of each part of the resort. (Please refer to the following paragraph 7). As an accurate, photo-based geometric "virtual space" in a computer, it is possible to somehow digitally alter this virtual space while maintaining the photorealistic quality and geometric / spatial accuracy of the original capture It is. This produces an accurate combination of live digital photos of the same space and modified digital parts.
フラットパネルディスプレイによってスーパーインポーズされるその他の「合成要素」は、コンピュータ生成されたか又は改変された人々、生き物、大気FX、及び「マジック」を含む。これらはディスプレイ(透明又は不透明)を通した視野の現実的な要素として現れる。 Other "synthetic elements" superimposed by the flat panel display include computer-generated or modified people, creatures, atmosphere FX, and "magic". These appear as realistic elements of the field of view through the display (transparent or opaque).
位置決めデータ、ゲスト/プレイヤー及び従業員/俳優のモーションキャプチャーデータ、そして多数のデジタルカメラによるこれらのデータのリアルタイムマッティング(これらすべては、リゾートの各エリアの事前に「キャプチャーされた」バージョンに較正される)(以下第4項及び第5項をご参照下さい)の使用によって、合成要素は、ディスプレイを通して示される実要素に対して、リアルタイムで絶対精度でマッチングすることができる。 Positioning data, motion capture data of guests / players and employees / actors, and real-time matting of these data with multiple digital cameras (all of which are calibrated to a pre-captured version of each area of the resort (See Sections 4 and 5 below) allows the compositing element to be matched in real time with absolute accuracy to the real element shown through the display.
よって、写実的なコンピュータ生成されたドラゴンが、実際の木の後ろを通って、ぐるりと回って戻ってきて、飛び上がり、そしてリゾートの実際の城の上に着地することができ、そして、ドラゴンはコンピュータ生成された火で「燃え上がる」ことができる。フラットパネルディスプレイ(半透明又は不透明)では、火は、「黒くした」城の上部から出ているように見える。バイザーを通して、城の上部が、システムのファイルの中の城の3D「キャプチャー」のコンピュータ改変バージョンによって「重ねてマッティング」されたことにより、この効果が達成される。 Thus, a graphic computer-generated dragon can come round, fly back and fly up behind the real tree, and land on the resort's real castle, and the dragon It can "burn" with computer-generated fire. In a flat panel display (translucent or opaque), the fire appears to be coming out of the top of the "blackened" castle. Through the visor, this effect is achieved by the upper part of the castle being "over-matted" by a computer-modified version of 3D "capture" of the castle in the file of the system.
2)実際の人間と、仮想の人間、生き物及びFXとの間の戦闘のための物理的電気光学機械的ギア。モーションセンサ及びその他のデータ、並びに振動及び抵抗フィードバックを提供する「ハプティック」インターフェースは、実際の人間と、仮想の人間、生き物及びマジックとのリアルタイムなインタラクションを可能にする。例えば、「小道具」の剣の柄の形態のハプティック装置は、戦闘のイリュージョンを達成するために、ゲスト/プレイヤーがその剣を振り回している間のデータと、ゲスト/プレイヤーが仮想鬼を「突いた」と思われる際の物理的フィードバックとを提供する。これはすべてリアルタイムで組み合わせられて、双眼鏡フラットパネルディスプレイを通して表示される。 2) Physical electro-optical mechanical gear for combat between real humans and virtual humans, creatures and FX. Motion sensors and other data, as well as "haptic" interfaces that provide vibration and resistance feedback, allow real-time interaction with real people, virtual people, creatures and magic. For example, a haptic device in the form of a "props" sword handle may have data during the swing of the guest / player and the guest / player poke off the virtual demon to achieve a combat illusion. Provide physical feedback when it is considered. All this is combined in real time and displayed through the binoculars flat panel display.
3)オープンフィールドモーションキャプチャー機器。モバイル及び固定モーションキャプチャー機器用具(映画『マトリックス』で使用されたものと同様のもの)は、リゾートの敷地全体に亘って配備される。ゲスト/プレイヤー及び従業員/俳優が装着したテーマのある「ギア」上のデータポイントは、カメラ及び/又はセンサに追跡されて、VRバイザー内の双眼鏡フラットパネル上に表示される視野内の仮想要素とインタラクションするためのモーションデータを提供する。 3) Open field motion capture device. Mobile and fixed motion capture equipment tools (similar to those used in the movie "Matrix") are deployed across the resort's premises. Data points on themed "gears" worn by guests / players and employees / actors are tracked by cameras and / or sensors and virtual elements within the field of view displayed on binoculars flat panel in VR visor Provide motion data to interact with
モーションキャプチャーデータからの出力は、『ロード・オブ・ザ・リング』の第二部と第三部の映画のゴラムというキャラクターの原理に沿った、ゲスト/プレイヤー及び従業員/俳優のCGI改変バージョンを可能にする(十分な計算レンダリング能力及びモーション編集及びモーションライブラリの利用と共に)。 The output from the motion capture data is a CGI modified version of the guest / player and employee / actor in line with the character principle of Goram in the second and third parts of The Lord of the Rings. Enable (with sufficient computational rendering capabilities and use of motion editing and motion libraries).
4)LAAS&GPSデータ、ライブレーザー距離測定データ及び三角測量技術(Moller Aerobot のUAV技術を含む)でのモーションキャプチャーデータの増強。追加の「位置決めデータ」は、ライブ要素と合成要素のなおさらに効果的(かつ誤差補正する)一体化を可能にする。 4) Enhancement of motion capture data with LAAS & GPS data, live laser distance measurement data and triangulation technology (including Moller Aerobot's UAV technology). The additional "positioning data" allows for even more effective (and error corrected) integration of live and synthetic elements.
UAV製造業者による新聞発表から。 From a press release by a UAV manufacturer.
7月17日。1週間前にローカルエリア補強システム(Local Area Augmentation System)(LAAS)ステーションの最初のネットワークのための契約が、Honeywellと交わされ、数カ所のテストステーションが既に稼働している。このシステムは、空港(及び垂直離着陸飛行場)にインチ単位の精度で正確に接地させるように航空機を誘導することを可能にする。LAASシステムは、2006年までに運用可能となることが期待されている。 July 17. One week ago a contract for the first network of Local Area Augmentation System (LAAS) stations was signed with Honeywell, and several test stations are already running. This system allows the aircraft to be guided to the airport (and vertical take-off and landing airports) accurately to the nearest inch accuracy. The LAAS system is expected to be operational by 2006.
5)オープンフィールド「プレイ」の自動リアルタイムマッティング。シミュレートされた要素とのインタラクションを可能にするモーションキャプチャーデータとの組み合わせで、リゾートのゲスト/参加者たちは、P24(又は同等物)デジタルカメラでデジタル処理により撮像され、専有Automatteソフトウェアと連動して、合成要素と一体化されるべき視野から適切な要素を自動的に分離(マッティング)する。この技術は、デジタル要素をスーパーインポーズする際に、前景/背景の適切な分離を確保するために使用されるパッケージソフトの一つとなるであろう。 5) Automatic real-time matting of the open field "play". In combination with motion capture data that allows interaction with simulated elements, resort guests / participants are digitally imaged with a P24 (or equivalent) digital camera and interfaced with proprietary Automatte software Then, automatically separate (mat) the appropriate element from the field of view to be integrated with the synthetic element. This technique will be one of the package software used to ensure proper foreground / background separation when superimposing digital elements.
6)最先端ゲームエンジンソフトウェアと組み合わせられた軍事規格シミュレーションハードウェア及びテクノロジ−。モーションキャプチャーシステム、小道具の剣のような「合成」要素とインタラクションするためのハプティック装置、合成要素及びライブ要素(マッティング処理されたか又は完全な)からのデータと組みまわせることは、軍事シミュレーションソフトウェア及びゲームエンジンソフトウェアによる一体化である。 6) Military standard simulation hardware and technology combined with cutting edge game engine software. Motion capture systems, haptic devices to interact with "synthetic" elements such as props, combining with data from synthetic and live elements (matted or complete), military simulation software and Integration with game engine software.
これらのソフトウェア構成要素は、合成の人間及び生き物を動画化するためのAIコード(映画『ロード・オブ・ザ・リング』での軍隊を動画化するために使用されたMassiveソフトウェアなどのAIもしくは「人工知能」ソフトウェア)を提供し、リアルな水、雲、火などを生成し、かつまさにコンピュータゲームや軍事シミュレーションソフトウェアがするように、その他の態様ですべての要素を一体化しかつ組み合わせる。 These software components may be AI codes or "AIs such as Massive software used to animate the armies in the movie" Lord of the Ring "or" AI code for animating synthetic humans and creatures. "Artificial intelligence" software is provided to generate realistic water, clouds, fire etc. and unify and combine all elements in other ways just as computer games and military simulation software do.
7)Paul Debevec博士が先駆者として開発した、画像に基づく技術でリアルなデジタル仮想セットを創作するための、実際の場所の写真に基づくキャプチャー(『マトリックス』の「ブレットタイム」FXの基盤)。 7) Photograph-based capture of the actual location (the basis of the "Brett Time" FX in "The Matrix") for creating realistic digital virtual sets with image-based technology, developed by Dr. Paul Debevec as a pioneer.
「ベース」の仮想位置(リゾートの内部及び外部)は、これらが「キャプチャー」された際のその場所の写真及び実際の照明から派生させられているので、現実世界とは区別がつけられない。光プローブからのデータ及びレーザー測距データと組み合わせられた高品質のデジタル画像の小さいセットと、適切な「画像に基づく」グラフィックソフトウェアとが、現物とまさに一致するコンピュータ内の写実的仮想3D空間を再現するために必要なもののすべてである。 The "base" virtual locations (inside and outside of the resort) are indistinguishable from the real world as they are derived from the photos and actual lighting of the location when they were "captured". A small set of high quality digital images combined with data from an optical probe and laser ranging data, and appropriate 'image based' graphics software, create a realistic virtual 3D space in the computer that exactly matches the actual one It is all you need to reproduce.
「仮想セット」は、実際の城の内部の場所及び周囲の田園地方の外部の場所からキャプチャーされているが、一旦デジタル化されると、これらの「ベース」又はデフォルトバージョン(当初キャプチャーされたまさにその時点の照明パラメータとその他すべてのデータを有する)、現実世界には存在しない要素を追加したり、我々の世界のファンタジーバージョンを創作するために存在する要素を改変したりかつ「装飾したり」して、改変することができる(照明を含む)。 The 'virtual set' is captured from the actual location inside the castle and the location outside the surrounding countryside, but once digitized these 'base' or default versions (the originally captured Add the elements that do not exist in the real world, modify the elements that exist to create fantasy versions of our world, and "decorate" with the lighting parameters and all other data at that time) Can be modified (including lighting).
ゲスト/プレイヤー及び従業員/俳優が、リゾート内の様々なポイントでの「ゲートウェイ」を通ると(「ゲートウェイ」とは、「我々の世界」から「Otherworld」への有効な「通過点」である)、較正手続きが発生する。「ゲートウェイ」の座標にコンピュータ内の仮想空間を「ロックする」ために、「ゲートウェイ」にいるゲスト/プレイヤー又は従業員/俳優からの位置決めデータが、その時点で取られる。コンピュータは、上述の画像に基づく「キャプチャー」プロセスを通して取得される、仮想バージョンのリゾート全体についてゲートウェイの座標を「知っている」のだ。 As guests / players and employees / actors pass “gateways” at various points in the resort (“gateways” are effective “passing points” from “our world” to “otherworld” ), Calibration procedure occurs. In order to "lock" the virtual space in the computer to the coordinates of the "gateway", positioning data from the guest / player or employee / actor at the "gateway" is then taken. The computer "knows" the coordinates of the gateway for the entire virtual version of the resort, acquired through the image-based "capture" process described above.
よって、コンピュータは、ゲスト/プレイヤー又は従業員/俳優がVRゴーグルをつける前に見えるものと一緒に、仮想リゾートを「並べる」ことができる。従って、双眼鏡フラットパネルディスプレイの半透明バージョンを通すと、仮想バージョンが実際のリゾートにスーパーインポーズされている場合、一方は他方に非常に精密に調和するであろう。 Thus, the computer can "align" the virtual resort with what the guest / player or employee / actor sees before putting on the VR goggles. Thus, passing through the translucent version of the binocular flat panel display, one will match very closely to the other if the virtual version is superimposed on the actual resort.
あるいは、「不透明」双眼鏡フラットパネルディスプレイゴーグル又はヘルメットでは、装着者は、自分の前にリゾートの仮想バージョンのみを見ながら、ヘルメットをつけながら自信を持って歩くことができるだろう。なぜならば、仮想世界の風景が、彼が実際に歩いている風景とぴったり一致するであろうからである。 Alternatively, an "opaque" binocular flat panel display goggle or helmet would allow the wearer to walk confidently while wearing the helmet, looking only at the virtual version of the resort in front of him. Because the landscape of the virtual world will be in perfect agreement with the landscape he is actually walking.
もちろん、ゴーグルを通して装着者に見せることができるのは、改変された赤い空や、実際にそこにはない荒れ狂った嵐の雲、そしてまさにちょうど城の銃眼付き胸壁に「火を放った」ドラゴンが上部に止まった城の胸壁だろう。 Of course, what can be shown to the wearer through goggles is a red sky that has been altered, a storm cloud that is not really there, and a dragon that has just "fired" just on the battlemented battlements of the castle. It would be the battlements of the castle that stopped at the top.
そして、遠方の丘を突撃する1000鉱石の軍も! And the army of 1000 ores to charge the distant hills!
8)リゾートのスーパーコンピュータレンダリング及びシミュレーション設備。極めて高品質で近未来映画の品質のシミュレーションを可能にするであろう重要なリソースは、各リゾートの現場のスーパーコンピュータレンダリング及びシミュレーション複合施設だろう。 8) Resort super computer rendering and simulation equipment. An important resource that will enable the simulation of very high quality, near-future movie quality will be the supercomputer rendering and simulation complex of each resort scene.
デスクトップコンピュータ用のコンピュータゲームと同様に、スタンドアローンコンピュータゲームコンソール(プレイステーション2、Xbox、ゲームキューブ)上のグラフィック及びゲームプレイの改良は周知である。 As with computer games for desktop computers, improvements to graphics and gameplay on stand-alone computer game consoles (PlayStation 2, Xbox, Gamecube) are well known.
しかしながら、このようなゲーム体験における改良は、1台のコンソール又はパーソナルコンピュータのプロセッサ及び支援システムの改良に基づくということを考慮して下さい。そしてスーパーコンピューティングセンターの能力をゲーム体験に注ぎ込むと想像してみて下さい。それだけでも、グラフィックとゲームプレイの品質における飛躍的進歩となるであろう。そしてこれは、Otherworld体験となるモバイルVR冒険の一局面でしかない。 However, consider that such improvements in the gaming experience are based on improvements in the processor and support system of a single console or personal computer. And imagine that you put the power of the supercomputing center into the gaming experience. That alone will be a breakthrough in the quality of graphics and gameplay. And this is only one aspect of the mobile VR adventure that will be the Otherworld experience.
上記を再検討することで明らかになると思うが、つまりは関連分野(より広義ではVR、AR、及びシミュレーションの分野)の当業者にとっては明白なはずであるが、最先端技術を改良するために提案される個々のハードウェア又はソフトウェアシステムは、より広いシステムパラメータを考慮に入れ、かつ適切に評価されるべき当該システムパラメータについての前提を明確にしなければならない。 It will be clear by reviewing the above, which should be obvious to those skilled in the relevant fields (more broadly, the fields of VR, AR, and simulation), but to improve the state of the art The individual hardware or software system proposed must take into account wider system parameters and clarify the assumptions about the system parameters to be evaluated properly.
よって、本提案の本質(その焦点は、携帯可能なAR及びVR技術のカテゴリーに該当するハードウェアテクノロジーシステムであり、実際のところ両方の融合であるが、その融合の最も好適なバージョンではウェアラブルテクノロジーであり、かつ好適なウェアラブルバージョンはHMDテクノロジーである)のみが、その中の一部であるシステム全体を考慮又は再考することによって、優れたソリューションとなる完全な事例となる。よって、より大きいVR、AR及びシミュレーションシステムのこの歴史を提示する必要性があり、なぜならば、新しいHMDテクノロジーの提案及び商的オファーが、例えば、狭くなり過ぎたり、システムレベルでの前提、要件及び新たな可能性を考慮しなかったり、検討しなかったりする傾向があるからである。 Thus, the essence of the proposal (the focus is on hardware technology systems that fall into the category of portable AR and VR technologies, and in fact both are fusions, but the most preferred version of that fusion is wearable technology And the preferred wearable version is HMD technology) is a perfect case to be an excellent solution by considering or reconsidering the whole system that is part of it. Thus, there is a need to present this history of larger VR, AR and simulation systems, because new HMD technology proposals and commercial offers have become too narrow, for example, system-level assumptions, requirements and It is because they tend not to consider or consider new possibilities.
HMD技術の進化における主要な画期的出来事を同様に歴史的に見直すことは必要ではない。なぜならそれは、HMDの従来技術の制限及び従来技術の現状、並びに提案されるソリューションの理由、そしてなぜ提案されるソリューションが特定された問題を解決するのかを説明する際の手伝けとするために利用できるフレームワークを提供する必要があるだろう、システムレベルでのより広い歴史であるからである。 It is not necessary to review the major milestones in the evolution of HMD technology as well as historically. Because it is a help in explaining the limitations of the prior art of HMD and the current state of the prior art, and the reason for the proposed solution, and why the proposed solution solves the identified problem It will be necessary to provide an available framework, as it has a broader history at the system level.
HMDの従来技術の制限を理解しかつ特定するために十分なものとは、以下から始まる。 What is sufficient to understand and identify the limitations of the HMD prior art begins with:
ヘッドマウントディスプレイ(本開示の目的上、ヘルメットマウントディスプレイを包含する)のカテゴリーにおいて、現時点までに2つの主要なサブタイプである「VR HMD」と「AR HMD」が特定されており、これらは本明細書で既に提供されたこれらの定義の意味合いに従い、かつAR HMDのカテゴリー内で、これらのタイプを区別するために2つのカテゴリーが用いられており、「ビデオシースルー」又は「光学シースルー」(よりしばしば単に「光学HMD」と呼ばれる)である。 In the category of head mounted displays (including helmet mounted displays for the purposes of this disclosure), two major subtypes, "VR HMD" and "AR HMD" have been identified to date, which are According to the meaning of these definitions already provided in the specification, and within the category of AR HMDs, two categories are used to distinguish these types, “video see-through” or “optical see-through” (more Often referred to simply as "optical HMD").
VR HMDディスプレイでは、ユーザは、1つのパネル又は2つの別個のディスプレイを見る。このようなHMDの典型的な形状はゴーグル又はフェイスマスク形状であるが、多くのVR HMDは、嵩張った密閉型バイザー付きの溶接工のヘルメットの外観を有している。最適なビデオ品質、没入感、そして注意を逸らすものがないということを確保するために、ディスプレイの周囲の辺縁部に光吸収材を用い、このシステムは完全に密閉される。 In the VR HMD display, the user looks at one panel or two separate displays. Although the typical shape of such HMDs is goggles or face mask shapes, many VR HMDs have the appearance of welder's helmets with bulky sealed visors. In order to ensure optimal video quality, immersion and no distraction, the system is completely sealed using a light absorbing material at the peripheral edge of the display.
本開示の著者は以前、2004年2月12月に出願され、本明細書に組み込まれている 米国仮出願「SYSTEM, METHOD AND COMPUTR PROGRAM PRODUCT FOR MAGNETO−OPTIC DEVICE DISPLAY(磁気光学装置ディスプレイ用のシステム、方法及びコンピュータプログラム製品)」第60/544,591号 において、2つのタイプのVR HMDを提案した。2つのタイプのうちの1つは、当該出願の主たる目的のウェーハー・タイプの実施形態で、従来の直視LCDに取って代わることを単に提案しており、このウェーハー・タイプの実施形態とは、初めての実用的磁気光学ディスプレイであり、その優れた性能特徴は、改良されたディスプレイテクノロジー全般についての、かつ当該実施形態では改良されたVR HMDについてのその他の利点の中で、非常に高いフレーム率を含む。 The author of the present disclosure has previously filed the US Provisional Application “SYSTEM, METHOD AND COMPUTR PROGRAM PRODUCT FOR MAGNETO-OPTIC DEVICE DISPLAY (System for Magneto-optical Device Display, filed in February, 2004, and incorporated herein) , Methods and Computer Program Products) "60 / 544,591 proposed two types of VR HMDs. One of the two types of wafer type embodiments of the main object of the application merely proposes to replace a conventional direct view LCD, which is an embodiment of the present invention. The first practical magneto-optical display, the superior performance features of which are very high frame rates for improved display technology in general, and in this embodiment other advantages for the improved VR HMD. including.
第2のバージョンは、当該開示の教示に従い、新しい種類の遠隔生成画像表示を企図したものであり、これは例えば車両コックピットで生成され、その後に光ファイバー束を介して送信され、そして特別の光ファイバーアレイ構造(当該出願で開示された構造及び方法)を通して配信されるものであり、光ファイバーを介した遠隔画像搬送用の新しいアプローチ及び構造を有する光ファイバーフェースプレートの経験を基礎とする。 The second version, in accordance with the teachings of the present disclosure, contemplates a new type of remotely generated image display, which is generated, for example, in the vehicle cockpit, and subsequently transmitted via a fiber optic bundle, and a special fiber optic array. Based on the experience of fiber optic faceplates that are delivered through the structure (the structures and methods disclosed in the present application) and have new approaches and structures for remote image delivery via optical fibers.
当初HMDについてコアとなるMOテクノロジーは製品化されなかったが、むしろ投影システムについては、これらの開発は本提案のいくつかの態様に関係するものであり、さらに、当該技術分野では一般には知られていない。特に第2のバージョンは、他のものよりも前に公表された方法を開示したものであり、より最近の提案は、HMD光学体に一体化されてはいない又はHMD光学体の近くにはない画像エンジンからのビデオ画像を伝達するために光ファイバーを用いる。 Initially the core MO technology for HMD was not commercialized, but rather for projection systems, these developments pertain to some aspects of the present proposal and are generally known in the art. Not. In particular, the second version discloses methods published prior to others, and more recent proposals are not integrated into the HMD optical body or not close to the HMD optical body Optical fibers are used to transmit video images from the imaging engine.
床さえもある密に制御されたステージ環境を超えた可動性に対する完全密閉型VR HMDの実用性についての極めて重要な考慮事項は、移動運動が安全であるということであり、ナビゲーションされる仮想世界は、現実の表面地形又はモーション軌跡に対して、1:1のマッピング(人間の移動運動に対する安全偏差内で)を行わなければならない。 An extremely important consideration for the practicality of a fully enclosed VR HMD for mobility beyond a tightly controlled stage environment with even floors is that the mobility is safe and the virtual world to be navigated Should perform 1: 1 mapping (within the safety deviation for human movement) on the real surface topography or motion trajectory.
しかしながら、BARSの開発者であるLoral WDLのBarrilleauxなどの研究者によって、また実用的となるべきシステムとしてARシステムについて、過去四半世紀近い開発に亘って当該分野のその他の研究者たちによって一貫して、観察され結論が出されたように、走行中の車両の形状を含む(市街戦のための軍によるシステムの開発から驚くべきことではないが)、仮想の(合成のCG生成されたイメージ)世界と現実世界の地形及び構築環境との間に非常に密な対応が得られなければならない。 However, consistently by researchers such as Barrilleaux of Loral WDL, who is the developer of BARS, and by other researchers in the field over the last quarter century development about AR systems as a system that should be practical As observed and concluded, virtual (including synthetic CG generated images), including the shape of the vehicle in motion (not surprisingly from the development of a military system for urban warfare) A very close correspondence must be obtained between the world and the real world topography and construction environment.
よって、VR又はARのいずれかがモバイル形態で可能となるためには、「仮想」又は合成要素と、いずれかの現実世界要素との間に1:1の位置的対応がなければならないというのが、より一般的な事例である。 Thus, in order for either VR or AR to be possible in mobile form, there must be a 1: 1 positional correspondence between the "virtual" or combining elements and any real-world elements. Is the more common case.
AR HMDのカテゴリーでは、「ビデオシースルー」と「光学シースルー」との区別は、ユーザが、光学メガネの一部としてのビューアーの真正面に配置された透明又は半透明ピクセルアレイ及びディスプレイとして直接見ることと、(典型的に直に隣接する)マイクロディスプレイから生成されて、対面する光学ピースへの光リレーの形態を通して伝達される、これもまたビューアーの真正面に配置された光学素子上の半透明投影画像を通してみることとの間の区別である。 In the AR HMD category, the distinction between "video see-through" and "optical see-through" means that the user views directly as a transparent or translucent pixel array and display placed directly in front of the viewer as part of the optical glasses. , A translucent projection image on an optical element generated from a microdisplay (typically directly adjacent), transmitted through the form of an optical relay to the facing optical piece, also arranged in front of the viewer It is the distinction between looking through.
直接ビュースルーディスプレイの主要なかつおそらくは単に部分的に実用的なタイプである、透明又は半透明表示システムは、(歴史的に)照明バックプレーンなしに構成されたLCDであった。従って、特に、ARビデオビュースルーメガネは、LCD光変調器ピクセルアレイがその上に製作される透明な光基板を含む光学画面を保持する。 A transparent or translucent display system, which is the main and perhaps only partially practical type of direct view-through display, has been (historically) an LCD configured without a lighting backplane. Thus, in particular, AR video view through glasses hold an optical screen that includes a transparent light substrate on which an LCD light modulator pixel array is fabricated.
オリジナルのMannの「EyeTap」と類似のアプリケーション(テキスト/データが直接表示されるか又は対面する光学体に投影される)については、現実世界の地形及びオブジェクトへの較正は必要とされないが、ある程度の位置相関は、視野内のアイテムに情報テキストで文脈上の「タグ付け」を行うのに役立つ。このことは、Google Glass製品の記述された主たる目的であるが、本開示のドラフティングを行う際に、非常に多くの開発者たちが、ライブシーン上にテキストよりも多くスーパーインポーズするARタイプのアプリケーションの開発に集中した。 For applications similar to the original Mann's "EyeTap" (text / data is directly displayed or projected onto facing optics), calibration to real world terrain and objects is not required, but to some extent Positional correlation helps to contextually "tag" items in the field of view with informational text. This is the main purpose written for Google Glass products, but when drafting this disclosure, an AR type that a large number of developers superimpose more than text on live scenes Concentrated on the development of applications.
略2D面又は粗ビューコーンにおける緩く近似な位置相関以外の、ビデオ又は光学シースルーシステムのいずれかのユーザの視野における地形又はオブジェクトへのこのような「較正」の主な問題は、ビューアーの環境にあるオブジェクトの相対位置の決定である。重大な不調和のないパースペクティブ及び相対的サイズの計算は、ローカル環境の基準のかつ/又はおおよそリアルタイムな空間位置決めデータ及び3Dマッピングなしには行うことはできない。 The main problem with such "calibration" to terrain or objects in the field of view of users of either video or optical see-through systems, other than loose approximate position correlation in a roughly 2D plane or coarse view cone, is in the viewer environment. It is the determination of the relative position of an object. Calculations of significant discordant perspectives and relative sizes can not be made without reference and / or near real time spatial positioning data and 3D mapping of the local environment.
相対的サイズに加えて、あらゆる視点からのパースペクティブの重要な局面は、ライティングの方向に応じたリアルな照明/遮光(ドロップシャドーを含む)である。そして最後に、所定のビューイング位置決めからのオブジェクトの遮蔽が、知覚された透視的かつ相対距離及び位置決めの重要な光学特徴である。 In addition to relative sizes, an important aspect of perspectives from all perspectives is realistic lighting / shading (including drop shadows) depending on the direction of lighting. And finally, the shielding of objects from a given viewing location is an important optical feature of perceived perspective and relative distance and location.
ビデオシースルー又は光学シースルーHMDは存在せず、又はビデオ又は光学ビュースルータイプのいずれのシステムでも、又は実際にモバイルVRタイプのシステムについても、安全な移動運動又は経路探索に必須な、装着者の周囲の次元ビューイングを可能にするように、このようなデータがいかにして提供されるかという問題から隔絶してはビデオシースルー又は光学シースルーHMDを設計することはできない。このようなデータは外部で、ローカルで、又は複数のソースの組み合わせで提供されるのだろうか?もしも部分的にローカルでかつHMDの一部である場合、このことはHMDシステム全体の設計と性能に影響を及ぼすだろうか? この問題がもし影響を及ぼすとしたら、ビデオシースルーと光学シースルーとの間の選択において、その他の含意及び影響を受けるパラメータの中で、所定の重量、バランス、嵩、データ処理要件、構成要素間のラグ、そしてディスプレイと光学構成要素との選択においての詳細に関し、どのような影響があるのだろうか? There is no video see-through or optical see-through HMD, or the perimeter of the wearer, which is essential for safe movement or path finding for either video or optical view-through type systems or indeed for mobile VR type systems It is not possible to design a video see-through or optical see-through HMD isolated from the problem of how such data is provided to enable dimensional viewing of the. Will such data be provided externally, locally, or in combination of multiple sources? If partially local and part of the HMD, would this affect the overall design and performance of the HMD system? Among other implications and affected parameters in the choice between video see-through and optical see-through, if this problem is to be influenced, a given weight, balance, bulk, data processing requirements, among components What effect does it have on the details of the lag, and the choice between display and optical components?
VR HMDが進化及び進歩する際に解決すべき技術的パラメータ及び問題の中で、主に、視野の増大、待ち時間の低減(モーション追跡センサ間のラグ及び仮想パースペクティブの変化)、解像度、フレーム率、ダイナミックレンジ/コントラスト、並びにその他の一般的表示品質特徴の増大、並びに重量、バランス、嵩、及び総合人間工学の問題が含まれてきた。画像コリメーション及びその他のディスプレイ光学体の詳細は、当初から主要な課題であった「シミュレータ病」の問題に効果的に取り組むために改良されてきた。 Among the technical parameters and problems to be solved as the VR HMD evolves and advances, mainly the increase of the field of view, the reduction of latency (change of lag between motion tracking sensors and change of virtual perspective), resolution, frame rate There has been an increase in dynamic range / contrast, as well as other common display quality features, as well as weight, balance, bulk and general ergonomics issues. Image collimation and other display optics details have been refined to effectively address the "simulator disease" problem that has been a major issue from the outset.
ディスプレイ、光学体及びその他の電子機器の重量及び嵩は、これらの一般的技術カテゴリー、そして重量、サイズ/嵩及びバランスにおける改良とともに、時間をかけて減少する傾向があった。 The weight and bulk of displays, optics and other electronics tended to decrease over time, with improvements in these general technology categories, and weight, size / bulk and balance.
静止VRギアは、車両(航空機を含む)における暗視システムのために一般的に用いられてきたが、モバイル暗視ゴーグルは、モバイルVRと同様の媒介ビューイングの形態と見なすことができる。なぜならば、基本的に装着者が見ているのは、リアルタイムでの実際の場面(赤外線撮像された)(但し、ビデオスクリーンを通してであり、「ビュースルー」の形態ではない)だからである。 While stationary VR gears have been commonly used for night vision systems in vehicles (including aircraft), mobile night vision goggles can be considered as a form of mediating viewing similar to mobile VR. This is because basically what the wearer is looking at is the real-time real scene (infra-red imaged) (but through the video screen, not in the form of a "view through").
このサブタイプは、同じく言及された1999年に遡及して、Barrilleauxが「間接視ディスプレイ」として定義したものに類似している。彼は、実際の「ビュースルー」はないが、見えるものが、おそらくはあらゆるVRタイプ又は暗視システムとして含まれる、ディスプレイ上の排他的に融合された/処理済みの実像/仮想画像である、提案したAR HMDに関してその定義を提示した。 This subtype is similar to what Barrilleaux defined as "indirect vision display", retrospectively to 1999 also mentioned. He proposes that there is no actual "view through" but what is visible is an exclusively fused / processed real image / virtual image on the display, perhaps included as any VR type or night vision system The definition is presented for the selected AR HMD.
しかしながら、暗視システムは、仮想・合成風景と、赤外線署名の強さに応じた異なる強度の単色像として、ビデオ信号処理を通して解釈された通りの赤外線センサデータの、実際のものだがむしろ直接送信されたビデオ画像との融合又は混和ではない。ビデオ画像としては、これは、Eyetap が最初に着想されたのと同じ単純な形態での、かつGoogleが述べたように、Glass製品のために意図された主な目的である、リアルタイムテキスト/グラフィックオーバーレイに適している。 However, the night vision system actually, but rather directly transmits, the infrared sensor data as interpreted through video signal processing, as a virtual composite landscape and as a monochromatic image of different intensity depending on the intensity of the infrared signature. It is not a fusion or mixing with a video image. As a video image, this is real-time text / graphics, in the same simple form as Eyetap was originally conceived, and, as Google stated, the main purpose intended for Glass products Suitable for overlays.
いかにそしてどんなデータをライブで抽出するのか、又は参照からモバイルVR又はモバイルARシステムのいずれかに提供するのか、又はこれらの両方か、又は一貫してキューを出して組み合わせられたビューを提供するために、仮想風景と実際の風景の効果的一体化を可能にするために、両カテゴリーと類似性を有する、このハイブリッドでライブ処理されたビデオフィードの「間接視表示」を今含めるのかという問題は、デザインパラメータであり、そしてタイプに拘わらず、あらゆる新しいかつ改良されたモバイルHMDシステムを設計する際に考慮されなければならない問題である。 How and what data will be extracted live, or provided from reference to either mobile VR or mobile AR system, or both, or consistently queue out to provide a combined view The question is whether to include now the "indirect view" of this hybrid live processed video feed that has similarities with both categories to enable effective integration of the virtual landscape and the actual landscape. Regardless of type, design parameter, and type, is a problem that must be considered in designing any new and improved mobile HMD system.
AR用のソフトウェア及びデータ処理は、既に言及したシステム開発者の初期の研究を基礎として、これらの課題に取り組むために進歩してきた。この例としては、係属中の米国特許出願である「Mixed reality space image generation method and mixed reality system(混合現実空間画像生成方法及び混合現実システム)」(2004年9月29日出願の米国特許出願第10/951,684号(米国特許出願公開第20050179617号、現在は米国特許第7,589,747号))に開示されている、キャノン株式会社のマツイとスズキの研究がある。その要約には以下の通り記載されている。 Software and data processing for AR have been advanced to address these issues, based on the earlier work of the system developers mentioned above. An example of this is a pending U.S. patent application entitled "Mixed reality space image generation method and mixed reality system" (U.S. patent application filed on September 29, 2004). There are studies by Matsui and Suzuki of Canon Inc., which are disclosed in 10 / 951,684 (US Patent Application Publication No. 20050179617, now US Patent 7,589, 747). The summary is described as follows.
「現実空間をキャプチャーすることによって得られた現実空間画像に仮想空間画像をスーパーインポーズすることによって形成された混合現実空間画像を生成するための混合現実空間画像生成装置は、仮想空間画像の現実空間上のオブジェクトによる遮蔽を考慮して表示される仮想空間画像を、現実空間画像にスーパーインポーズする画像合成部(109)と、仮想空間画像の遮蔽を考慮せずに表示される画像をさらにインポーズする注釈生成部(108)とを含む。このようにして、自然な表示と便利な表示を両方とも達成できる混合現実空間画像を生成することができる。」 “A mixed reality space image generating apparatus for generating a mixed reality space image formed by superimposing a virtual space image on a real space image obtained by capturing a real space An image combining unit (109) for superimposing a virtual space image displayed in consideration of occlusion by an object in space into a real space image, and an image displayed without considering the occlusion of the virtual space image In this way, a mixed reality space image can be generated that can achieve both natural and convenient displays. "
このシステムの目的は、モックアップ(代理の小道具)上にスーパーインポーズされるべき完全にレンダーされた工業製品(カメラなど)の組み合わせを可能にするように意図されたものであり、光学ビュースルーHMDメガネ一式とモックアップの両方ともに、位置センサが備え付けられる。CG生成された仮想モデルを複合ビデオフィードにスーパーインポーズできるように(わずかなラグでのレイヤリングを可能にするためにバッファ遅延される)、モックアップからピクセルをマッティングするために、リアルタイムのピクセル単位検索比較プロセスが用いられる。注釈グラフィックもシステムによって追加される。コンピュータグラフィック。マッティングを決定し、よって合成物の中に正確でかつ間違っていない遮蔽を確保するためのデータの最も重要なソースは、モックアップ上のモーションセンサと、ハンドマットとモックアップマットを引くためのピクセルを比較する事前決定された参照テーブルである。 The purpose of this system is intended to enable the combination of fully rendered industrial products (such as cameras) to be superimposed on the mock-up (optical props), and the optical view through Both HMD glasses and mock-ups are equipped with position sensors. A real-time method for matting pixels from the mockup so that CG-generated virtual models can be superimposed on composite video feeds (buffered to allow layering with slight lag) A pixel-by-pixel search comparison process is used. Annotation graphics are also added by the system. Computer graphic. The most important sources of data to determine the matting, and thus ensure accurate and not false shielding in the composition, are the motion sensors on the mockup, and for drawing the handmat and the mockup mat It is a pre-determined lookup table that compares pixels.
このシステムは、モバイルAR、VR、又はいずれのハイブリッドについてもその一般化には役立っていないが、実際の3D空間を分析し、かつ透視ビューで適切に仮想オブジェクトの位置決めをするための、単純な(完全自動ではないが)システムを提供する試みの一例である。 This system does not help to generalize mobile AR, VR, or any hybrid, but it is simple to analyze real 3D space and position virtual objects properly in perspective view It is an example of an attempt to provide a system (although not fully automatic).
ビデオ又は光学シースルーHMDの領域では、HMDに届けられた理想的に計算された混合現実透視ビューを前提としてさえ、満足できるリアルかつ正確な融合透視ビュー(パースペクティブの適正な順番の取り扱い、現実空間内の所定ビューアーの位置からの融合要素の適正な遮蔽を含む)を実施できるディスプレイ又は光学体及び表示システムの設計には進歩がほとんどない。 In the area of video or optical see-through HMDs, even with the ideal calculated mixed reality perspective view delivered to the HMD, satisfying real and accurate fused perspective views (handling of the proper order of perspectives, in real space There has been little progress in the design of displays or optics and display systems that can implement the appropriate shielding of the fusion element from the given viewer position.
この問題に対する最も効果的な(たとえ部分的であっても)解決策であると主張されている一つのシステムであり、おそらくは唯一の一体化HMDシステム(HMDから独立して、何らかの包括的な態様でこれらの課題を解決するように設計された、ソフトウェア/写真測量/データ処理及び配送システムとは対照的に)が、既述の米国特許出願第13/857,656号(米国公開第20140177023号)「APPARATUS FOR OPTICAL SEE−THROUGH HEAD MOUNTED DISPLAY WITH MUTUAL OCCLUSION AND OPAQUENESS CONTROL CAPABILITY(相互遮蔽及び不透明性制御能力を有する光学シースルーヘッドマウントディスプレイ用装置)」におけるChunyu Gao の提案で言及されている。 One system that is claimed to be the most effective (even partial) solution to this problem, and perhaps only one integrated HMD system (independent of the HMD, some generic aspect (In contrast to software / photogrammetry / data processing and delivery systems, which was designed to solve these problems in the US), which has already been described (US Patent Application No. 20140177023). ) “APPARATS FOR OPTICAL SEE-THROUGH HEAD MOUNTED DISPLAY WITH MUTUAL OCCLUSION AND OPAQUENESS CONTROL CAPABILITY (for optical see-through head mount display having mutual shielding and opacity control capability) It has been mentioned in the proposal of Chunyu Gao in location) ".
Gaoは、AR用のビュースルーHMDの分野についての自身の概説を、以下の見解から始めている。 Gao begins his overview on the field of view-through HMDs for AR from the following point of view.
光学とビデオという2つのタイプのST−HMDがある(J. Rolland及びH. Fuchs、「Optical versus video see−through head mounted, displays(光学対ビデオ・シースルーヘッドマウントディスプレイ)」、In Fundamentals of Wearable Computers and Augmented Reality(ウェアラブルコンピュータと拡張現実の基本において)、113〜157頁、2001年)。ビデオシースルーアプローチの主要な欠点は、シースルービューの画像品質の劣化、入って来るビデオストリームの処理による画像ラグ、ハードウェア/ソフトウェア誤動作によるシースルービューの損失の可能性を含む。また対照的に、光学シースルーHMD(OST−HMD)は、ビームスプリッタを通して現実世界の直視を提供し、よって、現実世界のビューへの影響は最小である。ライブ環境に対するユーザの意識が最優先であるアプリケーションを要求する際に、非常に好適である。 There are two types of ST-HMD, optical and video (J. Rolland and H. Fuchs, "Optical versus video see-through head mounted, displays", In Fundamentals of Wearable Computers and Augmented Reality (on the basis of wearable computers and augmented reality), 113-157, 2001). The main drawbacks of the video see-through approach include the degradation of the image quality of the see-through view, the image lag due to the processing of the incoming video stream, the possibility of the loss of see-through view due to hardware / software malfunction. Also, in contrast, optical see-through HMD (OST-HMD) provides real-world direct view through beam splitters, thus the impact on real-world views is minimal. It is highly suitable when requesting an application where the user's awareness of the live environment is paramount.
しかしながら、ビデオシースルーの問題についてのGaoの見解は、第1の事例において、従来技術のビデオシースルーを排他的にLCDと特定することによっては適格とはされず、また、彼はLCDが(比較的、そしてどの基準でということも省略されている)シースルー画像を劣化させるに違いないという主張を立証してはない。当業者は、この質の悪い画像のビューが、当該分野での昨今の加速的進歩を迎える前の、初期のビュースルーLCDシステムで達成された結果から派生したものであることを、認識するであろう。比較として多くの光学素子と、「現実」の「シースルー画像」の再処理又は媒介に対するその他の表示テクノロジーの影響とを用いて、最先端LCD又はその他のビデオビュースルー表示テクノロジーに比較すると、光学シースルーシステムが、最終結果を相対的に悪化させ、又はGaoなどの提案に劣るということは、事実上真実ではなく、明白でもない。 However, Gao's view of the video see-through problem is not qualified in the first case by exclusively identifying the prior art video see-through as an LCD, and he also And there is no proof of claim that it must degrade the see-through image (which is omitted on any basis). Those skilled in the art will recognize that this poor quality image view is derived from the results achieved with the early view-through LCD system prior to the recent accelerated progress in the field. I will. Optical see-through as compared to state-of-the-art LCD or other video view-through display technologies, using many optics as a comparison and the influence of other display technologies on "real" "see-through image" reprocessing or mediation It is neither virtually true nor obvious that the system relatively deteriorates the final result or is inferior to the proposal such as Gao.
この根拠のない一般化についての別の問題は、入力ライブ画像の処理もしなければならないその他のシステムに比べて、シースルーのカテゴリーにおけるラグの推定である。この場合、速度の比較は、競合するシステムの全体としての構成要素及びその性能の詳細な分析の結果である。そして最後に、「ハードウェア/ソフトウェアに対するシースルービューの損失の可能性」の憶測は、ビデオと光学シースルースキーム全般の間の、又はどちらかの及びその構成要素テクノロジー及びシステム設計の特定のバージョンの間のいずれかでの、比較システムのロバスト性又は安定性の厳密な分析により、基本的に根拠がなく、任意であり、かつ有効でもない。 Another problem with this groundless generalization is the estimation of lag in the see-through category as compared to other systems that must also process the input live image. In this case, the speed comparison is the result of a detailed analysis of the competing system's overall components and their performance. And finally, the speculation of "the possibility of the loss of see-through view to hardware / software" is between the video and the optical see-through scheme in general, or between and any particular version of its component technology and system design A rigorous analysis of the robustness or stability of the comparison system, either in principle, is basically unfounded, arbitrary, and not effective.
該当分野における比較の欠陥のある及び偏った表明の最初の問題を上回って、彼ら自身が提案した解決策には、既に言及しかつ取り組まれてきたデータ取得、分析及び配信の課題と共に、質的問題(完全なHMDシステムとして(より広いARシステムにおける構成要素としても含む)の提案されたHMDシステムを考慮することを省略しかつかかる考慮が欠けていることを含む)がある。HMDは、「既知の事実」として、改変画像又は混合画像の生成のために特定のレベル及び品質のデータ又は処理能力を扱うことは許可されておらず、この場合そのこと自体だけでも、HMD自体及びそのデザインが補助し又は妨げとなり得る、かつ既知の事実として単純に提示することはできない、重要な疑問及び問題である。 Beyond the first issue of comparative flawed and biased assertions in the field concerned, the solutions they have proposed themselves are qualitative, together with the data acquisition, analysis and distribution issues already mentioned and addressed. There is a problem (including omission and omission of considering the proposed HMD system as a complete HMD system (also included as a component in a wider AR system)). HMD is not permitted to handle data or processing power of a particular level and quality for the generation of modified or mixed images as "known fact", in which case HMD itself is And important questions and problems that can assist or impede the design, and can not be simply presented as known facts.
さらに、課題と解決策の詳述で省略されているのは、モバイルプラットフォームでの現実と仮想の視覚一体化の問題の全範囲である。 Furthermore, omitted from the task and solution detailing is the full range of real and virtual visual integration problems on the mobile platform.
開示と、開示が教示するシステムとは、特に以下の通りである。 The disclosure and the system that the disclosure teaches are particularly as follows.
この背景で前述しているが、Gaoの提案は、2つの表示タイプの装置を利用することであり、なぜならば、ライブ画像を選択的に反映し又は送信する空間光変調器の仕様は、基本的に、これらがいずれの表示アプリケーションでも動作可能であるのと同じ目的のSLMの仕様であるからである。 As mentioned above in this context, Gao's proposal is to use two display-type devices, because the specifications of spatial light modulators that selectively reflect or transmit live images are fundamental Indeed, this is because they are specifications of the SLM for the same purpose as being operable in any display application.
そして、2つの装置からの出力画像は、ピクセル単位でラインアップされる間に、これらの装置の精度についての記述以外の具体的説明はなしに、ビームスプリッタ・コンバイナ(想定されている)内で組み合わせられる。 And while the output images from the two devices are lined up on a pixel-by-pixel basis, they are combined within the beam splitter combiner (assumed) without any specific explanation other than the description of the accuracy of these devices Be
しかしながら、2つのピクセル化されたアレイのこの融合を達成するために、Gaoは彼が「折り畳み光学体」と呼ぶものの重複を特定しているが、基本的に、合計で2つの「折り畳み光学」素子(例えば、格子面/HOE又はその他のコンパクトプリズムもしくは「フラット」光学体)を、各ソースにつき1つずつと、2つの対物レンズ(1つは実景からの波面用で、1つは結合画像そしてビームスプリッタ・コンバイナ)の焦点の他方端に、を必要とする、Mann Eyetapスキームの二重バージョン以外の何物でもない。 However, in order to achieve this fusion of two pixelated arrays, Gao specifies an overlap of what he calls "folding optics" but basically two "folding optics" in total Elements (eg, grating planes / HOE or other compact prisms or "flat" optics), one for each source, and two objective lenses (one for the wavefront from the real scene and one for the combined image) And at the other end of the focal point of the beam splitter combiner, nothing is required other than the double version of the Mann Eyetap scheme.
よって、多数の光学素子(これらのために彼は多様な従来の光学バリエーションを提示している)は、1)第1の反射/折り畳み光学体(平面型格子/ミラー、HOE、TIRプリズム、又はその他の「フラット」光学体)を介して及びそこから対物レンズまで、実際の場面の光を集め、その光を次の格子/ミラー、HOE、TIRプリズム、又はその他の「フラット」光学体に通過させ、光路を再度「折り畳む」ことが必要とされ、これらのすべては、光学システム全体が比較的コンパクトであり、かつ2つの矩形の光学中継域の概略セットに含まれることを確実にするためのものである。折り畳み光学体から、このビームはビームスプリッタ/コンバイナを通してSLMまで通過させられる。そしてSLMは、ピクセル化(サンプリング)に基づいて反射又は送信し、よって可変的に(グレースケール等を修正するための実像コントラスト及び強度からの変化) 変調され、今はピクセル化された実像を通過させて、ビームスプリッタ/コンバイナに戻す。ディスプレイが仮想又は合成/CG画像を同期して生成する間、かかる画像は、修正されピクセル化/サンプリングされた実波面との一体化を確実に容易にするためにおそらく較正もされ、マルチステップで修正されかつピクセル化された実際の場面のサンプルとピクセルごとに一体化するためにビームスプリッタを通過させられ、そこから接眼対物レンズを通り、そして別の「折り畳み光学体」素子に戻って、ビューアーの眼へと光学システムの外へ反射される。 Thus, a large number of optical elements, for which he presents a variety of conventional optical variations, 1) a first reflective / folded optical body (planar grating / mirror, HOE, TIR prism, or Collect the light of the actual scene through the other "flat" optics and from there to the objective lens and pass the light to the next grating / mirror, HOE, TIR prism or other "flat" optics To re-fold the light path, all of which are to ensure that the entire optical system is relatively compact and is included in the approximate set of two rectangular optical relay areas. It is a thing. From the folding optics this beam is passed through a beam splitter / combiner to the SLM. The SLM is then reflected or transmitted based on pixelation (sampling), and thus variably modulated (changes from real image contrast and intensity to correct gray scale etc), and now passes through the pixelated real image Let it go back to the beam splitter / combiner. While the display synchronously generates virtual or composite / CG images, such images are also possibly calibrated to ensure easy integration with the corrected pixelated / sampled real wavefront, in multiple steps The beam splitter is passed through to integrate pixel-by-pixel with the samples of the corrected and pixelated real scene, from there through the eyepiece objective, and back to another "folding optics" element, the viewer Is reflected out of the optical system to the eye.
全体として、修正、ピクセル化かつサンプリングされた部分の実像波面については、ビューアーの眼に届くまでに7個の光学素子(SLMを含まない)を通過する。ディスプレイで生成された合成画像は、単に2個の光学素子を通過する。 As a whole, for the real image wavefront of the corrected, pixelated and sampled part, it passes through seven optical elements (not including the SLM) before reaching the viewer's eye. The composite image generated by the display simply passes through two optical elements.
光学像コンバイナの正確な位置合わせの問題、つまりピクセルレベルでは、レーザーによって問い合わせされた画像サンプルから集められた反射光なのか否か、又は画像の結合が、小さくフィーチャーされたSLM/表示装置を生じさせたのか否かという問題は、特に機械的振動及び熱応力という条件下で位置合わせを維持することは、当該技術において些細な事ではないと見なされている。 The problem of accurate alignment of the optical image combiner, ie, at the pixel level, whether it is reflected light collected from the image sample queried by the laser, or the combination of the images produces a small-featured SLM / display The question of whether or not it is considered that maintaining alignment, especially under conditions of mechanical vibration and thermal stress, is not considered trivial in the art.
高解像度(2k又は4k)の赤、緑及び青の画像エンジン(典型的にはDMD又はLCoS SLMによって生成された画像)の出力を組み合わせる、デジタル投影自由空間光ビーム混合システムは高価であり、これらの位置合わせを達成しかつ維持することは容易ではない。また、Gaoスキームの7個の素子の障害物の場合よりも単純なデザインのものもある。 Digital projection free space light beam mixing systems, which combine the output of high resolution (2k or 4k) red, green and blue image engines (typically images generated by DMD or LCoS SLMs) are expensive and these It is not easy to achieve and maintain alignment. There are also simpler designs than in the case of the 7 element obstacles of the Gao scheme.
さらに、これらの複合マルチエンジン・マルチ素子の光学コンバイナシステムは、HMDにとって必要なくらいにはほぼコンパクトにはなっていない。 Furthermore, these complex multi-engine multi-element optical combiner systems are not nearly as compact as needed for HMDs.
生命科学市場のためにAgilent によって開発されかつマーケティングされたT−Rhomboidコンバイナなどのモノリシックプリズムは、既存のアプリケーションにおいて自由空間コンバイナが示してきた問題に特に取り組むために開発されてきた。 Monolithic prisms such as the T-Rhomboid combiner, developed and marketed by Agilent for the life sciences market, have been developed specifically to address the problems that free space combiners have shown in existing applications.
そして、Microvisionやその他の企業が、SLMに基づいてオリジナルにマイクロ投影テクノロジーのために開発されたHMDプラットフォームの配備に成功してきたが、これらの光学セットアップは典型的に、Gaoの提案よりも実質的により複雑ではない。 And although Microvision and other companies have successfully deployed HMD platforms originally developed for microprojection technology based on SLM, these optical setups are typically more substantial than Gao's proposal Less complicated.
さらに、2つのプラットフォーム上での、2つの画像処理ステップ及び計算繰返しについて基本の論理的根拠は何であるか、そして実際のかつ仮想の波面入力の平滑化及び一体化を達成して、組み合わせられた場面要素の適切な遮蔽/不透明化を実施するために、なぜそれが必要とされるのかを判断するのは難しい。Gaoの最大の懸念と解決すべき問題とは、実像との明るさに対して困難さをもって競う合成画像の問題であり、よって、SLMの主なタスクは、実際の場面の部分又は実際の場面全体の明るさを選択的に落とすことであるように思われる。概して、例えば、時間分割多重化システム内の反射位置にあるDMDミラーの持続時間を最短化することによって、遮蔽された実際の場面の要素の強度を落としつつ、遮蔽されたピクセルは単純に「オフ」のままとされるだろうことも推測されるが、このことはGaoによって特定されてはおらず、SLMがいかにしてその関連する画像改変機能を達成するかの詳細についても特定してはいない。 In addition, what is the basic rationale for the two image processing steps and calculation iterations on the two platforms, and combined to achieve smoothing and integration of the real and virtual wavefront inputs It is difficult to determine why it is needed to perform proper occlusion / opacity of scene elements. The greatest concern of Gao and the problem to be solved is the problem of synthetic images that compete with difficulty with the brightness of the real image, so the main task of the SLM is the real scene part or the real scene It seems to be to selectively reduce the overall brightness. In general, for example, while reducing the intensity of the shielded actual scene element by minimizing the duration of the DMD mirror at the reflecting position in the time division multiplexing system, the shielded pixels are simply It is also speculated that it will be left as it is, but this has not been specified by Gao, nor has it specified the details of how SLM achieves its associated image modification function .
両方とも計算され、較正され、かつ位置合わせされるべき多くのパラメータの中で、現実のフィールドからのまさにどのピクセルが、合成ピクセルに対して較正されたピクセルなのかを判断することが含まれる。完全な一致はなしで、ゴーストのオーバーラップ及び非整列及び遮蔽は、特に動く場面では倍加する。実際の場面の波面部分を対物レンズに通過させる反射光学素子の位置は、その場面でのビューアーの透視位置とは最初は同一ではない、場面に関する実際の透視位置を有しており、なぜならばそれは平面ではなく、ど真ん中に位置している訳ではないからであり、かつそれは単に波面サンプルであり、位置が何かではないからである。さらに、モバイルであり、動いてもいて、かつ前もって合成画像処理装置には知らされていない場合。このシステムの変数の数は、上記の事実の理由だけでも非常に多い。 Among the many parameters that should both be calculated, calibrated, and registered, it is included to determine which pixel from the real field is the one that has been calibrated for the composite pixel. Without perfect agreement, ghost overlap and misalignment and occlusion especially doubles in moving scenes. The position of the reflective optics which causes the wavefront part of the actual scene to pass through the objective has an actual perspective position with respect to the scene which is not initially identical to the perspective position of the viewer in that scene. It is not a plane, it is not located in the middle, and it is merely a wavefront sample, and not a position. Furthermore, if it is mobile, even moving, and not previously known to the composite imaging device. The number of variables in this system is very large, just for the reasons given above.
もしそうであったとして、かつこの解決策の目的がより具体的にされた場合、これを達成するために第2のディスプレイ(双眼鏡システムにおいて、合計2個のディスプレイ、つまり特定されたSLMを追加)を使用することよりももっと単純な方法があるかもしれないことが明確になるかもしれない。 If so, and if the purpose of this solution is made more specific, a second display (a total of two displays in the binocular system, ie the specified SLM is added to achieve this) It may become clear that there may be a simpler way than using).
第二に、いずれかのアプローチが、多数の累積したアラインメント耐性を有するこのような複合システムの耐久性、マルチ素子経路のオリジナルパーツ及び経年摩損からの欠陥の累積、融合されたビームの非整列を理由として、累積した熱的及び機械的振動効果や、7個の素子とこれに加えて光学システムの複雑性から生じるその他の困った問題をもたらす場合、本質的に外部のライブ画像波面のおそらくは劣化(特に経年の)をもたらすのは、このシステムである。 Second, either approach durability of such composite systems with multiple accumulated alignment resistances, accumulation of defects from multi-element path original parts and aging wear, non-alignment of fused beams The reason is that if it causes accumulated thermal and mechanical vibration effects, seven other elements and additionally other problems arising from the complexity of the optical system, it is likely that the external live image wavefront is essentially degraded It is this system that brings about (especially with age).
加えて、かなり詳しく前述したが、実要素と仮想要素との間の空間関係を計算するという問題は、些細な問題ではない。この計算に基づいて2つの(かつ双眼鏡システム内の)おそらくは異なるタイプ(よって異なる色域、フレーム率など)であろうディスプレイ4個タイプの装置を駆動しなければならないシステムの設計は、既に要求が厳しいシステム設計パラメータに複雑さを追加することになる。 Additionally, as discussed in greater detail above, the problem of computing the spatial relationship between real and virtual elements is not a trivial problem. The design of a system that must drive a four-display type device that may be two (and in a binocular system) possibly different types (and thus different color gamuts, frame rates etc.) based on this calculation has already required It adds complexity to stringent system design parameters.
さらに、ゴースト発生又はラグなしで、かつ眼精疲労や視覚系の疲労を誘発せずに、高性能画像を配送するためには、高フレーム率が必須である。しかしながら、Gaoシステムでは、システム設計は、反射SLMではなく、ビュースルーの使用のみで、若干より単純化されるが、より速いFeLCoSマイクロディスプレイ付きですら、フレーム率及び画像速度はなお、TTのDLP(DMD)などのMEMS装置のフレーム率及び画像速度よりも実質的に低い。 In addition, high frame rates are essential to deliver high-performance images without ghosting or lag and without inducing eyestrain or visual system fatigue. However, in the Gao system, the system design is slightly more simplified with the use of only a view-through rather than a reflective SLM, but even with faster FeLCoS microdisplays, the frame rate and image speed are still TT DLP Substantially lower than the frame rate and image rate of MEMS devices such as (DMD).
しかしながら、HMD用により高い解像度が望まれるので(最低でもより広いFOVを達成するために)、TTの2k又は4k装置などの高解像度DMDへのリソースは、非常に高価なソリューションのリソースを意味する。なぜならば、その特徴サイズ及び数のDMDは、低収率で、大衆消費者又はビジネス生産及びコストのために典型的に許容され得るより高い欠陥率、現在それらが利用されているシステム(TI OEMのBarco、Christie、及びNECによって商的にマーケティングされたデジタルシネマプロジェクタなど)のための非常に高いプライス・ポイントを有していると知られている。 However, as higher resolutions are desired for HMDs (to achieve at least a wider FOV), resources for high resolution DMDs such as TT 2k or 4k devices imply very expensive solution resources . Because their feature size and number of DMDs are lower yield, higher defect rates that can typically be accepted for mass consumer or business production and cost, the systems in which they are currently used (TI OEM It is known to have very high price points for digital cinema projectors (commercially marketed by Barco, Christie, and NEC).
Lumus、BAE及びその他のように光学シースルーHMDのためにフラット光学投影テクノロジー(ここで遮蔽は、設計の目的ではなく、これらのアプローチの範囲及び能力の範囲内で可能でもない)から、基本的にこのアプローチを複製するところまで進め、かつ実像を調節して、その後でGaoが提案するような従来の光学セットアップを用いて2つの画像を組み合わせるというのは本能的に容易なステップだが、一方、この組み合わせをもたらし、かつ比較的コンパクトな空間でそのように行うために、多数のフラット光学素子に頼る。 Flat optical projection technology for optical see-through HMDs like Lumus, BAE and others (where shielding is not a design goal, nor is it possible within the scope and capabilities of these approaches), basically It is an instinctively easy step to proceed to duplicate this approach and adjust the real image, and then combine the two images using the conventional optical setup as proposed by Gao. It relies on a large number of flat optics to provide a combination and to do so in a relatively compact space.
背景の概説を締め括るため、HMDの2つの一般的カテゴリーである光学シースルーHMDと古典的VR HMDにおける現在のリーダーに戻ると、現在の最先端技術の概略は以下の通りであるが、留意すべき点は、その他の変異形である光学シースルーHMD及びVR HMDは両方とも市販されており、かつ集中的研究開発の対象となっており、実質的にGoogle、Glass、及びOculus VR HMD、the Riftから飛躍的進歩がもたらされて以降増大している製品発表、出版及び特許出願を含む多大な量の商業的かつ学究的の両方の研究が行われている。 Returning to the current leaders in the two general categories of HMDs, optical see-through HMD and classical VR HMD, to conclude the outline of the background, the outline of the current state-of-the-art is as follows: The point is that the other variants, optical see-through HMD and VR HMD, are both commercially available and are the subject of intensive research and development, and are essentially Google, Glass, and Oculus VR HMD, the Rift A great deal of commercial and academic research has been carried out, including product announcements, publications and patent applications, which have since grown to a breakthrough.
・Googleは、商的に主要なモバイルAR光学HMDであるGlassで、この文書を著している時点では、光学シースルーHMDカテゴリーにおいて躍進的な一般認知度と主要なマーケティングの地位を確立した。 At the time of writing this document with Glass, a commercially major mobile AR optical HMD, Google has established a breakthrough general awareness and major marketing position in the optical see-through HMD category.
しかし彼らは、主に防衛/工業セクターでの製品を既に開発して送り出してきた市場(Lumus及びBAE(Q−Sightホログラフィック導波管テクノロジー)を含む)については、他者に追従した。その他の最近の市場及び研究ステージに参入してきた企業としては、the UK National Physical Realityからの研究で、かつホログラフィック導波管の分野での研究を商業化したTruLife Opticsがあり、彼らは比較的優位を主張している。 However, they followed others on the market (including Lumus and BAE (including Q-Sight holographic waveguide technology)) which has already developed and launched products mainly in the defense / industrial sector. Other companies that have entered the recent market and research stages include TruLife Optics, a study from the UK National Physical Reality that commercialized research in the area of holographic waveguides, and they are relatively Insist on superiority.
多くの軍事用ヘルメットマウントディスプレイアプリケーションについて、そしてGoogleのGlassについての公式の主たる用途の場合について(繰り返すが、上記で分析している通り)、大まかな位置相関のみ必要であるビュー空間へのテキスト及び象徴的グラフィック要素のスーパーインポーズが、多くの初期の単純なモバイルARアプリケーション用には十分であり得る。 For many military helmet-mounted display applications, and for the official main application case for Google's Glass (again, as analyzed above), text to view space and only rough position correlation is needed Superimposition of symbolic graphic elements may be sufficient for many early simple mobile AR applications.
しかし、情報表示アプリケーションの場合でさえ、ビューアーに対面している(かつ最終的にはビューアーを取り囲む)ビュー空間におけるアイテム及び地形にタグ付けされた情報の密度が高いほど、タグの空間的順番/レイヤリングがタグ付けされた要素の透視/相対位置に一致する必要性が大きくなることが明白である。 However, even in the case of information display applications, the higher the density of information tagged with items and terrain in the view space facing the viewer (and ultimately surrounding the viewer), the spatial order of the tags / It is clear that the need for layering to match the perspective / relative position of the tagged element increases.
従って、オーバーラップ、すなわち、視野内の実要素によるタグの部分的遮蔽は(単にタグ自体のオーバーラップだけではなく)必然的に、ビジュアルクラッタを管理するために、「基本的」な情報表示を目的とする光学ビュースルーシステムでさえその要件となる。 Thus, overlap, ie partial shielding of the tag by real elements in the field of view (not just the overlap of the tag itself), necessarily “basic” information display to manage visual clutter Even the desired optical view-through system is the requirement.
タグはさらに、現実空間の透視ビューにおけるタグ付けされた要素の相対位置だけではなく、自動化された優先度(事前に決められた又はソフトウェアで計算された優先度に基づく)と、リアルタイムのユーザが割り当てた優先度の、両方の度合いを反映しなければならないので、タグのサイズ及び透明度(情報階層を反映するためにグラフィックシステムによって用いられているただ2つの主要な視覚的キューを指定すること)が管理され、かつ実施されなければならない。 Tags are also not only relative position of tagged elements in the perspective view of real space, but also automated priorities (based on pre-determined or software-calculated priorities) and real-time users Tag size and transparency (specifying the only two major visual cues used by the graphics system to reflect the information hierarchy), as it must reflect both degrees of priority assigned. Must be managed and implemented.
そこで直ちに生じる疑問は、タグ及びスーパーインポーズされたグラフィック要素の半透明度及びオーバーラップ/遮蔽の問題を詳細に検討した上で、これらの基本的光学シースルーHMD(単眼レチクルタイプか又は双眼鏡全ガラスタイプかのいずれかを問わない)の光学素子を通過させられたライブ要素及びスーパーインポーズされた生成されたビデオ表示要素の相対的の明るさ(特に明るく照らされた屋外照明状態と、非常に薄暗く照らされた屋外状態での)の問題をいかに対処するかということである。これらのディスプレイタイプの有用性を十分に拡張するために、夜間の使用が、明らかに低照度の問題の極端なケースである。 The question that arises immediately is the basic optical see-through HMD (monocular reticle type or binocular all-glass type), after carefully examining the issues of translucency and overlap / masking of tags and superimposed graphic elements. The relative brightness of the live elements and superimposed generated video display elements (in particular with brightly lit outdoor lighting conditions and very dimly) How to deal with the problem of the illuminated outdoor condition). In order to fully extend the usefulness of these display types, nighttime use is clearly an extreme case of the low light problem.
よって、受動的光学シースルーHMDタイプの最も制限された使用事例の条件を超えて動くと、情報密度が増すにつれて(このようなシステムが商業的に成功し、かつ通常は高密度の都会又は郊外地域が営利事業からタグ付け情報を取得した場合に、このようになることが期待される)、かつ明るいかつ薄暗い状態での使用パラメータが制約に追加するにつれ、「受動的」光学シースルーHMDは、モバイルAR HMDの現実的で実用的な実施態様の問題及びニーズから逃れることも、これらに対処することもできないことが明らかである。 Thus, moving beyond the conditions of the most restricted use cases of passive optical see-through HMD types, as the information density increases (such systems are commercially successful and usually dense urban or suburban areas This is expected to happen if the tag gets information from a for-profit business), and "passive" optical see-through HMD mobiles as the light and dim use parameters add to the constraints It is apparent that neither the problems nor the needs of the realistic and practical implementations of AR HMDs can be addressed or addressed.
そこで、モバイルAR HMDを実現するための不完全なモデルとして受動的光学パススルーHMDを検討しなければならず、そして後に振り返ってみた時に、能動的システムへの暫定的な足掛かりとしてのみ見られるようになるであろう。 So we have to consider passive optical pass-through HMD as an imperfect model to realize mobile AR HMD, and it will only be seen as a temporary footing to an active system when looking back at it later It will be.
・Oculus Rift VR (Facebook) HMD: Google Glass製品マーケティングキャンペーンのインパクトと若干並行して、但し、Oculusが実用的VR HMDの重大な出発点でのバリアのいくつかを解決し、かつ/又は実質的に解決し始めていたという点で(Googleの場合には、Lumus及びBAEに続くよりも)、実際には当該分野において先を進んでいたという差があるが、Oculus Rift VR HMDは、本文書を記載している時点では、広く認められる消費者及びビジネス/産業用VRの市場に参入しかつ当該市場を作り上げる主要な大量発売前のVR HMD製品である。 Oculus Rift VR (Facebook) HMD: somewhat parallel to the impact of the Google Glass product marketing campaign, but Oculus solves some of the barriers at the critical starting point of practical VR HMDs and / or substantive There is a difference that it was actually going ahead in the field (in the case of Google, rather than following Lumus and BAE), but the Oculus Rift VR HMD At the time of writing, it is the major pre-mass release VR HMD product that enters and builds the market for widely recognized consumer and business / industrial VR.
Oculus Rift VR HMDの基本的出発点での進歩の概要は、以下の製品特長のリストにまとめられ得る。 An overview of the advancements at the basic starting point of the Oculus Rift VR HMD can be summarized in the following list of product features.
oユーザの眼から数インチの位置に置かれ、かつ単一ディスプレイ上の双眼鏡透視領域に分割された、1080p解像度の1個の現時点で対角7インチのディスプレイを用いて達成された、大幅に広げられた視野。以前存在していたHMDの一般的仕様である全45度と比べて、現在のFOVは本文書上100度である(その元々の90度を改良)。別個の双眼鏡光学体は、ステレオビジョン効果を実現する。 o Achieved using a single 7 pw display at 1080p resolution, positioned a few inches from the user's eye and divided into binocular perspective areas on a single display, significantly An expanded field of view. The current FOV is 100 degrees in this document (compared to its original 90 degrees), compared to 45 degrees, which is a general specification of the HMD previously present. Separate binocular optics provide stereo vision effects.
o 大幅に改良されたヘッドトラッキングと、結果としてもたらされる低いラグ。これは、改良されたモーションセンサ/ソフトウェアの進歩であり、3D位置追跡用の内蔵モーションセンサ(加速度計、MEMSジャイロスコープなど)付きのその他のハンドヘルド及びハンドヘルド装置製品の中で、任天堂Wii、Apple及びその他の携帯電話センサ技術における素早い追従者たち、プレイステーションPSP(現Vita)、任天堂DS(現3DS)、そしてXbox Kinectシステムから移行してきたミニチュアモーションセンサテクノロジーを活用している。現在のヘッドトラッキングは、協調して作動する外部センサを用いて、マルチポイント赤外線光学システムを実現している。 o Significantly improved head tracking and resulting low lag. This is an advance on improved motion sensors / software, among other handheld and handheld device products with built-in motion sensors (accelerometers, MEMS gyroscopes etc) for 3D position tracking, Nintendo Wii, Apple and It uses miniature motion sensor technology that has moved away from other mobile phone sensor technologies, Playstation PSP (now Vita), Nintendo DS (now 3DS), and the Xbox Kinect system. Current head tracking implements multipoint infrared optical systems using coordinated external sensors.
o少ない待ち時間。これは、改良されたヘッドトラッキングと、対話型ゲームソフトウェアシステムの更新を行う速いソフトウェアプロセッサとの組み合わせの成果であるが、用いられるディスプレイテクノロジー(元々はLCDであって、若干より速いOLEDがこれに取って代わった)の固有の応答時間によって制限される。 o Low latency. This is the result of a combination of improved head tracking and a fast software processor that updates the interactive game software system, but with the display technology used (originally an LCD, with slightly faster OLEDs Limited by its inherent response time).
o 低い持続性。これは、より速いスイッチング速度のOLEDディスプレイとの組み合わせで作動して、ビデオストリームをスムーズに維持するのを助けるために、バッファリングの形態である。 o Low sustainability. This is a form of buffering to help keep the video stream smooth, working in combination with faster switching speed OLED displays.
o スキーゴーグル形態のファクター/材料及び機械プラットフォームを用いることによる、より軽い重量、低減された嵩、より良好なバランス、そして全体的に改良された人間工学。 o Lighter weight, reduced bulk, better balance, and totally improved ergonomics by using ski goggle form factor / material and machine platform.
これらの改良点を組み合わせる正味のメリットの概要をまとめると、このようなシステムは構造上又は作動上、パターンとしては新しいものではないかもしれないが、改良された構成要素と、特に効果的な米国意匠特許第D701,206号、並びにあらゆる専有ソフトウェアの正味の効果は、結果として画期的レベルの大量市場VR HMDの性能と検証をもたらした。 Summarizing the net benefits of combining these improvements, such a system may not be structurally or operationally new as a pattern, but with improved components and a particularly effective US Design Patent No. D 701,206, as well as the net effect of any proprietary software, resulted in breakthrough levels of performance and verification of mass market VR HMDs.
多くの場合にはこれらの先例に倣いかつそのアプローチを採用し、またOculus VR Rift構成の成功に基づいて自分たちのデザインを改変したその他の者達の場合には、同時期に発生した数個の製品プログラムがあり、多くのVR HMD製品開発者(ブランド名を冠した企業と新興企業の両方)が存在していて、彼らはオリジナルの2012年Electronic Expo デモンストレーション及びOculus VR によるキックスターター融資キャンペーンの後、製品計画発表を行った。 In many cases following these precedents and adopting that approach, and in the case of others who have modified their design based on the success of the Oculus VR Rift configuration, a few have occurred at the same time Product programs, and there are many VR HMD product developers (both branded companies and start-up companies), they are the original 2012 Electronic Expo demonstrations and kickstarter financing campaigns by Oculus VR After that, we made a product plan announcement.
迅速に後に続いた者たちそしてOculus VRテンプレートに従って自身の戦略を明らかに改変した者たちの中に、サムスンがいた。サムスンは、本文書記載の時点でOculus VR RiftのデザインとSonyのMorpheusによく似た開発モデルのデモンストレーションを行った。この分野で頭角を現してきた新興企業には、Vrvana(前True Gear Player)、GameFace、InfiniteEye、そしてAvegantが含まれる。 Among those who followed quickly and those who apparently modified their strategies according to the Oculus VR template were Samsung. Samsung demonstrated the design of the Oculus VR Rift and a development model very similar to Sony's Morpheus at the time of this writing. Emerging companies that have emerged in this area include Vrvana (formerly True Gear Player), GameFace, InfiniteEye, and Avgant.
これらのシステム構成のいずれも、Oculus VRと全く同一と思われるものはないが、2パネルを使用するものもいれば、その他は4パネルを使用し、InfiniteEyeは、その主張によると200+度までFOVを拡げるために、4パネルシステムを利用した。LCDを使用するものもいれば、その他はOLEDを使用している。ヘッドトラッキングシステムの精度と更新速度を改良するために、光学センサが用いられている。 None of these system configurations appear to be exactly the same as the Oculus VR, but some use two panels, others use four panels, and the InfiniteEye, according to its claim, is FOV up to 200+ degrees. Used a four panel system to expand the Some use LCD and others use OLED. Optical sensors have been used to improve the accuracy and update rate of head tracking systems.
これらのシステムのすべては、基本的に決まった場所での又は高度に制約付きの可動性のために実現される。これらは、居間や外科教室又はシミュレータステージなどの密閉空間で使用されるように設計された、搭載型及び能動的光学マーカに基づくモーション追跡システムを利用する。 All of these systems are implemented because of their essentially fixed location or highly constrained mobility. These make use of on-board and active optical marker based motion tracking systems designed to be used in a living room or enclosed space such as a surgical classroom or simulator stage.
Oculus VRスキームと最も大きく異なるシステムは、AvegantのGlyphとVrvana Totemである。 The systems that differ the most from the Oculus VR scheme are Avent's Glyph and Vrvana Totem.
The Glyphは、反射平面光学素子上に投影されたマイクロ画像を生成するためにTexas Instruments DLP DMDを用いて、以前確立された光学ビュースルーHMDソリューション及び構造に従ったディスプレイソリューションを実際に実現しており、既存の光学ビュースルーHMDの平面光学素子と同じ構成及び操作であり、異なる点としては、反射/間接マイクロプロジェクタ・ディスプレイ・タイプを実現するために、高コントラストの光吸収バックプレーン構造が用いられており、ビデオ画像は、不透明、非透明表示画像の一般カテゴリーに属する。 The Glyph actually implements a previously established optical view-through HMD solution and structure-based display solution using the Texas Instruments DLP DMD to generate a micro image projected onto a reflective planar optical element. And the same configuration and operation as the planar optical elements of the existing optical view-through HMD, except that a high contrast light absorbing backplane structure is used to realize the reflective / indirect micro-projector display type. Video images belong to the general category of opaque, non-transparent display images.
しかし、ここでGao開示の考察で前述した際に立証されたが、DLP DMD又はその他のMEMS構成要素を使用する場合に、ディスプレイ解像度及びその他のシステム性能を1080p/2kを超えて高める際の制限は、そのシステムのコスト、製造収率及び欠陥率、耐久性及び信頼性である。 However, as demonstrated here above in the discussion of the Gao disclosure, limitations when enhancing display resolution and other system performance beyond 1080p / 2k, when using DLP DMD or other MEMS components Is the cost, manufacturing yield and defect rate, durability and reliability of the system.
さらに、平面光学素子(格子構造、HOE又はその他)の制限付き拡張/拡大率からの画像サイズ/FOVへの制限(これはSLM画像サイズを拡張するが、人間視覚システム(HVS)(特に焦点システム)へのインタラクション/負担がある)は、ビューアーの安全と快適さへの制限を提示する。Google Glassの試験での、同様のサイズだが解像度が低い画像の使用に対するユーザの反応では、より高い解像度でより明るいが、等しく小さい画像面積でのHVSへのさらなる負担が、HVSに難題をもたらすことが示唆されている。Googleの公式コンサルタントである眼科医のEli Peli医師は、オンラインサイトBetaBeatとのインタビューでのGoogle Glassユーザたちに対する、何らかの眼精疲労と不快感を予測した以前の警告(2014年5月19日)を追跡調査し、改訂版の警告(2014年5月29日)にて潜在的利用の事例と範囲を制限することを求めた。その境界決定は、意図されていない態様で使用された又は長時間使用された眼筋についてであり、改定された声明でのこの近因は、ユーザを強制的に見上げさせてしまうことになった小さい表示画像の位置であった。その他の専門家たち Furthermore, the limitation to image size / FOV from limited expansion / magnification of planar optics (grating structure, HOE or other) (which extends SLM image size but human vision system (HVS) (especially focusing system) Interactions / burdens)) present limitations on viewer safety and comfort. The user's reaction to using similar sized but lower resolution images in the Google Glass test is brighter at higher resolutions, but the additional burden on HVS with equally small image areas poses a challenge for HVS Is suggested. Eli Peli, a doctor at Ophthalmologist, Google's official consultant, told Google Glass users in an interview with the online site BetaBeat a previous warning (May 19, 2014) that predicted eyestrain and discomfort It was followed up and called for a revised warning (May 29, 2014) to limit the cases and scope of potential use. The demarcation is about the eye muscles used in an unintended manner or used for a long time, and this near cause in the revised statement has forced the user to look up It was a small display image position. Other experts
しかしながら、実際のFOVの小さな部分への焦点使用のために必要な眼筋の使用の特定の組み合わせは、実際のFOV全体に亘っての眼の動きに必要なものと同一であると想定することはできない。事実上、焦点筋肉の小さい微調整は、自然のFOVのスキャンに伴うモーション範囲よりも限定/制約される。よって、収縮性ROMの繰り返しの動きは、当該分野で知られている通り、焦点方向のみに制限されているのではないが、HVSの特質により、通常使用を超えた過度の緊張を追加し、またさらに、モーション範囲の制約と、非常に小さい制御された微調整を行う必要性を追加することが予想される。 However, assume that the specific combination of use of the eye muscles necessary for focus use on small parts of the actual FOV is identical to that required for eye movement throughout the actual FOV. I can not do it. In fact, the small tweaking of the focal muscles is more limited / constrained than the range of motion associated with a natural FOV scan. Thus, the repetitive movement of the contractile ROM is not limited only to the focus direction as is known in the art, but the nature of the HVS adds excessive tension beyond normal use, Still further, it is expected to add motion range constraints and the need to make very small controlled fine adjustments.
追加される複雑さとは、制約される眼の動きの領域における詳細のレベルが、複雑で詳細な動きが伴う場面で解像度が高まるにつれ、眼精疲労が精密工具作業を急速に上回ってしまうということである。この問題についての厳密な処置は、光学ビュースルーシステムのいずれの開発者によっても何ら報告されておらず、そしてこれらの問題点と、Steve Mannが自身のEyeTapシステムの使用について何年にも亘って報告してきた眼精疲労、頭痛及びめまいの問題(この問題については、最新のDigital EyeTap アップデートにおいて、視野の中心に画像を移動することによって、一部分は改良されたと報告されているが、系統的な研究はなされていない)については、精密作業から生じ得る眼精疲労及び「コンピュータ視覚病」の課題及び問題のごく一部のみに着目している限定されたコメントしかなされていない。 The added complexity is that eye strain quickly outpaces precision tooling as the level of detail in the area of constrained eye movement increases in resolution with scenes with complex detailed movement It is. No exacting treatment for this problem has been reported by any of the developers of the optical view-through system, and these problems and over many years with Steve Mann's use of his EyeTap system Reported eye strain, headache and dizziness problems (The problem has been reported to have been partially improved in the latest Digital EyeTap update by moving the image to the center of the field of view but systematic No research has been done), with only limited comments focusing on only a small fraction of the problems and issues of eye strain and “computer vision disease” that can result from precision work.
しかしながら、GoogleがPeli医師から入手可能とした限定された公的コメントでは、概して、光学ビュースルーシステムとしてのGlassは、長期の又は高周波数での視聴よりもむしろ、時折使用することが意図されていると、繰り返し主張している。 However, the limited public comments that Google has made available to Dr. Peli generally suggest that Glass as an optical view-through system is intended for occasional use rather than long-term or high frequency viewing And repeatedly insist.
Glyphスキームを理解するためのもう一つの方法としては、最高レベルにおいて、Mann Digital EyeTapシステム及び構造配置に従い、光分離させたVR操作のための実施態様のバリエーションを用い、かつ最新の光学ビュースルーシステムの側面投影偏向光学セットアップを利用することである。 Another way to understand the Glyph scheme is to use, at the highest level, a variation of the embodiment for light-split VR operation according to the Mann Digital EyeTap system and the structural arrangement, and the latest optical view through system Side projection deflection optical setup.
Vrvana Totemでは、Oculus VR Riftからの出発とは、同一の光学的に覆われたOLEDディスプレイパネル上でビデオキャプチャーされた前方画像キャプチャーと、生成されたシミュレーションとを切り替えることを可能にするため、双眼鏡、従来のビデオカメラを追加することによって、Jon Barrilleauxの「間接視ディスプレイ」のスキームを採用することにある。Vrvanaは、まさにBarrilleauxの特定したスキーム及びパターンに従って、AR用のこの非常に基本的な「間接視ディスプレイ」を実現する材料をマーケティングすることを示してきた。最低でもHMDの重量及びバランスへの影響はあるが、事実上現在のOculus VR世代のその他のVR HMDのいずれも、このような従来のカメラに取り付けることができることが明らかである。 In Vrvana Totem, departure from the Oculus VR Rift is a binocular to allow switching between forward captured image captured on the same optically covered OLED display panel and generated simulation. By adding a conventional video camera, it is to adopt the "indirect view display" scheme of Jon Barrilleaux. Vrvana has shown marketing the material to realize this very basic "indirect viewing display" for AR, just according to Barrilleaux's specified schemes and patterns. While at least affecting the weight and balance of the HMD, it is clear that virtually any other VR HMD of the current Oculus VR generation can be attached to such conventional cameras.
上記より、「ビデオシースルーHMD」のカテゴリーにおいて又は一般的に「間接視ディスプレイ」の分野においては暗視ゴーグルのカテゴリーを超えるような進歩はほとんどあるいは全くないということが、上記の内容から明白であろう。暗視ゴーグルは、サブタイプとしてはよく開発されてきているが、当該技術分野で知られているビデオプロセッサ方法の範囲内で、ライブ画像にテキスト又はその他のシンプルなグラフィックを追加する提供以外のあらゆるAR特長を欠いている。 From the above it is clear from the above content that in the category of "Video See-through HMD" or generally in the field of "Indirect Vision Display" there is little or no progress over the category of night vision goggles I will. Night vision goggles are well developed as a subtype, but within the scope of video processor methods known in the art, any other than providing adding text or other simple graphics to live images It lacks AR features.
さらに、VR HMDに対する既存の制限に関して、OLED及びLCDパネルを用いるすべてのこのようなシステムは比較的低いフレーム率となってしまい、これはモーションラグや待ち時間、そしてこれは広いカテゴリーでの「シミュレータ病」に属する一部のユーザへのネガティブな生理的影響の一因となる。また、Texas Instruments DLP DMDに基づくプロジェクタ又はSony LCoSに基づくプロジェクタ用に実現されたRealD システムなどのこのような市販のステレオシステムを用いる、映画のデジタルステレオ投影システムでは、不十分に高いフレーム率もまた、観客のほんの一部(ある研究では10%ほど)が頭痛や関連症状を体験する一因となるとも報告されていることも注記しておく。これらのうちの一部は該当する個人に特有のものであるが、これについてかなりの割合がフレーム率の制限に原因を帰することができる。 Furthermore, with respect to the existing limitations to VR HMDs, all such systems using OLED and LCD panels have relatively low frame rates, which are motion lag and latency, and this is a broad category of "simulators" Contribute to negative physiological effects on some users who belong to Also, with digital stereo projection systems for movies using such commercially available stereo systems such as RealD systems realized for projectors based on Texas Instruments DLP DMD or projectors based on Sony LCoS, the frame rate too high is also insufficient. Also note that a small percentage of the audience (about 10% in some studies) has also been reported to contribute to experiencing headaches and related symptoms. Some of these are specific to the relevant individual, but a significant percentage of this can be attributed to frame rate limitations.
そしてさらに、注記した通り、Oculus VRは、本書記載の時点で用いられているOLEDのなおも不十分に高いピクセルスイッチング/フレーム率を補うために、パット内のシステムをバッファリングする「低い持続性」を実現している。 And further, as noted, Oculus VR's "buffering system in the pad to compensate for the still inadequately high pixel switching / frame rate of the OLEDs used at the time of this writing" Is realized.
既存のVR HMDの性能へのさらなる影響は、既存のOLED及びLCDパネルディスプレイの解像度制限によるもので、この解像度制限は、十分に効果的な解像度を達成するために、対角5〜7インチディスプレイを使用して、かつ視聴光学体(そしてビューアーの眼)から少し離してこれらを取り付ける要件の一部要因となり、大半のその他の光学ヘッドウェア製品よりもかなり大きく、より嵩があって、より重い、既存のそして計画された提供物の嵩、サイズ及びバランスの一因となる。 A further impact on the performance of existing VR HMDs is due to the resolution limitations of existing OLED and LCD panel displays, this resolution limitation allows for a 5-7 inch diagonal display to achieve a sufficiently effective resolution. Which is part of the requirement to attach them using and slightly away from the viewing optics (and the viewer's eyes) and are considerably larger, bulkier and heavier than most other optical headwear products Contribute to the bulk, size and balance of existing and planned offerings.
嵩を追加することなくFOVをさらに改良することが期待され得る曲面OLEDディスプレイを採用することから、潜在的な部分的改良が期待される。しかしながら、受容可能な収率の製造工場の能力に対して大幅な追加規模の投資を必要とする、十分な量を市場に出すための経費は、この見通しを短期的に実践的ではないものにする。そのため、嵩やサイズの問題に単に部分的に対処するのみとなってしまう。 Potential partial improvements are expected from adopting curved OLED displays that can be expected to further improve the FOV without adding bulk. However, the cost to market a sufficient quantity that requires significant additional investment in the capacity of a production plant with acceptable yields makes this outlook impractical in the short run. Do. Therefore, the problem of bulk and size is only partially addressed.
完全性のために、インタラクティブではなく又はいかなるモーション感知能力なしで、よって仮想又はハイブリッド(混合の現実/AR)世界をナビゲートする能力なしにビデオコンテンツを視聴するために採用されるビデオHMDを指摘する必要もある。このようなビデオHMDは、過去15年間に亘って基本的に改良されてきて、効果的なFOV及び解像度及び視聴の快適さ/人間工学を高め、かつ最新のVR HMDが活用しかつそのために構築することが可能となった開発経路及び進歩を提供してきた。しかし、これらもまた、OLED、LCD及びDMDに基づく反射/偏向光学システムについて観察された制限に従うパターンで、採用されたディスプレイ技術のコア性能によって制限されてきた。 For completeness, point out a video HMD employed to view video content without the ability to navigate the virtual or hybrid (mixed reality / AR) world without being interactive or with any motion sensing capabilities You also need to Such video HMDs have been fundamentally improved over the past 15 years to enhance effective FOV and resolution and viewing comfort / ergonomics, and to be utilized and developed by the latest VR HMDs Provided development paths and advances that have become possible. However, these too have been limited by the core performance of the adopted display technology, with patterns according to the limitations observed for OLED / LCD / DMD based reflection / deflection optical systems.
透明なアイウェアの光学パラダイムにおける投影画像についてのその他の重要なバリエーションは、Osterhoudt Design Group、Magic Leap、及びMicrosoft(Hololens)によるものを含む。 Other important variations on projection images in the transparent eyewear optical paradigm include those by Osterhoudt Design Group, Magic Leap, and Microsoft (Hololens).
これらのバリエーションは、互いに対して、そして前述で詳細に考察したその他の従来技術に対していくつかの相関的な利点又は欠点をもたらし、これらはすべて基本アプローチの制限を保持している。 These variations bring some relative advantages or disadvantages to each other and to the other prior art discussed in detail above, all of which hold the limitations of the basic approach.
共通してより根本的かつ普遍的でさえあって、既存のコアディスプレイ技術のフレーム率/リフレッシュとして、高速LC、OLED又はMEMSのいずれかを問わず、また表示画像をビューイング光学体に伝達するために開示された機械的スキャニングファイバー入力又はその他の光学システムを採用しているか否かを問わず、これらは採用されたディスプレイ/ピクセル技術の基本タイプによっても制限され、すべては、大量市場の高品質で楽しめるAR及びVRの実現に別々にかつ共に寄与する、高品質で、目に優しい(HVS)、低電力、高解像度、高ダイナミックレンジ及びその他のディスプレイ性能パラメータの要件を満たすにはまだ不十分である。 Commonly more fundamental and even universal, as a frame rate / refresh of existing core display technology, whether high speed LC, OLED or MEMS, and also transferring display images to viewing optics These are also limited by the basic type of display / pixel technology employed, whether or not they employ mechanical scanning fiber inputs or other optical systems disclosed for High quality, eye-friendly (HVS), low power, high resolution, high dynamic range and other display performance parameter requirements are yet to be met, contributing separately and jointly to the realization of AR and VR enjoyable in quality It is enough.
上に記載された詳細について従来技術の状態の概要をまとめると、以下の通りである。 A summary of the state of the art with the details described above is as follows.
・「高視力」VRは、FOV、待ち時間、頭部/モーション追跡、軽量、サイズ及び嵩という実質的に多くの点において改良した。 "High vision" VR has improved in substantially many points: FOV, latency, head / motion tracking, lightness, size and bulk.
・しかし、フレーム率/待ち時間及び解像度、そして当然の重要な結果として生じる範囲において、重量、サイズ及び嵩は、コアディスプレイ技術の制約によって制限される。 However, the frame rate / latency and resolution, and to the extent that result as a matter of course, the weight, size and bulk are limited by the limitations of core display technology.
・そして現代のVRは、小さい制御された空間での静止型又は非常に制約かつ制限されたモバイル用途に制約される。 • And modern VR is constrained to stationary or very constrained and restricted mobile applications in small controlled spaces.
・光学ビュースルーシステムの密閉バージョンに基づくが、SLMが一連の3つの光学素子を介して画像を眼に投影する側面投影偏向システムとして構成されたVRは、反射画像のサイズの性能において制限され、この反射画像は拡大されるが、標準のメガネレンズの合計面積に比べて、SLM(DLP DMD、その他のMEMS、又はFeLCoS/LCoS)の出力よりもかなり大きくはない。「クローズアップ作業」の非常に激しいバージョンの拡張ビューイングと、これによって眼筋に要求されることからの眼精疲労のリスクは、実用的受け入れにおける追加の制限となる。そして、SLMタイプ及びサイズのディスプレイはまた、言及されたテクノロジーのより高い解像度のSLMのスケーリングコストにより、改良された解像度及び性能全般への実用的進路も制限する。 VRs configured as a side projection deflection system based on an enclosed version of an optical view-through system but where the SLM projects the image onto the eye through a series of three optical elements are limited in the performance of the size of the reflected image, This reflected image is magnified but not significantly larger than the output of the SLM (DLP DMD, other MEMS, or FeLCoS / LCoS) compared to the total area of a standard spectacle lens. The very intense version of extended viewing of the "close-up work" and the risk of eyestrain from this which is required of the eye muscles is an additional limitation on practical acceptance. And, SLM type and size displays also limit the practical path to improved resolution and overall performance due to the scaling cost of higher resolution SLMs of the mentioned technology.
・光学ビュースルーシステムは概して、眼筋の比較的小さい領域への使用の限定により眼精疲労の可能性は同じであり、これらの制約内でのかつ短い使用期間を超える場合について、比較的細かくかつ頻繁に眼を追跡する調整を要する。Google Glassは、真直ぐ前を見る眼の直接レスト位置よりも上にかつ外に光学素子を位置づけることによって、制限された継続期間の使用の予想を反映するように設計されていた。しかし、ユーザは、Google Glass Explorersからの文章やインタビューによって出版物で幅広く文書化されてきたように、それにもかかわらず眼精疲労を報告していた。 Optical view-through systems generally have the same potential for eyestrain due to the limitation of use to relatively small areas of the eye muscle, and are relatively fine for these constraints and for cases exceeding a short period of use And often require adjustments to track the eye. Google Glass was designed to reflect the prospect of using a limited duration by positioning the optics above and outside the direct rest position of the eye looking straight ahead. However, the user has nevertheless reported eyestrain, as it has been extensively documented in the publication by texts and interviews from Google Glass Explorers.
・光学ビュースルーシステムは、透視ビューにおける現実世界のオブジェクトへのタグを整理する必要性があるため、重ねられた半透明情報の密度において制限される。可動性及び情報密度の必要性により、グラフィック情報表示アプリケーション用でさえ受動的光学ビュースルーを制限付きとする。 Optical view-through systems are limited in the density of superimposed translucency information due to the need to organize tags to real-world objects in perspective views. The need for mobility and information density makes passive optical view-through limited even for graphic information display applications.
・「間接視ディスプレイ」の諸態様は暗視ゴーグルの形態で実現されてきており、Oculus VRの競合相手であるVrvanaは、AR用の双眼鏡ビデオカメラが搭載されたTotemの適応を示唆したのみである。 -Aspects of "indirect vision display" have been realized in the form of night vision goggles, and Vrvana, a competitor of Oculus VR, only suggested the adaptation of Totem with a binocular video camera for AR. is there.
・Gaoの提案。これは光学ビュースルーディスプレイであると主張されているが、実際には、SLM装置の使用により擬似ビュースルーの態様を有し、どちらかというと「間接視ディスプレイ」であり、実波面の一部をサンプリングしかつ当該波面の複数部分をデジタル処理で改変するために、投影ディスプレイ用に修正されて、そのように機能する。 ・ Gao's proposal. It is claimed to be an optical view-through display, but in fact it has a pseudo-view-through aspect due to the use of an SLM device, rather a "indirect view display", which is part of the actual wavefront Are modified for the projection display to function as such, in order to sample and modify portions of the wavefront digitally.
最初の波面部分の光ルーティングに介在する光学素子の数(また、ここに追加すべき点は、従来のメガネの従来のレンズの光学領域よりもかなり小さい)(7個又はこれに近い数である)は、画面収差、画像の乱れ、及び損失の両方の機会をもたらすが、多くのそのような素子の複雑自由空間アラインメントが一般的でなく、かつそれらが必要とされ、高価であって、維持が困難であり、かつ堅牢ではない場合に、光学アラインメントの複雑なシステムが必要となる。SLMが現実の場面の改変を管理することを期待されている際に用いられる方法も、その特定の要件について特定も検証もされていない。ディスプレイ2個〜4個タイプの装置(双眼鏡システムの単眼に応じて)間の信号処理の調整を行う問題についても特定も検証もされておらず、この問題は、透視ビューにおける実要素と合成要素との間の適正な関係を作り出すために計算を行うことが既に非常に厳しい要求である状況において、特に、個人が、情報が密集していて地形的に複雑な環境の中で動いている場合に、現実のフィールドからの具体的にどのピクセルが、適正な合成のもののための較正されたピクセルなのかを判断することを含む。車両への搭載は、単にこの問題をさらに悪化させるのみである。 The number of optical elements involved in the light routing of the first wave front portion (and the point to add here is much smaller (7 or nearly so) than the optical area of the conventional lens of the conventional glasses) ) Provides the opportunity for both screen aberration, image distortion, and loss, but complex free space alignment of many such elements is not common and they are needed, expensive and expensive If it is difficult and not robust, a complex system of optical alignment is required. Neither the method used when SLM is expected to manage the real scene modifications nor the identification or verification of its specific requirements. The problem of coordinating signal processing between two to four types of displays (depending on the monocular in a binocular system) has not been identified or verified, and the problem is that real and synthetic elements in a perspective view Especially in situations where it is already a very demanding requirement to make calculations to create a proper relationship between them, especially when the individual is moving in a densely populated, geographically complex environment It involves determining which pixels from the real field are specifically calibrated pixels for the proper composition. Mounting on vehicles merely exacerbates this problem.
Gaoが提案する光学セットを構築するというタスクに比べて、又はこれを比較的コンパクトな形状因子に縮小するタスクでさえあっても、完全なシステムを開発するには無数の追加の問題がある。サイズ、バランス、及び重量は、様々な処理及び光学体アレイユニットの数及び(暗示的に)必要な場所にもたらされる多くの結果のうちのほんの一つであるが、言及したその他の問題や制限に比べて、比較的マイナーなものである。但し、このようなシステムを現場使用(軍事用又は高耐久化された工業利用又は消費者利用のいずれか)するために実際に配備するには深刻なものではある。 There are numerous additional problems in developing a complete system, even with the task of constructing an optical set proposed by Gao, or even reducing it to a relatively compact form factor. The size, balance, and weight are just one of the various processing and number of optical body array units and many results that will be (implicitly) required, but other issues and limitations mentioned It is relatively minor compared to. However, it is serious to actually deploy such a system for field use (either for military use or for ruggedized industrial use or consumer use).
・100%「間接視ディスプレイ」は、Gaoの提案に関する重要な点で同様の需要があるだろうし(ディスプレイタイプユニットの数や、アラインメント、光学システム、ピクセルとシステムのマッチング、及びパースペクティブの問題の詳細を除く)、よって、このようなシステムのすべての重要なパラメータが、リアルタイムの個々の透視リアルタイムビュースルー画像と協調して保存された合成CG3Dマッピングされた空間の「総当たりの」計算を必要とする度合いについての問題を投げかける。この問題は、前方ビデオカメラによって撮像されたビデオ画像について、基本的なBarrilleauxで、そして今は可能なVrvanaデザインで、計算がすべて行われ、合成要素と合成するための非ローカルな(HMD及び/又は装着者自身へ)プロセッサへと中継されなければならない程度まで、より大きくなる。 100% "indirect vision display" will have similar needs at key points regarding Gao's proposal (details of the number of display type units, alignment, optical systems, pixel and system matching, and perspective issues) Except that all important parameters of such a system require a "round-robin" calculation of synthetic CG3D mapped space stored in concert with individual real-time perspective real-time view-through images Throw a question about the degree of The problem is that for video images captured by forward video cameras, with the basic Barrilleaux, and now with the possible Vrvana design, all the calculations are done, non-local (HMD and / or Or to the wearer himself) to a degree that must be relayed to the processor.
現実の環境に没入感及び較正の両方を実現する真にモバイルなシステムにとって(VR又はARのいずれでも)何が必要なのかは、以下の通りである。 What is needed (whether VR or AR) for a truly mobile system that achieves both immersiveness and calibration in a real environment is as follows.
・人間視覚システムへの非正規な要求を最小限に抑える人間工学光学体及び視聴システム。これは、より拡張された使用を可能にするためであり、その拡張使用はモバイル使用によって暗示される。 Ergonomics and viewing systems that minimize non-regular demands on human vision systems. This is to allow for more extended use, which is implied by mobile use.
・120〜150度の広いFOV(理想的には周辺の視界を含む)。 -A wide FOV of 120 to 150 degrees (ideally including the peripheral vision).
・典型的にディスプレイが原因である待ち時間及びその他の画像の乱れを最小限に抑えるための高いフレーム率(理想的に60fps/眼)。 High frame rates (ideally 60 fps / eye) to minimize latency and other image artifacts typically caused by the display.
・顔からユニットまでの快適な距離での高い実効解像度。最大値を測定するために使用され得る実効解像度基準は、有効8k又は「網膜ディスプレイ」である。この距離は、一般的にバランス点として鼻梁を用いる従来のメガネの距離と同様となるはずである。視準及び光路光学体が、この有効表示解像度及び眼までの光学素子の実際の距離も実現する適正な仮想焦点面を確立するために必要である。 -High effective resolution at a comfortable distance from the face to the unit. The effective resolution standard that can be used to measure the maximum value is the effective 8k or "retinal display". This distance should be similar to that of conventional glasses, which generally use the bridge bridge as the balance point. Collimation and optical path optics are needed to establish a proper virtual focal plane that also achieves this effective display resolution and the actual distance of the optical element to the eye.
・ライブ実景のダイナミックレンジに可能な限り近く一致する高ダイナミックレンジ。 High dynamic range that matches as closely as possible the dynamic range of the live scene.
・既知の地形(事前に知っているか、又は装着者の視界範囲内でジャスト・イン・タイムで知ったかを問わず)での頭部と体の両方の向きを決定するための搭載モーション追跡。これは、ハイブリッドスキームでは、外部システムによって補足されるかもしれない。 On-board motion tracking to determine both head and body orientation on known terrain (whether known in advance or just in time within the wearer's field of view). This may be supplemented by an external system in a hybrid scheme.
・現実の場面の波面といずれかの合成要素との間で、人間視覚システムの枠の中で、速い合成プロセスを可能にするディスプレイ光学体システム。搭載型(HMD及び装着者への)及び/又は外部の処理システムのいずれかへの負担を可能な限り最小限に抑えるために、多くの受動的手段が用いられるべきである。 A display optics system that enables a fast synthesis process within the framework of the human vision system between the wavefront of the real scene and any synthesis element. Many passive means should be used to minimize the burden on any of the on-board (HMD and wearer) and / or external processing systems as much as possible.
・光学素子が少しだけ、能動的装置要素が少しだけ、かつ最低重量及び厚さの両方であり、機械的かつ熱的応力下で堅牢な単純で能動的装置デザインを有する、比較的シンプルで粗野なディスプレイ光学体システム。 • A relatively simple and crude device with only a few optical elements, only a few active device elements, both minimum weight and thickness, and a simple active device design that is robust under mechanical and thermal stresses Display optics system.
・軽量、嵩が低く、重心のバランスが取れ、かつ軍のかつ耐久性のある環境産業ユーザなどの両専門ユーザにとって受け入れられると知られている設計構成に適し、かつスポーツアプリケーション、並びに一般消費及びビジネス用途を高耐久化する形状因子。Oakley、Wiley、Nike、及びAdidasなどのメガネ製造業者から、Oakley、Adidas、Smith、Zeal及びその他の若干より専門的なスポーツゴーグル製造業者までのファクター範囲により、このように認められている。 -Suitable for design configurations known to be acceptable to both professional users, such as lightweight, low bulk, balanced in gravity, and military and durable environmental industrial users, and sport applications, as well as general consumption and A form factor that makes business applications more durable. This is recognized by the factor range from eyeglass manufacturers such as Oakley, Wiley, Nike, and Adidas to Oakley, Adidas, Smith, Zeal and some other more specialized sports goggle manufacturers.
・可変的に、完全可動性を保持しつつのVR体験と、可変遮蔽、透視一体型ハイブリッドビューイングARシステムとの間で切り替え可能なシステム。 -A system that is switchable between a VR experience while maintaining full mobility and a variable shielding, perspective integrated hybrid viewing AR system.
・HVS用に受信する波長を管理するとともに、対象波長(センサを介して)とこれらのハイブリッドから有効な情報を取得することができるシステム。赤外線、可視及びUVが、典型的な対象波長である。 -A system capable of managing the wavelength to be received for the HVS and acquiring valid information from the target wavelength (via the sensor) and these hybrids. Infrared, visible and UV are typical wavelengths of interest.
人間視覚システムに対する又は非表示データアレイ出力機能性に対する取り込み、配信、組織化、送信、記憶、及び提示のプロセスの非最適化操作ステージの損なわれた機能性から装置及びシステムデザインを解放する態様で、かつその代わりに、各ステージにとって最も適する装置の最適化機能を可能にする操作ステージへと、フォトニック信号処理及びアレイ信号処理ステージを分解する態様で、上記プロセスを新たに想像するためのシステム及び方法を開示するものであり、これは実際には、これらの装置及びプロセスが最も効率的に作動する周波数で装置を設計かつ操作し、そしてより効率的な全光信号処理(ローカルと長距離の両方)をさらに可能にする正味の効果とともに、かかる「便宜的周波数」の間を行き来するように、効率的な周波数/波長変調/シフトステージに取り組むことを意味する。 In a manner that frees the device and system design from the impaired functionality of the non-optimized operation stage of the capture, delivery, organization, transmission, storage and presentation process to the human vision system or for non-display data array output functionality And, alternatively, a system for imagining the above process in a manner that breaks down the photonic signal processing and array signal processing stages into an operating stage that enables the optimization function of the device most suitable for each stage And methods, which in practice design and operate the devices at the frequency at which these devices and processes operate most efficiently, and more efficient all-optical signal processing (local and long distance Of the “usual frequency” as well as the net effect of Which means that work on specific frequency / wavelength modulation / shift stage.
本発明の以下の概要は、信号処理に関係する技術的特長のいくつかについての理解を容易にするために提供されるものであり、本発明を完全に記載することを意図したものではない。明細書全文、請求項、図面及び要約を全体として捉えることによって、本発明の多様な局面を十分に評価することができる。 The following summary of the invention is provided to facilitate an understanding of some of the technical features related to signal processing and is not intended to describe the invention in full. By taking the entire specification, claims, drawings and abstract as a whole, various aspects of the invention can be fully appreciated.
本発明の実施形態は、一体型ピクセル信号「変調器」の構成要素を個別の信号処理ステージに分解し、よってテレコムタイプネットワーク(コンパクトに又は空間的にリモートとなり得る)に分解することを伴い得る。動作可能なように最も基本的なバージョンは、典型的に一体型ピクセル変調器で達成されるピクセル論理「状態」符号化と、これとは分離される色変調ステージと、次にまたこれとは分離される強度変調ステージとを含む、3段階「ピクセル信号処理」シーケンスを提案する。より詳細なピクセル信号処理システムがさらに詳しく述べられ、このピクセル信号処理システムは、サブステージ及びオプションを含み、かつ磁性フォトニックシステムの効率的な実施態様により詳述されかつ具体的に調整され、1)バルク光(好ましくは不可視近赤外線)が適切なモードに変換されて、チャネル化されたアレイに組み込まれる、効率的照明光源ステージと、これが供給する2)ピクセル/論理処理及び符号化ステージと、これに続く3)オプションの不可視エネルギーフィルタ及び回収ステージと、4)信号分割及びモード修正などの属性を改良/修正するためのオプションの信号修正ステージと、5)周波数/波長変調/シフティング及び追加帯域幅及びピーク強度管理と、6)オプションの信号増幅/利得と、7)特定のMO型ライトバルブ切替えを完了するためのオプションのアナライザと、8)ピクセル信号処理及び配信の特定の無線(ステージ)のためのオプションの構成とで構成される。さらに、このシステムのDWDM型構成が提案され、この構成は全光ネットワークのあるバージョン及び全光ネットワークへの経路を提供し、これによって得られるその付随する主要な費用及び効率は、特に動機付けされ、かつより効率化される画像情報(ライブのかつ記録済みの両方)の取り扱いである。そして最後に、新しいハイブリッド磁性フォトニック装置及び構造が提案され、ピクセル信号処理システムを最大限活用するために、本開示のシステムのために以前は実用的ではなかったその他のものが可能とされ、その周囲にこのようなシステムが最適に構成される(新規の基本スイッチと、すべての適用のための大半でなくても多くのMPC型装置を改良する新規のハイブリッド2D及び3Dフォトニック結晶構造とを実現する、磁気光学及び非磁気光学効果(スローライト及び逆磁気光学効果など)のハイブリッド化に基づく装置の新規及び/又は改良バージョンを含む)。 Embodiments of the present invention may involve disassembling the components of the integrated pixel signal "modulator" into separate signal processing stages, and thus a telecommunications type network (which may be compact or spatially remote). . The most basic version to be operable is pixel logic "state" coding, typically achieved with an integrated pixel modulator, a color modulation stage separated from this, and then again We propose a three-step "pixel signal processing" sequence, which includes an intensity modulation stage to be separated. A more detailed pixel signal processing system is described in more detail, the pixel signal processing system including substages and options, and detailed and specifically tailored to the efficient implementation of the magnetic photonic system, 1 2.) an efficient illumination light source stage, and 2) a pixel / logic processing and encoding stage it supplies, where bulk light (preferably invisible near infrared) is converted to the appropriate mode and incorporated into a channelized array; This is followed by 3) optional invisible energy filter and recovery stage, 4) optional signal modification stage to improve / modify attributes such as signal splitting and mode modification, 5) frequency / wavelength modulation / shifting and addition Bandwidth and peak intensity management, 6) optional signal amplification / gain, 7) And optional analyzer to complete the switching MO type light valve, 8) consists of an optional configuration for the particular wireless pixel signal processing and delivery (Stage). Furthermore, a DWDM-type configuration of this system is proposed, which provides a version to the all-optical network and a route to the all-optical network, the main costs and efficiencies obtained thereby being particularly motivated And more efficient handling of image information (both live and recorded). And finally, new hybrid magnetic photonic devices and structures have been proposed, enabling others not previously practical for the system of the present disclosure to take full advantage of the pixel signal processing system, Around that, such systems are optimally configured (new basic switches and new hybrid 2D and 3D photonic crystal structures that improve many, if not most, MPC-type devices for all applications A new and / or improved version of the device based on the hybridization of magneto-optical and non-magneto-optical effects (such as slow light and reverse magneto-optical effects)
本開示の発明者による同時係属出願では、典型的な一体型ピクセル信号「変調器」の構成要素を個別の信号処理ステージに分解する、新しいクラスの表示システムが提案される。よって、一体化ピクセル変調器において一般的に達成される基本論理「状態」は、色変調ステージから分離され、色変調ステージは、強度変調ステージから分離される。これは可視画像ピクセル変調の問題に適用されるテレコム信号処理アーキテクチャとして考えてよい。一般的に、3つの信号処理ステージと3つの個別の装置構成要素及び操作が提案されるが、追加の信号に影響を与える操作が追加されてもよく、かつ企図される(偏光特性、従来の信号からポラリトン及び表面プラズモンなどのその他の形態への変換、信号の重ね合わせ(その他の信号データに重畳されたベースピクセル・オン/オフ状態など)等を含む)。受動的な材料の後のステージで実質的に構成される比較的「ダム」な表示器具を提供する、広帯域ネットワークに亘る高度分散ビデオ/信号処理アーキテクチャが、連続して、同一の装置で又は別個の装置の間に密に接触している複数の装置で、かつ大きなアレイで個別の信号処理ステップを実施するコンパクトフォトニック一体化回路装置と共に、主な結果である。 In a co-pending application by the inventors of the present disclosure, a new class of display system is proposed that breaks down the components of a typical integrated pixel signal "modulator" into separate signal processing stages. Thus, the basic logic "states" commonly achieved in integrated pixel modulators are separated from the color modulation stage, which is separated from the intensity modulation stage. This may be considered as a telecom signal processing architecture that applies to the problem of visible image pixel modulation. In general, three signal processing stages and three separate device components and operations are proposed, but operations affecting additional signals may be added and are contemplated (polarization characteristics, conventional Conversion of signals to other forms such as polaritons and surface plasmons, superposition of signals (including base pixel on / off states superimposed on other signal data etc) etc.). Highly distributed video / signal processing architecture across a broadband network, providing a relatively "dam" display device that is substantially configured at a later stage of passive material, in series, in the same device or separate The main result is with multiple devices in intimate contact between the devices and compact photonic integrated circuit devices performing individual signal processing steps in a large array.
ハイブリッドテレコムタイプの改良されたかつ詳細のバージョンの本開示では、特に周波数/波長変調/シフトステージ及び装置(確固たる範囲の実施形態で実現され得る)を含むその他のピクセル信号処理ステージ/装置と組み合わせた磁気光学/磁性フォトニックステージ/装置を用いたピクセル信号処理表示システムも含まれ、改良されかつ新規のハイブリッド磁気光学/フォトニック構成要素は、古典的な又は非線形ファラデー効果MO効果に制約されないが、非可逆的MO効果及び現象並びにそれらの組み合わせをより広く包含し、かつハイブリッドファラデー/スローライト効果及びカー効果に基づく、かつファラデー及びMOカー効果のハイブリッドに基づく装置及びその他のMO効果も含み、かつ装置形状サイズ全体を低減するために、装置の表面と同一面内に変調信号の経路が折り畳まれる、改良された「ライトバッフル」構造も含み、かつ擬似2D及び3Dフォトニック結晶構造及び多層フィルムPCと表面格子/分極PCとのハイブリッド、並びにMO及びマッハ・ツェンダー干渉計装置のハイブリッドも含む。 The present disclosure of the improved and detailed version of the hybrid telecommunications type, in particular in combination with other pixel signal processing stages / devices, including frequency / wavelength modulation / shifting stages and devices (which may be realized in a robust range of embodiments). Also included are pixel signal processing display systems using magneto-optical / magnetic photonic stages / devices, and the improved and novel hybrid magneto-optical / photonic components are not restricted to the classical or non-linear Faraday effect MO effects, More broadly encompasses irreversible MO effects and phenomena and combinations thereof, and also includes devices based on hybrid Faraday / slowlight and Kerr effects, and hybrid and other MO effects based on Faraday and MO Kerr effects, and Reduce overall device shape size Also includes an improved "light baffle" structure in which the path of the modulation signal is folded in the same plane as the surface of the device, and pseudo-2D and 3D photonic crystal structures and multilayer films PC and surface gratings / polarization PC And hybrids of MO and Mach-Zehnder interferometer devices.
従って、早期のMOベース装置と本明細書に開示される改良された装置の両方を包括して、本開示は、ピクセル信号処理(又は、同様に、PIC、センサ、もしくはテレコム信号処理)ステージの以下のプロセスフローの、テレコムタイプ又はテレコム構造化されたピクセル信号処理システムを、よって本開示のシステムを特徴とするアーキテクチャ(及びその変異形)を提案する。 Thus, including both early MO-based devices and the improved devices disclosed herein, the present disclosure is directed to a pixel signal processing (or, similarly, PIC, sensor, or telecom signal processing) stage. We propose a telecommunications type or telecommunications structured pixel signal processing system of the following process flow, and thus an architecture (and variants thereof) characterized by the system of the present disclosure.
本明細書に記載する実施形態のいずれも、単独で又は互いに共にあらゆる組み合わせで使用され得る。本明細書内に包含される発明は、本概要において又は要約において部分的にのみ言及もしくは示唆され、又はまったく言及もしくは示唆されていない実施形態も含み得る。本発明の多様な実施形態は、従来技術の多様な欠点を動機付けとしているかもしれないが(かかる欠点について、本明細書の1か所以上の場所で検討され又は示唆されるかもしれない)、本発明の実施形態は、必ずしもこれらの欠点のいずれかに取り組むものではない。言い換えると、本発明の異なる実施形態は、本明細書で検討され得る異なる欠点に取り組み得る。本明細書で検討され得るいくつかの欠点又はただ1つの欠点のみに部分的に取り組む実施形態もあれば、これらの欠点のいずれにも取り組まない実施形態もあり得る。 Any of the embodiments described herein may be used alone or in any combination with each other. The inventions included herein may also include embodiments that are only mentioned or suggested, or not at all, in this summary or in the abstract. The various embodiments of the present invention may be motivated by the various shortcomings of the prior art (which may be discussed or suggested at one or more locations herein). Embodiments of the present invention do not necessarily address any of these drawbacks. In other words, different embodiments of the present invention may address different drawbacks that may be discussed herein. Some embodiments may only partially address some or only one shortcoming that may be discussed herein, and some may not address any of these shortcoming.
本発明のその他の特長、メリット、及び利点は、明細書、図面及び請求の範囲を含む本開示を精査することで明らかになるであろう Other features, benefits, and advantages of the present invention will become apparent upon review of the present disclosure, including the specification, drawings and claims.
添付の図面(これらの図面における同様の符号は別個の図面に亘って同一又は機能的に類似の要素を指し、かつ本明細書に組み込まれて本明細書の一部を形成する図面である)は、本発明をさらに示し、本発明の詳細な説明と共に、本発明の原理を説明するのに役立つ。 BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings (like reference numerals in these drawings refer to the same or functionally similar elements throughout the different views, and are drawings that are incorporated herein and form a part of this specification) The foregoing will further illustrate the invention and, together with the detailed description thereof, serve to explain the principles of the invention.
本発明の実施形態は、人間視覚システムに対する又は非表示データアレイ出力機能性に対する取り込み、配信、組織化、送信、記憶、及び提示のプロセスの非最適化操作ステージの損なわれた機能性から装置及びシステムデザインを解放する態様で、かつその代わりに、各ステージにとって最も適する装置の最適化機能を可能にする操作ステージへと、ピクセル信号処理及びアレイ信号処理ステージを分解する態様で、上記プロセスを新たに想像するためのシステム及び方法を提供するものであり、これは実際には、これらの装置及びプロセスが最も効率的に作動する周波数で装置を設計かつ操作し、そしてより効率的な全光信号処理(ローカルと長距離の両方)をさらに可能にする正味の効果とともに、かかる「便宜的周波数」の間を行き来するように、効率的な周波数/波長変調/シフトステージに取り組むことを意味する。以下の説明は、当業者が本発明を製造かつ使用することが可能になるように提示され、かつ特許出願及びその要件の文脈において提供される。 Embodiments of the present invention are devices and methods from the impaired functionality of the non-optimized operation stages of the capture, delivery, organization, transmission, storage, and presentation processes for human vision systems or for non-display data array output functionality. In the manner of releasing the system design, and in the alternative, the above process is renewed in the manner of decomposing the pixel signal processing and array signal processing stages into operation stages that enable the optimization function of the device most suitable for each stage. Provide a system and method for imagining which, in practice, design and operate the devices at the frequency at which these devices and processes operate most efficiently, and a more efficient all-optical signal. Going between such "conventional frequencies" with the net effect of further enabling processing (both local and long distance) As to means to address the efficient frequency / wavelength modulation / shift stage. The following description is presented to enable any person skilled in the art to make and use the invention, and is provided in the context of a patent application and its requirements.
本明細書に記載される好適実施形態と一般的原則及び特長への多様な修正が、当業者には容易に明らかとなるであろう。よって本発明は、示される実施の形態に制限されることを意図されたものではなく、本明細書に記載の原則及び特長に一致する最も広い範囲が与えられることが意図されたものである。 Various modifications to the preferred embodiments and the general principles and features described herein will be readily apparent to those skilled in the art. Thus, the present invention is not intended to be limited to the embodiments shown, but is to be accorded the widest scope consistent with the principles and features described herein.
定義 Definition
別段の定義がなされない限り、本明細書で使用されるすべての用語(技術用語及び科学用語を含む)は、この一般的発明概念が所属する分野の当業者によって一般的に理解されるのと同じ意味を有する。さらに、一般的に使用される辞書で定義される用語などの用語は、該当技術分野及び本開示の文脈上でのその用語の意味に一致する意味を有するとして解釈されるべきであること、及び本明細書において明示的に定義されない限り、理想化されたか又は過度に形式張った意味では解釈されないことが理解される。 Unless otherwise defined, all terms (including technical and scientific terms) used herein are generally understood by one of ordinary skill in the art to which this general inventive concept belongs. It has the same meaning. Furthermore, terms such as those defined in commonly used dictionaries should be construed as having a meaning consistent with the meaning in the relevant technical field and context of this disclosure, and It is understood that unless explicitly defined herein, it is not to be interpreted in an idealized or overly formal sense.
本発明のいくつかの実施形態に関して記載される態様のいくつかに、以下の定義が適用する。これらの定義は同様に本明細書においてさらに詳しく述べられ得る。 The following definitions apply to some of the aspects described in relation to some embodiments of the present invention. These definitions may be described in more detail herein as well.
本明細書上、「又は」という用語は「及び/又は」を含み、かつ「及び/又は」という用語は、関連して列記される項目のうちの1つ以上のあらゆる組み合わせを含む。「〜のうちの少なくとも1つ」などの表現が、複数の要素のリストの後に来る場合、当該要素のリスト全体を修飾し、当該リストの個々の要素を修飾するものではない。 As used herein, the term "or" includes "and / or" and the term "and / or" includes any and all combinations of one or more of the associated listed items. When an expression such as "at least one of" follows a list of a plurality of elements, it does not qualify the entire list of the elements and does not qualify individual elements of the list.
本明細書上、単数の用語「a」、「an」、及び「the」は、文脈上別段の明確な指示がなされていなければ、複数の指示対象を含む。よって、例えば、文脈上別段の明確な指示がなされていなければ、ある単数のオブジェクトへの言及は、複数のオブジェクトを含み得る。 As used herein, the singular terms "a", "an" and "the" include plural referents unless the context clearly dictates otherwise. Thus, for example, reference to a singular object may encompass more than one object, unless the context clearly indicates otherwise.
また、本明細書の説明においてかつその後の請求項に亘って使用されている通り、「〜における(in)」の意味は、文脈上別段の明確な指示がなされていない限り、「〜の中に(in)」と「〜上に(on)」を含む。ある要素が他の要素の「上に」あるとして言及された場合、当該要素は他の要素の直接上にあるか又は両要素の間に介在する要素が存在する可能性があることが理解されるであろう。一方、ある要素が別の要素の「直接上に」あるとして言及される場合、両要素の間には介在する要素は一切ない。 Also, as used herein in the description and throughout the claims, the meaning of "in" is intended to mean "within" unless the context clearly dictates otherwise. Including (in) and "on". Where an element is referred to as being "on" the other element, it is understood that the element may be directly on the other or there may be intervening elements present between the elements. It will On the other hand, when an element is referred to as being "directly on" another element, there are no intervening elements between the two elements.
本明細書上、「セット」という用語は、1つ以上のオブジェクトの集まりを指す。よって、例えば、オブジェクトのセットは、単一のオブジェクト又は複数のオブジェクトを含み得る。1セットのオブジェクトも、当該セットの要素を言及し得る。1セットのオブジェクトは、同一又は異なり得る。1セットのオブジェクトが、1つ以上の共通特性をシェアし得る場合もある。 As used herein, the term "set" refers to a collection of one or more objects. Thus, for example, the set of objects may comprise a single object or a plurality of objects. A set of objects may also refer to the elements of the set. One set of objects may be the same or different. In some cases, a set of objects may share one or more common characteristics.
本明細書上、「隣接する」という用語は、近くにある又は隣にあるということを指している。隣接するオブジェクトは、互いに離れているか又は実際にもしくは直接的に互いに接触している可能性がある。隣接するオブジェクトは、互いに結合し得るか又は互いに一体化形成され得る場合もある。 As used herein, the term "adjacent" refers to near or next to. Adjacent objects may be separated from one another or may actually or directly touch each other. Adjacent objects may be coupled to one another or integrally formed with one another.
本明細書上、「接続する」、「接続された」、及び「接続している」という用語は、直接の取付又はリンクを指す。接続されたオブジェクトは、文脈が示す通り、1つの又は1セットの介在するオブジェクトを全く有しないか又は実質的に介在するオブジェクトを有しない。 As used herein, the terms "connect," "connected," and "connected" refer to a direct attachment or link. Connected objects, as the context indicates, have no or substantially no intervening objects in one or a set of intervening objects.
本明細書上、「結合する」、「結合された」、及び「結合している」という用語は、作動接続又はリンクを指す。結合されたオブジェクトは、互いに直接接続され得るか、又は介在するセットのオブジェクトを介してなどで互いに間接的に接続され得る。 As used herein, the terms "coupled," "coupled," and "coupled" refer to an operative connection or link. The combined objects may be connected directly to each other or indirectly to each other, such as through an intervening set of objects.
本明細書上、「実質的に」及び「実質的」という用語は、かなりの程度又は範囲を指す。ある事象又は状況と共に使用された場合、この用語は、当該事象又は状況がまさに発生した事例や、当該事象又は状況がおおよそ発生しそうな事例(本明細書に記載の実施形態の典型的許容レベル又は可変性を説明するなど)を指し得る。 As used herein, the terms "substantially" and "substantially" refer to a significant degree or range. When used in conjunction with an event or situation, the term refers to the case where the event or situation has just occurred, or the case where the event or situation is likely to occur (typical acceptable levels of the embodiments described herein or To explain variability etc.).
本明細書上、「オプションの」及び「オプションで」という用語は、その後に説明する事象又は状況が発生するかもしれないし又は発生しないかもしれないということ、そしてその説明が、当該事象又は状況が発生する事例と、当該事象又は状況が発生しない事例とを含むことを意味する。 As used herein, the terms "optional" and "optionally" mean that the event or condition described below may or may not occur, and that the description indicates that the event or condition It is meant to include cases that occur and cases in which the event or situation does not occur.
本明細書上、「機能素子」という用語は、エネルギー提供構造からエネルギーを受け取る減勢構造を広義に意味する。機能素子という用語は、一方向構造と双方向構造を包含する。機能素子が、ディスプレイの構成要素又は要素であり得る実施態様もある。 As used herein, the term "functional element" broadly refers to a decelerating structure that receives energy from the energy providing structure. The term functional element encompasses unidirectional structures and bidirectional structures. In some embodiments, the functional element may be a component or element of a display.
本明細書上、「表示」「ディスプレイ」という用語は、表示組成要素を作成するための構造又は方法を広義に意味する。表示構成要素は、表示画像プリミティブプリカーサから作成された処理済み画像組成信号から作成された表示画像構成要素の集まりである。この画像プリミティブプリカーサは、他の文脈では、ピクセル又はサブピクセルと呼ばれることもあった。残念なことに、「ピクセル」という用語は、ピクセル/サブピクセルからの出力や、表示画像の構成要素を含む、多くの異なる意味を発展させてきた。本発明のいくつかの実施形態は、これらの要素を分離して、追加の中間構造及び要素(その一部は独立した処理用)を形成する実施態様を含み、これはさらに、これらすべての要素/構造をピクセルと呼ぶことによって混乱が生じ得るので、特定の構成要素/要素を明確に言及するために、本明細書では多様な用語が使用される。画像組成信号から表示画像プリミティブのセットを作成するために、中間処理システムによって受信され得る画像組成信号を放出する。意図された視聴条件において人間視覚システムに提示された際に(ディスプレイを通しての直視で又は投影システムによって投影されて)、画像を作成する表示画像プリミティブの集まり。この文脈での信号とは、表示画像プリミティブプリカーサである、又はこれに相当する、信号発生器の出力を意味する。重要なことは、処理が望まれる限り、これらの信号は、自由空間に送信されることなしに、多様な信号保存伝搬チャネル内の信号として保存され、当該自由空間では、信号は、他のソースからの他の拡張波面(これもまた自由空間内を伝搬している)と結合する拡張波面を生み出す。信号は掌性を有さず、かつ鏡像を有さない(つなり、逆転した、上下逆の、又は反転した信号はないが、画像及び画像部分は異なる鏡像を有する)。さらに、画像部分は直接追加されるものではなく(ある画像部分を別の画像部分に重ねることは、結果を予測するのは(それが仮に可能であっても)難しい)、かつ画像部分を処理するのは非常に困難であり得る。信号発生器として使用され得る多くの異なるテクノロジーがあり、異なるテクノロジーは、異なる特徴又はメリット、そして異なる欠点を有する信号を提供する。本発明のいくつかの実施形態は、特定のテクノロジーの欠点を最小限に抑えつつ、複数のテクノロジーの組み合わせから利点を取り入れ得るハイブリッドアセンブリ/システムを可能にする。組み込まれた米国特許出願第12/371,461号は、このようなテクノロジーを有利に組み合わせることができるシステム及び方法を記載し、よって、表示画像プリミティブプリカーサという用語は、ピクセル技術のためのピクセル構造及びサブピクセル技術のためのサブピクセル構造をカバーする。 As used herein, the terms "display" and "display" refer broadly to structures or methods for making display composition elements. The display component is a collection of display image components created from the processed image composition signal created from the display image primitive precursor. This image primitive precursor may also be referred to as a pixel or sub-pixel in other contexts. Unfortunately, the term "pixel" has developed a number of different meanings, including output from pixels / sub-pixels and components of the displayed image. Some embodiments of the invention include embodiments that separate these elements to form additional intermediate structures and elements (some of which are for independent processing), which further include all these elements. As confusion can be caused by calling the structure / pixel as a pixel, various terms are used herein to specifically refer to particular components / elements. An image composition signal is emitted that may be received by the intermediate processing system to create a set of display image primitives from the image composition signal. A collection of display image primitives that create an image when presented to a human vision system (in direct view through a display or projected by a projection system) under intended viewing conditions. A signal in this context means the output of a signal generator which is or corresponds to a display image primitive precursor. Importantly, as long as processing is desired, these signals are stored as signals in various signal storage propagation channels without being sent to free space, in which the signals may be transmitted to other sources. Create an extended wavefront that combines with the other extended wavefronts (which are also propagating in free space). The signal has no handedness and no mirror image (that is, there is no signal that is inverted, upside down, upside down, or inverted, but the image and image portions have different mirror images). In addition, image parts are not added directly (it is difficult to predict the result (it would be difficult if it were possible to overlay one image part on another image part)) and to process the image part It can be very difficult to do. There are many different technologies that can be used as signal generators, and different technologies provide signals with different features or benefits, and different drawbacks. Some embodiments of the present invention enable hybrid assemblies / systems that can take advantage of combinations of multiple technologies while minimizing the disadvantages of certain technologies. The incorporated US patent application Ser. No. 12 / 371,461 describes systems and methods that can advantageously combine such technologies, thus the term display image primitive precursor is a pixel structure for pixel technology. And sub-pixel structures for sub-pixel technology.
本明細書上、「信号」という用語は、信号が生成される時点での信号発生器の状態についての情報を伝える、表示画像プリミティブプリカーサなどの信号発生器からの出力を指す。撮像システムでは、各信号は、意図された条件で人間視覚システムによって認知された際に、画像又は画像部分を生み出す表示画像プリミティブの一部である。この意味で、信号とは体系化されたメッセージであり、つまり、メッセージを符号化する通信路における表示画像プリミティブの状態のシーケンスである。表示画像プリミティブプリカーサのセットプリカーサからの同期信号の集まりは、画像のフレーム(又はフレームの一部)を定義し得る。各信号は、1つ以上のその他の信号からの1つ以上の特徴と組み合わせられる得る特徴(色、周波数、振幅、タイミング、但し、掌性ではない)を有し得る。 As used herein, the term "signal" refers to the output from a signal generator, such as a display image primitive precursor, which conveys information about the state of the signal generator at the time the signal is generated. In an imaging system, each signal is part of a display image primitive that produces an image or image portion when recognized by the human vision system in the intended conditions. In this sense, a signal is a codified message, that is, a sequence of states of display image primitives in a channel that encodes the message. A collection of synchronization signals from a set precursor of display image primitive precursors may define a frame (or a portion of a frame) of the image. Each signal may have features (color, frequency, amplitude, timing, but not handedness) that may be combined with one or more features from one or more other signals.
本明細書上、「人間視覚システム」(HVS)という用語は、複数の個別の表示画像プリミティブ(直視又は投影されたもののいずれか)からの画像の認知及び可視化を伴う生物学的及び心理的プロセスを指す。よって、HVSとは、表示画像プリミティブの伝搬と、受信されて処理されたこれらのプリミティブに基づいて画像の概念の形成との合成物を受信する際の人間の目、視神経及び人間の脳を含意する。HVSはどの人にとっても正確に同一ではなく、人工のかなりのパーセンテージについて一般的な類似性がある。 As used herein, the term "human vision system" (HVS) is a biological and psychological process that involves the recognition and visualization of an image from a plurality of discrete display image primitives, either directly or projected. Point to Thus, HVS implies the human eye, optic nerve and human brain in receiving a composite of display image primitive propagation and formation of an image concept based on these primitives received and processed. Do. The HVS is not exactly the same for every person, and there is a general similarity of a significant percentage of the artificial.
図1は、本発明の実施形態を実施するために使用され得る撮像アーキテクチャ100を示す。本発明のいくつかの実施形態は、信号生成構造の大きなセットからの、人間視覚システム(HVS)を用いた人間知覚可能画像の形成が、アーキテクチャ100を含むことを企図している。アーキテクチャ100は、複数の表示画像プリミティブプリカーサ(DIPP)110i、i=1〜N(Nは1以上数十、数百、数千のDIPPまでのあらゆる整数であり得る)を含む画像エンジン105を含む。各DIPP110iは、複数の画像組成信号115i、i =1〜N(各DIPP110iからの個々の画像組成信号115i)を生成するために適切に操作されかつ変調される。これらの画像組成信号115iは処理されて、複数の表示画像プリミティブ(DIP)120j、j =1〜M(MはNよりも小さい、等しいか、又は大きい整数)を形成する。HVSによって認知された時に表示画像125(又は例えばアニメーション/モーションエフェクトのための一連の表示画像)を形成するDIP120jの集約/集まり(同一空間及び断面積に占める1つ以上の画像組成信号115i)。HVSは、ディスプレイ上のアレイや、スクリーン、壁又はその他の表面上の投影画像など、適切なフォーマットで提示された場合に、DIP120j から表示画像125を再構築する。これは、ビューアー(及びHVS)への距離に関連して十分に小さい、異なる色を付けた又はグレースケールシェーディングの小さい形状(「点」など)のアレイからの画像を認知するHVSの馴染みのある現象である。よって、表示画像プリミティブプリカーサ110iは、非合成色システムから画像組成信号を生成する装置を言及する際に一般的に「ピクセル」と言われる構造に対応し、よって、合成色システムから画像組成信号を生成する装置を言及する際に一般的に「サブピクセル」と言われる構造に対応するであろう。多くの馴染みのあるシステムが、各RGB要素(例えば、LCDセル等)から一つの画像組成信号となる、RGB画像組成信号などの合成色システムを採用している。残念ながら、ピクセル及びサブピクセルという用語は、撮像システムにおいて、ハードウェア LCDセル(サブピクセル)、セル(サブピクセル)から放射される光、そしてHVSによって認知される際の信号(一般的に、このようなサブピクセルは混ぜ合わせられ、かつ視聴が意図された条件セットにおいてユーザにとって感知不能であるように構成される)などの多くの異なる概念に言及するために使用されている。アーキテクチャ100は、多様な「ピクセル又はサブピクセル」の区別をし、よって、異なる組成要素に言及する際に異なる用語が採用される。
FIG. 1 shows an
アーキテクチャ100は、画像エンジン105が1つ以上のサブセットのDIPP110用の異なるテクノロジーを含む、ハイブリッド構造を含み得る。つまり、第1サブセットのDIPPは、第1のサブセットの画像組成信号を作成するために、第1の色テクノロジー(例えば、混合色テクノロジー)を使用してよく、そして第2のサブセットのDIPPは、第2のサブセットの画像組成信号を作成するために、第1の色テクノロジーとは異なる第2の色テクノロジー(例えば、異なる混合色テクノロジー又は非合成色テクノロジー)を使用してよい。これにより、表示画像プリミティブのセットを作成するための多様な技術と、表示画像125との組み合わせの使用を可能にし、これはいずれかの一つのテクノロジーから作成される場合よりも優れたものになり得る。
アーキテクチャ100はさらに、入力として画像組成信号115iを受け付け、かつ出力として表示画像プリミティブ120j を作成する信号処理マトリックス130を含む。本発明のある実施形態のうちの特定の実施態様の適合及び目的に応じて、マトリックス130の多くの可能な配置がある(単一次元のアレイを含む実施形態もある)。概して、マトリックス130は、複数の信号チャネル(例えばチャネル135〜チャネル160)を含む。マトリックス130の各チャネルについて多くの異なる可能な配置がある。各チャネルは、個別の光ファイバーチャネルから生じる光学的分離などのように、他のチャネルから十分に分離されるので、一つのチャネル内の信号は、当該実施態様/実施形態のためのクロストーク閾値を超えて他の信号を干渉しない。各チャネルは、1つ以上の入力及び1つ以上の出力を含む。各入力は、DIPP110から画像組成信号115を受信する。各出力は、表示画像プリミティブ120を作成する。入力から出力まで、各チャネルは純粋な信号情報を向け、そしてあるチャネルでのいずれのポイントでの当該純粋な信号情報は、オリジナルの画像組成信号115と、1つ以上の処理済みのオリジナルの画像組成信号のセットの離解と、及び/又は1つ以上の処理済みのオリジナルの画像組成信号のセットの集約とを含んでよく、各「処理」は1つ以上の信号の1つ以上の集約又は離解を含んでいたかもしれない。
この文脈において、集約とは、SA数(SA>1)のチャネル(これらの集約された信号それ自体が、オリジナルの画像組成信号、処理済みの信号、又は組み合わせであり得る)から、TA数(1≦TA<SA)のチャネルへの結合信号を指し、離解とは、信号チャネルSD 数(SD≧1)のチャネル(これ自体、オリジナルの画像組成信号、処理済みの信号、又は組み合わせであり得る)からのTD数(SD <TD)のチャネルへの信号分割を指す。SAは、集約がまったく無く早期に離解するなどにより、Nを上回り得るもので、SD は、後続の集約によりMを上回り得る。SA=2、SD =1及びTD =2となる実施形態もある。しかしながら、アーキテクチャ100は、多くの信号が集約されることを可能にし、これにより十分に強い信号を作成することができ、その強い信号は、多くのチャネルへと離解され得るもので、各チャネルは実施態様で使用するために十分な強さとなる。信号の集約は、チャネル又は隣接するチャネルのその他の配置の集約(例えば、接合、融合、結合など)の後に続いて、当該隣接するチャネルによって伝搬された信号の接合、融合、結合などを可能にし、信号の離解は、チャネル又はその他のチャネル配置の離解(例えば、分岐、分離、分割など)に続いて、当該チャネルによって伝搬された信号の分岐、分離、分割などを可能にする。マトリックス130を通して伝搬するコンテンツの信号状態を保存しつつ、多数のチャネルに2つ以上の信号を集約するための(又は1つのチャネル内の1つの信号を多数のチャネルの多数の信号に離解するための)チャネルの特定の構造又は要素がある実施形態もある。
In this context, aggregation refers to the number of S A (S A > 1) channels (these aggregated signals may themselves be the original image composition signals, processed signals, or a combination) T A coupled signal to a channel with A number (1 ≦ T A <S A ), and disaggregation is a channel with signal channel S D number (S D 11) (it is itself the original image composition signal, processed It refers to the division of signals into T D numbers (S D <T D ) from channels, which may be signals or combinations. S A may be greater than N, such as with early deaggregation without any aggregation, and S D may be greater than M with subsequent aggregation. In some embodiments, S A = 2, S D = 1 and T D = 2. However, the
図1に示される多くの代表的信号チャネルがある。チャネル135は、単一の入力と単一の入力を有するチャネルを示している。チャネル135は、単一のオリジナルの画像組成信号115kを受信し、かつ単一の表示画像プリミティブ120kを作成する。これは、チャネル135が何も処理を行わないということを言っているのではない。例えば、この処理は、物理的特徴の変換を含み得る。チャネル135の入力の物理的サイズディメンションは、画像組成信号115kを作成するその対応する/関連DIPP110のアクティブ領域と一致する/補うようになされている。出力の物理的サイズは、入力の物理的サイズディメンションに一致することは必要とされていない。つまり、出力は比較的先細り又は拡張されたりしてもよく、又は円周入力は直線周辺出力になってもよい。その他の変換は、信号の再位置決めを含み、その一方で、画像組成信号115iは、画像組成信号1152の付近でスタートし、チャネル135によって作成された表示画像プリミティブ1201は、前に「リモート」だった画像組成信号115xから作成された表示画像プリミティブ120x の隣に位置付けられ得る。これにより、その作成に使用されたテクノロジーから分離された信号/プリミティブをインターリーブする際の大きな柔軟性を可能にする。この個々の又は集合的な物理的変換の可能性は、マトリックス130の各チャネルについてのオプションである。
There are many representative signal channels shown in FIG.
チャネル140は、一対の入力と単一の出力(当該一対の入力を集約する)を有するチャネルを示している。チャネル140は、2つのオリジナルの画像組成信号、例えば信号1153及び信号1154 を受信し、例えば単一の表示画像プリミティブ1202を作成する。チャネル140は、プリミティブ1202がいずれかの組成信号よりも大きい振幅を有するように、2つの振幅が追加されることを可能にする。チャネル140はまた、組成信号をインターリーブする/多重化することによって改良されたタイミングを可能にし、各組成信号は、30Hzで作動し得るが、結果として生じるプリミティブは、例えば60Hzで作動され得る。
Channel 140 shows a channel having a pair of inputs and a single output (aggregating the pair of inputs). Channel 140, two original images composition signal, to receive, for example, signals 115 3 and the
チャネル145は、単一の入力と一対の出力(当該入力を離解する)を有するチャネルを示している。チャネル140は、単一のオリジナルの画像組成信号、例えば信号1155を受信し、一対の表示画像プリミティブ、つまりプリミティブ1203及びプリミティブ1204を作成する。チャネル145は、離解された信号の特徴の多く(おそらく振幅を除く)を有する2つの並列チャネルに分岐されるなどして、単一の信号が再形成されることを可能にする。上述の通り振幅が望ましくない場合、振幅は集約によって増大されてよく、そして離解は、図1に示される代表的チャネルのうちのその他のチャネルで実証されている通り、結果として十分に強い信号を生じさせることができる。
チャネル150は、3つの入力と単一の出力を有するチャネルを示している。チャネル150は、仮想的にあらゆる数の独立した入力も、例えば単一のプリミティブ120の作成用の単一のチャネルにおいて処理済みの信号に集約し得ることを強調するために、含まれている。
チャネル155は、単一の入力と3つの出力を有するチャネルを示している。チャネル150は、単一のチャネル(及びその中の信号)が、仮想的にあらゆる数の、それぞれ独立しているが関連している出力及びプリミティブに離解され得ることを強調するために、含まれている。チャネル155は、別の態様でチャネル145とは異なっている。すなわち、プリミティブ120の振幅が、出力から作成されている。チャネル145では、各振幅は等しい振幅に分岐させられ得る(但し、可変振幅分岐を可能にする離解構造もある)。チャネル155では、プリミティブ1206 は、プリミティブ1207及び1208の振幅とは等しくならないかもしれない(例えば、プリミティブ1206は、プリミティブ1207及びプリミティブ1208のそれぞれの振幅の約2倍の振幅を有するかもしれず、なぜならば、すべての信号が同じノードで離解される必要はないからである)。第1の分割が、結果としてプリミティブ1206を作成する2分の1の信号をもたらし、結果として得られた2分の1の信号がさらに半分に分割されて、それぞれがプリミティブ1207及びプリミティブ1208となってよい。
チャネル160は、3つの入力の集約と、一対の出力への離解の両方を含むチャネルを示している。チャネル160は、単一のチャネルが信号の集約と信号の離解の両方を含み得ることを強調するために含まれている。よって、一つのチャネルは、必要に応じて又は望ましい場合に、集約の多数の領域と、離解の多数の領域を有し得る。
従って、マトリックス130は、集約と離解を含む処理ステージ170の物理的なかつ信号特性のマニピュレーションによる信号プロセッサである。
Thus, the
いくつかの実施形態では、マトリックス130は、数千から数百万もの多数のチャネルをまとめて画定する光ファイバーのセットのためのジャカード織りプロセスなどのように、チャネルを画定する物理構造の精密な織りプロセスによって作成され得る。
In some embodiments, the
大まかに言うと、本発明の実施形態は、プリミティブ生成システム(例えば、マトリックス130)に結合された画像生成ステージ(例えば、画像エンジン105)を含み得る。画像生成ステージは、数Nの表示画像プリミティブプリカーサ110を含む。表示画像プリミティブプリカーサ110iのそれぞれは、対応する画像組成信号115iを生成する。これらの画像組成信号115iは、プリミティブ生成システムに入力される。プリミティブ生成システムは、M個の入力チャネルを含む(MはNと等しくてもよいが、一致する必要はない。図1では、例えばいくつかの信号はマトリックス130には入力されない)入力ステージ165を含む。入力チャネルの入力は、単一の表示画像プリミティブプリカーサ110xから画像組成信号115x を受信する。図1では、各入力チャネルは入力と出力を有し、各入力チャネルは、その単一のオリジナルの画像組成信号をその入力からその出力へと向かわせ、入力ステージ165ではM個の入力とM個の出力となる。プリミティブ生成システムは、P個の配信チャネルを有する配信ステージ170も含み、各配信チャネルは入力と出力を含む。概して、M = Nであり、かつPは実施態様に応じで変動し得る。PがN未満であり、例えば、P=N/2である実施形態もある。これらの実施形態では、配信チャネルの各入力は、入力チャネルからの固有の対の出力に結合される。PがNよりも大きく、例えば P=N*2である実施形態もある。これらの実施形態では、入力チャネルの各出力は、配信チャネルの固有の対の入力に結合される。従って、プリミティブ生成システムは、表示画像プリミティブプリカーサから画像組成信号を拡大縮小するものであり、すなわち、多数の画像組成信号が配信チャネルにおいて信号として結合される場合があり、また他の場合では、単一の画像組成信号が分割されて、多数の配信チャネルに提示される。マトリックス130、入力ステージ165、及び配信ステージ170の可能なバリエーションは多くある。
Broadly speaking, embodiments of the present invention may include an image generation stage (e.g., image engine 105) coupled to a primitive generation system (e.g., matrix 130). The image generation stage includes a number N of display image
図2は、図1の撮像アーキテクチャのあるバージョンを実施する撮像システム200のある実施形態を示す。このシステム200は、好ましくは可視周波数で、より具体的には現実世界可視撮像周波数でデジタル画像プリミティブ225のセット220を作成するフォトニック信号変換器215に提供される複数の画像組成信号(赤外線/近赤外線の周波数で)などの、符号化信号のセット205を含む。
FIG. 2 illustrates an embodiment of an
図3は、図2のフォトニック信号変換器215の一般構造を示す。変換器215は、1つ以上の入力フォトニック信号を受信し、1つ以上の出力フォトニック信号を作成する。変換器215は、信号論理状態(例えば、ON/OFF)、信号色状態(赤外線から可視)、及び/又は信号強度状態などの入力フォトニック信号の多様な特徴を調節する。
FIG. 3 shows the general structure of the
図4は、フォトニックコンバータ400の特定の実施形態を示す。コンバータ405は、効率的光源405を含む。光源405は、例えば、後続のステージでの最適変調器の実行のための赤外線及び/又は近赤外線源(例えば、赤外線及び/又は近赤外線で放射するLEDアレイ)を含み得る。コンバータ400は、オプションのバルク光エネルギー源ホモジナイザ410を含む。ホモジナイザ410は、必要な場合又は望ましい場合に、光源405からの光の偏光を均質化する構造を提供する。ホモジナイザ410は、能動的及び/又は受動的均質化のために配置され得る。
FIG. 4 shows a particular embodiment of photonic converter 400.
次にコンバータ400は、光源405からの光の伝搬の順番で、エンコーダ415を含む。エンコーダ415は、光源405からの光(均質化されているかもしれない)の論理的符号化を提供して、符号化信号を作成する。エンコーダ405は、ハイブリッド磁性フォトニッククリスタル(MPC)、マッハ・ツェンダー、透過バルブなどを含み得る。エンコーダ415は、画像組成信号のセットの状態を設定するために変調器のアレイ又はマトリックスを含み得る。この点に関して、個々のエンコーダ構造は、表示画像プリミティブプリカーサ(例えば、ピクセル及び/又はサブピクセル及び/又はその他の表示光エネルギー信号発生器)と同等に作動し得る。
The converter 400 then includes an
コンバータ400は、平面偏向機構(例えば、プリズムアレイ/格子構造)と組み合わせられた偏光フィルター/アナライザ(例えば、フォトニック結晶誘導体ミラー)などのオプションのフィルター420を含む。
Converter 400 includes an
コンバータ400は、フィルター420の要素によって偏向された光源405からのエネルギー(例えば、赤外線/近赤外線偏向されたエネルギー)を再度キャプチャーするオプションのエネルギーリキャプチャラ425を含む。
Converter 400 includes an
コンバータ400は、エンコーダ415から作成された符号化信号(フィルター420によってフィルタリングされているかもしれない)の波長又は周波数を変調する/シフトするアジャスタ430を含む。アジャスタ430は、蛍光物質、周期的に分極された材料、衝撃を加えられた水晶などを含み得る。) アジャスタ430は、生成され/切り替えられた赤外線/近赤外線周波数を受け、これらを1つ以上の望ましい周波数(例えば、可視周波数)に変換する。アジャスタ430は、すべての入力周波数を同一の周波数にシフトする/変調する必要はなく、また赤外線/近赤外線の異なる入力周波数を同一出力周波数にシフト/変調し得る。その他の調整も可能である。
Converter 400 includes an
コンバータ400は、例えば赤外線/近赤外線エネルギー用の第2のフィルター435をオプションで含み、また、第2のエネルギーリキャプチャラ440をオプションで含み得る。フィルター435は、平面偏向構造(例えば、プリズムアレイ/格子構造)と組み合わせられたフォトニック結晶誘導体ミラーを含み得る。
Converter 400 optionally includes, for example, a
コンバータ400は、1つ以上のパラメータを調整する(例えば、符号化され、オプションでフィルタリングされ、かつ周波数シフトされた信号の信号振幅を増大させるなど)ためのオプションの増幅器/利得調整445も含み得る。その他の又は追加の信号パラメータが、調整445によって調整され得る。
Converter 400 may also include an optional amplifier /
図5は、ハイブリッドフォトニックVR/ARシステム505のための一般化アーキテクチャ500を示す。アーキテクチャ500は、周囲の現実世界合成電磁波面にシステム505を晒し、かつ人間視覚システム(HVS)用の表示画像プリミティブのセット510を作成する。表示画像プリミティブのセット510は、現実世界(ARモード)からの情報を含み、もしくは当該情報を使用し得るもので、又はこの表示画像プリミティブのセットは、合成世界(VRモード)によって完全に作成された情報を含み得る。システム505は、いずれかのモードで又は両方のモードで選択的に作動可能なように構成され得る。さらに、システム500は、ARモードで使用された現実世界情報の量が選択的に変更され得るように構成されてよい。システム505は堅牢性及び汎用性がある。
FIG. 5 shows a
システム505は異なる態様で実施され得る。一実施形態は、合成世界から画像組成信号を作成し、かつ現実世界から作成された画像組成信号(「現実世界信号」)で合成信号をARモードでインターリーブする。これらの信号は、分離された光チャネルの信号処理マトリックスを用いて、組み込まれた特許出願第12/371,461号に記載されている通り、チャネル化され、処理され、かつ配信され得る。システム505は、配信、集約、離解、及び/又は 物理的特徴の形成に加えて、多様な受動的及び能動的信号マニピュレーション構造を組み込み得る信号処理マトリックスを含む。
これらの信号マニピュレーション構造は、システム505の特定の配置及び設計の目標に基づいて変化することもあり得る。例えば、これらのマニピュレーション構造は、現実世界インターフェース515、オーグメンタ520、ビジュアライザ525、及び/又は出力コンストラクタ530を含み得る。
These signal manipulation structures may also change based on the goals of the particular arrangement and design of
インターフェース515は、現実世界の複雑合成電磁波面を、チャネル化され、配信されて、オーグメンタ520に提示される現実世界画像組成信号535のセットに変換する際の画像プリミティブプリカーサの機能と同様の機能を含む。
本明細書に記載する通り、システム505はかなり汎用性があり、多くの異なる実施形態がある。マニピュレーション構造の特徴及び機能は、広範囲の考慮及び設計目標によって影響を受け得る。これらすべてを本明細書において明確に詳細を記載することはできないが、いくつかの代表的実施形態が示される。組み込まれる特許出願及び本明細書に記載される通り、それぞれのテクノロジーが、DIPのセット510の作成の一部について特に有利であり得る、複数のテクノロジーの組み合わせ(例えば、ハイブリッド)を用いて、作成のすべての部分について単一のテクノロジーに依存するよりも優れた全体的結果をもたらすようにするために、アーキテクチャ500は有効とされる。
As described herein,
例えば、現実世界の複雑合成電磁波面は、可視波長と不可視波長の両方を含む。DIPのセット510は可視波長も含むため、信号535も同様に可視でなければならないと考えられるかもしれない。本明細書で説明する通り、信号535が可視スペクトル内である場合に、すべての実施形態が優れた結果を達成できるわけではない。
For example, the complex synthetic electromagnetic wave surface of the real world includes both visible and invisible wavelengths. Since the set of
システム505は、可視信号535を含む使用のために構成され得る。可視ではない波長を使用する信号535をHVSに提供するいくつかの実施形態には利点がある。本明細書上、電磁スペクトルが関連する範囲を以下に定める。
a)可視放射線(光)とは、HVSによって検知されかつ可視光として認知される、380nm〜760nm(400〜790テラヘルツ)の波長を有する電磁放射線である。 a) Visible radiation (light) is electromagnetic radiation having a wavelength of 380 nm to 760 nm (400 to 790 terahertz) that is detected by HVS and recognized as visible light.
b)赤外(IR)放射線とは、1mm〜760nm(300GHz〜400THz)の波長を有する不可視の(HVSにとって)電磁放射線であって、かつ遠赤外線(1mm〜10μm)、中赤外線(10〜2.5μm)、及び近赤外線(2.5 μm〜750nm)を含む。 b) Infrared (IR) radiation is invisible (for HVS) electromagnetic radiation having a wavelength of 1 mm to 760 nm (300 GHz to 400 THz) and is far infrared (1 mm to 10 μm), mid infrared (10 to 2) .5 μm) and near infrared (2.5 μm to 750 nm).
c)紫外(UV)放射線は、380nm〜10nm(790THz〜30PHz)の波長を有する不可視(HVSにとって)電磁放射線である。 c) Ultraviolet (UV) radiation is invisible (for HVS) electromagnetic radiation having a wavelength of 380 nm to 10 nm (790 THz to 30 PHz).
不可視現実世界信号実施形態のインターフェース515は、赤外線/近赤外線スペクトルの信号535を作成する。いくつかの実施形態においては、不可視信号535は、可視スペクトルの波長の特定の波長又は帯域を、赤外線スペクトルの波長の事前に決められた特定の波長又は帯域にマッピングするスペクトルマップを使用して作成されることが望ましい。このことは、信号535が赤外線波長としてシステム505内で効率的に処理されることを可能にするという利点をもたらし、かつシステム505が信号535を現実世界の色に復元することを可能にするという利点を含む。
Interface 515 of the invisible real world signal embodiment produces a
インターフェース515は、受信した現実世界の放射線から赤外線及び/又はUV成分を取り除くためのフィルターなどのその他の機能的及び/又は構造的要素を含み得る。赤外線を使用する暗視モード用などのいくつかのアプリケーションでは、インターフェース515は、赤外線フィルターを除外し、又は受信した現実世界放射線のうちの赤外線の一部がサンプリングされ処理されることを可能にする赤外線フィルターを有する。
インターフェース515は、フィルタリングされて受信した現実世界放射線を、処理済みの現実世界画像組成信号のマトリックス(表示画像プリミティブプリカーサのマトリックスと同様である)に変換するための現実世界サンプリング構造を含み、これらの処理済みの現実世界画像組成信号は、信号配信及び処理マトリックスにチャネル化される。
信号配信及び処理マトリックスは、赤外線スペクトル(望ましい場合)に処理済みの現実世界画像組成信号を提供するための周波数/波長変換構造も含み得る。システム505で後にどの追加信号操作が行われるか、そしてどの符号化/切替えテクノロジーが実施されるかに応じて、インターフェース515は、フィルタリングされた現実世界画像組成信号の選択された特徴について、例えば偏光フィルタリング機能(例えば、赤外線/UVフィルタリングされた現実世界画像組成信号の偏光フィルタリング、又は偏光フィルターし、ソートし、かつ偏光均質化するなど)を含む前処理をしてもよい。
The signal distribution and processing matrix may also include frequency / wavelength conversion structures to provide processed real world image composition signals in the infrared spectrum (if desired). Depending on which additional signal operations are to be performed later in the
例えば、偏光に基づいて信号振幅を修正するための構造又はプロセスを含むシステム505では、インターフェース515は信号535を適切に準備し得る。最高値でのデフォルト信号振幅(例えば、デフォルト「ON」)を有するのが望ましい実施態様もあるが、その他の実施態様では、最低値のデフォルト信号振幅(例えば、デフォルト「OFF」)を有するのが望ましいかもしれず、かつその他の実施態様では、異なる条件でデフォルトを提供し、かつすべてがデフォルトON又はデフォルトOFFとするのではない、いくつかの信号チャネルを有し得る。信号535の偏光状態(可視か否か)の設定は、インターフェース515の一つの役割である。すべての信号535又は信号535の選択されたサブセットについてのその他の信号特性は、設計目標、テクノロジー、及び実施の詳細によって決められる通りに、インターフェース515によって設定されてもよい。
For example, in a
現実世界のチャネル化された画像組成信号535はオーグメンタ520に入力される。オーグメンタ520は、さらなる信号処理のためのシステム505における特別な構造である。この信号処理は、信号535について作動する多機能であってよく、これらの一部又はすべては、いかにオーグメンタ520がこれらについて作動するかに基づいて「パススルー」信号と見なされ得る。これらの多数の機能は、a)例えば、各個々の現実世界画像組成信号の独立した振幅制御、周波数/波長の設定/修正、及び/又は論理状態など、信号535のマニピュレーション、b)望ましい特徴を有する独立した合成世界画像組成信号のセットの作成、そしてc)「パススルーされた」現実世界画像組成信号の一部又はすべてと、作成された合成世界画像組成信号のセットとを、望ましい比率でインターリーブして、インターリーブされた画像組成信号540のセットを作成することを含み得る。
The real world channelized
オーグメンタ520は、受信された画像組成信号(例えば、現実世界)のプロセッサに加えて合成世界画像組成信号のセットの生成器である。システム505は、すべての信号がオーグメンタ520によって処理されるように構成される。オーグメンタ520を実施するためには多くの異なる方法があり得るが、例えば、オーグメンタ520が複数の放射線を弁調整するゲートを画定する(各ゲートは1つの信号に関連する)多層光学素子複合体である場合、可能なパススルーのために構成されたいくつかのゲートは個別に、制御可能なパススルーのための現実世界信号のいくつかを受信し、かつ合成世界信号の作成のために構成されたいくつかのゲートは、合成世界画像組成信号の作成のために、パススルー信号から分離されたバッググラウンド放射線を受信する。よって、このような実施態様での合成世界を作成するこれらのゲートは、バッググラウンド放射線から合成世界信号を創出する。
図示されているように、アーキテクチャ500は、選択的かつ制御可能に処理されかつ融合された表示画像プリミティブプリカーサの多数の(例えば2つの)独立したセットを含む。インターフェース515は、表示画像プリミティブプリカーサの1つのセットとして機能し、オーグメンタ520は、表示画像プリミティブプリカーサの第2のセットとして機能する。この第1のセットは、現実世界から画像組成信号を作成し、第2のセットは、合成世界から画像組成信号を作成する。特に、アーキテクチャ500は、システム505において表示画像プリミティブプリカーサの追加のセット(合計で3つ以上の表示画像プリミティブプリカーサとなるように、1つ以上)が利用可能となる事を可能にし、システム505は、画像組成信号の追加のチャネル化されたセットが、処理のためにオーグメンタ520によって利用可能とするようにできる。
As shown, the
アーキテクチャ500を考慮する1つの方法として、オーグメンタ520は、インターリーブされた信号540を作成する表示画像プリミティブプリカーサのマスターセットを定義し、ここでインターリーブされた信号のうち、最初に表示画像プリカーサの1つ以上の予備セットによって作成されるものもあるし(例えば、インターフェース515が現実世界画像組成信号を作成する)、オーグメンタ520によって直接作成されるものもある。アーキテクチャ500は、すべての表示画像プリミティブプリカーサが同一の又は補足的なテクノロジーを用いることを必要とはしていない。整理されかつ事前に決められたフォーマットで(例えば、独立したチャネルで、かつオーグメンタ520による信号振幅変調などの信号マニピュレーションと互換性のある共通の周波数範囲で)すべての組成信号を提供することによって、アーキテクチャ500は、最新のAR/VRシステムの短所、制限及び欠点の範囲のうちの1つ以上について、強力で堅牢かつ汎用性があるソリューションを提供し得る。
As one way to consider
本明細書に記載される通り、チャネル化された信号処理及び配信配置は、信号がシステム505を通して伝搬する際に、個々の画像組成信号を集約し、離解し、かつ/又はその他の方法で処理し得る。この結果、信号540における信号チャネルの数は、パススルー信号の数と、生成された信号の数との合計とは異なるかもしれない。オーグメンタ520は、現実世界パススルー信号の第1の量と、合成信号の第2の量とをインターリーブする(システム505の純VRモードでは、第1の量はゼロである)。この文脈においてインターリーブされたとは、大雑把に言うと、両方のタイプの信号が存在していることを含み、合成世界信号を含む別のチャネルに物理的に隣接するチャネルに各現実世界パススルー信号が存在することを必要とすることは意図されていない。ルート決定は、システム505のチャネル配信特性により独立して制御可能である。
As described herein, channelized signal processing and distribution arrangements aggregate, separate and / or otherwise process individual image composition signals as the signals propagate through
ビジュアライザ525は、インターリーブされた信号520を受信し、かつ可視信号のセット545を出力する。システム505では、信号540の合成世界画像組成信号は、電磁スペクトルの不可視範囲で作成されていた(例えば、赤外線又は近赤外線)。いくつかの実施態様では、オーグメンタ520によってパススルーされた現実世界信号535の一部又はすべては、電磁スペクトルの不可視範囲に変換されていた(これもまた、重複するかもしれず、又はすべてもしくは部分的に合成世界信号の範囲に含まれるかもしれない)。ビジュアライザ525は、周波数/波長変調及び/又は不可視信号の変換を行う。信号(合成及び現実世界)が不可視の偽カラーマップを用いて定義されかつ作成された場合、周波数が修正された現実世界信号に適切な色が復元されて、現実世界の色という観点から、合成世界が可視化され得る。
The
出力コンストラクタ530は、HVSによる認知(例えば、直視によるか又は投影によるかを問わない)のために可視信号545から表示画像プリミティブのセット510を作成する。出力コンストラクタ530は、は、その他の可能な機能の中で、統合、集約、離解、チャネル再配置/位置変更、物理的特徴定義、光線形成などを含み得る。コンストラクタ530は、可視信号545のいくつか又はすべての増幅、帯域幅修正(例えば、事前に構成されたタイミング関係で信号を有する多数のチャネルの集約及び時間多重化、つまり、これらは異なる位相で作成され、かつ信号として組み合わせられて、ストリームのうちのいずれかの多くの周波数で信号のストリームを作成してよい)、及びその他の画像組成信号マニピュレーションも含み得る。180度位相差関係の2つのストリームは、各ストリームの周波数を倍にし得る。120度位相関係の3つのストリームは周波数を3倍にし、その他N=1以上に多重化されたストリームについて同様となり得る。そして互いに同一位相になる融合されたストリームは、信号振幅を増大させ得る(例えば、2つの 同相ストリームは、信号振幅などを倍にし得る)。
The
図6は、システム500の実施形態を実施するハイブリッドフォトニックVR/ARシステム600を示す。システム600は、システム600と図5のシステム505との間の対応する構造をマッピングする斜線付きのボックスを含む。
FIG. 6 shows a hybrid photonic VR /
システム600は、オプションのフィルター605、「シグナライザ」610、現実世界信号プロセッサ615、放射線源625(例えば、赤外線)によって動力供給される放射線ディフューザ620、磁性フォトニックエンコーダ630、周波数/波長変換器635、信号プロセッサ640、信号コンソリデータ645、及び出力シェーパ光学体650を含む。本明細書に記載される通り、多くの異なる実施態様及び実施形態があり、そのうちのいくつかは異なる要件の異なるテクノロジーを含む。例えば、可視スペクトル内の放射線を使用して、波長/周波数変換のための要素を必要としない実施形態もある。純粋なVR実施態様については、現実世界信号を扱う構造は必要ではない。最小限度の可視化後の統合及び形成が必要とされ又は望ましい場合がある。アーキテクチャ500は非常に柔軟で、好適なセットのテクノロジーに適合され得る。
The
フィルター605は、インターフェース515に入射する周囲の現実世界の照明から望ましくない波長を取り除く。何が望ましくないかは、アプリケーションや設計目標次第である(例えば、暗視ゴーグルは、赤外線の一部又はすべてを必要とするかもしれないが、その他のARシステムでは、UV/赤外線を取り除くことが望ましいかもしれない)。
Filter 605 removes unwanted wavelengths from ambient real world illumination incident on
シグナライザ610は、フィルタリングされて入射した現実世界放射線を現実世界画像組成信号に変換し、かつ信号ディストリビュータステージの光学的に分離されたチャネルへと個々の信号を挿入するために、表示画像プリミティブプリカーサとして機能する。これらの信号は、合成又は非合成イメージングモデルに基づき得る。
The
プロセッサ615は、現実世界パススルー画像組成信号の一部又はすべてが異なる周波数(例えば、赤外線)に変換されようとしている場合、偏光をフィルタリングし、かつ/又は偏光をフィルタリング、ソート、及び均質化する偏光構造である、波長/周波数変換器を含み得る。
ディフューザ620は、放射線源からの放射線を受け、かつエンコーダ630用のバッググラウンド放射線環境を設定して、合成世界画像組成信号を生成する。ディフューザ620は、現実世界パススルー信号チャネルから分離されたバッググラウンド放射線を維持する
エンコーダ630は、同時に現実世界パススルー信号を受信かつ処理し(例えば、これはとりわけこれらの信号を変調することができる)、合成世界信号を作成する。エンコーダ630は、現実世界からと合成世界からの信号をインターリーブし/交互にし、かつ光学的に分離されたチャネルにこれらの信号を維持する。図6では、現実世界信号は黒塗りの矢印で記され、合成世界信号は白抜きの矢印として記されて、インターリーブ/交互にすることを図示している。図6は、エンコーダ630が現実世界信号の重要な部分を拒絶する必要があると暗示することを意味しているのではない。エンコーダ630は、すべての現実世界信号及びすべての合成世界信号を処理するために多くの表示画像プリミティブプリカーサ型構造のマトリックスを含み得る。
The
変換器635が存在する場合には、これは不可視信号を可視信号に変換する。よって、変換器635は、合成世界信号、現実世界信号、又は両方を処理し得る。換言すると、この変換は、信号配信チャネルの個々のチャネルについて可能にされ得る。
If a
信号プロセッサ640が存在する場合には、これは信号振幅/利得、帯域幅、又はその他の信号修正/変調を修正し得る。
If a
信号コンソリデータ645が存在する場合には、これはビジュアライザ525からの信号を整理する(例えば、集約し、離解し、ルート決定し、グループ化し、クラスタ化し、複製するなど)。
If
出力シェーパ光学体650が存在する場合には、これはあらゆる必要な又は望ましい信号形成又はその他の信号マニピュレーションを行って、HVSが認知すべき望ましい表示画像プリミティブを作成する。これには、直視、投影、反射、組み合わせなどが含まれ得る。ルート決定/グループ化は、3Dイメージング又はその他の視覚効果を可能にし得る。
If the
システム600は、信号が生成された時点から、その他の表示画像プリカーサにおけるその他の信号の一部として、HVSに伝搬されるために表示画像プリカーサに含められるまで(かつそのように含められる場合は)、個別の光学的に分離された信号チャネルにおいて、当該信号を受信し、処理し、かつ送信する複数の機能フォトニックアセンブリの積み重ねとして、時には一体化された機能フォトニックアセンブリとして実現され得る。
本発明分野は1つではなく、むしろ拡張現実と仮想現実という2つの関連分野を組み合わせたものであり、両分野における従来技術の重要な問題及び制限を解決する一体化モバイル装置の解決策に取り組みかつこれを提供する。これらの関連分野の背景を簡単に見直すことで、解決すべき課題及び制限が明らかになり、かつ本開示の解決案の準備となることだろう。 The field of the invention is not one, but rather a combination of two related fields, augmented reality and virtual reality, and addresses an integrated mobile device solution that solves the key problems and limitations of the prior art in both fields. And provide this. A brief review of the background of these related areas will clarify the issues and limitations to be solved and will prepare for the proposed solution of the present disclosure.
これらの用語の2つの標準的辞書の定義(出典:Dictionary.com)は、以下の通りである。 The definitions of two standard dictionaries of these terms (Source: Dictionary.com) are as follows.
仮想現実:「対話型ソフトウェア及びハードウェアを用いたコンピュータシステムによる3次元グラフィックを含む環境の現実的シミュレーション。略語:VR」 Virtual Reality: "Realistic simulation of an environment including 3D graphics by a computer system using interactive software and hardware. Abbreviation: VR"
拡張現実:「現実世界環境でコンピュータ生成された画像、音声又はその他のデータを重ねることによって、スクリーン又はその他のディスプレイ上で見られるように拡張された画像又は環境。そして:「このような拡張環境を作成するために使用されるシステム又はテクノロジー。略語:AR」 Augmented Reality: "an image or environment expanded to be viewed on a screen or other display by overlaying computer generated images, sounds or other data in a real world environment. And:" such an expanded environment System or technology used to create a "abbreviation: AR"
上記定義(非技術的なものであるが)から、関連分野の当業者にとって、最も重要な違いは、シミュレートされた要素が、現実の部分的直視でさえ完全にスクリーニングする完全かつ没入型のシミュレーションであるか、又はシミュレートされた要素が、さもなければクリアで遮るもののない現実のビューにスーパーインポーズされているか否かであることが明白である。 From the above definition (although it is non-technical), the most important difference for the person skilled in the relevant field is the completely and immersive type in which the simulated elements are completely screened even in real partial dilation. It is clear whether it is a simulation or whether the simulated element is superimposed on a clear and unobstructed real view.
このトピックに関するWikipedia の見出し語で、そのページの編集への貢献の深さと範囲を前提として、当該分野をよく表していると見なされる、若干より技術的な定義が提供されている。 The Wikipedia entry for this topic provides a slightly more technical definition that is considered to be a good representation of the field, given the depth and extent of its contribution to the compilation of the page.
仮想現実(VR)(没入型マルチメディアという場合もある)は、現実世界又は想像世界の場所での物理的存在をシミュレートできるコンピュータでシミュレートされた環境である。仮想現実は、仮想の味覚、視覚、嗅覚、聴覚、触覚などの知覚経験を再現できる。 Virtual reality (VR) (sometimes referred to as immersive multimedia) is a computer-simulated environment that can simulate physical presence in the real world or a place in an imaginary world. Virtual reality can reproduce perceptual experiences such as virtual taste, vision, smell, hearing, and touch.
拡張現実(AR)は、音声、ビデオ、グラフィック又はGPSデータなどのコンピュータ生成された知覚入力によってその要素が増強(又は補足)された、物理的現実世界環境のライブの直視又は間接視である。 Augmented reality (AR) is a live, direct or indirect view of a physical real-world environment whose elements are augmented (or supplemented) by computer-generated perceptual inputs such as voice, video, graphics or GPS data.
これらの定義に固有であるが単に黙示的であることは、モバイル視点の非常に重要な属性である。より一般的なクラスのコンピュータシミュレーション(「リアルタイム」の、現実の「直接」イメージング(ローカル又はリモートのいずれか)との組み合わせ、融合、合成、又は一体化の有無を問わない)と、仮想又は拡張現実を区別するのは、シミュレートされた又はハイブリッドの(増強された又は「混合の」)現実の「同時現実」画像であり、ビューアーが現実世界内で移動するにつれて、ビューアーと共にビューアーの視点も移動するという点である。 Being specific to these definitions but simply implicit is a very important attribute of mobile perspectives. A more general class of computer simulation (with or without "real-time" real "direct" imaging (whether local or remote), fusion, synthesis, or integration), virtual or extended It is the simulated or hybrid (enhanced or "mixed") real "simultaneous" images that distinguish reality, and as the viewer moves in the real world, the viewer's viewpoint is also with the viewer It is the point of moving.
本開示は、このより正確な定義が、没入型で表示され経験されたシミュレートされた世界の静止ナビゲーション(シミュレータ)と、シミュレートされた世界(仮想現実)のモバイルナビゲーションとを区別するために必要であることを提案している。そしてシミュレータのサブカテゴリは、シミュレートされた世界の部分的に「仮想現実的な」ナビゲーションを可能にする、静止ユーザが没入型HMD(ヘッドマウントディスプレイ)及びハプティックインターフェース(例えば、モーション追跡グローブ)を装着した、「個人シミュレータ」又はせいぜい「部分仮想現実」となるであろう。 The present disclosure is intended to distinguish this more accurate definition from the immersive displayed and experienced simulated world static navigation (simulator) and mobile world of the simulated world (virtual reality). It proposes that it is necessary. And subcategories of the simulator allow partially "virtually realistic" navigation of the simulated world, stationary users wear immersive HMDs (head mounted displays) and haptic interfaces (eg motion tracking gloves) It will be an "Individual Simulator" or at most a "Partial Virtual Reality".
他方では、CAVEシステムが、制限付き仮想現実システムとして概略的に適していると見なされるであろう。なぜならば、CAVEのサイズを超えたナビゲーションが、可動床によってのみ可能になるであろうからであり、CAVE自体の限度に達してしまうと、その後に続くのはまた別の形態の「部分仮想現実」となる。 On the other hand, the CAVE system will be regarded as generally suitable as a restricted virtual reality system. This is because navigation beyond the size of CAVE will only be possible with movable floors, and once CAVE's own limit has been reached, another form of "partial virtual reality" follows. It becomes ".
「モバイル」視点と「可動」視点との差に注意。シミュレートされた世界の探索者が個人的に動いているのでない限り、又は別の人もしくはロボットの動作を指示しているのでない限り、ビデオゲームなどのコンピュータシミュレーションは、シミュレートされた世界又は「現実」であり、そこで言えることは(過去40年間でのコンピュータグラフィックの主要な成果のうちのこの成果は、ソフトウェアにおいて探索可能であるシミュレートされた世界を単に「構築する」ことであるが)、シミュレートされた世界は「ナビゲーション可能」ということである。 Note the difference between the "mobile" and "mobile" viewpoints. A computer simulation such as a video game is a simulated world or unless the seeker in the simulated world is personally moving or otherwise directing the movement of another person or robot. "Reality" and what can be said there (This achievement among the major achievements of computer graphics in the past 40 years is simply to "build up" a simulated world that is searchable in software ), The simulated world is "navigable".
シミュレーションは仮想又はハイブリッド(著者の好みの用語)現実のいずれかであるため、非常に重要で決定的な特徴とは、現実空間へのシミュレーションのマッピング(完全に合成か又はハイブリッドかを問わず)があるということである。このような現実空間は、研究室又はサウンドステージ内の部屋と同じくらい基本的で、かつシミュレートされた世界に対してある比率でマッピングしかつ較正を行う単なるグリッドであり得る。 Because simulation is either virtual or hybrid (author's favorite term) real, so critical features are mapping of the simulation to real space (whether completely synthetic or hybrid) It is that there is. Such real space may be just as simple as mapping and calibrating at a ratio to the simulated world, as basic as a room in a laboratory or sound stage.
この区別は評価的ではなく、なぜならば、モバイルではなく又は実際の現実トポグラフィー(自然か、人工であるか、又はハイブリッドであるか否かを問わず)へのマッピングなしに、リアルタイム自然インターフェース(ヘッドトラッキング、触覚の、聴覚の等)を提供する部分的VRは、物理的相互作用をシミュレートしかつ及び知覚没入を提供する部分的VRシステムよりも根本的に価値が低くはないからである。しかし、足病治療フィードバックシステム無しでは、又はより普遍的には全身動作範囲フィードバックシステム、及び/又はユーザのシミュレートされた、(その感覚として)地形(静止している)上での全身動作(立っているか、座っているか又はリクライニングしているかを問わず)をサポートする動的変形可能機械インターフェース・相互作用面無しでは、VRシステムは定義上、「部分的」である。 This distinction is not evaluative, because it does not map to real or non-mobile real reality topography (whether natural, artificial or hybrid or not) in real time natural interface ( Partial VR providing head tracking, tactile, auditory etc) is not of fundamentally lower value than partial VR systems simulating physical interaction and providing perceptual immersion . However, without the foot disease treatment feedback system, or more universally the whole body movement range feedback system, and / or the whole body movement on the terrain (as the rest) simulated (as the feeling of the user) ( The VR system is "partial" by definition, without a dynamically deformable mechanical interface or interaction surface that supports standing, sitting or reclining.
しかし、このような理想的な全身物理的インターフェース/フィードバックシステムが無い場合、VRを「完全」な全モバイルバージョンに制限することは、VR世界の地形を、現実世界で見つけることができる地形(修正されたか又はゼロから構築した)に制限することになるであろう。このような制限は、概して仮想現実経験の範囲及び力をひどく制限してしまうことになるであろう。 However, in the absence of such an ideal full-body physical interface / feedback system, restricting the VR to a "full" mobile version means that the topography of the VR world can be found in the real world Or built from scratch). Such limitations will generally severely limit the scope and power of the virtual reality experience.
しかし、以降の開示で明白になるが、この区別は変化をもたらす。なぜならば、この区別は、既存のVRシステムとARシステムがいかに異なるか、そしてこれらの制限についての「明快な境界基準」を設定し、並びに本開示の教示を知らせるための背景を提供するからである。 However, as will become apparent in the following disclosure, this distinction brings about changes. Because this distinction sets out how existing VR and AR systems differ, and sets a "clear boundary reference" for these limitations, as well as providing a background for informing the teachings of this disclosure. is there.
欠如しているが非常に重要なシミュレーションの特徴及び要件が、完全な「仮想現実」であることを証明してきたが、次のステップは、実現される「モバイル視点」というのが何を意味するのかという黙示的問題を特定することである。その答えは、モバイルであるシミュレーションのビューを提供することであり、これはそれ自体がハードウェアとソフトウェアの組み合わせによって実現される2つの構成要素、すなわち、動画表示手段(これによってシミュレーションを見ることができる)と、モーション追跡手段(3軸の動作でのディスプレイを含む装置の動きを追跡できる)とを必要とし、これは、3次元視聴装置の経時的位置を最低でも3つの追跡点(装置がマッピングされて測定がなされ、3番目の軸の3番目の位置が推測される場合には、2つの追跡点)で測定することを意味し、そして基準3軸フレーム(現実空間にマッピングされる任意の3D座標系であり得る)に関連して、空間のナビゲーションを機械的に行うという実用目的上、2軸は地面である平面を形成し、3番目の軸であるZ軸は、その地面に対して垂直となる。 Although missing but very important simulation features and requirements have proved to be a complete "virtual reality", the next step is what does the "mobile perspective" realized mean To identify the implicit problem of The answer is to provide a view of the simulation that is mobile, which is two components that are themselves realized by a combination of hardware and software, ie an animation display means (by which the simulation is viewed Requires motion tracking means (capable of tracking the movement of the device including the display in 3-axis motion), which means that the position of the 3D viewing device at least three tracking points at least If mapped and measured, and the third position of the third axis is inferred, it means to measure at two tracking points), and the reference three-axis frame (arbitrary mapped to the real space) A plane in which two axes are the ground for the practical purpose of mechanically performing navigation of space in relation to the 3D coordinate system of Formed, Z-axis is the third axis, perpendicular to the its ground.
正確にかつ時間機能として頻繁にこの位置的配向を実際的に達成するための解決策には、センサとソフトウェアの組み合わせが必要であり、これらの解決策における前進は、VR及びARハードウェア/ソフトウェアモバイル視聴装置及びシステムの両方の分野の開拓における主要な軌道を表す。 Solutions to practically achieve this positional orientation accurately and frequently as a function of time require a combination of sensors and software, and advances in these solutions include VR and AR hardware / software It represents the main trajectory in the development of the field of both mobile viewing devices and systems.
これらは、初期の実験と現在の実用的テクノロジー及び製品との間のタイム・フレームの観点から言うと比較的新しい分野であり、モバイル視覚シミュレーションシステムの両カテゴリーにおける起源と最新技術について書き留めることで十分であり、唯一の例外としては、本開示の開発にとって重要であるか、又は分野における現在の問題又は従来技術から本開示の解決策を区別するもののいずれかをより良く説明するために役に立つ重要な相違点又は類似点に関連する、従来技術における特定の革新である。 These are relatively new areas in terms of time frame between early experiments and current practical technologies and products, and it is sufficient to note the origin and the latest technologies in both categories of mobile visual simulation systems The only exception is that it is important to the development of the present disclosure or it serves to better explain either the current problem in the field or the distinction of the solution of the present disclosure from the prior art. It is a particular innovation in the prior art that relates to differences or similarities.
1968年以降から90年代後半までの期間は、関連シミュレーション及びシミュレータ、VR及びAR分野における多くの革新の期間であり、この期間中に、部分的VR及びARを達成する際の重要な問題の多くが、最初の又は部分的な解決策を見つけた。 The period from 1968 to the late 90's is the period of many innovations in relevant simulation and simulator, VR and AR fields, during this period many of the important issues in achieving partial VR and AR But found the first or partial solution.
1968年以降のIvan Sutherland及び彼の助手のBob Sprouellの独創的で影響力の強い実験及び実験的ヘッドマウント表示システムは、これらの関連分野の起源を記すものと一般的に見なされているが、より早い時期の取り組みでは、本質的に概念的な開発がこれに先立ち、没入感及びナビゲーションを達成するAR/VRのいずれかの形態の最初の実験的実施がある。 The original and influential experimental and experimental head-mounted display systems of Ivan Sutherland and his assistant Bob Sprouell since 1968 are generally regarded as marking the origin of these related areas, In earlier work, essentially conceptual development precedes this by the first experimental implementation of any form of AR / VR that achieves immersiveness and navigation.
静止シミュレータシステムの誕生は、フライトシミュレータへのコンピュータ生成されたイメージングの追加まで遡り、これは一般的に1960年代半ば〜後半に始まったと認識されている。これはユーザからCRTへの距離で完全に焦点が合った画像を表示する、CRTの使用に制限されていたが、1972年になって、Singer−Link Companyが、ビームスプリッタミラーシステムを通して遠方焦点画像を投影するコリメート投影システムを初公開し、これは各ユニットにつき約25〜35度まで視野を改良した(一人乗り用シミュレータで用いられる3ユニットで100度)。 The birth of the static simulator system dates back to the addition of computer-generated imaging to flight simulators, which is generally recognized to have begun in the mid to late 1960's. This was limited to the use of a CRT, which displays a fully focused image at a distance from the user to the CRT, but by 1972 the Singer-Link Company was able to First introduced a collimated projection system that projects the field of view to about 25-35 degrees for each unit (100 degrees for 3 units used in a single-seat simulator).
このベンチマークは、1982年になって初めて、ビューシステムの広視野を導入した広角インフィニティディスプレイシステムでRediffusion Companyによって改良され、このシステムは、複数のプロジェクタと大きな曲面コリメートスクリーンを使用することで、150度のFOV,そして最終的には240度のFOVを実現した。この段階になって、静止シミュレータは、ビューアーを隔離し、かつ周辺からの視覚的キューとなる気を散らすものを排除するためにHMDを使用することで、仮想現実におけるリアルな没入感の重要な程度を最終的に達成したと説明されるかもしれない。 This benchmark was first improved in 1982 with the wide-angle infinity display system that introduced a wide field of view system, and was refined by the Rediffusion Company, which used 150 degrees by using multiple projectors and large curved collimated screens. The FOV, and finally the FOV of 240 degrees was realized. At this stage, the static simulator is important for realistic immersiveness in virtual reality by using the HMD to isolate viewers and eliminate distracting visual cues from the surroundings It may be explained that the degree was finally achieved.
しかし、Singer−Link CompanyがVR型体験への足掛かりとしてシミュレータ用のスクリーンコリメーションシステムを紹介する頃には、最初の非常に制限された商用ヘルメットマウントディスプレイが軍事使用のために初めて開発されつつあり、これは、レチクルベースの電子標的システムをヘルメットのモーション追跡自体と一体化した。これらの最初の開発は、1970年代に南アフリカ空軍によって(これに続いて、当該時点から70年代半ばにかけてイスラエル空軍によって)初歩的な形態で達成されたと一般的に認識されており、初歩的AR又は媒介/ハイブリッドリアリティシステムの開始と言ってもよい。 However, as the Singer-Link Company introduced screen collimation systems for simulators as a stepping stone to VR-type experiences, the first very limited commercial helmet-mounted displays were being developed for military use for the first time, This integrated the reticle based electronic target system with the helmet's motion tracking itself. These initial developments were generally recognized as being achieved in a rudimentary form by the South African Air Force in the 1970s (following, from that point onwards to the mid-'70s by the Israeli Air Force), a rudimentary AR or It may be said that the initiation of an intermediary / hybrid reality system.
これらの初期の、グラフィック的には最小限度だが、それでもなお独創的で影響力の強いヘルメットマウントシステムは、レチクルに重ねられた位置的に調整された標的情報と、ユーザ作動のモーション追跡ターゲティングとの制限的複合を実施し、その後に、眼鏡にグラフィックをスーパーインポーズした、最初の「媒介現実」モバイルビュースルーシステムである第一世代「EyeTap」のSteve Mannによる本発明がある。 These early, graphically minimalistic, yet inventive and influential helmet mount systems combine positionally adjusted target information superimposed on a reticle with user-actuated motion tracking targeting. There is an invention by Steve Mann of the first generation "EyeTap", the first "intermediate reality" mobile view-through system that implemented restrictive compounding and then superimposed graphics on the glasses.
Mannによる後のバージョンは、ビームスプリッタ/コンバイナ光融合現実及び処理済みイメージに基づく光再結合システムを用いた。この研究の後に、Chunyu GaoとAugmented Vision Incによる研究があり、これは基本的に、処理済み実像と生成画像とを光学的に組み合わせる二重Mannシステムを提案しており、ここでMannのシステムは電子的に処理済み実像と生成画像の両方を達成した。Mannのシステムでは、イメージを通しての実景が保持されたが、Gaoのシステムでは、すべてビュースルーイメージが処理されて、オプションとしてさえも直接ビュースルーイメージが排除された。(2013年4月13日に出願されたChunyu Gaoの米国特許出願第20140177023号)。Gaoのシステムによって特定された「光路折り畳み光学体」構造及び方法は、その他の光学HMDシステムでも見られる。 Later versions by Mann used a beam splitter / combiner light fusion system based on light fusion reality and processed images. After this study, there is a study by Chunyu Gao and Augmented Vision Inc, which basically proposes a dual-Mann system that optically combines the processed real image and the generated image, where the Mann system is Both electronically processed real images and generated images were achieved. While Mann's system preserves the real view through the images, all of Gao's system processes view-through images, eliminating direct view-through images even as an option. (U.S. Patent Application No. 20140177023 to Chunyu Gao, filed April 13, 2013). The "optical path folding optics" structure and method specified by Gao's system can also be found in other optical HMD systems.
1985年までに、Jaron LanierとVPL Reseearchが結成されてHMDと「データグローブ」が開発されたため、1980年代までには、非常に活発な開発分野の中でも、最も重大な進歩のうちのいくつかで高い評価を得て、かつ大半の場合に現在まで最新技術として生き残っているいくつかの基本的ソリューションタイプを確立した、Mann、Lanier、そしてRedefussion Companyによる、シミュレーション、VR及びARの3つの主要な開発路が存在していた。 By 1985, Jaron Lanier and VPL Reseearch were formed to develop HMD and “Data Globe”, and by the 1980s, some of the most significant developments among the very active development areas Three major developments by Simulation, VR and AR by Mann, Lanier and Redefussion Company that have established several basic solution types that have received high praise and, in most cases, have survived to date as current technology A road existed.
コンピュータ生成されたイメージング(CGI)の精巧化、リアルタイム対話型CGテクノロジーでのゲーム機(ハードウェア及びソフトウェア)における継続的改良、複数のシステムの中でのより大きいシステム一体化、並びにARと(より制限された程度での)VRの両方の可動性の拡張は、1990年代の主要な開発トレンドに含まれていた。 Refinement of computer-generated imaging (CGI), continuous improvement on game consoles (hardware and software) with real-time interactive CG technology, greater system integration among multiple systems, and AR and (more The expansion of both VR's mobility to a limited degree was included in the major development trends of the 1990's.
モバイルVRの制限形態とシミュレータの新しい種類の両方であったのは、シカゴのイリノイ州立大学のElectronic Visualization Laboratoryが開発し、1992年に世界にデビューしたCAVEシステムであった。(Carolina Cruz−Neira、Daniel J. Sandin, Thomas A. DeFanti、Robert V. Kenyon及びJohn C. Hart、「The CAVE: Audio Visual Experience Automatic Virtual Environment(CAVE:オーディオビジュアル体験自動仮想環境)」、Communications of the ACM、第35(6)号、1992年64〜72頁)。LanierのHMD/データグローブの組み合わせに代わって、CAVEは、WFOVマルチウォールシミュレータ「ステージ」とハプティックインターフェースとを組み合わせた。 Both the restricted form of mobile VR and the new kind of simulator was the CAVE system, which was developed in 1992 by the Electronic Visualization Laboratory at Illinois State University in Chicago and debuted in the world. (Carolina Cruz-Neira, Daniel J. Sandin, Thomas A. DeFanti, Robert V. Kenyon and John C. Hart, "The CAVE: Audio Visual Experience Automatic Virtual Environment (CAVE)", Communications of the ACM, 35 (6), 1992, 64-72)). Instead of the Lanier HMD / Data Grove combination, CAVE combined the WFOV multi-wall simulator "stage" with a haptic interface.
同時に、静止部分ARの一形態が、アームストロング米国空軍研究所にてLouis Rosenbergによって、「Virtual Fixtures」システム(1992年)として開発され、その一方で、Jonathan Waldernの静止「Virtuality」VRシステム(1985年から1990年までの早い時期に最初の開発がなされたと認識されている)も、1992年に商的にデビューした。 At the same time, one form of the stationary part AR was developed by Louis Rosenberg at the Armstrong US Air Force Research Institute as the "Virtual Fixtures" system (1992), while Jonathan Waldern's stationary "Virtuality" VR system (1985) It is recognized that the first development was made early in the year from 1990 to 1990), and also made its commercial debut in 1992.
実際の車両と仮想車両を「増強されたシミュレーション」(「AUGSIMM」)に組み合わせてマルチユニットモバイル車両「戦争ゲーム」システムに一体化したモバイルARでは、1993年に業界でデモンストレーションされたLoral WDL の形態で、次の主要な前進が見られた。その後1999年に、最終的1995年SBIRレポートの研究結果についてコメントした、Peculiar Technologiesのプロジェクト参加者Jon Barrilleauxによって、「Experiences and Observations in Applying Augmented Reality to Live Training(ライブトレーニングへの拡張現実の適用における体験及び観察)」が書かれ、現時点にまで至るまでも継続してモバイルVR及び(モバイル)ARが直面している課題である以下の内容を記した。 A mobile AR that combines real and virtual vehicles with “enhanced simulation” (“AUGSIMM”) integrated into a multi-unit mobile vehicle “war game” system, a form of Loral WDL that was demonstrated in the industry in 1993 The next major step forward was seen. Then, in 1999, Peculiar Technologies project participant Jon Barrilleaux commented on the final 1995 SBIR report's findings, “Experiences and Observations in Applying Augmented Reality to Live Training And “Observations” were written, and the following contents, which are the challenges facing mobile VR and (mobile) AR, are described continuously until now.
AR対VR追跡 AR vs. VR tracking
概して、VR用に開発された市販製品は良好な解像度を有するが、ARに必要な絶対精度及び広域カバレッジは欠いており、AUGSIMでの使用についてはより少なくなっている。 In general, the commercial products developed for VR have good resolution but lack the absolute accuracy and wide area coverage needed for AR and are less for use in AUGSIM.
ユーザが合成環境に没入するVRアプリケーションについては、絶対精度よりも相対追跡の方がより関心が持たれている。ユーザの世界は完全に合成であり、自分の頭を0.1度だけ回したことが、たとえ10度以内でも真北を今現在指しているということを分かっていることよりもより重要であるという事実と自己矛盾がない。 For VR applications where users immerse themselves in synthetic environments, relative tracking is more concerned than absolute accuracy. The user's world is completely synthetic, and it is more important to turn your head only 0.1 degrees than to know that you are currently pointing to true north, even within 10 degrees There is no contradiction with the fact that
AUGSIMなどのARシステムにはこのような余裕はない。ユーザの頭部が回転し又は車両が動くにつれて、現実世界において仮想要素がスムーズに動くように見えるように、AR追跡は良好な解像度を有しなければならず、また、仮想要素が正確に重ねられて現実世界におけるオブジェクトによって目立たなくされるように、AR追跡は良好な精度を有しなければならない。 An AR system such as AUGSIM can not afford this. AR tracking must have good resolution so that virtual elements appear to move smoothly in the real world as the user's head rotates or the vehicle moves, and virtual elements overlap exactly AR tracking must have good accuracy so that it can be obscured by objects in the real world.
計算速度及びネットワーク速度は90年代の間改良し続け、屋外のARシステムでの新しいプロジェクトが開始され、それには米国海軍研究所でのBARSシステムのプロジェクト(「BARS: Battlefield Augmented Reality System(BARS:戦場拡張現実システム)」、Simon Julier、Yohan Baillot、Marco Lanzagorta、Dennis Brown、Lawrence Rosenblum;2000年軍事システムのための情報処理技術に関するNATOシンポジウム)が含まれる。要約には以下の記載がある。「このシステムは、ウェアラブルコンピュータと、無線ネットワークシステムと、被追跡シースルーヘッドマウントディスプレイ(HMD)とから構成される。ユーザによる環境の認知は、ユーザの視野にグラフィックをスーパーインポーズすることによって強化される。このグラフィックは、実際の環境に登録される(合わせられる)。」 Computational speed and network speed continue to improve during the 90's, and a new project on the outdoor AR system is launched, which is the project of BARS system at the US Naval Research Institute ("BARS: Battlefield Augmented Reality System (BARS: Battlefield) Augmented Reality System), Simon Julier, Yohan Baillot, Marco Lanzagorta, Dennis Brown, Lawrence Rosenblum; 2000 NATO Symposium on Information Processing Technology for Military Systems). The summary has the following description. "This system consists of a wearable computer, a wireless network system, and a tracked see-through head mounted display (HMD). The perception of the environment by the user is enhanced by superimposing graphics in the user's view This graphic is registered in the actual environment.
非軍事専用の開発も進行し、これは奈良先端科学技術大学院大学の加藤博一の研究であるARToolkitを含み、後に発表されてHITLabにてさらに開発され、ソフトウェア開発スイート及び視点追跡及び仮想オブジェクト追跡のためのプロトコルを紹介した。 Non-military development is also in progress, including ARToolkit, a study by Hirokazu Kato of Nara Institute of Science and Technology Graduate University, which will be announced later and further developed by HITLab, software development suite and viewpoint tracking and virtual object tracking Introduced the protocol for.
これらの画期的出来事は、この期間において最も重要であったとして頻繁に言及されるが、その他の研究者及び企業もこの分野において活発であった。 These landmark events are frequently mentioned as being most important in this period, but other researchers and companies were also active in this area.
訓練シミュレーション用のARの大規模開発及び検査のための軍の資金調達については文書で十分に裏付けがあり、その需要があったことは明白であるが、その他のシステムレベルの設計及びシステムデモンストレーションも、軍の資金調達された研究努力と同時に進行していた。 Although military funding for large-scale development and testing of the AR for training simulation is well documented and evident that there was a demand for it, other system-level design and system demonstrations are also available. The military funded research effort was proceeding at the same time.
最も重要な非軍事的実験の中で、南オーストラリア大学のウェアラブルコンピュータ研究所のBruce Thomasが開始しかつ引率した開発が、ビデオゲームQuakeのARバージョンであるAR Quakeであり、「ARQuake:An Outdoor/Indoor Augmented Reality First Person Application(ARQuake:屋外/屋内拡張現実一人称アプリケーション)」を発表した(ウェアラブルコンピュータについての第4回国際シンポジウム、139〜146頁、ジョージア州アトランタ、2000年10月;(Thomas, B.、Close, B.、Donoghue, J.、Squires, J.、De Bondi, P.、Morris, M.及びPiekarski, W.)。要約には以下の通り記載されている。「我々は、GPS、デジタルコンパス及び基準ビジョンに基づく追跡に基づく、低コストで適宜に正確な6自由度追跡システムを提示する。」 Among the most important non-military experiments, development started and led by Bruce Thomas at the University of South Australia's Wearable Computers Institute is AR Quake, an AR version of the video game Quake, “ARQ uake: An Outdoor / Indoor Augmented Reality First Person Application (ARQuake: Outdoor / Indoor Augmented Reality First Person Application) ”(The 4th International Symposium on Wearable Computers, pp. 139-146, Atlanta, GA, October 2000; (Thomas, B Close, B., Donoghue, J., Squires, J., De Bondi, P., Morris, M. and Piekarski, W.) The abstract states: "We present a low-cost, appropriately accurate 6-DOF tracking system based on GPS, digital compass and tracking based on reference vision. "
1995年に設計開発が開始された別のシステムは、本開示の著者によって開発されたものである。当初、屋外のARとテレビ番組で吹替の「Everquest Live」のハイブリッドを実現することを意図したもので、90年代後半を通してその設計がさらに開発され、その最も重要な要素が1999年までに仕上げられ、その時点で、オリジナルビデオゲーム/TVハイブリッドの資金調達を行うための商的努力が開始され、そして当該時点までに、最高級のテーマリゾート開発での使用のために別バージョンが含まれていた。2001年までに、このことはRidleyとTony Scottの会社を含む諸会社と、特に彼らのジョイントベンチャーであるAirtightplanet(その他のパートナーは、Renny Harlin、Jean Giraud、及びthe European Heavy Metalを含む)に対して機密ベースで開示され、本開示の著者は彼らのためにエグゼクティブ監督業務を務め、そしてこれについて当該時点で「Otherworld」及び「Otherworld Industries」プロジェクト兼ベンチャーを、ATPとの投資及び協同でのジョイントベンチャー案として提起した。 Another system, whose design development was launched in 1995, was developed by the author of the present disclosure. It was originally intended to realize a hybrid of the "Everquest Live" dubbed by outdoor AR and TV programs, and its design was further developed through the late 90's, the most important element being finished by 1999 At that time, a commercial effort to fund the original video game / TV hybrid was launched, and by that time, another version was included for use in the development of the finest theme resorts . By 2001, this is to companies including Ridley and Tony Scott, and in particular to their joint venture Airtightplanet (other partners including Renny Harlin, Jean Giraud, and the European Heavy Metal) Disclosed on a confidential basis, the authors of the present disclosure serve as executive supervision services for them, and at that time the “Otherworld” and “Otherworld Industries” projects and ventures at the same time, joint investment and collaboration with ATP It was submitted as a venture proposal.
以下は、1999年/2000年までに仕上げられたシステムデザイン及び構成要素の概要である。 The following is an overview of the system design and components completed by 1999/2000.
「OTHERWORLD INDUSTRIES BUSINESS PROPOSAL DOCUMENT(OTHERWORLD INDUSTRIESビジネス提案書)」(アーカイブ文書バージョン、2003年)からの抜粋:技術背景説明:最先端技術「オープンフィールド」シミュレーション及びモバイル仮想現実の専有一体化:ツール、設備及びテクノロジー Excerpt from "OTHERWORLD INDUSTRIES BUSINESS PROPOSAL DOCUMENT" (Archive document version, 2003): Technical background explanation: State-of-the-art "Open Field" simulation and exclusive integration of mobile virtual reality: Tools, equipment And technology
これは単に、専有システムの骨格を共に形成する関連技術の部分的リスト及び概略である。いくつかのテクノロジー構成要素は専有のものであり、外部のベンダーからのものもある。しかし、証明された構成要素を組み合わせたユニークなシステムは、絶対的に専有的でかつ革新的なものとなるであろう。 This is simply a partial list and outline of the relevant art that together form the backbone of a proprietary system. Some technology components are proprietary and some are from external vendors. However, a unique system combining proven components will be absolutely proprietary and innovative.
VR改変世界とのインタラクション Interaction with the VR modified world
1)OTHERWORLDのVR拡張された風景にゲスト/参加者及び俳優を没入させるためのモバイル軍事規格VR機器。彼らの「冒険」(つまり、彼らがリゾート周辺のOTHERWORLD を探索する際の彼らの各動作)がモバイルモーションキャプチャーセンサ及びデジタルカメラにより(自動マッティングテクノロジーで)リアルタイムで取り込まれ、ゲスト/プレイヤー及び従業員/俳優は、コンピュータシミュレーションイメージの重ね合わせと共に、自身のバイザーを通してお互いを見ることができる。バイザーとは、双眼鏡(半透明フラットパネルディスプレイ)か、又は双眼鏡(但し、不透明フラットパネルディスプレイで、前面に双眼鏡カメラが取り付けられているもの)のいずれかである。 1) Mobile military standard VR equipment for immersing guests / participants and actors in OTHERWORLD VR extended landscapes. Their “adventures” (that is, their respective actions as they explore OTHERWORLD around the resort) are captured in real time (with automatic matting technology) by mobile motion capture sensors and digital cameras, guest / player and employee Members / Actors can see each other through their visors, with the superposition of computer simulation images. A visor is either binoculars (semi-transparent flat panel displays) or binoculars (but opaque flat panel displays with a binocular camera mounted on the front).
視野にフラットパネルディスプレイでスーパーインポーズされたこれらの「合成要素」は、風景の改変部分(又はデジタル処理で改変された風景全体)を含むことができる。実際に、実際にそこあるものを置き換えるこれらの「合成」風景部分は、リゾートの各部分のオリジナル3D写真を「キャプチャーしたもの」に基づいて生成されている。(以下第7項をご参照下さい)。コンピュータ内の正確で写真に基づく幾何学的「仮想空間」として、オリジナルキャプチャーの写実的品質及び幾何学的/空間精度を維持しつつ、この仮想空間を何らかの方法でデジタル処理で改変することが可能である。これによって、同一空間と改変されたデジタル部分のライブデジタル写真の正確な組み合わせが生み出される。 These "composite elements" superimposed on the flat panel display in the field of view can include the altered portion of the landscape (or the entire digitally altered landscape). In fact, these "composite" landscape parts, which actually replace what is there, are generated based on "captured" the original 3D photos of each part of the resort. (Please refer to the following paragraph 7). As an accurate, photo-based geometric "virtual space" in a computer, it is possible to somehow digitally alter this virtual space while maintaining the photorealistic quality and geometric / spatial accuracy of the original capture It is. This produces an accurate combination of live digital photos of the same space and modified digital parts.
フラットパネルディスプレイによってスーパーインポーズされるその他の「合成要素」は、コンピュータ生成されたか又は改変された人々、生き物、大気FX、及び「マジック」を含む。これらはディスプレイ(透明又は不透明)を通した視野の現実的な要素として現れる。 Other "synthetic elements" superimposed by the flat panel display include computer-generated or modified people, creatures, atmosphere FX, and "magic". These appear as realistic elements of the field of view through the display (transparent or opaque).
位置決めデータ、ゲスト/プレイヤー及び従業員/俳優のモーションキャプチャーデータ、そして多数のデジタルカメラによるこれらのデータのリアルタイムマッティング(これらすべては、リゾートの各エリアの事前に「キャプチャーされた」バージョンに較正される)(以下第4項及び第5項をご参照下さい)の使用によって、合成要素は、ディスプレイを通して示される実要素に対して、リアルタイムで絶対精度でマッチングすることができる。 Positioning data, motion capture data of guests / players and employees / actors, and real-time matting of these data with multiple digital cameras (all of which are calibrated to a pre-captured version of each area of the resort (See Sections 4 and 5 below) allows the compositing element to be matched in real time with absolute accuracy to the real element shown through the display.
よって、写実的なコンピュータ生成されたドラゴンが、実際の木の後ろを通って、ぐるりと回って戻ってきて、飛び上がり、そしてリゾートの実際の城の上に着地することができ、そして、ドラゴンはコンピュータ生成された火で「燃え上がる」ことができる。フラットパネルディスプレイ(半透明又は不透明)では、火は、「黒くした」城の上部から出ているように見える。バイザーを通して、城の上部が、システムのファイルの中の城の3D「キャプチャー」のコンピュータ改変バージョンによって「重ねてマッティング」されたことにより、この効果が達成される。 Thus, a graphic computer-generated dragon can come round, fly back and fly up behind the real tree, and land on the resort's real castle, and the dragon It can "burn" with computer-generated fire. In a flat panel display (translucent or opaque), the fire appears to be coming out of the top of the "blackened" castle. Through the visor, this effect is achieved by the upper part of the castle being "over-matted" by a computer-modified version of 3D "capture" of the castle in the file of the system.
2)実際の人間と、仮想の人間、生き物及びFXとの間の戦闘のための物理的電気光学機械的ギア。モーションセンサ及びその他のデータ、並びに振動及び抵抗フィードバックを提供する「ハプティック」インターフェースは、実際の人間と、仮想の人間、生き物及びマジックとのリアルタイムなインタラクションを可能にする。例えば、「小道具」の剣の柄の形態のハプティック装置は、戦闘のイリュージョンを達成するために、ゲスト/プレイヤーがその剣を振り回している間のデータと、ゲスト/プレイヤーが仮想鬼を「突いた」と思われる際の物理的フィードバックとを提供する。これはすべてリアルタイムで組み合わせられて、双眼鏡フラットパネルディスプレイを通して表示される。 2) Physical electro-optical mechanical gear for combat between real humans and virtual humans, creatures and FX. Motion sensors and other data, as well as "haptic" interfaces that provide vibration and resistance feedback, allow real-time interaction with real people, virtual people, creatures and magic. For example, a haptic device in the form of a "props" sword handle may have data during the swing of the guest / player and the guest / player poke off the virtual demon to achieve a combat illusion. Provide physical feedback when it is considered. All this is combined in real time and displayed through the binoculars flat panel display.
3)オープンフィールドモーションキャプチャー機器。モバイル及び固定モーションキャプチャー機器用具(映画『マトリックス』で使用されたものと同様のもの)は、リゾートの敷地全体に亘って配備される。ゲスト/プレイヤー及び従業員/俳優が装着したテーマのある「ギア」上のデータポイントは、カメラ及び/又はセンサに追跡されて、VRバイザー内の双眼鏡フラットパネル上に表示される視野内の仮想要素とインタラクションするためのモーションデータを提供する。 3) Open field motion capture device. Mobile and fixed motion capture equipment tools (similar to those used in the movie "Matrix") are deployed across the resort's premises. Data points on themed "gears" worn by guests / players and employees / actors are tracked by cameras and / or sensors and virtual elements within the field of view displayed on binoculars flat panel in VR visor Provide motion data to interact with
モーションキャプチャーデータからの出力は、『ロード・オブ・ザ・リング』の第二部と第三部の映画のゴラムというキャラクターの原理に沿った、ゲスト/プレイヤー及び従業員/俳優のCGI改変バージョンを可能にする(十分な計算レンダリング能力及びモーション編集及びモーションライブラリの利用と共に)。 The output from the motion capture data is a CGI modified version of the guest / player and employee / actor in line with the character principle of Goram in the second and third parts of The Lord of the Rings. Enable (with sufficient computational rendering capabilities and use of motion editing and motion libraries).
4)LAAS&GPSデータ、ライブレーザー距離測定データ及び三角測量技術(Moller Aerobot のUAV技術を含む)でのモーションキャプチャーデータの増強。追加の「位置決めデータ」は、ライブ要素と合成要素のなおさらに効果的(かつ誤差補正する)一体化を可能にする。 4) Enhancement of motion capture data with LAAS & GPS data, live laser distance measurement data and triangulation technology (including Moller Aerobot's UAV technology). The additional "positioning data" allows for even more effective (and error corrected) integration of live and synthetic elements.
UAV製造業者による新聞発表から。 From a press release by a UAV manufacturer.
7月17日。1週間前にローカルエリア補強システム(Local Area Augmentation System)(LAAS)ステーションの最初のネットワークのための契約が、Honeywellと交わされ、数カ所のテストステーションが既に稼働している。このシステムは、空港(及び垂直離着陸飛行場)にインチ単位の精度で正確に接地させるように航空機を誘導することを可能にする。LAASシステムは、2006年までに運用可能となることが期待されている。 July 17. One week ago a contract for the first network of Local Area Augmentation System (LAAS) stations was signed with Honeywell, and several test stations are already running. This system allows the aircraft to be guided to the airport (and vertical take-off and landing airports) accurately to the nearest inch accuracy. The LAAS system is expected to be operational by 2006.
5)オープンフィールド「プレイ」の自動リアルタイムマッティング。シミュレートされた要素とのインタラクションを可能にするモーションキャプチャーデータとの組み合わせで、リゾートのゲスト/参加者たちは、P24(又は同等物)デジタルカメラでデジタル処理により撮像され、専有Automatteソフトウェアと連動して、合成要素と一体化されるべき視野から適切な要素を自動的に分離(マッティング)する。この技術は、デジタル要素をスーパーインポーズする際に、前景/背景の適切な分離を確保するために使用されるパッケージソフトの一つとなるであろう。 5) Automatic real-time matting of the open field "play". In combination with motion capture data that allows interaction with simulated elements, resort guests / participants are digitally imaged with a P24 (or equivalent) digital camera and interfaced with proprietary Automatte software Then, automatically separate (mat) the appropriate element from the field of view to be integrated with the synthetic element. This technique will be one of the package software used to ensure proper foreground / background separation when superimposing digital elements.
6)最先端ゲームエンジンソフトウェアと組み合わせられた軍事規格シミュレーションハードウェア及びテクノロジ−。モーションキャプチャーシステム、小道具の剣のような「合成」要素とインタラクションするためのハプティック装置、合成要素及びライブ要素(マッティング処理されたか又は完全な)からのデータと組みまわせることは、軍事シミュレーションソフトウェア及びゲームエンジンソフトウェアによる一体化である。 6) Military standard simulation hardware and technology combined with cutting edge game engine software. Motion capture systems, haptic devices to interact with "synthetic" elements such as props, combining with data from synthetic and live elements (matted or complete), military simulation software and Integration with game engine software.
これらのソフトウェア構成要素は、合成の人間及び生き物を動画化するためのAIコード(映画『ロード・オブ・ザ・リング』での軍隊を動画化するために使用されたMassiveソフトウェアなどのAIもしくは「人工知能」ソフトウェア)を提供し、リアルな水、雲、火などを生成し、かつまさにコンピュータゲームや軍事シミュレーションソフトウェアがするように、その他の態様ですべての要素を一体化しかつ組み合わせる。 These software components may be AI codes or "AIs such as Massive software used to animate the armies in the movie" Lord of the Ring "or" AI code for animating synthetic humans and creatures. "Artificial intelligence" software is provided to generate realistic water, clouds, fire etc. and unify and combine all elements in other ways just as computer games and military simulation software do.
7)Paul Debevec博士が先駆者として開発した、画像に基づく技術でリアルなデジタル仮想セットを創作するための、実際の場所の写真に基づくキャプチャー(『マトリックス』の「ブレットタイム」FXの基盤)。 7) Photograph-based capture of the actual location (the basis of the "Brett Time" FX in "The Matrix") for creating realistic digital virtual sets with image-based technology, developed by Dr. Paul Debevec as a pioneer.
「ベース」の仮想位置(リゾートの内部及び外部)は、これらが「キャプチャー」された際のその場所の写真及び実際の照明から派生させられているので、現実世界とは区別がつけられない。光プローブからのデータ及びレーザー測距データと組み合わせられた高品質のデジタル画像の小さいセットと、適切な「画像に基づく」グラフィックソフトウェアとが、現物とまさに一致するコンピュータ内の写実的仮想3D空間を再現するために必要なもののすべてである。 The "base" virtual locations (inside and outside of the resort) are indistinguishable from the real world as they are derived from the photos and actual lighting of the location when they were "captured". A small set of high quality digital images combined with data from an optical probe and laser ranging data, and appropriate 'image based' graphics software, create a realistic virtual 3D space in the computer that exactly matches the actual one It is all you need to reproduce.
「仮想セット」は、実際の城の内部の場所及び周囲の田園地方の外部の場所からキャプチャーされているが、一旦デジタル化されると、これらの「ベース」又はデフォルトバージョン(当初キャプチャーされたまさにその時点の照明パラメータとその他すべてのデータを有する)、現実世界には存在しない要素を追加したり、我々の世界のファンタジーバージョンを創作するために存在する要素を改変したりかつ「装飾したり」して、改変することができる(照明を含む)。 The 'virtual set' is captured from the actual location inside the castle and the location outside the surrounding countryside, but once digitized these 'base' or default versions (the originally captured Add the elements that do not exist in the real world, modify the elements that exist to create fantasy versions of our world, and "decorate" with the lighting parameters and all other data at that time) Can be modified (including lighting).
ゲスト/プレイヤー及び従業員/俳優が、リゾート内の様々なポイントでの「ゲートウェイ」を通ると(「ゲートウェイ」とは、「我々の世界」から「Otherworld」への有効な「通過点」である)、較正手続きが発生する。「ゲートウェイ」の座標にコンピュータ内の仮想空間を「ロックする」ために、「ゲートウェイ」にいるゲスト/プレイヤー又は従業員/俳優からの位置決めデータが、その時点で取られる。コンピュータは、上述の画像に基づく「キャプチャー」プロセスを通して取得される、仮想バージョンのリゾート全体についてゲートウェイの座標を「知っている」のだ。 As guests / players and employees / actors pass “gateways” at various points in the resort (“gateways” are effective “passing points” from “our world” to “otherworld” ), Calibration procedure occurs. In order to "lock" the virtual space in the computer to the coordinates of the "gateway", positioning data from the guest / player or employee / actor at the "gateway" is then taken. The computer "knows" the coordinates of the gateway for the entire virtual version of the resort, acquired through the image-based "capture" process described above.
よって、コンピュータは、ゲスト/プレイヤー又は従業員/俳優がVRゴーグルをつける前に見えるものと一緒に、仮想リゾートを「並べる」ことができる。従って、双眼鏡フラットパネルディスプレイの半透明バージョンを通すと、仮想バージョンが実際のリゾートにスーパーインポーズされている場合、一方は他方に非常に精密に調和するであろう。 Thus, the computer can "align" the virtual resort with what the guest / player or employee / actor sees before putting on the VR goggles. Thus, passing through the translucent version of the binocular flat panel display, one will match very closely to the other if the virtual version is superimposed on the actual resort.
あるいは、「不透明」双眼鏡フラットパネルディスプレイゴーグル又はヘルメットでは、装着者は、自分の前にリゾートの仮想バージョンのみを見ながら、ヘルメットをつけながら自信を持って歩くことができるだろう。なぜならば、仮想世界の風景が、彼が実際に歩いている風景とぴったり一致するであろうからである。 Alternatively, an "opaque" binocular flat panel display goggle or helmet would allow the wearer to walk confidently while wearing the helmet, looking only at the virtual version of the resort in front of him. Because the landscape of the virtual world will be in perfect agreement with the landscape he is actually walking.
もちろん、ゴーグルを通して装着者に見せることができるのは、改変された赤い空や、実際にそこにはない荒れ狂った嵐の雲、そしてまさにちょうど城の銃眼付き胸壁に「火を放った」ドラゴンが上部に止まった城の胸壁だろう。 Of course, what can be shown to the wearer through goggles is a red sky that has been altered, a storm cloud that is not really there, and a dragon that has just "fired" just on the battlemented battlements of the castle. It would be the battlements of the castle that stopped at the top.
そして、遠方の丘を突撃する1000鉱石の軍も! And the army of 1000 ores to charge the distant hills!
8)リゾートのスーパーコンピュータレンダリング及びシミュレーション設備。極めて高品質で近未来映画の品質のシミュレーションを可能にするであろう重要なリソースは、各リゾートの現場のスーパーコンピュータレンダリング及びシミュレーション複合施設だろう。 8) Resort super computer rendering and simulation equipment. An important resource that will enable the simulation of very high quality, near-future movie quality will be the supercomputer rendering and simulation complex of each resort scene.
デスクトップコンピュータ用のコンピュータゲームと同様に、スタンドアローンコンピュータゲームコンソール(プレイステーション2、Xbox、ゲームキューブ)上のグラフィック及びゲームプレイの改良は周知である。 As with computer games for desktop computers, improvements to graphics and gameplay on stand-alone computer game consoles (PlayStation 2, Xbox, Gamecube) are well known.
しかしながら、このようなゲーム体験における改良は、1台のコンソール又はパーソナルコンピュータのプロセッサ及び支援システムの改良に基づくということを考慮して下さい。そしてスーパーコンピューティングセンターの能力をゲーム体験に注ぎ込むと想像してみて下さい。それだけでも、グラフィックとゲームプレイの品質における飛躍的進歩となるであろう。そしてこれは、Otherworld体験となるモバイルVR冒険の一局面でしかない。 However, consider that such improvements in the gaming experience are based on improvements in the processor and support system of a single console or personal computer. And imagine that you put the power of the supercomputing center into the gaming experience. That alone will be a breakthrough in the quality of graphics and gameplay. And this is only one aspect of the mobile VR adventure that will be the Otherworld experience.
上記を再検討することで明らかになると思うが、つまりは関連分野(より広義ではVR、AR、及びシミュレーションの分野)の当業者にとっては明白なはずであるが、最先端技術を改良するために提案される個々のハードウェア又はソフトウェアシステムは、より広いシステムパラメータを考慮に入れ、かつ適切に評価されるべき当該システムパラメータについての前提を明確にしなければならない。 It will be clear by reviewing the above, which should be obvious to those skilled in the relevant fields (more broadly, the fields of VR, AR, and simulation), but to improve the state of the art The individual hardware or software system proposed must take into account wider system parameters and clarify the assumptions about the system parameters to be evaluated properly.
よって、本提案の本質(その焦点は、携帯可能なAR及びVR技術のカテゴリーに該当するハードウェアテクノロジーシステムであり、実際のところ両方の融合であるが、その融合の最も好適なバージョンではウェアラブルテクノロジーであり、かつ好適なウェアラブルバージョンはHMDテクノロジーである)のみが、その中の一部であるシステム全体を考慮又は再考することによって、優れたソリューションとなる完全な事例となる。よって、より大きいVR、AR及びシミュレーションシステムのこの歴史を提示する必要性があり、なぜならば、新しいHMDテクノロジーの提案及び商的オファーが、例えば、狭くなり過ぎたり、システムレベルでの前提、要件及び新たな可能性を考慮しなかったり、検討しなかったりする傾向があるからである。 Thus, the essence of the proposal (the focus is on hardware technology systems that fall into the category of portable AR and VR technologies, and in fact both are fusions, but the most preferred version of that fusion is wearable technology And the preferred wearable version is HMD technology) is a perfect case to be an excellent solution by considering or reconsidering the whole system that is part of it. Thus, there is a need to present this history of larger VR, AR and simulation systems, because new HMD technology proposals and commercial offers have become too narrow, for example, system-level assumptions, requirements and It is because they tend not to consider or consider new possibilities.
HMD技術の進化における主要な画期的出来事を同様に歴史的に見直すことは必要ではない。なぜならそれは、HMDの従来技術の制限及び従来技術の現状、並びに提案されるソリューションの理由、そしてなぜ提案されるソリューションが特定された問題を解決するのかを説明する際の手伝けとするために利用できるフレームワークを提供する必要があるだろう、システムレベルでのより広い歴史であるからである。 It is not necessary to review the major milestones in the evolution of HMD technology as well as historically. Because it is a help in explaining the limitations of the prior art of HMD and the current state of the prior art, and the reason for the proposed solution, and why the proposed solution solves the identified problem It will be necessary to provide an available framework, as it has a broader history at the system level.
HMDの従来技術の制限を理解しかつ特定するために十分なものとは、以下から始まる。 What is sufficient to understand and identify the limitations of the HMD prior art begins with:
ヘッドマウントディスプレイ(本開示の目的上、ヘルメットマウントディスプレイを包含する)のカテゴリーにおいて、現時点までに2つの主要なサブタイプである「VR HMD」と「AR HMD」が特定されており、これらは本明細書で既に提供されたこれらの定義の意味合いに従い、かつAR HMDのカテゴリー内で、これらのタイプを区別するために2つのカテゴリーが用いられており、「ビデオシースルー」又は「光学シースルー」(よりしばしば単に「光学HMD」と呼ばれる)である。 In the category of head mounted displays (including helmet mounted displays for the purposes of this disclosure), two major subtypes, "VR HMD" and "AR HMD" have been identified to date, which are According to the meaning of these definitions already provided in the specification, and within the category of AR HMDs, two categories are used to distinguish these types, “video see-through” or “optical see-through” (more Often referred to simply as "optical HMD").
VR HMDディスプレイでは、ユーザは、1つのパネル又は2つの別個のディスプレイを見る。このようなHMDの典型的な形状はゴーグル又はフェイスマスク形状であるが、多くのVR HMDは、嵩張った密閉型バイザー付きの溶接工のヘルメットの外観を有している。最適なビデオ品質、没入感、そして注意を逸らすものがないということを確保するために、ディスプレイの周囲の辺縁部に光吸収材を用い、このシステムは完全に密閉される。 In the VR HMD display, the user looks at one panel or two separate displays. Although the typical shape of such HMDs is goggles or face mask shapes, many VR HMDs have the appearance of welder's helmets with bulky sealed visors. In order to ensure optimal video quality, immersion and no distraction, the system is completely sealed using a light absorbing material at the peripheral edge of the display.
本開示の著者は以前、組み込まれている米国仮出願「SYSTEM, METHOD AND COMPUTR PROGRAM PRODUCT FOR MAGNETO−OPTIC DEVICE DISPLAY(磁気光学装置ディスプレイ用のシステム、方法及びコンピュータプログラム製品)」において、2つのタイプのVR HMDを提案した。2つのタイプのうちの1つは、当該出願の主たる目的のウェーハー・タイプの実施形態で、従来の直視LCDに取って代わることを単に提案しており、このウェーハー・タイプの実施形態とは、初めての実用的磁気光学ディスプレイであり、その優れた性能特徴は、改良されたディスプレイテクノロジー全般についての、かつ当該実施形態では改良されたVR HMDについてのその他の利点の中で、非常に高いフレーム率を含む。 The author of the present disclosure has previously incorporated two types of US provisional application "SYSTEM, METHOD AND COMPUTR PROGRAM PRODUCT FOR MAGNETO-OPTIC DEVICE DISPLAY (System, Method and Computer Program Product for Magneto-Optic Device Display)". We proposed VR HMD. One of the two types of wafer type embodiments of the main object of the application merely proposes to replace a conventional direct view LCD, which is an embodiment of the present invention. The first practical magneto-optical display, the superior performance features of which are very high frame rates for improved display technology in general, and in this embodiment other advantages for the improved VR HMD. including.
第2のバージョンは、当該開示の教示に従い、新しい種類の遠隔生成画像表示を企図したものであり、これは例えば車両コックピットで生成され、その後に光ファイバー束を介して送信され、そして特別の光ファイバーアレイ構造(当該出願で開示された構造及び方法)を通して配信されるものであり、光ファイバーを介した遠隔画像搬送用の新しいアプローチ及び構造を有する光ファイバーフェースプレートの経験を基礎とする。 The second version, in accordance with the teachings of the present disclosure, contemplates a new type of remotely generated image display, which is generated, for example, in the vehicle cockpit, and subsequently transmitted via a fiber optic bundle, and a special fiber optic array. Based on the experience of fiber optic faceplates that are delivered through the structure (the structures and methods disclosed in the present application) and have new approaches and structures for remote image delivery via optical fibers.
当初HMDについてコアとなるMOテクノロジーは製品化されなかったが、むしろ投影システムについては、これらの開発は本提案のいくつかの態様に関係するものであり、さらに、当該技術分野では一般には知られていない。特に第2のバージョンは、他のものよりも前に公表された方法を開示したものであり、より最近の提案は、HMD光学体に一体化されてはいない又はHMD光学体の近くにはない画像エンジンからのビデオ画像を伝達するために光ファイバーを用いる。 Initially the core MO technology for HMD was not commercialized, but rather for projection systems, these developments pertain to some aspects of the present proposal and are generally known in the art. Not. In particular, the second version discloses methods published prior to others, and more recent proposals are not integrated into the HMD optical body or not close to the HMD optical body Optical fibers are used to transmit video images from the imaging engine.
床さえもある密に制御されたステージ環境を超えた可動性に対する完全密閉型VR HMDの実用性についての極めて重要な考慮事項は、移動運動が安全であるということであり、ナビゲーションされる仮想世界は、現実の表面地形又はモーション軌跡に対して、1:1のマッピング(人間の移動運動に対する安全偏差内で)を行わなければならない。 An extremely important consideration for the practicality of a fully enclosed VR HMD for mobility beyond a tightly controlled stage environment with even floors is that the mobility is safe and the virtual world to be navigated Should perform 1: 1 mapping (within the safety deviation for human movement) on the real surface topography or motion trajectory.
しかしながら、BARSの開発者であるLoral WDLのBarrilleauxなどの研究者によって、また実用的となるべきシステムとしてARシステムについて、過去四半世紀近い開発に亘って当該分野のその他の研究者たちによって一貫して、観察され結論が出されたように、走行中の車両の形状を含む(市街戦のための軍によるシステムの開発から驚くべきことではないが)、仮想の(合成のCG生成されたイメージ)世界と現実世界の地形及び構築環境との間に非常に密な対応が得られなければならない。 However, consistently by researchers such as Barrilleaux of Loral WDL, who is the developer of BARS, and by other researchers in the field over the last quarter century development about AR systems as a system that should be practical As observed and concluded, virtual (including synthetic CG generated images), including the shape of the vehicle in motion (not surprisingly from the development of a military system for urban warfare) A very close correspondence must be obtained between the world and the real world topography and construction environment.
よって、VR又はARのいずれかがモバイル形態で可能となるためには、「仮想」又は合成要素と、いずれかの現実世界要素との間に1:1の位置的対応がなければならないというのが、より一般的な事例である。 Thus, in order for either VR or AR to be possible in mobile form, there must be a 1: 1 positional correspondence between the "virtual" or combining elements and any real-world elements. Is the more common case.
AR HMDのカテゴリーでは、「ビデオシースルー」と「光学シースルー」との区別は、ユーザが、光学メガネの一部としてのビューアーの真正面に配置された透明又は半透明ピクセルアレイ及びディスプレイとして直接見ることと、(典型的に直に隣接する)マイクロディスプレイから生成されて、対面する光学ピースへの光リレーの形態を通して伝達される、これもまたビューアーの真正面に配置された光学素子上の半透明投影画像を通してみることとの間の区別である。 In the AR HMD category, the distinction between "video see-through" and "optical see-through" means that the user views directly as a transparent or translucent pixel array and display placed directly in front of the viewer as part of the optical glasses. , A translucent projection image on an optical element generated from a microdisplay (typically directly adjacent), transmitted through the form of an optical relay to the facing optical piece, also arranged in front of the viewer It is the distinction between looking through.
直接ビュースルーディスプレイの主要なかつおそらくは単に部分的に実用的なタイプである、透明又は半透明表示システムは、(歴史的に)照明バックプレーンなしに構成されたLCDであった。従って、特に、ARビデオビュースルーメガネは、LCD光変調器ピクセルアレイがその上に製作される透明な光基板を含む光学画面を保持する。 A transparent or translucent display system, which is the main and perhaps only partially practical type of direct view-through display, has been (historically) an LCD configured without a lighting backplane. Thus, in particular, AR video view through glasses hold an optical screen that includes a transparent light substrate on which an LCD light modulator pixel array is fabricated.
オリジナルのMannの「EyeTap」と類似のアプリケーション(テキスト/データが直接表示されるか又は対面する光学体に投影される)については、現実世界の地形及びオブジェクトへの較正は必要とされないが、ある程度の位置相関は、視野内のアイテムに情報テキストで文脈上の「タグ付け」を行うのに役立つ。このことは、Google Glass製品の記述された主たる目的であるが、本開示のドラフティングを行う際に、非常に多くの開発者たちが、ライブシーン上にテキストよりも多くスーパーインポーズするARタイプのアプリケーションの開発に集中した。 For applications similar to the original Mann's "EyeTap" (text / data is directly displayed or projected onto facing optics), calibration to real world terrain and objects is not required, but to some extent Positional correlation helps to contextually "tag" items in the field of view with informational text. This is the main purpose written for Google Glass products, but when drafting this disclosure, an AR type that a large number of developers superimpose more than text on live scenes Concentrated on the development of applications.
略2D面又は粗ビューコーンにおける緩く近似な位置相関以外の、ビデオ又は光学シースルーシステムのいずれかのユーザの視野における地形又はオブジェクトへのこのような「較正」の主な問題は、ビューアーの環境にあるオブジェクトの相対位置の決定である。重大な不調和のないパースペクティブ及び相対的サイズの計算は、ローカル環境の基準のかつ/又はおおよそリアルタイムな空間位置決めデータ及び3Dマッピングなしには行うことはできない。 The main problem with such "calibration" to terrain or objects in the field of view of users of either video or optical see-through systems, other than loose approximate position correlation in a roughly 2D plane or coarse view cone, is in the viewer environment. It is the determination of the relative position of an object. Calculations of significant discordant perspectives and relative sizes can not be made without reference and / or near real time spatial positioning data and 3D mapping of the local environment.
相対的サイズに加えて、あらゆる視点からのパースペクティブの重要な局面は、ライティングの方向に応じたリアルな照明/遮光(ドロップシャドーを含む)である。そして最後に、所定のビューイング位置決めからのオブジェクトの遮蔽が、知覚された透視的かつ相対的距離及び位置決めの重要な光学特徴である。 In addition to relative sizes, an important aspect of perspectives from all perspectives is realistic lighting / shading (including drop shadows) depending on the direction of lighting. And finally, occlusion of the object from a given viewing location is an important optical feature of perceived perspective and relative distance and location.
ビデオシースルー又は光学シースルーHMDは存在せず、又はビデオ又は光学ビュースルータイプのいずれのシステムでも、又は実際にモバイルVRタイプのシステムについても、安全な移動運動又は経路探索に必須な、装着者の周囲の次元ビューイングを可能にするように、このようなデータがいかにして提供されるかという問題から隔絶してはビデオシースルー又は光学シースルーHMDを設計することはできない。このようなデータは外部で、ローカルで、又は複数のソースの組み合わせで提供されるのだろうか?もしも部分的にローカルでかつHMDの一部である場合、このことはHMDシステム全体の設計と性能に影響を及ぼすだろうか? この問題がもし影響を及ぼすとしたら、ビデオシースルーと光学シースルーとの間の選択において、その他の含意及び影響を受けるパラメータの中で、所定の重量、バランス、嵩、データ処理要件、構成要素間のラグ、そしてディスプレイと光学構成要素との選択においての詳細に関し、どのような影響があるのだろうか? There is no video see-through or optical see-through HMD, or the perimeter of the wearer, which is essential for safe movement or path finding for either video or optical view-through type systems or indeed for mobile VR type systems It is not possible to design a video see-through or optical see-through HMD isolated from the problem of how such data is provided to enable dimensional viewing of the. Will such data be provided externally, locally, or in combination of multiple sources? If partially local and part of the HMD, would this affect the overall design and performance of the HMD system? Among other implications and affected parameters in the choice between video see-through and optical see-through, if this problem is to be influenced, a given weight, balance, bulk, data processing requirements, among components What effect does it have on the details of the lag, and the choice between display and optical components?
VR HMDが進化及び進歩する際に解決すべき技術的パラメータ及び問題の中で、主に、視野の増大、待ち時間の低減(モーション追跡センサ間のラグ及び仮想パースペクティブの変化)、解像度、フレーム率、ダイナミックレンジ/コントラスト、並びにその他の一般的表示品質特徴の増大、並びに重量、バランス、嵩、及び総合人間工学の問題が含まれてきた。画像コリメーション及びその他のディスプレイ光学体の詳細は、当初から主要な課題であった「シミュレータ病」の問題に効果的に取り組むために改良されてきた。 Among the technical parameters and problems to be solved as the VR HMD evolves and advances, mainly the increase of the field of view, the reduction of latency (change of lag between motion tracking sensors and change of virtual perspective), resolution, frame rate There has been an increase in dynamic range / contrast, as well as other common display quality features, as well as weight, balance, bulk and general ergonomics issues. Image collimation and other display optics details have been refined to effectively address the "simulator disease" problem that has been a major issue from the outset.
ディスプレイ、光学体及びその他の電子機器の重量及び嵩は、これらの一般的技術カテゴリー、そして重量、サイズ/嵩及びバランスにおける改良とともに、時間をかけて減少する傾向があった。 The weight and bulk of displays, optics and other electronics tended to decrease over time, with improvements in these general technology categories, and weight, size / bulk and balance.
静止VRギアは、車両(航空機を含む)における暗視システムのために一般的に用いられてきたが、モバイル暗視ゴーグルは、モバイルVRと同様の媒介ビューイングの形態と見なすことができる。なぜならば、基本的に装着者が見ているのは、リアルタイムでの実際の場面(赤外線撮像された)(但し、ビデオスクリーンを通してであり、「ビュースルー」の形態ではない)だからである。 While stationary VR gears have been commonly used for night vision systems in vehicles (including aircraft), mobile night vision goggles can be considered as a form of mediating viewing similar to mobile VR. This is because basically what the wearer is looking at is the real-time real scene (infra-red imaged) (but through the video screen, not in the form of a "view through").
このサブタイプは、同じく言及された1999年に遡及して、Barrilleauxが「間接視ディスプレイ」として定義したものに類似している。彼は、実際の「ビュースルー」はないが、見えるものが、おそらくはあらゆるVRタイプ又は暗視システムとして含まれる、ディスプレイ上の排他的に融合された/処理済みの実像/仮想画像である、提案したAR HMDに関してその定義を提示した。 This subtype is similar to what Barrilleaux defined as "indirect vision display", retrospectively to 1999 also mentioned. He proposes that there is no actual "view through" but what is visible is an exclusively fused / processed real image / virtual image on the display, perhaps included as any VR type or night vision system The definition is presented for the selected AR HMD.
しかしながら、暗視システムは、仮想・合成風景と、赤外線署名の強さに応じた異なる強度の単色像として、ビデオ信号処理を通して解釈された通りの赤外線センサデータの、実際のものだがむしろ直接送信されたビデオ画像との融合又は混和ではない。ビデオ画像としては、これは、Eyetap が最初に着想されたのと同じ単純な形態での、かつGoogleが述べたように、Glass製品のために意図された主な目的である、リアルタイムテキスト/グラフィックオーバーレイに適している。 However, the night vision system actually, but rather directly transmits, the infrared sensor data as interpreted through video signal processing, as a virtual composite landscape and as a monochromatic image of different intensity depending on the intensity of the infrared signature. It is not a fusion or mixing with a video image. As a video image, this is real-time text / graphics, in the same simple form as Eyetap was originally conceived, and, as Google stated, the main purpose intended for Glass products Suitable for overlays.
いかにそしてどんなデータをライブで抽出するのか、又は参照からモバイルVR又はモバイルARシステムのいずれかに提供するのか、又はこれらの両方か、又は一貫してキューを出して組み合わせられたビューを提供するために、仮想風景と実際の風景の効果的一体化を可能にするために、両カテゴリーと類似性を有する、このハイブリッドでライブ処理されたビデオフィードの「間接視表示」を今含めるのかという問題は、デザインパラメータであり、そしてタイプに拘わらず、あらゆる新しいかつ改良されたモバイルHMDシステムを設計する際に考慮されなければならない問題である。 How and what data will be extracted live, or provided from reference to either mobile VR or mobile AR system, or both, or consistently queue out to provide a combined view The question is whether to include now the "indirect view" of this hybrid live processed video feed that has similarities with both categories to enable effective integration of the virtual landscape and the actual landscape. Regardless of type, design parameter, and type, is a problem that must be considered in designing any new and improved mobile HMD system.
AR用のソフトウェア及びデータ処理は、既に言及したシステム開発者の初期の研究を基礎として、これらの課題に取り組むために進歩してきた。この例としては、係属中の米国特許出願である「Mixed reality space image generation method and mixed reality system(混合現実空間画像生成方法及び混合現実システム)」に開示されている、キャノン株式会社のマツイとスズキの研究がある。 Software and data processing for AR have been advanced to address these issues, based on the earlier work of the system developers mentioned above. As an example of this, Matsui and Suzuki of Canon Inc. disclosed in the pending US patent application “Mixed reality space image generation method and mixed reality system” (Mixed reality space image generation method and mixed reality system). There is a study of
(2004年9月29日出願の米国特許出願開第20050179617号)その要約には以下の通り記載されている。 (U.S. Patent Application Publication No. 20050179617, filed on September 29, 2004) The abstract includes the following.
「現実空間をキャプチャーすることによって得られた現実空間画像に仮想空間画像をスーパーインポーズすることによって形成された混合現実空間画像を生成するための混合現実空間画像生成装置は、仮想空間画像の現実空間上のオブジェクトによる遮蔽を考慮して表示される仮想空間画像を、現実空間画像にスーパーインポーズする画像合成部(109)と、仮想空間画像の遮蔽を考慮せずに表示される画像をさらにインポーズする注釈生成部(108)とを含む。このようにして、自然な表示と便利な表示を両方とも達成できる混合現実空間画像を生成することができる。」 “A mixed reality space image generating apparatus for generating a mixed reality space image formed by superimposing a virtual space image on a real space image obtained by capturing a real space An image combining unit (109) for superimposing a virtual space image displayed in consideration of occlusion by an object in space into a real space image, and an image displayed without considering the occlusion of the virtual space image In this way, a mixed reality space image can be generated that can achieve both natural and convenient displays. "
このシステムの目的は、モックアップ(代理の小道具)上にスーパーインポーズされるべき完全にレンダーされた工業製品(カメラなど)の組み合わせを可能にするように意図されたものであり、光学ビュースルーHMDメガネ一式とモックアップの両方ともに、位置センサが備え付けられる。CG生成された仮想モデルを複合ビデオフィードにスーパーインポーズできるように(わずかなラグでのレイヤリングを可能にするためにバッファ遅延される)、モックアップからピクセルをマッティングするために、リアルタイムのピクセル単位検索比較プロセスが用いられる。注釈グラフィックもシステムによって追加される。コンピュータグラフィック。マッティングを決定し、よって合成物の中に正確でかつ間違っていない遮蔽を確保するためのデータの最も重要なソースは、モックアップ上のモーションセンサと、ハンドマットとモックアップマットを引くためのピクセルを比較する事前決定された参照テーブルである。 The purpose of this system is intended to enable the combination of fully rendered industrial products (such as cameras) to be superimposed on the mock-up (optical props), and the optical view through Both HMD glasses and mock-ups are equipped with position sensors. A real-time method for matting pixels from the mockup so that CG-generated virtual models can be superimposed on composite video feeds (buffered to allow layering with slight lag) A pixel-by-pixel search comparison process is used. Annotation graphics are also added by the system. Computer graphic. The most important sources of data to determine the matting, and thus ensure accurate and not false shielding in the composition, are the motion sensors on the mockup, and for drawing the handmat and the mockup mat It is a pre-determined lookup table that compares pixels.
このシステムは、モバイルAR、VR、又はいずれのハイブリッドについてもその一般化には役立っていないが、実際の3D空間を分析し、かつ透視ビューで適切に仮想オブジェクトの位置決めをするための、単純な(完全自動ではないが)システムを提供する試みの一例である。 This system does not help to generalize mobile AR, VR, or any hybrid, but it is simple to analyze real 3D space and position virtual objects properly in perspective view It is an example of an attempt to provide a system (although not fully automatic).
ビデオ又は光学シースルーHMDの領域では、HMDに届けられた理想的に計算された混合現実透視ビューを前提としてさえ、満足できるリアルかつ正確な融合透視ビュー(パースペクティブの適正な順番の取り扱い、現実空間内の所定ビューアーの位置からの融合要素の適正な遮蔽を含む)を実施できるディスプレイ又は光学体及び表示システムの設計には進歩がほとんどない。 In the area of video or optical see-through HMDs, even with the ideal calculated mixed reality perspective view delivered to the HMD, satisfying real and accurate fused perspective views (handling of the proper order of perspectives, in real space There has been little progress in the design of displays or optics and display systems that can implement the appropriate shielding of the fusion element from the given viewer position.
この問題に対する最も効果的な(たとえ部分的であっても)解決策であると主張されている一つのシステムであり、おそらくは唯一の一体化HMDシステム(HMDから独立して、何らかの包括的な態様でこれらの課題を解決するように設計された、ソフトウェア/写真測量/データ処理及び配送システムとは対照的に)が、既述の米国特許出願第20140177023号「APPARATUS FOR OPTICAL SEE−THROUGH HEAD MOUNTED DISPLAY WITH MUTUAL OCCLUSION AND OPAQUENESS CONTROL CAPABILITY(相互遮蔽及び不透明性制御能力を有する光学シースルーヘッドマウントディスプレイ用装置)」におけるChunyu Gao の提案で言及されている。 One system that is claimed to be the most effective (even partial) solution to this problem, and perhaps only one integrated HMD system (independent of the HMD, some generic aspect (In contrast to software / photogrammetry / data processing and delivery systems, which were designed to solve these problems), but in the previously described US patent application No. 20140177023 "APARATUS FOR OPTICAL SEE-THROUGH HEAD MOUNTED DISPLAY Chunyu Gao in WITH MUTUAL OCCLUSION AND OPAQUENESS CONTROL CAPABILITY (A device for see-through head-mounted display with mutual shielding and opacity control capability) It has been mentioned in the proposal.
Gaoは、AR用のビュースルーHMDの分野についての自身の概説を、以下の見解から始めている。 Gao begins his overview on the field of view-through HMDs for AR from the following point of view.
光学とビデオという2つのタイプのST−HMDがある(J. Rolland及びH. Fuchs、「Optical versus video see−through head mounted, displays(光学対ビデオ・シースルーヘッドマウントディスプレイ)」、In Fundamentals of Wearable Computers and Augmented Reality(ウェアラブルコンピュータと拡張現実の基本において)、113〜157頁、2001年)。ビデオシースルーアプローチの主要な欠点は、シースルービューの画像品質の劣化、入って来るビデオストリームの処理による画像ラグ、ハードウェア/ソフトウェア誤動作によるシースルービューの損失の可能性を含む。また対照的に、光学シースルーHMD(OST−HMD)は、ビームスプリッタを通して現実世界の直視を提供し、よって、現実世界のビューへの影響は最小である。ライブ環境に対するユーザの意識が最優先であるアプリケーションを要求する際に、非常に好適である。 There are two types of ST-HMD, optical and video (J. Rolland and H. Fuchs, "Optical versus video see-through head mounted, displays", In Fundamentals of Wearable Computers and Augmented Reality (on the basis of wearable computers and augmented reality), 113-157, 2001). The main drawbacks of the video see-through approach include the degradation of the image quality of the see-through view, the image lag due to the processing of the incoming video stream, the possibility of the loss of see-through view due to hardware / software malfunction. Also, in contrast, optical see-through HMD (OST-HMD) provides real-world direct view through beam splitters, thus the impact on real-world views is minimal. It is highly suitable when requesting an application where the user's awareness of the live environment is paramount.
しかしながら、ビデオシースルーの問題についてのGaoの見解は、第1の事例において、従来技術のビデオシースルーを排他的にLCDと特定することによっては適格とはされず、また、彼はLCDが(比較的、そしてどの基準でということも省略されている)シースルー画像を劣化させるに違いないという主張を立証してはない。当業者は、この質の悪い画像のビューが、当該分野での昨今の加速的進歩を迎える前の、初期のビュースルーLCDシステムで達成された結果から派生したものであることを、認識し得る。比較として多くの光学素子と、「現実」の「シースルー画像」の再処理又は媒介に対するその他の表示テクノロジーの影響とを用いて、最先端LCD又はその他のビデオビュースルー表示テクノロジーに比較すると、光学シースルーシステムが、最終結果を相対的に悪化させ、又はGaoなどの提案に劣るということは、事実上真実ではなく、明白でもない。 However, Gao's view of the video see-through problem is not qualified in the first case by exclusively identifying the prior art video see-through as an LCD, and he also And there is no proof of claim that it must degrade the see-through image (which is omitted on any basis). One skilled in the art may recognize that this poor quality image view is derived from the results achieved with earlier view-through LCD systems prior to the recent accelerated progress in the field. . Optical see-through as compared to state-of-the-art LCD or other video view-through display technologies, using many optics as a comparison and the influence of other display technologies on "real" "see-through image" reprocessing or mediation It is neither virtually true nor obvious that the system relatively deteriorates the final result or is inferior to the proposal such as Gao.
この根拠のない一般化についての別の問題は、入力ライブ画像の処理もしなければならないその他のシステムに比べて、シースルーのカテゴリーにおけるラグの推定である。この場合、速度の比較は、競合するシステムの全体としての構成要素及びその性能の詳細な分析の結果である。そして最後に、「ハードウェア/ソフトウェアに対するシースルービューの損失の可能性」の憶測は、ビデオと光学シースルースキーム全般の間の、又はどちらかの及びその構成要素テクノロジー及びシステム設計の特定のバージョンの間のいずれかでの、比較システムのロバスト性又は安定性の厳密な分析により、基本的に根拠がなく、任意であり、かつ有効でもない。 Another problem with this groundless generalization is the estimation of lag in the see-through category as compared to other systems that must also process the input live image. In this case, the speed comparison is the result of a detailed analysis of the competing system's overall components and their performance. And finally, the speculation of "the possibility of the loss of see-through view to hardware / software" is between the video and the optical see-through scheme in general, or between and any particular version of its component technology and system design A rigorous analysis of the robustness or stability of the comparison system, either in principle, is basically unfounded, arbitrary, and not effective.
該当分野における比較の欠陥のある及び偏った表明の最初の問題を上回って、彼ら自身が提案した解決策には、既に言及しかつ取り組まれてきたデータ取得、分析及び配信の課題と共に、質的問題(完全なHMDシステムとして(より広いARシステムにおける構成要素としても含む)の提案されたHMDシステムを考慮することを省略しかつかかる考慮が欠けていることを含む)がある。HMDは、「既知の事実」として、改変画像又は混合画像の生成のために特定のレベル及び品質のデータ又は処理能力を扱うことは許可されておらず、この場合そのこと自体だけでも、HMD自体及びそのデザインが補助し又は妨げとなり得る、かつ既知の事実として単純に提示することはできない、重要な疑問及び問題である。 Beyond the first issue of comparative flawed and biased assertions in the field concerned, the solutions they have proposed themselves are qualitative, together with the data acquisition, analysis and distribution issues already mentioned and addressed. There is a problem (including omission and omission of considering the proposed HMD system as a complete HMD system (also included as a component in a wider AR system)). HMD is not permitted to handle data or processing power of a particular level and quality for the generation of modified or mixed images as "known fact", in which case HMD itself is And important questions and problems that can assist or impede the design, and can not be simply presented as known facts.
さらに、課題と解決策の詳述で省略されているのは、モバイルプラットフォームでの現実と仮想の視覚一体化の問題の全範囲である。 Furthermore, omitted from the task and solution detailing is the full range of real and virtual visual integration problems on the mobile platform.
開示と、開示が教示するシステムとは、特に以下の通りである。 The disclosure and the system that the disclosure teaches are particularly as follows.
この背景で前述しているが、Gaoの提案は、2つの表示タイプの装置を利用することであり、なぜならば、ライブ画像を選択的に反映し又は送信する空間光変調器の仕様は、基本的に、これらがいずれの表示アプリケーションでも動作可能であるのと同じ目的のSLMの仕様であるからである。 As mentioned above in this context, Gao's proposal is to use two display-type devices, because the specifications of spatial light modulators that selectively reflect or transmit live images are fundamental Indeed, this is because they are specifications of the SLM for the same purpose as being operable in any display application.
そして、2つの装置からの出力画像は、ピクセル単位でラインアップされる間に、これらの装置の精度についての記述以外の具体的説明はなしに、ビームスプリッタ・コンバイナ(想定されている)内で組み合わせられる。 And while the output images from the two devices are lined up on a pixel-by-pixel basis, they are combined within the beam splitter combiner (assumed) without any specific explanation other than the description of the accuracy of these devices Be
しかしながら、2つのピクセル化されたアレイのこの融合を達成するために、Gaoは彼が「折り畳み光学体」と呼ぶものの重複を特定しているが、基本的に、合計で2つの「折り畳み光学」素子(例えば、格子面/HOE又はその他のコンパクトプリズムもしくは「フラット」光学体)を、各ソースにつき1つずつと、2つの対物レンズ(1つは実景からの波面用で、1つは結合画像そしてビームスプリッタ・コンバイナ)の焦点の他方端に、を必要とする、Mann Eyetapスキームの二重バージョン以外の何物でもない。 However, in order to achieve this fusion of two pixelated arrays, Gao specifies an overlap of what he calls "folding optics" but basically two "folding optics" in total Elements (eg, grating planes / HOE or other compact prisms or "flat" optics), one for each source, and two objective lenses (one for the wavefront from the real scene and one for the combined image) And at the other end of the focal point of the beam splitter combiner, nothing is required other than the double version of the Mann Eyetap scheme.
よって、多数の光学素子(これらのために彼は多様な従来の光学バリエーションを提示している)は、1)第1の反射/折り畳み光学体(平面型格子/ミラー、HOE、TIRプリズム、又はその他の「フラット」光学体)を介して及びそこから対物レンズまで、実際の場面の光を集め、その光を次の格子/ミラー、HOE、TIRプリズム、又はその他の「フラット」光学体に通過させ、光路を再度「折り畳む」ことが必要とされ、これらのすべては、光学システム全体が比較的コンパクトであり、かつ2つの矩形の光学中継域の概略セットに含まれることを確実にするためのものである。折り畳み光学体から、このビームはビームスプリッタ/コンバイナを通してSLMまで通過させられる。そしてSLMは、ピクセル化(サンプリング)に基づいて反射又は送信し、よって可変的に(グレースケール等を修正するための実像コントラスト及び強度からの変化) 変調され、今はピクセル化された実像を通過させて、ビームスプリッタ/コンバイナに戻す。ディスプレイが仮想又は合成/CG画像を同期して生成する間、かかる画像は、修正されピクセル化/サンプリングされた実波面との一体化を確実に容易にするためにおそらく較正もされ、マルチステップで修正されかつピクセル化された実際の場面のサンプルとピクセルごとに一体化するためにビームスプリッタを通過させられ、そこから接眼対物レンズを通り、そして別の「折り畳み光学体」素子に戻って、ビューアーの眼へと光学システムの外へ反射される。 Thus, a large number of optical elements, for which he presents a variety of conventional optical variations, 1) a first reflective / folded optical body (planar grating / mirror, HOE, TIR prism, or Collect the light of the actual scene through the other "flat" optics and from there to the objective lens and pass the light to the next grating / mirror, HOE, TIR prism or other "flat" optics To re-fold the light path, all of which are to ensure that the entire optical system is relatively compact and is included in the approximate set of two rectangular optical relay areas. It is a thing. From the folding optics this beam is passed through a beam splitter / combiner to the SLM. The SLM is then reflected or transmitted based on pixelation (sampling), and thus variably modulated (changes from real image contrast and intensity to correct gray scale etc), and now passes through the pixelated real image Let it go back to the beam splitter / combiner. While the display synchronously generates virtual or composite / CG images, such images are also possibly calibrated to ensure easy integration with the corrected pixelated / sampled real wavefront, in multiple steps The beam splitter is passed through to integrate pixel-by-pixel with the samples of the corrected and pixelated real scene, from there through the eyepiece objective, and back to another "folding optics" element, the viewer Is reflected out of the optical system to the eye.
全体として、修正、ピクセル化かつサンプリングされた部分の実像波面については、ビューアーの眼に届くまでに7個の光学素子(SLMを含まない)を通過する。ディスプレイで生成された合成画像は、単に2個の光学素子を通過する。 As a whole, for the real image wavefront of the corrected, pixelated and sampled part, it passes through seven optical elements (not including the SLM) before reaching the viewer's eye. The composite image generated by the display simply passes through two optical elements.
光学像コンバイナの正確な位置合わせの問題、つまりピクセルレベルでは、レーザーによって問い合わせされた画像サンプルから集められた反射光なのか否か、又は画像の結合が、小さくフィーチャーされたSLM/表示装置を生じさせたのか否かという問題は、特に機械的振動及び熱応力という条件下で位置合わせを維持することは、当該技術において些細な事ではないと見なされている。 The problem of accurate alignment of the optical image combiner, ie, at the pixel level, whether it is reflected light collected from the image sample queried by the laser, or the combination of the images produces a small-featured SLM / display The question of whether or not it is considered that maintaining alignment, especially under conditions of mechanical vibration and thermal stress, is not considered trivial in the art.
高解像度(2k又は4k)の赤、緑及び青の画像エンジン(典型的にはDMD又はLCoS SLMによって生成された画像)の出力を組み合わせる、デジタル投影自由空間光ビーム混合システムは高価であり、これらの位置合わせを達成しかつ維持することは容易ではない。また、Gaoスキームの7個の素子の障害物の場合よりも単純なデザインのものもある。 Digital projection free space light beam mixing systems, which combine the output of high resolution (2k or 4k) red, green and blue image engines (typically images generated by DMD or LCoS SLMs) are expensive and these It is not easy to achieve and maintain alignment. There are also simpler designs than in the case of the 7 element obstacles of the Gao scheme.
さらに、これらの複合マルチエンジン・マルチ素子の光学コンバイナシステムは、HMDにとって必要なくらいにはほぼコンパクトにはなっていない。 Furthermore, these complex multi-engine multi-element optical combiner systems are not nearly as compact as needed for HMDs.
生命科学市場のためにAgilent によって開発されかつマーケティングされたT−Rhomboidコンバイナなどのモノリシックプリズムは、既存のアプリケーションにおいて自由空間コンバイナが示してきた問題に特に取り組むために開発されてきた。 Monolithic prisms such as the T-Rhomboid combiner, developed and marketed by Agilent for the life sciences market, have been developed specifically to address the problems that free space combiners have shown in existing applications.
そして、Microvisionやその他の企業が、SLMに基づいてオリジナルにマイクロ投影テクノロジーのために開発されたHMDプラットフォームの配備に成功してきたが、これらの光学セットアップは典型的に、Gaoの提案よりも実質的により複雑ではない。 And although Microvision and other companies have successfully deployed HMD platforms originally developed for microprojection technology based on SLM, these optical setups are typically more substantial than Gao's proposal Less complicated.
さらに、2つのプラットフォーム上での、2つの画像処理ステップ及び計算繰返しについて基本の論理的根拠は何であるか、そして実際のかつ仮想の波面入力の平滑化及び一体化を達成して、組み合わせられた場面要素の適切な遮蔽/不透明化を実施するために、なぜそれが必要とされるのかを判断するのは難しい。Gaoの最大の懸念と解決すべき問題とは、実像との明るさに対して困難さをもって競う合成画像の問題であり、よって、SLMの主なタスクは、実際の場面の部分又は実際の場面全体の明るさを選択的に落とすことであるように思われる。概して、例えば、時間分割多重化システム内の反射位置にあるDMDミラーの持続時間を最短化することによって、遮蔽された実際の場面の要素の強度を落としつつ、遮蔽されたピクセルは単純に「オフ」のままとされるだろうことも推測されるが、このことはGaoによって特定されてはおらず、SLMがいかにしてその関連する画像改変機能を達成するかの詳細についても特定してはいない。 In addition, what is the basic rationale for the two image processing steps and calculation iterations on the two platforms, and combined to achieve smoothing and integration of the real and virtual wavefront inputs It is difficult to determine why it is needed to perform proper occlusion / opacity of scene elements. The greatest concern of Gao and the problem to be solved is the problem of synthetic images that compete with difficulty with the brightness of the real image, so the main task of the SLM is the real scene part or the real scene It seems to be to selectively reduce the overall brightness. In general, for example, while reducing the intensity of the shielded actual scene element by minimizing the duration of the DMD mirror at the reflecting position in the time division multiplexing system, the shielded pixels are simply It is also speculated that it will be left as it is, but this has not been specified by Gao, nor has it specified the details of how SLM achieves its associated image modification function .
両方とも計算され、較正され、かつ位置合わせされるべき多くのパラメータの中で、現実のフィールドからのまさにどのピクセルが、合成ピクセルに対して較正されたピクセルなのかを判断することが含まれる。完全な一致はなしで、ゴーストのオーバーラップ及び非整列及び遮蔽は、特に動く場面では倍加する。実際の場面の波面部分を対物レンズに通過させる反射光学素子の位置は、その場面でのビューアーの透視位置とは最初は同一ではない、場面に関する実際の透視位置を有しており、なぜならばそれは平面ではなく、ど真ん中に位置している訳ではないからであり、かつそれは単に波面サンプルであり、位置が何かではないからである。さらに、モバイルであり、動いてもいて、かつ前もって合成画像処理装置には知らされていない場合。このシステムの変数の数は、上記の事実の理由だけでも非常に多い。 Among the many parameters that should both be calculated, calibrated, and registered, it is included to determine which pixel from the real field is the one that has been calibrated for the composite pixel. Without perfect agreement, ghost overlap and misalignment and occlusion especially doubles in moving scenes. The position of the reflective optics which causes the wavefront part of the actual scene to pass through the objective has an actual perspective position with respect to the scene which is not initially identical to the perspective position of the viewer in that scene. It is not a plane, it is not located in the middle, and it is merely a wavefront sample, and not a position. Furthermore, if it is mobile, even moving, and not previously known to the composite imaging device. The number of variables in this system is very large, just for the reasons given above.
もしそうであったとして、かつこの解決策の目的がより具体的にされた場合、これを達成するために第2のディスプレイ(双眼鏡システムにおいて、合計2個のディスプレイ、つまり特定されたSLMを追加)を使用することよりももっと単純な方法があるかもしれないことが明確になるかもしれない。 If so, and if the purpose of this solution is made more specific, a second display (a total of two displays in the binocular system, ie the specified SLM is added to achieve this) It may become clear that there may be a simpler way than using).
第二に、いずれかのアプローチが、多数の累積したアラインメント耐性を有するこのような複合システムの耐久性、マルチ素子経路のオリジナルパーツ及び経年摩損からの欠陥の累積、融合されたビームの非整列を理由として、累積した熱的及び機械的振動効果や、7個の素子とこれに加えて光学システムの複雑性から生じるその他の困った問題をもたらす場合、本質的に外部のライブ画像波面のおそらくは劣化(特に経年の)をもたらすのは、このシステムである。 Second, either approach durability of such composite systems with multiple accumulated alignment resistances, accumulation of defects from multi-element path original parts and aging wear, non-alignment of fused beams The reason is that if it causes accumulated thermal and mechanical vibration effects, seven other elements and additionally other problems arising from the complexity of the optical system, it is likely that the external live image wavefront is essentially degraded It is this system that brings about (especially with age).
加えて、かなり詳しく前述したが、実要素と仮想要素との間の空間関係を計算するという問題は、些細な問題ではない。この計算に基づいて2つの(かつ双眼鏡システム内の)おそらくは異なるタイプ(よって異なる色域、フレーム率など)であろうディスプレイ4個タイプの装置を駆動しなければならないシステムの設計は、既に要求が厳しいシステム設計パラメータに複雑さを追加することになる。 Additionally, as discussed in greater detail above, the problem of computing the spatial relationship between real and virtual elements is not a trivial problem. The design of a system that must drive a four-display type device that may be two (and in a binocular system) possibly different types (and thus different color gamuts, frame rates etc.) based on this calculation has already required It adds complexity to stringent system design parameters.
さらに、ゴースト発生又はラグなしで、かつ眼精疲労や視覚系の疲労を誘発せずに、高性能画像を配送するためには、高フレーム率が必須である。しかしながら、Gaoシステムでは、システム設計は、反射SLMではなく、ビュースルーの使用のみで、若干より単純化されるが、より速いFeLCoSマイクロディスプレイ付きですら、フレーム率及び画像速度はなお、TTのDLP(DMD)などのMEMS装置のフレーム率及び画像速度よりも実質的に低い。 In addition, high frame rates are essential to deliver high-performance images without ghosting or lag and without inducing eyestrain or visual system fatigue. However, in the Gao system, the system design is slightly more simplified with the use of only a view-through rather than a reflective SLM, but even with faster FeLCoS microdisplays, the frame rate and image speed are still TT DLP Substantially lower than the frame rate and image rate of MEMS devices such as (DMD).
しかしながら、HMD用により高い解像度が望まれるので(最低でもより広いFOVを達成するために)、TTの2k又は4k装置などの高解像度DMDへのリソースは、非常に高価なソリューションのリソースを意味する。なぜならば、その特徴サイズ及び数のDMDは、低収率で、大衆消費者又はビジネス生産及びコストのために典型的に許容され得るより高い欠陥率、現在それらが利用されているシステム(TI OEMのBarco、Christie、及びNECによって商的にマーケティングされたデジタルシネマプロジェクタなど)のための非常に高いプライス・ポイントを有していると知られている。 However, as higher resolutions are desired for HMDs (to achieve at least a wider FOV), resources for high resolution DMDs such as TT 2k or 4k devices imply very expensive solution resources . Because their feature size and number of DMDs are lower yield, higher defect rates that can typically be accepted for mass consumer or business production and cost, the systems in which they are currently used (TI OEM It is known to have very high price points for digital cinema projectors (commercially marketed by Barco, Christie, and NEC).
Lumus、BAE及びその他のように光学シースルーHMDのためにフラット光学投影テクノロジー(ここで遮蔽は、設計の目的ではなく、これらのアプローチの範囲及び能力の範囲内で可能でもない)から、基本的にこのアプローチを複製するところまで進め、かつ実像を調節して、その後でGaoが提案するような従来の光学セットアップを用いて2つの画像を組み合わせるというのは本能的に容易なステップだが、一方、この組み合わせをもたらし、かつ比較的コンパクトな空間でそのように行うために、多数のフラット光学素子に頼る。 Flat optical projection technology for optical see-through HMDs like Lumus, BAE and others (where shielding is not a design goal, nor is it possible within the scope and capabilities of these approaches), basically It is an instinctively easy step to proceed to duplicate this approach and adjust the real image, and then combine the two images using the conventional optical setup as proposed by Gao. It relies on a large number of flat optics to provide a combination and to do so in a relatively compact space.
背景の概説を締め括るため、HMDの2つの一般的カテゴリーである光学シースルーHMDと古典的VR HMDにおける現在のリーダーに戻ると、現在の最先端技術の概略は以下の通りであるが、留意すべき点は、その他の変異形である光学シースルーHMD及びVR HMDは両方とも市販されており、かつ集中的研究開発の対象となっており、実質的にGoogle、Glass、及びOculus VR HMD、the Riftから飛躍的進歩がもたらされて以降増大している製品発表、出版及び特許出願を含む多大な量の商業的かつ学究的の両方の研究が行われている。 Returning to the current leaders in the two general categories of HMDs, optical see-through HMD and classical VR HMD, to conclude the outline of the background, the outline of the current state-of-the-art is as follows: The point is that the other variants, optical see-through HMD and VR HMD, are both commercially available and are the subject of intensive research and development, and are essentially Google, Glass, and Oculus VR HMD, the Rift A great deal of commercial and academic research has been carried out, including product announcements, publications and patent applications, which have since grown to a breakthrough.
・Googleは、商的に主要なモバイルAR光学HMDであるGlassで、この文書を著している時点では、光学シースルーHMDカテゴリーにおいて躍進的な一般認知度と主要なマーケティングの地位を確立した。 At the time of writing this document with Glass, a commercially major mobile AR optical HMD, Google has established a breakthrough general awareness and major marketing position in the optical see-through HMD category.
しかし彼らは、主に防衛/工業セクターでの製品を既に開発して送り出してきた市場(Lumus及びBAE(Q−Sightホログラフィック導波管テクノロジー)を含む)については、他者に追従した。その他の最近の市場及び研究ステージに参入してきた企業としては、the UK National Physical Realityからの研究で、かつホログラフィック導波管の分野での研究を商業化したTruLife Opticsがあり、彼らは比較的優位を主張している。 However, they followed others on the market (including Lumus and BAE (including Q-Sight holographic waveguide technology)) which has already developed and launched products mainly in the defense / industrial sector. Other companies that have entered the recent market and research stages include TruLife Optics, a study from the UK National Physical Reality that commercialized research in the area of holographic waveguides, and they are relatively Insist on superiority.
多くの軍事用ヘルメットマウントディスプレイアプリケーションについて、そしてGoogleのGlassについての公式の主たる用途の場合について(繰り返すが、上記で分析している通り)、大まかな位置相関のみ必要であるビュー空間へのテキスト及び象徴的グラフィック要素のスーパーインポーズが、多くの初期の単純なモバイルARアプリケーション用には十分であり得る。 For many military helmet-mounted display applications, and for the official main application case for Google's Glass (again, as analyzed above), text to view space and only rough position correlation is needed Superimposition of symbolic graphic elements may be sufficient for many early simple mobile AR applications.
しかし、情報表示アプリケーションの場合でさえ、ビューアーに対面している(かつ最終的にはビューアーを取り囲む)ビュー空間におけるアイテム及び地形にタグ付けされた情報の密度が高いほど、タグの空間的順番/レイヤリングがタグ付けされた要素の透視/相対位置に一致する必要性が大きくなることが明白である。 However, even in the case of information display applications, the higher the density of information tagged with items and terrain in the view space facing the viewer (and ultimately surrounding the viewer), the spatial order of the tags / It is clear that the need for layering to match the perspective / relative position of the tagged element increases.
従って、オーバーラップ、すなわち、視野内の実要素によるタグの部分的遮蔽は(単にタグ自体のオーバーラップだけではなく)必然的に、ビジュアルクラッタを管理するために、「基本的」な情報表示を目的とする光学ビュースルーシステムでさえその要件となる。 Thus, overlap, ie partial shielding of the tag by real elements in the field of view (not just the overlap of the tag itself), necessarily “basic” information display to manage visual clutter Even the desired optical view-through system is the requirement.
タグはさらに、現実空間の透視ビューにおけるタグ付けされた要素の相対位置だけではなく、自動化された優先度(事前に決められた又はソフトウェアで計算された優先度に基づく)と、リアルタイムのユーザが割り当てた優先度の、両方の度合いを反映しなければならないので、タグのサイズ及び透明度(情報階層を反映するためにグラフィックシステムによって用いられているただ2つの主要な視覚的キューを指定すること)が管理され、かつ実施されなければならない。 Tags are also not only relative position of tagged elements in the perspective view of real space, but also automated priorities (based on pre-determined or software-calculated priorities) and real-time users Tag size and transparency (specifying the only two major visual cues used by the graphics system to reflect the information hierarchy), as it must reflect both degrees of priority assigned. Must be managed and implemented.
そこで直ちに生じる疑問は、タグ及びスーパーインポーズされたグラフィック要素の半透明度及びオーバーラップ/遮蔽の問題を詳細に検討した上で、これらの基本的光学シースルーHMD(単眼レチクルタイプか又は双眼鏡全ガラスタイプかのいずれかを問わない)の光学素子を通過させられたライブ要素及びスーパーインポーズされた生成されたビデオ表示要素の相対的の明るさ(特に明るく照らされた屋外照明状態と、非常に薄暗く照らされた屋外状態での)の問題をいかに対処するかということである。これらのディスプレイタイプの有用性を十分に拡張するために、夜間の使用が、明らかに低照度の問題の極端なケースである。 The question that arises immediately is the basic optical see-through HMD (monocular reticle type or binocular all-glass type), after carefully examining the issues of translucency and overlap / masking of tags and superimposed graphic elements. The relative brightness of the live elements and superimposed generated video display elements (in particular with brightly lit outdoor lighting conditions and very dimly) How to deal with the problem of the illuminated outdoor condition). In order to fully extend the usefulness of these display types, nighttime use is clearly an extreme case of the low light problem.
よって、受動的光学シースルーHMDタイプの最も制限された使用事例の条件を超えて動くと、情報密度が増すにつれて(このようなシステムが商業的に成功し、かつ通常は高密度の都会又は郊外地域が営利事業からタグ付け情報を取得した場合に、このようになることが期待される)、かつ明るいかつ薄暗い状態での使用パラメータが制約に追加するにつれ、「受動的」光学シースルーHMDは、モバイルAR HMDの現実的で実用的な実施態様の問題及びニーズから逃れることも、これらに対処することもできないことが明らかである。 Thus, moving beyond the conditions of the most restricted use cases of passive optical see-through HMD types, as the information density increases (such systems are commercially successful and usually dense urban or suburban areas This is expected to happen if the tag gets information from a for-profit business), and "passive" optical see-through HMD mobiles as the light and dim use parameters add to the constraints It is apparent that neither the problems nor the needs of the realistic and practical implementations of AR HMDs can be addressed or addressed.
そこで、モバイルAR HMDを実現するための不完全なモデルとして受動的光学パススルーHMDを検討しなければならず、そして後に振り返ってみた時に、能動的システムへの暫定的な足掛かりとしてのみ見られるようになるであろう。 So we have to consider passive optical pass-through HMD as an imperfect model to realize mobile AR HMD, and it will only be seen as a temporary footing to an active system when looking back at it later It will be.
・Oculus Rift VR (Facebook) HMD: Google Glass製品マーケティングキャンペーンのインパクトと若干並行して、但し、Oculusが実用的VR HMDの重大な出発点でのバリアのいくつかを解決し、かつ/又は実質的に解決し始めていたという点で(Googleの場合には、Lumus及びBAEに続くよりも)、実際には当該分野において先を進んでいたという差があるが、Oculus Rift VR HMDは、本文書を記載している時点では、広く認められる消費者及びビジネス/産業用VRの市場に参入しかつ当該市場を作り上げる主要な大量発売前のVR HMD製品である。 Oculus Rift VR (Facebook) HMD: somewhat parallel to the impact of the Google Glass product marketing campaign, but Oculus solves some of the barriers at the critical starting point of practical VR HMDs and / or substantive There is a difference that it was actually going ahead in the field (in the case of Google, rather than following Lumus and BAE), but the Oculus Rift VR HMD At the time of writing, it is the major pre-mass release VR HMD product that enters and builds the market for widely recognized consumer and business / industrial VR.
Oculus Rift VR HMDの基本的出発点での進歩の概要は、以下の製品特長のリストにまとめられ得る。 An overview of the advancements at the basic starting point of the Oculus Rift VR HMD can be summarized in the following list of product features.
oユーザの眼から数インチの位置に置かれ、かつ単一ディスプレイ上の双眼鏡透視領域に分割された、1080p解像度の1個の現時点で対角7インチのディスプレイを用いて達成された、大幅に広げられた視野。以前存在していたHMDの一般的仕様である全45度と比べて、現在のFOVは本文書上100度である(その元々の90度を改良)。別個の双眼鏡光学体は、ステレオビジョン効果を実現する。 o Achieved using a single 7 pw display at 1080p resolution, positioned a few inches from the user's eye and divided into binocular perspective areas on a single display, significantly An expanded field of view. The current FOV is 100 degrees in this document (compared to its original 90 degrees), compared to 45 degrees, which is a general specification of the HMD previously present. Separate binocular optics provide stereo vision effects.
o 大幅に改良されたヘッドトラッキングと、結果としてもたらされる低いラグ。これは、改良されたモーションセンサ/ソフトウェアの進歩であり、3D位置追跡用の内蔵モーションセンサ(加速度計、MEMSジャイロスコープなど)付きのその他のハンドヘルド及びハンドヘルド装置製品の中で、任天堂Wii、Apple及びその他の携帯電話センサ技術における素早い追従者たち、プレイステーションPSP(現Vita)、任天堂DS(現3DS)、そしてXbox Kinectシステムから移行してきたミニチュアモーションセンサテクノロジーを活用している。現在のヘッドトラッキングは、協調して作動する外部センサを用いて、マルチポイント赤外線光学システムを実現している。 o Significantly improved head tracking and resulting low lag. This is an advance on improved motion sensors / software, among other handheld and handheld device products with built-in motion sensors (accelerometers, MEMS gyroscopes etc) for 3D position tracking, Nintendo Wii, Apple and It uses miniature motion sensor technology that has moved away from other mobile phone sensor technologies, Playstation PSP (now Vita), Nintendo DS (now 3DS), and the Xbox Kinect system. Current head tracking implements multipoint infrared optical systems using coordinated external sensors.
o少ない待ち時間。これは、改良されたヘッドトラッキングと、対話型ゲームソフトウェアシステムの更新を行う速いソフトウェアプロセッサとの組み合わせの成果であるが、用いられるディスプレイテクノロジー(元々はLCDであって、若干より速いOLEDがこれに取って代わった)の固有の応答時間によって制限される。 o Low latency. This is the result of a combination of improved head tracking and a fast software processor that updates the interactive game software system, but with the display technology used (originally an LCD, with slightly faster OLEDs Limited by its inherent response time).
o 低い持続性。これは、より速いスイッチング速度のOLEDディスプレイとの組み合わせで作動して、ビデオストリームをスムーズに維持するのを助けるために、バッファリングの形態である。 o Low sustainability. This is a form of buffering to help keep the video stream smooth, working in combination with faster switching speed OLED displays.
o スキーゴーグル形態のファクター/材料及び機械プラットフォームを用いることによる、より軽い重量、低減された嵩、より良好なバランス、そして全体的に改良された人間工学。 o Lighter weight, reduced bulk, better balance, and totally improved ergonomics by using ski goggle form factor / material and machine platform.
これらの改良点を組み合わせる正味のメリットの概要をまとめると、このようなシステムは構造上又は作動上、パターンとしては新しいものではないかもしれないが、改良された構成要素と、特に効果的な米国意匠特許第D701,206号、並びにあらゆる専有ソフトウェアの正味の効果は、結果として画期的レベルの大量市場VR HMDの性能と検証をもたらした。 Summarizing the net benefits of combining these improvements, such a system may not be structurally or operationally new as a pattern, but with improved components and a particularly effective US Design Patent No. D 701,206, as well as the net effect of any proprietary software, resulted in breakthrough levels of performance and verification of mass market VR HMDs.
多くの場合にはこれらの先例に倣いかつそのアプローチを採用し、またOculus VR Rift構成の成功に基づいて自分たちのデザインを改変したその他の者達の場合には、同時期に発生した数個の製品プログラムがあり、多くのVR HMD製品開発者(ブランド名を冠した企業と新興企業の両方)が存在していて、彼らはオリジナルの2012年Electronic Expo デモンストレーション及びOculus VR によるキックスターター融資キャンペーンの後、製品計画発表を行った。 In many cases following these precedents and adopting that approach, and in the case of others who have modified their design based on the success of the Oculus VR Rift configuration, a few have occurred at the same time Product programs, and there are many VR HMD product developers (both branded companies and start-up companies), they are the original 2012 Electronic Expo demonstrations and kickstarter financing campaigns by Oculus VR After that, we made a product plan announcement.
迅速に後に続いた者たちそしてOculus VRテンプレートに従って自身の戦略を明らかに改変した者たちの中に、サムスンがいた。サムスンは、本文書記載の時点でOculus VR RiftのデザインとSonyのMorpheusによく似た開発モデルのデモンストレーションを行った。この分野で頭角を現してきた新興企業には、Vrvana(前True Gear Player)、GameFace、InfiniteEye、そしてAvegantが含まれる。 Among those who followed quickly and those who apparently modified their strategies according to the Oculus VR template were Samsung. Samsung demonstrated the design of the Oculus VR Rift and a development model very similar to Sony's Morpheus at the time of this writing. Emerging companies that have emerged in this area include Vrvana (formerly True Gear Player), GameFace, InfiniteEye, and Avgant.
これらのシステム構成のいずれも、Oculus VRと全く同一と思われるものはないが、2パネルを使用するものもいれば、その他は4パネルを使用し、InfiniteEyeは、その主張によると200+度までFOVを拡げるために、4パネルシステムを利用した。LCDを使用するものもいれば、その他はOLEDを使用している。ヘッドトラッキングシステムの精度と更新速度を改良するために、光学センサが用いられている。 None of these system configurations appear to be exactly the same as the Oculus VR, but some use two panels, others use four panels, and the InfiniteEye, according to its claim, is FOV up to 200+ degrees. Used a four panel system to expand the Some use LCD and others use OLED. Optical sensors have been used to improve the accuracy and update rate of head tracking systems.
これらのシステムのすべては、基本的に決まった場所での又は高度に制約付きの可動性のために実現される。これらは、居間や外科教室又はシミュレータステージなどの密閉空間で使用されるように設計された、搭載型及び能動的光学マーカに基づくモーション追跡システムを利用する。 All of these systems are implemented because of their essentially fixed location or highly constrained mobility. These make use of on-board and active optical marker based motion tracking systems designed to be used in a living room or enclosed space such as a surgical classroom or simulator stage.
Oculus VRスキームと最も大きく異なるシステムは、AvegantのGlyphとVrvana Totemである。 The systems that differ the most from the Oculus VR scheme are Avent's Glyph and Vrvana Totem.
The Glyphは、反射平面光学素子上に投影されたマイクロ画像を生成するためにTexas Instruments DLP DMDを用いて、以前確立された光学ビュースルーHMDソリューション及び構造に従ったディスプレイソリューションを実際に実現しており、既存の光学ビュースルーHMDの平面光学素子と同じ構成及び操作であり、異なる点としては、反射/間接マイクロプロジェクタ・ディスプレイ・タイプを実現するために、高コントラストの光吸収バックプレーン構造が用いられており、ビデオ画像は、不透明、非透明表示画像の一般カテゴリーに属する。 The Glyph actually implements a previously established optical view-through HMD solution and structure-based display solution using the Texas Instruments DLP DMD to generate a micro image projected onto a reflective planar optical element. And the same configuration and operation as the planar optical elements of the existing optical view-through HMD, except that a high contrast light absorbing backplane structure is used to realize the reflective / indirect micro-projector display type. Video images belong to the general category of opaque, non-transparent display images.
しかし、ここでGao開示の考察で前述した際に立証されたが、DLP DMD又はその他のMEMS構成要素を使用する場合に、ディスプレイ解像度及びその他のシステム性能を1080p/2kを超えて高める際の制限は、そのシステムのコスト、製造収率及び欠陥率、耐久性及び信頼性である。 However, as demonstrated here above in the discussion of the Gao disclosure, limitations when enhancing display resolution and other system performance beyond 1080p / 2k, when using DLP DMD or other MEMS components Is the cost, manufacturing yield and defect rate, durability and reliability of the system.
さらに、平面光学素子(格子構造、HOE又はその他)の制限付き拡張/拡大率からの画像サイズ/FOVへの制限(これはSLM画像サイズを拡張するが、人間視覚システム(HVS)(特に焦点システム)へのインタラクション/負担がある)は、ビューアーの安全と快適さへの制限を提示する。Google Glassの試験での、同様のサイズだが解像度が低い画像の使用に対するユーザの反応では、より高い解像度でより明るいが、等しく小さい画像面積でのHVSへのさらなる負担が、HVSに難題をもたらすことが示唆されている。Googleの公式コンサルタントである眼科医のEli Peli医師は、オンラインサイトBetaBeatとのインタビューでのGoogle Glassユーザたちに対する、何らかの眼精疲労と不快感を予測した以前の警告(2014年5月19日)を追跡調査し、改訂版の警告(2014年5月29日)にて潜在的利用の事例と範囲を制限することを求めた。その境界決定は、意図されていない態様で使用された又は長時間使用された眼筋についてであり、改定された声明でのこの近因は、ユーザを強制的に見上げさせてしまうことになった小さい表示画像の位置であった。その他の専門家たち Furthermore, the limitation to image size / FOV from limited expansion / magnification of planar optics (grating structure, HOE or other) (which extends SLM image size but human vision system (HVS) (especially focusing system) Interactions / burdens)) present limitations on viewer safety and comfort. The user's reaction to using similar sized but lower resolution images in the Google Glass test is brighter at higher resolutions, but the additional burden on HVS with equally small image areas poses a challenge for HVS Is suggested. Eli Peli, a doctor at Ophthalmologist, Google's official consultant, told Google Glass users in an interview with the online site BetaBeat a previous warning (May 19, 2014) that predicted eyestrain and discomfort It was followed up and called for a revised warning (May 29, 2014) to limit the cases and scope of potential use. The demarcation is about the eye muscles used in an unintended manner or used for a long time, and this near cause in the revised statement has forced the user to look up It was a small display image position. Other experts
しかしながら、実際のFOVの小さな部分への焦点使用のために必要な眼筋の使用の特定の組み合わせは、実際のFOV全体に亘っての眼の動きに必要なものと同一であると想定することはできない。事実上、焦点筋肉の小さい微調整は、自然のFOVのスキャンに伴うモーション範囲よりも限定/制約される。よって、収縮性ROMの繰り返しの動きは、当該分野で知られている通り、焦点方向のみに制限されているのではないが、HVSの特質により、通常使用を超えた過度の緊張を追加し、またさらに、モーション範囲の制約と、非常に小さい制御された微調整を行う必要性を追加することが予想される。 However, assume that the specific combination of use of the eye muscles necessary for focus use on small parts of the actual FOV is identical to that required for eye movement throughout the actual FOV. I can not do it. In fact, the small tweaking of the focal muscles is more limited / constrained than the range of motion associated with a natural FOV scan. Thus, the repetitive movement of the contractile ROM is not limited only to the focus direction as is known in the art, but the nature of the HVS adds excessive tension beyond normal use, Still further, it is expected to add motion range constraints and the need to make very small controlled fine adjustments.
追加される複雑さとは、制約される眼の動きの領域における詳細のレベルが、複雑で詳細な動きが伴う場面で解像度が高まるにつれ、眼精疲労が精密工具作業を急速に上回ってしまうということである。この問題についての厳密な処置は、光学ビュースルーシステムのいずれの開発者によっても何ら報告されておらず、そしてこれらの問題点と、Steve Mannが自身のEyeTapシステムの使用について何年にも亘って報告してきた眼精疲労、頭痛及びめまいの問題(この問題については、最新のDigital EyeTap アップデートにおいて、視野の中心に画像を移動することによって、一部分は改良されたと報告されているが、系統的な研究はなされていない)については、精密作業から生じ得る眼精疲労及び「コンピュータ視覚病」の課題及び問題のごく一部のみに着目している限定されたコメントしかなされていない。 The added complexity is that eye strain quickly outpaces precision tooling as the level of detail in the area of constrained eye movement increases in resolution with scenes with complex detailed movement It is. No exacting treatment for this problem has been reported by any of the developers of the optical view-through system, and these problems and over many years with Steve Mann's use of his EyeTap system Reported eye strain, headache and dizziness problems (The problem has been reported to have been partially improved in the latest Digital EyeTap update by moving the image to the center of the field of view but systematic No research has been done), with only limited comments focusing on only a small fraction of the problems and issues of eye strain and “computer vision disease” that can result from precision work.
しかしながら、GoogleがPeli医師から入手可能とした限定された公的コメントでは、概して、光学ビュースルーシステムとしてのGlassは、長期の又は高周波数での視聴よりもむしろ、時折使用することが意図されていると、繰り返し主張している。 However, the limited public comments that Google has made available to Dr. Peli generally suggest that Glass as an optical view-through system is intended for occasional use rather than long-term or high frequency viewing And repeatedly insist.
Glyphスキームを理解するためのもう一つの方法としては、最高レベルにおいて、Mann Digital EyeTapシステム及び構造配置に従い、光分離させたVR操作のための実施態様のバリエーションを用い、かつ最新の光学ビュースルーシステムの側面投影偏向光学セットアップを利用することである。 Another way to understand the Glyph scheme is to use, at the highest level, a variation of the embodiment for light-split VR operation according to the Mann Digital EyeTap system and the structural arrangement, and the latest optical view through system Side projection deflection optical setup.
Vrvana Totemでは、Oculus VR Riftからの出発とは、同一の光学的に覆われたOLEDディスプレイパネル上でビデオキャプチャーされた前方画像キャプチャーと、生成されたシミュレーションとを切り替えることを可能にするため、双眼鏡、従来のビデオカメラを追加することによって、Jon Barrilleauxの「間接視ディスプレイ」のスキームを採用することにある。Vrvanaは、まさにBarrilleauxの特定したスキーム及びパターンに従って、AR用のこの非常に基本的な「間接視ディスプレイ」を実現する材料をマーケティングすることを示してきた。最低でもHMDの重量及びバランスへの影響はあるが、事実上現在のOculus VR世代のその他のVR HMDのいずれも、このような従来のカメラに取り付けることができることが明らかである。 In Vrvana Totem, departure from the Oculus VR Rift is a binocular to allow switching between forward captured image captured on the same optically covered OLED display panel and generated simulation. By adding a conventional video camera, it is to adopt the "indirect view display" scheme of Jon Barrilleaux. Vrvana has shown marketing the material to realize this very basic "indirect viewing display" for AR, just according to Barrilleaux's specified schemes and patterns. While at least affecting the weight and balance of the HMD, it is clear that virtually any other VR HMD of the current Oculus VR generation can be attached to such conventional cameras.
上記より、「ビデオシースルーHMD」のカテゴリーにおいて又は一般的に「間接視ディスプレイ」の分野においては暗視ゴーグルのカテゴリーを超えるような進歩はほとんどあるいは全くないということが、上記の内容から明白であろう。暗視ゴーグルは、サブタイプとしてはよく開発されてきているが、当該技術分野で知られているビデオプロセッサ方法の範囲内で、ライブ画像にテキスト又はその他のシンプルなグラフィックを追加する提供以外のあらゆるAR特長を欠いている。 From the above it is clear from the above content that in the category of "Video See-through HMD" or generally in the field of "Indirect Vision Display" there is little or no progress over the category of night vision goggles I will. Night vision goggles are well developed as a subtype, but within the scope of video processor methods known in the art, any other than providing adding text or other simple graphics to live images It lacks AR features.
さらに、VR HMDに対する既存の制限に関して、OLED及びLCDパネルを用いるすべてのこのようなシステムは比較的低いフレーム率となってしまい、これはモーションラグや待ち時間、そしてこれは広いカテゴリーでの「シミュレータ病」に属する一部のユーザへのネガティブな生理的影響の一因となる。また、Texas Instruments DLP DMDに基づくプロジェクタ又はSony LCoSに基づくプロジェクタ用に実現されたRealD システムなどのこのような市販のステレオシステムを用いる、映画のデジタルステレオ投影システムでは、不十分に高いフレーム率もまた、観客のほんの一部(ある研究では10%ほど)が頭痛や関連症状を体験する一因となるとも報告されていることも注記しておく。これらのうちの一部は該当する個人に特有のものであるが、これについてかなりの割合がフレーム率の制限に原因を帰することができる。 Furthermore, with respect to the existing limitations to VR HMDs, all such systems using OLED and LCD panels have relatively low frame rates, which are motion lag and latency, and this is a broad category of "simulators" Contribute to negative physiological effects on some users who belong to Also, with digital stereo projection systems for movies using such commercially available stereo systems such as RealD systems realized for projectors based on Texas Instruments DLP DMD or projectors based on Sony LCoS, the frame rate too high is also insufficient. Also note that a small percentage of the audience (about 10% in some studies) has also been reported to contribute to experiencing headaches and related symptoms. Some of these are specific to the relevant individual, but a significant percentage of this can be attributed to frame rate limitations.
そしてさらに、注記した通り、Oculus VRは、本書記載の時点で用いられているOLEDのなおも不十分に高いピクセルスイッチング/フレーム率を補うために、パット内のシステムをバッファリングする「低い持続性」を実現している。 And further, as noted, Oculus VR's "buffering system in the pad to compensate for the still inadequately high pixel switching / frame rate of the OLEDs used at the time of this writing" Is realized.
既存のVR HMDの性能へのさらなる影響は、既存のOLED及びLCDパネルディスプレイの解像度制限によるもので、この解像度制限は、十分に効果的な解像度を達成するために、対角5〜7インチディスプレイを使用して、かつ視聴光学体(そしてビューアーの眼)から少し離してこれらを取り付ける要件の一部要因となり、大半のその他の光学ヘッドウェア製品よりもかなり大きく、より嵩があって、より重い、既存のそして計画された提供物の嵩、サイズ及びバランスの一因となる。 A further impact on the performance of existing VR HMDs is due to the resolution limitations of existing OLED and LCD panel displays, this resolution limitation allows for a 5-7 inch diagonal display to achieve a sufficiently effective resolution. Which is part of the requirement to attach them using and slightly away from the viewing optics (and the viewer's eyes) and are considerably larger, bulkier and heavier than most other optical headwear products Contribute to the bulk, size and balance of existing and planned offerings.
嵩を追加することなくFOVをさらに改良することが期待され得る曲面OLEDディスプレイを採用することから、潜在的な部分的改良が期待される。しかしながら、受容可能な収率の製造工場の能力に対して大幅な追加規模の投資を必要とする、十分な量を市場に出すための経費は、この見通しを短期的に実践的ではないものにする。そのため、嵩やサイズの問題に単に部分的に対処するのみとなってしまう。 Potential partial improvements are expected from adopting curved OLED displays that can be expected to further improve the FOV without adding bulk. However, the cost to market a sufficient quantity that requires significant additional investment in the capacity of a production plant with acceptable yields makes this outlook impractical in the short run. Do. Therefore, the problem of bulk and size is only partially addressed.
完全性のために、インタラクティブではなく又はいかなるモーション感知能力なしで、よって仮想又はハイブリッド(混合の現実/AR)世界をナビゲートする能力なしにビデオコンテンツを視聴するために採用されるビデオHMDを指摘する必要もある。このようなビデオHMDは、過去15年間に亘って基本的に改良されてきて、効果的なFOV及び解像度及び視聴の快適さ/人間工学を高め、かつ最新のVR HMDが活用しかつそのために構築することが可能となった開発経路及び進歩を提供してきた。しかし、これらもまた、OLED、LCD及びDMDに基づく反射/偏向光学システムについて観察された制限に従うパターンで、採用されたディスプレイ技術のコア性能によって制限されてきた。 For completeness, point out a video HMD employed to view video content without the ability to navigate the virtual or hybrid (mixed reality / AR) world without being interactive or with any motion sensing capabilities You also need to Such video HMDs have been fundamentally improved over the past 15 years to enhance effective FOV and resolution and viewing comfort / ergonomics, and to be utilized and developed by the latest VR HMDs Provided development paths and advances that have become possible. However, these too have been limited by the core performance of the adopted display technology, with patterns according to the limitations observed for OLED / LCD / DMD based reflection / deflection optical systems.
透明なアイウェアの光学パラダイムにおける投影画像についてのその他の重要なバリエーションは、Osterhoudt Design Group、Magic Leap、及びMicrosoft(Hololens)によるものを含む。 Other important variations on projection images in the transparent eyewear optical paradigm include those by Osterhoudt Design Group, Magic Leap, and Microsoft (Hololens).
これらのバリエーションは、互いに対して、そして前述で詳細に考察したその他の従来技術に対していくつかの相関的な利点又は欠点をもたらし、これらはすべて基本アプローチの制限を保持している。 These variations bring some relative advantages or disadvantages to each other and to the other prior art discussed in detail above, all of which hold the limitations of the basic approach.
共通してより根本的かつ普遍的でさえあって、既存のコアディスプレイ技術のフレーム率/リフレッシュとして、高速LC、OLED又はMEMSのいずれかを問わず、また表示画像をビューイング光学体に伝達するために開示された機械的スキャニングファイバー入力又はその他の光学システムを採用しているか否かを問わず、これらは採用されたディスプレイ/ピクセル技術の基本タイプによっても制限され、すべては、大量市場の高品質で楽しめるAR及びVRの実現に別々にかつ共に寄与する、高品質で、目に優しい(HVS)、低電力、高解像度、高ダイナミックレンジ及びその他のディスプレイ性能パラメータの要件を満たすにはまだ不十分である。 Commonly more fundamental and even universal, as a frame rate / refresh of existing core display technology, whether high speed LC, OLED or MEMS, and also transferring display images to viewing optics These are also limited by the basic type of display / pixel technology employed, whether or not they employ mechanical scanning fiber inputs or other optical systems disclosed for High quality, eye-friendly (HVS), low power, high resolution, high dynamic range and other display performance parameter requirements are yet to be met, contributing separately and jointly to the realization of AR and VR enjoyable in quality It is enough.
上に記載された詳細について従来技術の状態の概要をまとめると、以下の通りである。 A summary of the state of the art with the details described above is as follows.
・「高視力」VRは、FOV、待ち時間、頭部/モーション追跡、軽量、サイズ及び嵩という実質的に多くの点において改良した。 "High vision" VR has improved in substantially many points: FOV, latency, head / motion tracking, lightness, size and bulk.
・しかし、フレーム率/待ち時間及び解像度、そして当然の重要な結果として生じる範囲において、重量、サイズ及び嵩は、コアディスプレイ技術の制約によって制限される。 However, the frame rate / latency and resolution, and to the extent that result as a matter of course, the weight, size and bulk are limited by the limitations of core display technology.
・そして現代のVRは、小さい制御された空間での静止型又は非常に制約かつ制限されたモバイル用途に制約される。 • And modern VR is constrained to stationary or very constrained and restricted mobile applications in small controlled spaces.
・光学ビュースルーシステムの密閉バージョンに基づくが、SLMが一連の3つの光学素子を介して画像を眼に投影する側面投影偏向システムとして構成されたVRは、反射画像のサイズの性能において制限され、この反射画像は拡大されるが、標準のメガネレンズの合計面積に比べて、SLM(DLP DMD、その他のMEMS、又はFeLCoS/LCoS)の出力よりもかなり大きくはない。「クローズアップ作業」の非常に激しいバージョンの拡張ビューイングと、これによって眼筋に要求されることからの眼精疲労のリスクは、実用的受け入れにおける追加の制限となる。そして、SLMタイプ及びサイズのディスプレイはまた、言及されたテクノロジーのより高い解像度のSLMのスケーリングコストにより、改良された解像度及び性能全般への実用的進路も制限する。 VRs configured as a side projection deflection system based on an enclosed version of an optical view-through system but where the SLM projects the image onto the eye through a series of three optical elements are limited in the performance of the size of the reflected image, This reflected image is magnified but not significantly larger than the output of the SLM (DLP DMD, other MEMS, or FeLCoS / LCoS) compared to the total area of a standard spectacle lens. The very intense version of extended viewing of the "close-up work" and the risk of eyestrain from this which is required of the eye muscles is an additional limitation on practical acceptance. And, SLM type and size displays also limit the practical path to improved resolution and overall performance due to the scaling cost of higher resolution SLMs of the mentioned technology.
・光学ビュースルーシステムは概して、眼筋の比較的小さい領域への使用の限定により眼精疲労の可能性は同じであり、これらの制約内でのかつ短い使用期間を超える場合について、比較的細かくかつ頻繁に眼を追跡する調整を要する。Google Glassは、真直ぐ前を見る眼の直接レスト位置よりも上にかつ外に光学素子を位置づけることによって、制限された継続期間の使用の予想を反映するように設計されていた。しかし、ユーザは、Google Glass Explorersからの文章やインタビューによって出版物で幅広く文書化されてきたように、それにもかかわらず眼精疲労を報告していた。 Optical view-through systems generally have the same potential for eyestrain due to the limitation of use to relatively small areas of the eye muscle, and are relatively fine for these constraints and for cases exceeding a short period of use And often require adjustments to track the eye. Google Glass was designed to reflect the prospect of using a limited duration by positioning the optics above and outside the direct rest position of the eye looking straight ahead. However, the user has nevertheless reported eyestrain, as it has been extensively documented in the publication by texts and interviews from Google Glass Explorers.
・光学ビュースルーシステムは、透視ビューにおける現実世界のオブジェクトへのタグを整理する必要性があるため、重ねられた半透明情報の密度において制限される。可動性及び情報密度の必要性により、グラフィック情報表示アプリケーション用でさえ受動的光学ビュースルーを制限付きとする。 Optical view-through systems are limited in the density of superimposed translucency information due to the need to organize tags to real-world objects in perspective views. The need for mobility and information density makes passive optical view-through limited even for graphic information display applications.
・「間接視ディスプレイ」の諸態様は暗視ゴーグルの形態で実現されてきており、Oculus VRの競合相手であるVrvanaは、AR用の双眼鏡ビデオカメラが搭載されたTotemの適応を示唆したのみである。 -Aspects of "indirect vision display" have been realized in the form of night vision goggles, and Vrvana, a competitor of Oculus VR, only suggested the adaptation of Totem with a binocular video camera for AR. is there.
・Gaoの提案。これは光学ビュースルーディスプレイであると主張されているが、実際には、SLM装置の使用により擬似ビュースルーの態様を有し、どちらかというと「間接視ディスプレイ」であり、実波面の一部をサンプリングしかつ当該波面の複数部分をデジタル処理で改変するために、投影ディスプレイ用に修正されて、そのように機能する。 ・ Gao's proposal. It is claimed to be an optical view-through display, but in fact it has a pseudo-view-through aspect due to the use of an SLM device, rather a "indirect view display", which is part of the actual wavefront Are modified for the projection display to function as such, in order to sample and modify portions of the wavefront digitally.
最初の波面部分の光ルーティングに介在する光学素子の数(また、ここに追加すべき点は、従来のメガネの従来のレンズの光学領域よりもかなり小さい)(7個又はこれに近い数である)は、画面収差、画像の乱れ、及び損失の両方の機会をもたらすが、多くのそのような素子の複雑自由空間アラインメントが一般的でなく、かつそれらが必要とされ、高価であって、維持が困難であり、かつ堅牢ではない場合に、光学アラインメントの複雑なシステムが必要となる。SLMが現実の場面の改変を管理することを期待されている際に用いられる方法も、その特定の要件について特定も検証もされていない。ディスプレイ2個〜4個タイプの装置(双眼鏡システムの単眼に応じて)間の信号処理の調整を行う問題についても特定も検証もされておらず、この問題は、透視ビューにおける実要素と合成要素との間の適正な関係を作り出すために計算を行うことが既に非常に厳しい要求である状況において、特に、個人が、情報が密集していて地形的に複雑な環境の中で動いている場合に、現実のフィールドからの具体的にどのピクセルが、適正な合成のもののための較正されたピクセルなのかを判断することを含む。車両への搭載は、単にこの問題をさらに悪化させるのみである。 The number of optical elements involved in the light routing of the first wave front portion (and the point to add here is much smaller (7 or nearly so) than the optical area of the conventional lens of the conventional glasses) ) Provides the opportunity for both screen aberration, image distortion, and loss, but complex free space alignment of many such elements is not common and they are needed, expensive and expensive If it is difficult and not robust, a complex system of optical alignment is required. Neither the method used when SLM is expected to manage the real scene modifications nor the identification or verification of its specific requirements. The problem of coordinating signal processing between two to four types of displays (depending on the monocular in a binocular system) has not been identified or verified, and the problem is that real and synthetic elements in a perspective view Especially in situations where it is already a very demanding requirement to make calculations to create a proper relationship between them, especially when the individual is moving in a densely populated, geographically complex environment It involves determining which pixels from the real field are specifically calibrated pixels for the proper composition. Mounting on vehicles merely exacerbates this problem.
Gaoが提案する光学セットを構築するというタスクに比べて、又はこれを比較的コンパクトな形状因子に縮小するタスクでさえあっても、完全なシステムを開発するには無数の追加の問題がある。サイズ、バランス、及び重量は、様々な処理及び光学体アレイユニットの数及び(暗示的に)必要な場所にもたらされる多くの結果のうちのほんの一つであるが、言及したその他の問題や制限に比べて、比較的マイナーなものである。但し、このようなシステムを現場使用(軍事用又は高耐久化された工業利用又は消費者利用のいずれか)するために実際に配備するには深刻なものではある。 There are numerous additional problems in developing a complete system, even with the task of constructing an optical set proposed by Gao, or even reducing it to a relatively compact form factor. The size, balance, and weight are just one of the various processing and number of optical body array units and many results that will be (implicitly) required, but other issues and limitations mentioned It is relatively minor compared to. However, it is serious to actually deploy such a system for field use (either for military use or for ruggedized industrial use or consumer use).
・100%「間接視ディスプレイ」は、Gaoの提案に関する重要な点で同様の需要があるだろうし(ディスプレイタイプユニットの数や、アラインメント、光学システム、ピクセルとシステムのマッチング、及びパースペクティブの問題の詳細を除く)、よって、このようなシステムのすべての重要なパラメータが、リアルタイムの個々の透視リアルタイムビュースルー画像と協調して保存された合成CG3Dマッピングされた空間の「総当たりの」計算を必要とする度合いについての問題を投げかける。この問題は、前方ビデオカメラによって撮像されたビデオ画像について、基本的なBarrilleauxで、そして今は可能なVrvanaデザインで、計算がすべて行われ、合成要素と合成するための非ローカルな(HMD及び/又は装着者自身へ)プロセッサへと中継されなければならない程度まで、より大きくなる。 100% "indirect vision display" will have similar needs at key points regarding Gao's proposal (details of the number of display type units, alignment, optical systems, pixel and system matching, and perspective issues) Except that all important parameters of such a system require a "round-robin" calculation of synthetic CG3D mapped space stored in concert with individual real-time perspective real-time view-through images Throw a question about the degree of The problem is that for video images captured by forward video cameras, with the basic Barrilleaux, and now with the possible Vrvana design, all the calculations are done, non-local (HMD and / or Or to the wearer himself) to a degree that must be relayed to the processor.
現実の環境に没入感及び較正の両方を実現する真にモバイルなシステムにとって(VR又はARのいずれでも)何が必要なのかは、以下の通りである。 What is needed (whether VR or AR) for a truly mobile system that achieves both immersiveness and calibration in a real environment is as follows.
・人間視覚システムへの非正規な要求を最小限に抑える人間工学光学体及び視聴システム。これは、より拡張された使用を可能にするためであり、その拡張使用はモバイル使用によって暗示される。 Ergonomics and viewing systems that minimize non-regular demands on human vision systems. This is to allow for more extended use, which is implied by mobile use.
・120〜150度の広いFOV(理想的には周辺の視界を含む)。 -A wide FOV of 120 to 150 degrees (ideally including the peripheral vision).
・典型的にディスプレイが原因である待ち時間及びその他の画像の乱れを最小限に抑えるための高いフレーム率(理想的に60fps/眼)。 High frame rates (ideally 60 fps / eye) to minimize latency and other image artifacts typically caused by the display.
・顔からユニットまでの快適な距離での高い実効解像度。最大値を測定するために使用され得る実効解像度基準は、有効8k又は「網膜ディスプレイ」である。この距離は、一般的にバランス点として鼻梁を用いる従来のメガネの距離と同様となるはずである。視準及び光路光学体が、この有効表示解像度及び眼までの光学素子の実際の距離も実現する適正な仮想焦点面を確立するために必要である。 -High effective resolution at a comfortable distance from the face to the unit. The effective resolution standard that can be used to measure the maximum value is the effective 8k or "retinal display". This distance should be similar to that of conventional glasses, which generally use the bridge bridge as the balance point. Collimation and optical path optics are needed to establish a proper virtual focal plane that also achieves this effective display resolution and the actual distance of the optical element to the eye.
・ライブ実景のダイナミックレンジに可能な限り近く一致する高ダイナミックレンジ。 High dynamic range that matches as closely as possible the dynamic range of the live scene.
・既知の地形(事前に知っているか、又は装着者の視界範囲内でジャスト・イン・タイムで知ったかを問わず)での頭部と体の両方の向きを決定するための搭載モーション追跡。これは、ハイブリッドスキームでは、外部システムによって補足されるかもしれない。 On-board motion tracking to determine both head and body orientation on known terrain (whether known in advance or just in time within the wearer's field of view). This may be supplemented by an external system in a hybrid scheme.
・現実の場面の波面といずれかの合成要素との間で、人間視覚システムの枠の中で、速い合成プロセスを可能にするディスプレイ光学体システム。搭載型(HMD及び装着者への)及び/又は外部の処理システムのいずれかへの負担を可能な限り最小限に抑えるために、多くの受動的手段が用いられるべきである。 A display optics system that enables a fast synthesis process within the framework of the human vision system between the wavefront of the real scene and any synthesis element. Many passive means should be used to minimize the burden on any of the on-board (HMD and wearer) and / or external processing systems as much as possible.
・光学素子が少しだけ、能動的装置要素が少しだけ、かつ最低重量及び厚さの両方であり、機械的かつ熱的応力下で堅牢な単純で能動的装置デザインを有する、比較的シンプルで粗野なディスプレイ光学体システム。 • A relatively simple and crude device with only a few optical elements, only a few active device elements, both minimum weight and thickness, and a simple active device design that is robust under mechanical and thermal stresses Display optics system.
・軽量、嵩が低く、重心のバランスが取れ、かつ軍のかつ耐久性のある環境産業ユーザなどの両専門ユーザにとって受け入れられると知られている設計構成に適し、かつスポーツアプリケーション、並びに一般消費及びビジネス用途を高耐久化する形状因子。Oakley、Wiley、Nike、及びAdidasなどのメガネ製造業者から、Oakley、Adidas、Smith、Zeal及びその他の若干より専門的なスポーツゴーグル製造業者までのファクター範囲により、このように認められている。 -Suitable for design configurations known to be acceptable to both professional users, such as lightweight, low bulk, balanced in gravity, and military and durable environmental industrial users, and sport applications, as well as general consumption and A form factor that makes business applications more durable. This is recognized by the factor range from eyeglass manufacturers such as Oakley, Wiley, Nike, and Adidas to Oakley, Adidas, Smith, Zeal and some other more specialized sports goggle manufacturers.
・可変的に、完全可動性を保持しつつのVR体験と、可変遮蔽、透視一体型ハイブリッドビューイングARシステムとの間で切り替え可能なシステム。 -A system that is switchable between a VR experience while maintaining full mobility and a variable shielding, perspective integrated hybrid viewing AR system.
・HVS用に受信する波長を管理するとともに、対象波長(センサを介して)とこれらのハイブリッドから有効な情報を取得することができるシステム。赤外線、可視及びUVが、典型的な対象波長である。 -A system capable of managing the wavelength to be received for the HVS and acquiring valid information from the target wavelength (via the sensor) and these hybrids. Infrared, visible and UV are typical wavelengths of interest.
本開示によって提案されるシステムは、拡張現実と仮想現実の両方における機能性、従来技術が根本的に制限されかつ不適切であったタスク及び基準の問題を解決し、かつこれらについての最終的目標を達成する。 The system proposed by the present disclosure solves the problems of the functionality in both augmented and virtual reality, tasks and criteria that the prior art was fundamentally limited and inadequate, and the ultimate goal for these Achieve.
本開示は、テレコム構造化された及びピクセル信号処理システム及びハイブリッド磁性フォトニック(同じ発明者による係属中の米国特許出願[2008] 及びフォトニックエンコーダ )の特長を、同じ発明者による係属中の米国特許出願 「Hybrid MPC Pixel Signal Processing, Display and Network(ハイブリッドMPCピクセル信号処理、表示及びネットワーク)」の好適なピクセル信号処理サブタイプと共に、組み込みかつ実施する)。装置の(特にアレイの)アドレス指定及び電力供給は、係属中の米国特許出願 「Wireless Addressing and Powering of Arrays(アレイの無線アドレス指定及び電力供給)」のアドレス指定及び電力供給であり、ハイブリッドMPCタイプシステムの好適実施形態は、係属中の米国特許出願 「3D fab and systems therefrom(3Dファブ及びそのシステム)」にも見られる。 The present disclosure is directed to telecommunications structured and pixel signal processing systems and hybrid magnetic photonics (pending US patent application [2008] by the same inventor. And photonic encoders Of the same inventor pending US patent application Incorporate and implement with preferred pixel signal processing subtypes of “Hybrid MPC Pixel Signal Processing, Display and Network”. Addressing and powering (especially of the array) of the device is a pending US patent application Addressing and powering of "Wireless Addressing and Powering of Arrays", a preferred embodiment of the hybrid MPC type system is a pending US patent application It can also be found in "3D fab and systems therefrom".
本出願は、これらの継続出願全体を参照することにより組み込む。 This application is incorporated by reference in its entirety.
しかし、システムタイプの部類と及び重要なサブシステムの部類、並びにサブシステムの好適なバージョン及び実施形態を確立しつつ、それは本提案の詳細がすべて言及された出願に含まれており、かつ本出願が単純にこれらのシステム、構造及び方法の組み合わせであると述べているではない。 However, while establishing system type categories and important subsystem categories, and preferred versions and embodiments of the subsystem, it is included in the application to which all the details of the present proposal are referred to, and the present application Is not simply stated as a combination of these systems, structures and methods.
むしろ、本提案は、大部分の又は多くの場合にこれらの言及された(かつ概して新しい)カテゴリー及びクラス内に該当する新規かつ改良されたシステム及びサブシステムを、その構成要素、システム、サブシステム、構造、プロセス、及び方法の詳細な開示と共に説明するものであり、その一方で、これらの及びその他の構成要素のクラスのユニークな組み合わせとにより、モバイルAR及びVRシステムのユニークな新タイプも実現し、ヘッドマウントのウェアラブルシステムとしての、かつウェアラブルシステムの好適実施形態が、最も好ましいものである。 Rather, the proposal proposes new and improved systems and subsystems that fall into most or often these mentioned (and generally new) categories and classes, their components, systems, subsystems , Together with the detailed disclosure of structure, process, and method, while the unique combination of these and other component classes also enables unique new types of mobile AR and VR systems The preferred embodiment of the wearable system as a head mounted wearable system is the most preferred.
提案されたシステムの詳述は、主要なサブシステムを取り出して(列記して)全体構造及びマニピュレーション構造を整理することから始め、その後で、これらのサブシステムの詳細を階層的概要形態で提供するのが最良である。 The description of the proposed system starts with taking out the major subsystems (in order) and organizing the overall structure and manipulation structure, and then provides details of these subsystems in a hierarchical overview form Is the best.
主要なサブシステムは以下の通りである。 The main subsystems are as follows.
I.ピクセル信号処理プラットフォーム、及び好適なハイブリッドMPCピクセル信号処理(フォトニック符号化システム及び装置を含む)を備えたディスプレイ用のテレコムシステムタイプのアーキテクチャ。 I. Telecom system type architecture for displays with pixel signal processing platform and suitable hybrid MPC pixel signal processing (including photonic coding system and apparatus).
II.モバイルAR及びVR用のセンサシステム II. Sensor system for mobile AR and VR
III.構造的及び基板システム III. Structural and substrate systems
これらの主要なサブシステムによって実現されるのは、新規の一体化された二重「生成的」かつ可変的に直接伝達可能な直視ハイブリッド表示システムである。 Implemented by these major subsystems is a novel integrated dual "generative" and variably directly transmittable direct view hybrid display system.
I.ピクセル信号処理プラットフォーム、及び好適なハイブリッドMPCピクセル信号処理(フォトニック符号化システム及び装置を含む)を備えたディスプレイ用のテレコムシステムタイプのアーキテクチャ I. Telecom system type architecture for display with pixel signal processing platform and suitable hybrid MPC pixel signal processing (including photonic coding system and apparatus)
本開示の目的は、センサデータの処理(特にリアルタイムでの処理)のための、そしてコンピュータ生成されたイメージの計算、及び現実と合成/デジタル又は保存されたデジタル画像情報の3D透視ビュー一体化の計算のため、能動的装置システムへの要求を最小限に抑えることを助けるために、最大限可能な程度に受動的光学システム及び構成要素を用いることである。 The purpose of the present disclosure is to process sensor data (especially in real time) and to compute computer generated images and integrate 3D perspective views of real and synthetic / digital or stored digital image information The use of passive optical systems and components to the greatest extent possible to help minimize the need for active device systems for computing.
画像処理及びピクセル画像表示生成システムの構造的/マニピュレーション構造的ステージ、サブシステム、構成要素、及び要素の以下の分析には、いかにこの目的が実現されるかの小銃つが含まれる。システムの構造、構成要素及び動作ステージは、外部画像波面の傍受から、HVSへの最終的仲介画像の伝達へと、順番に示される(簡略化するために、順番は左から右へと任意に設定されている(図1を参照)。 The following analysis of the structural / manipulation structural stages, subsystems, components, and elements of the image processing and pixel image display generation system includes the rifles of how this object is achieved. The structure, components and operation stages of the system are shown in order, from interception of the external image wavefront to transmission of the final intermediation image to the HVS (order is arbitrary from left to right for simplicity) It is set (see Figure 1).
A.一般的場合 ― システムの主要要素 A. General Case-Key Elements of the System
1.赤外線/近赤外線及びUVフィルタリングステージ及び構造(赤外線及び近赤外線フィルタリングは、暗視システム用に実現されたシステムのバージョンでは省かれる)。 1. Infrared / near infrared and UV filtering stages and structures (infrared and near infrared filtering are omitted in the version of the system implemented for night vision systems).
2.入射するパススルー照明強度を低減させるための偏光フィルタリング(このオプションには、いくつかのメリットと利点がある)、又は最大入力もしくはパススルー照明ステージを保持するための、チャネルへの偏光フィルタリング/ソーティング、偏光回転、及びチャネルの再組み合わせ(このオプションにはその他のメリットと利点がある)。 2. Polarization filtering to reduce incident pass-through illumination intensity (this option has some advantages and benefits), or polarization filtering / sorting into channels to hold the maximum input or pass-through illumination stage, polarization Rotation, and re-combination of channels (this option has other benefits and benefits).
3.現実世界のパススルー照明のピクセル化又はサブピクセル化及びこれを実施するためのチャネル。 3. Pixelation or sub-pixelation of real world pass-through illumination and a channel to implement it.
4.最適な増強された/ハイブリッド/混合の現実又は仮想現実画像表示提示を実現するための、パススルー信号チャネルと、内部生成されたサブピクセルとの一体化(統合アレイでの組み合わせ)。 4. Integration of pass-through signal channels with internally generated sub-pixels (combination in integrated array) to achieve optimal enhanced / hybrid / mixed real or virtual reality image display presentation.
i.パススルー(現実世界)照明を扱って処理するための2つの好適な全体的スキーム及び構造的/アーキテクチャ: その他の順列及びバージョンは、本開示の一般的特長によって可能とされるが、2つの好適実施形態の主な差異は基本的に、入射する自然光の処理と、後続の処理ステージを介して、内向き/ビューアーに対面する複合光学体の表面へと光を伝達する、構築された光学体におけるチャネルとが異なっているという点である。一つのケースでは、すべての現実世界のパススルー照明が、効率的処理のために赤外線及び/又は近赤外線「偽カラー」にダウンコンバートされ、別のケースでは、現実世界のパススルー可視周波数照明は、周波数/波長シフティングなしに直接に処理/制御される。 i. Two preferred overall schemes and structural / architectures for handling and processing pass-through (real-world) lighting: Other permutations and versions are enabled by the general features of the present disclosure, but two preferred implementations The main difference in morphology is basically in the construction of the optical system, which processes incident natural light and transmits the light via the subsequent processing stage to the surface of the composite optical body facing the inward / viewer. The point is that the channel is different. In one case, all real-world pass-through lighting is downconverted to infrared and / or near-infrared "fake color" for efficient processing, and in another case real-world pass-through visible frequency illumination is / Processing / control directly without wavelength shifting.
ii.統合アレイにおける生成された/「人工的」サブピクセル: これは好ましくはハイブリッド磁性フォトニック、ピクセル信号処理及びフォトニック符号化システム。同じ全体的方法、シーケンス及びプロセスが、すべてのパススルー光が赤外線及び/又は近赤外線にダウンコンバートされるバージョン及び場合のパススルー光信号チャネルに適用される。 ii. Generated / "Artificial" Sub-Pixels in Integrated Array: This is preferably a hybrid magnetic photonic, pixel signal processing and photonic coding system. The same general method, sequence and process apply to the version and case pass-through optical signal channel where all pass-through light is downconverted to infrared and / or near infrared.
B.詳細な開示 B. Detailed disclosure
1.赤外線/近赤外線及びUVフィルタリングステージ及び構造:ウェアラブルHMD「メガネ」又は「バイザー」は第1の光学素子を有し、この第1の光学素子とは、好適な形態では、左右別個の要素か又は1つのバイザー状の接続された要素のいずれかであり、ビューアー/装着者の比較的前方にある外の世界から発する光線のビュースルー現実世界の波面を傍受する、双眼鏡要素である。 1. Infrared / Near Infrared and UV Filtering Stages and Structures: Wearable HMD "glasses" or "visors" have a first optical element, which in a preferred form is a separate element on the left or right or A binocular element that is any one of a visor-like connected element and that intercepts the real world wavefront through the view of rays emanating from the outside world relatively forward of the viewer / wearer.
この第1の要素は複合体又は構造体(例えば、その上に材料/フィルムの堆積層があり、又はそれ自体が周期的又は非周期的だが複合な2D又は3D構造の材料であるか、又は複合体及び直接構造体のハイブリッドである、基板/構造的光学体)であり、これは赤外線及び/又は近赤外線フィルタリングを実施する。そして This first element is a composite or structure (e.g. there is a deposited layer of material / film thereon, or itself is a periodic or aperiodic but complex 2D or 3D structured material, or Substrate / structural optical body), which is a hybrid of composite and direct structure, which performs infrared and / or near infrared filtering. And
UVフィルタリング。繰り返しより具体的に言うと、これらは、望ましくない周波数の反射及び/又は吸収を実施する化学組成の格子/構造(フォトニック結晶構造)及び又はバルクフィルムがあり得る。これらの材料構造のオプションは、関連技術分野において周知であり、多くのオプションが市販されている。 UV filtering. More specifically, they may be lattices / structures (photonic crystal structures) and / or bulk films of chemical composition that perform reflections and / or absorptions of undesired frequencies. These material construction options are well known in the relevant art and many options are commercially available.
いくつかの実施形態では(特に、暗視アプリケーションでは)、本開示のパターン及び構造に従って、赤外線フィルタリングが排除され、かつ機能的ステージのシーケンスのいくつかの要素は、順番が改変され、排除又は修正される。実施形態のこのカテゴリー及びバージョンの詳細は、最近では以下の通り扱われている。 In some embodiments (especially in night vision applications), infrared filtering is eliminated and some elements of the functional stage sequence are reordered, eliminated or modified according to the patterns and structures of the present disclosure Be done. Details of this category and version of the embodiment have recently been treated as follows.
2.偏光フィルタリング(入射するパススルー照明の強度を下げるための)、又は最大入力もしくはパススルー照明ステージを保持するための、チャネルへの偏光フィルタリング/ソーティング、偏光回転、及びチャネルの再組み合わせ:光学ラインアップシーケンスにおける第1のフィルターの光学的に後に続く、同様のフィルター(図 の相対的右側の次の要素)は、偏光フィルター又は偏光ソーティングステージのいずれかである。これは繰り返すが、これはバルク「ポラロイド(登録商標)」もしくは偏光子フィルムもしくは堆積材料、及び/又は偏光格子構造又はその他あらゆる偏光フィルタリング構造及び/もしくはいずれかの所定の実施形態について実用的な特長及びメリットの最良の組み合わせ(すなわち、効率、製造費用、重量、耐久性及びその他の最適化トレードオフが要され得るパラメータに関して)を提供する材料であり得る。 2. Polarization filtering (to reduce the intensity of incident pass-through illumination), or polarization filtering / sorting into channels, polarization rotation, and channel recombination to hold the maximum input or pass-through illumination stage: in the optical line-up sequence An optically similar, similar filter (figure below) of the first filter (The next element on the right) is either a polarization filter or a polarization sorting stage. Again, this is a practical feature for bulk "Polaroid" or polarizer films or deposited materials, and / or polarization grating structures or any other polarization filtering structure and / or any given embodiment. And materials that provide the best combination of benefits (ie, with respect to parameters that may require efficiency, manufacturing cost, weight, durability, and other optimization tradeoffs).
3.偏光フィルタリングオプションの結果:光学素子/光学構造的素子の範囲全体に亘って配された光学素子のこのシーケンスの後、入射波面は周波数をまとめられ、そして偏光モードでまとめられ、モードによってソート/分離されている。可視光周波数については、モードチャネルごとの正味の明るさは、偏光フィルタリング手段の等級によって削減され、これは便宜上、周期的格子構造材料の最新の効率を反映して、実際に100%フィルタリング効率に近くなっており、つまり、チャネルごとに光の凡そ50%が排除されているという意味である。 3. As a result of the polarization filtering option: After this sequence of optical elements arranged over the entire range of optical elements / optical structural elements, the incident wavefronts are frequency grouped and grouped in polarization modes, sorted / separated by mode It is done. For visible light frequencies, the net brightness per mode channel is reduced by the grade of the polarization filtering means, which for convenience actually reflects 100% filtering efficiency, reflecting the latest efficiency of the periodic grating structure material It is close, meaning that about 50% of the light is excluded per channel.
4.偏光フィルタリング、ソーティング、1チャネル回転、及び再組み合わせの結果:例えば、2つの分離された/ソートされたチャネルを一緒にすると、組み合わせた強度は、フィルタリング/分離/ソーティングの前のオリジナルの入射光の強度のまさにそのままではないが、これに近い強度となる。 4. Polarization filtering, sorting, one-channel rotation, and re-combination results: for example, when combining two separated / sorted channels, the combined intensity is of the original incident light before filtering / separating / sorting Although not exactly the same as the strength, the strength is close to this.
5.メリット及び重要性:これらのフィルタリング(同じ層/材料構造で、又は後から別個の層/材料構造で実施されてもよい)の結果、HVSは、1)悪いUVから保護され、2)明るさが低減され、3)赤外線及び近赤外線が取り除かれる(可視スペクトルが最低となり、かつ可視のフィルタリングが必要ではない暗視アプリケーションを除く)。メリット/特長2&3は、システムの次のステージ及びシステム全体にとって非常に重要であり、以下でさらに詳細を検討する。 5. Advantages and Significance: As a result of these filterings (which may be implemented with the same layer / material structure or later with separate layer / material structure), the HVS is 1) protected from bad UV, 2) brightness Is reduced and 3) infrared and near infrared are removed (except for night vision applications where the visible spectrum is lowest and visible filtering is not required). Advantages / Features 2 & 3 are very important to the next stage of the system and the whole system, and will be discussed in more detail below.
6.現実世界パススルー照明のピクセル化又はサブピクセル化 、及びこれを実施するチャネル:入射波面のサブピクセル細分化、前述に沿って実施される光学受動的又は能動的構造又は動作ステージ、及び好ましくは以下の内容(なぜならば、これは製作費用を削減する傾向があるため)。この再分割は、当該技術分野で知られている幅広く多様な方法で(またその他のまだ考案されていない方法でも)実施し得るものであり、差異インデックスバルク材料の堆積、静電気/ファン・デル・ワース力に基づく方法及びその他の自己組織化方法による、光化学レジストマスク・エッチングプロセス又はコロイド溶液中のナノ粒子の材料製作の使用、集束イオンビームエッチング、又はエンボス加工、並びにエッチング、切削及びエンボス加工方法による、特に、修正済みの総屈折率により導波を実施する細管微小孔アレイの製作、又はフォトニック結晶ブラッググレーティング型構造、又はその他の周期的格子又はバルク材料に製作されたその他の構造を実施するその他の周期的構造の製作を含む。あるいは、又は言及した又はその他の公知のもしくは将来的に考案され得る方法との組み合わせで、マクロ光学/構造素子の領域に亘ってアレイを形成するためのサブピクセル細分化/誘導材料構造が、組成パーツ(光ファイバーやその他の光学素子プリカーサなど)のアセンブリによって製作され得るものであり、当該製作は、ファイバー装置構造のプリフォームアセンブリ、又は融着グラス又は複合物アセンブリ方法のために、本開示の著者によってあらゆる場所で開示された方法による、並びにFink及びBayindirによって提案された方法によるものを含む。 6. Pixelation or sub-pixelation of real-world pass-through illumination, and channels implementing it: sub-pixel subdivision of the incident wavefront, optical passive or active structure or operation stage implemented along the above, and preferably Content (as this tends to reduce manufacturing costs). This repartitioning can be performed in a wide variety of ways known in the art (as well as in other unplanned ways), including deposition of differential index bulk material, electrostatics / van der Use of photochemical resist mask etching processes or material fabrication of nanoparticles in colloidal solutions by means based on Worth force and other self-assembly methods, focused ion beam etching or embossing, and etching, cutting and embossing methods In particular, the fabrication of capillary microhole arrays implementing guiding with a modified total refractive index, or implementing other structures fabricated on photonic crystal Bragg grating type structures or other periodic grating or bulk materials according to Production of other periodic structures. Alternatively, or in combination with the mentioned or other known or later conceivable methods, the sub-pixel subdivision / inducing material structure for forming the array over the area of the macro-optical / structural element is compositionally It may be fabricated by assembly of parts (such as optical fibers and other optical element precursors), said fabrication being an author of the present disclosure for a preform assembly of a fiber device structure, or a fusion glass or composite assembly method. According to the method disclosed anywhere by and the method proposed by Fink and Bayindir.
本システムの異なる実施形態及びバージョンの特定の詳細及び要件は、当該システムの本構造的/動作ステージに適用される際に、システムの以下の構造的/動作的明細の後の適切なステージでカバーされる。 The specific details and requirements of the different embodiments and versions of the system, as applied to the present structural / operational stages of the system, cover at appropriate stages after the following structural / operational specifications of the system Be done.
7.統合アレイでの内部生成されたサブピクセルとのパススルーチャネルの一体化:但し、前方の視野からの入射波面を、制御された光路制御に適した部分に細分化するための手段を提供するのに加えて、かつその後にさらに受動的及び/又は能動的フィルタリング及び/又は修正を行うために、ビューアーへの最終的ピクセル提示に至る途中に、本提案のシステムを用いてビューアーに提供される総視界アレイの2つのタイプのピクセル/サブピクセル構成要素と、2つの異なる「分岐した」処理シーケンス及びマニピュレーション構造があるということを現時点で特定することが非常に重要である。そしてこれは、ピクセル単位でかつサブピクセル単位で、その適切なステージで光路制御が実施される作動プロセスの本複合構造及びシーケンスのための第1のステージ及び要件のうちの一つである。 7. Integration of pass-through channels with internally generated sub-pixels in an integrated array, but to provide a means for subdividing the incident wavefront from the forward field of view into parts suitable for controlled light path control In addition, and after that the total view provided to the viewer using the proposed system on the way to the final pixel presentation to the viewer for further passive and / or active filtering and / or correction It is very important at this point to identify that there are two types of pixel / sub-pixel components of the array and two different "branched" processing sequences and manipulation structures. And this is one of the first stages and requirements for this composite structure and sequence of actuation processes in which light path control is performed at the appropriate stage, pixel by pixel and sub pixel by pixel.
8.2つのピクセル信号構成要素タイプ ― パススルーと、生成された又は人工的:言及した開示に続くピクセル論理状態符号化ステージであるピクセル信号処理では、今度は2つのピクセルタイプ、又はより正確には、2つのピクセル信号構成要素タイプを別々に受ける。 8.2 Two Pixel Signal Component Types-Pass Through and Generated or Artificial: In pixel signal processing, which is the pixel logic state encoding stage following the disclosure mentioned, this time two pixel types, or more precisely , Receive separately two pixel signal component types.
9.パススルー(現実世界)照明を扱いかつ処理するための2つの好適な全体的スキーム及び構造的/アーキテクチャ:その他の順列及びバージョンは、本開示の一般的特長によって可能とされるが、2つの好適実施形態の主な差異は基本的に、入射する自然光の処理と、後続の処理ステージを介して、内向き/ビューアーに対面する複合光学体の出力表面へと光を伝達する、構築された光学体におけるチャネルとが異なっているという点である。一つのケースでは、すべての現実世界のパススルー照明が、効率的処理のために赤外線及び/又は近赤外線「偽カラー」にダウンコンバートされ、別のケースでは、現実世界のパススルー可視周波数照明は、周波数/波長シフティングなしに直接に処理/制御される。 9. Two preferred overall schemes and structural / architectures for handling and processing pass-through (real-world) lighting: other permutations and versions are enabled by the general features of the present disclosure, but two preferred implementations The main difference in morphology is basically the construction of an optical body that transmits light to the output surface of the composite optical body facing the inward / viewer via treatment of incident natural light and subsequent processing stages. Is different from the channel in FIG. In one case, all real-world pass-through lighting is downconverted to infrared and / or near-infrared "fake color" for efficient processing, and in another case real-world pass-through visible frequency illumination is / Processing / control directly without wavelength shifting.
a.好適な一つのバージョンでは、UV及び赤外線フィルタリングされ及び偏光モードにソートされた(かつオプションで、パススルー照明の全体的強度を下げるためにフィルタリングされた)可視光チャネルは、赤外線又は近赤外線に周波数シフトされるが、いずれの場合も、不可視周波数となり、同じ比例帯に位置する幅及び強度の「偽カラー」範囲を実現する。HVSは、周波数/波長変調及びダウンシフティングのフォトニックピクセル信号処理方法の後は何も検出せず何も見えないだろう。そして、これらのチャネルの後続のフォトニックピクセル信号処理は基本的に、以下のセクションで開示される通り、生成されたピクセル信号チャネルについて提案されているのと同じである。 a. In one preferred version, the visible light channel, which is UV and infrared filtered and sorted into polarization modes (and optionally filtered to reduce the overall intensity of the pass-through illumination) is frequency shifted to infrared or near infrared However, in each case it will be an invisible frequency and realize a "fake color" range of width and intensity located in the same proportional band. The HVS will not detect anything and will not see anything after the frequency / wavelength modulation and downshifting photonic pixel signal processing methods. And, the subsequent photonic pixel signal processing of these channels is basically the same as proposed for the generated pixel signal channel, as disclosed in the following section.
b.別の好適実施形態では、パススルーチャネルは、不可視赤外線及び/又は近赤外線に周波数/波長変調されたりダウンコンバートされたりしていない。この構成では、パススルーチャネルの好適なデフォルト構成及びピクセル論理状態は「オン」であり、例えば、いずれかの所定の偏光モデルにソートされたサブチャネルについて、ピクセル状態符号化/変調のための従来の直線ファラデー回転切替えスキームが用いられる場合(入力及び出力偏光フィルタリング手段を含む)、アナライザ(又は出力偏光手段)は基本的に入力偏光手段と同一であるので、作動直線ファラデー効果ピクセル論理状態エンコーダがアドレス指定されて稼働された場合、強度パススルーチャネルを減らすための操作となる。本実施例の特長及び要件のいくつかの詳細が、生成された信号チャネルの作動機能及び構造について記載された詳細の後の、後続のセクションで開示される)。 b. In another preferred embodiment, the pass-through channel is not frequency / wavelength modulated or downconverted to invisible infrared and / or near infrared. In this configuration, the preferred default configuration and pixel logic state of the pass-through channel is "on", eg, conventional for pixel state coding / modulation for subchannels sorted into any given polarization model. If a linear Faraday rotation switching scheme is used (including input and output polarization filtering means), the working linear Faraday effect pixel logic state encoder is addressed since the analyzer (or output polarization means) is essentially identical to the input polarization means If specified and activated, this is an operation to reduce the strength pass-through channel. Some details of the features and requirements of this embodiment are disclosed in the following sections, after the details described for the working function and structure of the generated signal channel).
偏光フィルタリングが好適実施形態及びバリエーションと組み合わされた場合(オリジナルのピクセル化されたパススルー照明を可能な限り多く保存するために、後で偏光回転手段によって統合チャネルに組み合わされる別個のモードチャネルのモードソーティング及び実現を行うのではなくて)(受動的構成要素(例えば、半波長板)及び/又は能動的磁気光学体又はその他のモード/偏光角度変調手段によってなど)、パススルー照明の全体的明るさは、典型的には約50%まで低減され、これはいくつかの事例では、磁気光学材料の本書記載時点での相対的可視範囲性能を考えると、好適なクラス及び方法としてより好ましいものとなる。 When polarization filtering is combined with the preferred embodiments and variations (mode sorting of separate mode channels later combined with integrated channels by polarization rotation means to preserve as much as possible original pixelated pass-through illumination And not the realization (such as by passive components (eg half-wave plates) and / or active magneto-optical or other mode / polarization angle modulation means), the overall brightness of the pass-through illumination is Typically, it is reduced by about 50%, which in some cases makes the preferred class and method more preferable given the relative visible range performance of the magneto-optical material as described herein.
従って、背景パススルー照明の明るさの最大値は比例的に減少されて、これに応じて、「生成された」(人工的な非パススルー)サブピクセルチャネル並びに関連方法及び装置を提供するサブシステムが、「拡張現実」イメージ及びビューのために概して快適で現実的な全体的照明範囲内に、生成された画像要素を一致させ、一体化させ、かつ調和させることがより容易になるかもしれない。 Thus, the maximum value of the brightness of the background pass-through illumination is proportionally reduced, and accordingly the subsystem that provides the "generated" (artificial non-pass-through) sub-pixel channel and associated methods and apparatus It may be easier to match, integrate and match generated image elements within a generally comfortable and realistic overall illumination range for "Augmented Reality" images and views.
あるいは、パススルーチャネルは、デフォルトの「オフ」構成で構成することができるので、典型的な直線ファラデー回転子スキームを用いた場合、入力偏光手段(偏光子)と出力手段(アナライザ)は対向するか又は「交差する」。周波数依存性のMO材料(又は周波数依存性の/性能が決定された材料を用いている範囲で、その他のフォトニック変調手段)が改良し続けるにつれて、後続のフォトニックピクセル信号処理ステップ及び方法によって、デフォルト「オフ」又はゼロに近いもしくは効果的なゼロ強度から、パススルー照明強度基準状態が高められかつ管理されるこのデフォルト構成を採用することは有利になり得る。 Alternatively, because the pass-through channel can be configured in a default "off" configuration, does the input polarization means (polarizer) and the output means (analyzer) face each other when using a typical linear Faraday rotator scheme? Or "cross". As the frequency dependent MO material (or other photonic modulation means using frequency dependent / performance-determined material continues to improve), by the subsequent photonic pixel signal processing steps and method It may be advantageous to adopt this default configuration in which the pass-through illumination intensity reference state is enhanced and managed from a default "off" or near zero or effective zero intensity.
c.フォトニック変調手段及び方法の赤外線及び近赤外線での性能最適化の共通材料・システムの依存性を考慮すると、赤外線へのダウンコンバートが好適であるとして提案される一方で、UVもまた含まれるオプションであり、かつ将来において、最終出力の前の中間処理のために入力可視照明を便利な不可視スペクトル領域にシフトするために用いられる場合もあるかもしれない。 c. Considering the dependence of common materials and systems on the infrared and near-infrared performance optimization of photonic modulation means and methods, while down conversion to infrared is proposed as preferred, an option also includes UV And, in the future, it may be used to shift the input visible illumination into a convenient invisible spectral region for intermediate processing before final output.
10.統合アレイにおける生成された/「人工的」サブピクセル: 最初に、画像生成ピクセル信号構成要素を、又は言い換えると、好ましくはハイブリッド磁性フォトニックピクセル信号処理及びフォトニック符号化システムである、ピクセル信号処理構造、作動シーケンスを検討する。 10. Generated / "Artificial" Sub-Pixels in an Integrated Array: First, the pixel signal processing, which is preferably a hybrid magnetic photonic pixel signal processing and photonic coding system, that is an imaging pixel signal component or, in other words, preferably a hybrid magnetic photonic pixel signal processing and photonic coding system Examine the structure and operation sequence.
a.昼光状態での完全モバイルAR用の全体的システムの提案される画像収集/処理/表示サブシステムの最も一般的な構成において、シーケンスにおける次の構造、プロセス及び要素は、光学赤外線及び/又は近赤外線平面照明分散構造及びピクセル信号処理ステージである。 a. In the most general configuration of the proposed image acquisition / processing / display subsystem of the overall system for fully mobile AR in daylight conditions, the following structures, processes and elements in the sequence are optical infrared and / or near infrared light Infrared flat illumination distributed structure and pixel signal processing stage.
b.この構造及び作動プロセスについて、光学面及び構造(構造的/基板に堆積され又は機械的に積層されたフィルム、又は当該基板に直接、材料のパターニングもしくは堆積又は当該技術分野で公知の方法の組み合わせ)は、100+FOV双眼鏡レンズ又は連続バイザータイプの形状因子の全光学領域に亘って均一に、赤外線及び/又は近赤外線照明を均一に配光する。赤外線及び/又は近赤外線照明は、例えば以下の手段によって均一に配光される。1)構造のXY面に、すべてのX又はY方向で又はグリッドで配されたリーキーファイバの組み合わせ。Physical Opticsなどの企業によって開発されかつ市販されてきたリーキーファイバは、特定された設計距離に亘って実質的に均一な態様で横方向にファイバコアを実質的に通して透過された照明を漏らし、Luminit, Inc.から市販されている非周期的3Dバンプ構造フィルム(エンボス加工された非周期的微細表面)などの拡散層、及び/又は当該技術分野で公知のその他の拡散材料及び構造と組み合わせられる。2)赤外線及び/又は近赤外線LEDエッジアレイ又は赤外線及び/又は近赤外線エッジレーザーアレイ(VCSELアレイなど)からの側方照明であり、バルク照明(平面周期的格子構造などの平面順次ビームエクスパンダ/スプレッダ光学体)として傍受するために投影するもので、Lumus、BAE、及び本明細書においてかつ前述の継続出願において言及されるその他の商用部品製造業者から商的に入手可能なホログラフィック素子(HOE)構造、並びにその他のバックプレーン拡散構造、材料及び手段、そして概して、当該技術分野で公知でありかつ将来開発され得るその他のディスプレイバックプレーン照明方法、手段及び構造を含む。 b. Optical surfaces and structures (structural / film deposited or mechanically laminated to the substrate, or directly to the substrate, patterning or deposition of material, or a combination of methods known in the art) for this structure and operation process Uniformly distributes infrared and / or near infrared illumination evenly over the entire optical area of a 100+ FOV binocular lens or continuous visor type form factor. The infrared and / or near infrared illumination is distributed uniformly, for example, by the following means. 1) A combination of leaky fibers arranged in all X or Y directions or in a grid on the XY plane of the structure. Leaky fibers developed and marketed by companies such as Physical Optics leak light transmitted substantially through the fiber core laterally in a substantially uniform manner over a specified design distance, Luminit, Inc. And / or other diffusion materials and structures known in the art such as aperiodic 3D bump structured films (embossed aperiodic microsurfaces) commercially available from 2) Lateral illumination from infrared and / or near infrared LED edge array or infrared and / or near infrared edge laser array (such as VCSEL array), bulk illumination (planar sequential beam expander such as planar periodic grating structure / Spreader optics to be intercepted as holographic elements (HOEs) commercially available from Lumus, BAE, and other commercial parts manufacturers referred to in this specification and in the above-mentioned continuation application 1.) Structures, as well as other backplane diffusion structures, materials and means, and generally, other display backplane lighting methods, means and structures known in the art and may be developed in the future.
c.操作シーケンス及びピクセル信号処理におけるこのステージ/構造の目的は、これまで提案してきた複合光学/材料構造の相対的内部に限定される赤外線及び/又は近赤外線バックプレーン照明を放ち、赤外線及び/又は近赤外線フィルターで、投入された赤外線及び/又は近赤外線照明を照明層/構造に反射させることである。 c. The purpose of this stage / structure in the manipulation sequence and pixel signal processing is to emit infrared and / or near infrared backplane illumination limited to the relative interior of the composite optical / material structure proposed so far, infrared and / or near infrared An infrared filter is to reflect input infrared and / or near infrared illumination to the illumination layer / structure.
d.赤外線及び/又は近赤外線はHVSにとって不可視であるという事実に注目することが、その事実がたとえ明白であったとしても、重要である。 d. It is important to note the fact that the infrared and / or near infrared rays are invisible to the HVS, even if the facts are obvious.
e.赤外線及び/又は近赤外線の照明源は、LED、レーザー(VCSELアレイなど)、もしくはこれら両方のハイブリッド、又は当該技術分野で公知である又は将来開発され得るその他の手段であり得る。 e. The infrared and / or near infrared illumination sources may be LEDs, lasers (such as VCSEL arrays), or a hybrid of both, or other means known in the art or to be developed in the future.
f.投入される赤外線及び/又は近赤外線照明は、単一の偏光モード、好ましくは平面偏光の照明でもある。 f. The infrared and / or near infrared illumination introduced is also illumination of a single polarization mode, preferably planar polarization.
g.これは、赤外線及び/又は近赤外線LED及び/又はレーザー及び/又はその他の照明源を、偏光スプリッタ又はフィルター/リフレクタシーケンス(光ファイバースプリッタなど)で分岐させ、そして受動的及び/又は能動的偏光回転手段(バルク磁気光学又は磁性フォトニック回転子など)、又は受動的手段のシーケンス(半波長板の組み合わせなど)のいずれか、又はこれらのハイブリッドを通して、平面偏光された構成要素の一つを通過させることによって、偏光調和化手段によって達成され得る。入射光に対してある角度で設定された効率的格子又は2Dもしくは3D周期的フォトニック結晶タイプ構造などの偏光フィルターは、拒絶された光を、偏光回転光学シーケンス及びチャネルに跳ね返してよく、その後、オリジナルの照明の改変されていない部分と再結合する。偏光モード(平面偏光された)が分離されている(平面又は光ファイバーの)導波管では、1つの枝路が偏光調和化手段を通過してからその後でその他の枝路と再結合する。 g. It splits infrared and / or near infrared LEDs and / or lasers and / or other illumination sources with polarization splitters or filter / reflector sequences (such as fiber optic splitters) and means for passive and / or active polarization rotation Passing one of the plane-polarized components through either (such as bulk magneto-optical or magneto-photonic rotators) or a sequence of passive means (such as a combination of half-wave plates) or hybrids thereof Can be achieved by means of polarization harmonization. A polarizing filter, such as an efficient grating or 2D or 3D periodic photonic crystal type structure set at an angle to the incident light, may reflect the rejected light back into the polarization rotating optical sequence and channel, and then Recombine with the unmodified part of the original light. In waveguides (of planar or optical fiber) where the polarization modes (plane polarized) are separated, one branch passes through the polarization harmonization means and then recombines with the other branches.
h.ソース照明も、それ自体の構造の中で、所定の角度又は範囲で平面偏光された光のみを作成するように制約されてもよい。 h. Source illumination may also be constrained to create only plane polarized light at a given angle or range within its own structure.
i.その光は、ローカルでHMD内にて又はHMDからリモートで(電力貯蔵手段付きのウェアラブルベストなど)生成かつ/又は調和化され、そしてHMDに光ファイバーを介して伝搬される。HMDにおいて、照明及び/又は調和化ステージ及び構造/手段は、記載された複合光学構造に直接隣接し又はHMD内のどこか別の場所にあり、よりリモートであれば光ファイバーによって、かつ/又はより近ければ平面導波管によって光学的に伝搬され得る。 i. The light is generated and / or harmonized locally (within the HMD or remotely from the HMD (such as a wearable vest with power storage)) and transmitted to the HMD via an optical fiber. In the HMD, the illumination and / or harmonization stage and the structure / means are directly adjacent to the described composite optical structure or elsewhere elsewhere in the HMD, and more remote by means of optical fibers and / or more It can be optically propagated by a planar waveguide if close.
j.前述の構造及びこれまでの操作構造及びプロセス、そして以下に記載のものは、ピクセル信号特徴生成及び移送プロセスを、最高品質の方法を用い、かつ典型的に当該タイプのプロセスのために最適化された波長で作動する(特にピクセル状態論理符号化ステージ及びプロセスに関連して)最適化されたステージへと分解した特長の中で、言及された出願で開示されている通りのピクセル信号処理の一例である。多くのMO及びEO及びその他の光学インタラクション現象は、赤外線又は近赤外線周波数帯域レジームで大半の材料システムについて最適に動作する。全体的システム、方法、構造、操作構造及びプロセス、並びにこれらそれぞれの詳細(必須かつオプションの要素を含む)は、言及された出願に開示されている。 j. The above structures and the previous operation structures and processes, and those described below, use pixel signal feature generation and transfer processes with the highest quality methods and are typically optimized for the type of process Among the features resolved into optimized stages operating at different wavelengths (especially in connection with pixel state logic encoding stages and processes), an example of pixel signal processing as disclosed in the mentioned application It is. Many MO and EO and other optical interaction phenomena work best for most material systems in the infrared or near infrared frequency band regime. The overall system, method, structure, operation structure and process, as well as their respective details (including essential and optional elements) are disclosed in the referenced application.
k.ピクセル信号処理、ピクセル論理ステージ符号化ステージ ― 変調器アレイ: k. Pixel Signal Processing, Pixel Logic Stage Encoding Stage-Modulator Array:
1.照明及び調和化ステージの後、赤外線及び/又は近赤外線/赤外線照明は、ピクセル信号ステージ論理符号化プロセス、操作、構造及び手段を通過し、好ましくは本開示については、磁気光学変調方法のカテゴリーに入る変調手段を通過する。これらのうち、好適な一 方法は、ファラデー効果に基づいている。この手段及び方法の詳細は、言及した米国特許出願「ハイブリッドMPCピクセル信号処理」に開示されている。 1. After the illumination and harmonization stage, the infrared and / or near infrared / infrared illumination passes through the pixel signal stage logic encoding process, operation, structure and means, preferably in the category of magneto-optical modulation methods for the present disclosure. Pass through the entering modulation means. Of these, one preferred method is based on the Faraday effect. Details of this means and method are disclosed in the mentioned US patent application "Hybrid MPC pixel signal processing".
m.バイナリーピクセル信号論理状態システムでは、「オン」状態は、入射する平面偏光された光の角度を回転することによって符号化されて、光がピクセル信号処理システムの後のステージ、つまり後続のかつ対向する偏光フィルタリング手段(「アナライザ」として知られている)を通過する際に、光はアナライザを通過することになる。 m. In a binary pixel signal logic state system, the "on" state is encoded by rotating the angle of the incident plane polarized light so that the light is in a later stage of the pixel signal processing system, ie, a subsequent and opposite one In passing through polarization filtering means (known as an "analyzer"), light will pass through the analyzer.
n.このタイプのMO(又はサブタイプであるMPC)ピクセル信号論理ステージ符号化システムでは、光は、磁場に晒されている媒体又は構造及び材料、つまりは均一で/バルク又は構造化されたフォトニック結晶又はメタマテリアル(典型的に固体である)を通過し(但し、光は気体又は希薄蒸気、又は液体を含むカプセル化された空洞も通過し得る)、これは偏光角度の回転を可能にするために、当該媒体又は材料/構造の効率を測定する効果的な性能指数を有する。 n. In this type of MO (or subtype MPC) pixel signal logic stage coding system, light is exposed to a magnetic field, medium or structure and material, ie uniform / bulk or structured photonic crystal Or pass through the metamaterial (which is typically solid) (although light can also pass through the gas or dilute vapor, or the encapsulated cavity containing the liquid), which allows rotation of the polarization angle In addition, it has an effective figure of merit that measures the efficiency of the medium or material / structure.
o.この好適なタイプのピクセル信号処理論理ステージ符号化ステージ及び手段のための好適なタイプ及びオプションの詳細は、言及した係属出願に記載されており、さらなるバリエーションは従来技術に見つけることができ又は将来開発され得る。 o. Details of suitable types and options for this preferred type of pixel signal processing logic stage encoding stages and means are described in the referenced copending application and further variations can be found in the prior art or will be developed in the future It can be done.
p.強調した詳述を必要とする、好適でかつ言及されたクラスのハイブリッドMPCピクセル信号処理システムのその他の態様は、以下を含む。 p. Other aspects of the preferred and mentioned class of hybrid MPC pixel signal processing systems that require the highlighted detailing include:
q.ハイブリッドMPCピクセル信号処理システムは、メモリ又は「ラッチング」を実施し、ピクセル論理状態がシステム変更を必要とするまでは、無電力である。これは、当該技術分野で公知である「残留」磁気方法の以下の調整及び実施により達成され、この残留磁気方法では、磁性材料は、バルク処理(例えば、Integrated Photonics の市販のラッチングLPE厚MOBi−YIGフィルム[我々のその他の開示をご参照下さい])製作され、 及び/又はLevy 等の永久ドメイン領域ラッチング周期的1D格子の手段[我々のその他の開示をご参照下さい]、又は最適化されたMO材料と並置/混合された比較的「より硬い」磁性材料を結合させた、合成磁性材料(適用された場が、中間物としてMO/MPC材料の磁気化(ラッチング)を維持する低保磁力で直線ヒステリシス曲線材料にラッチングする)のいずれかで製作される。この中間材料は、MO/MPC材料を取り囲んでよく、又は送信周波数[ここでは赤外線又は近/赤外線]に透過的である周期的構造内で混合され又は構造化されてもよい。この第3の合成方法は、本開示の著者によって2004年米国仮出願 において最初に提案され、後に米国特許 /米国特許出願 に含まれた。後に、Belotelov等(2004年開示に基づいて設立された会社から資金提供された)が、この複合方法を「交換結合」構造と言及するようになり、そして特定の1D多層磁性フォトニック結晶についてこの会社の設計で実現されることとなり、当該1D多層磁性フォトニック結晶では、相対的硬さの異なるMO材料が、2004年複合アプローチのより効率の低い異形で用いられた。 q. The hybrid MPC pixel signal processing system implements memory or "latching" and is powerless until the pixel logic state requires a system change. This is achieved by the following adjustment and implementation of the "residual" magnetic method known in the art, in which the magnetic material is bulk processed (e.g., commercially available Integrated Photonics commercial latching LPE thickness MOBi- YIG film [see our other disclosures]) and / or means of permanent domain area latching periodic 1D gratings such as Levy [see our other disclosures] or optimized Synthetic magnetic material (combined field, combined with MO material coupled with relatively “harder” magnetic material co-located / mixed (low applied field maintains magnetisation (latching of MO / MPC material as intermediate) (Latching to linear hysteresis curve material). This intermediate material may surround the MO / MPC material or may be mixed or structured in a periodic structure that is transparent to the transmission frequency [herein infrared or near / infrared]. This third synthetic method is a 2004 US provisional application by the author of the present disclosure. First proposed in / US patent application Included in Later, Belotelov et al. (Funded by a company founded on the basis of the 2004 disclosure) came to refer to this composite method as a "exchange coupled" structure, and for certain 1D multilayer magnetic photonic crystals. To be realized in the company's design, in the 1D multilayer magnetic photonic crystal, MO materials with different relative hardness were used with the less efficient variant of the 2004 composite approach.
r.これらの方法の組み合わせも、可能な設計オプションである。 r. A combination of these methods is also a possible design option.
s.ハイブリッドMPCレジームにおけるこの「メモリピクセル」のメリットは、電気泳動的又は「E−Ink」モノクロディスプレイなどの双安定ピクセルスイッチと同じである。不揮発(相対的に、少なくともヒステリシスプロファイルのデザイン及び材料の選択に応じて) メモリとして、赤外線又は近赤外線照明源が、ピクセル信号処理チャネル及びシステムにおいて「移送され」かつ「処理される」限り、画像は形成されたまま残る。 s. The benefits of this "memory pixel" in the hybrid MPC regime are the same as bistable pixel switches such as electrophoretic or "E-Ink" monochrome displays. Non-volatile (relatively, at least according to the design of the hysteresis profile and the choice of material) as memory, as long as the infrared or near infrared illumination source is "transferred" and "processed" in the pixel signal processing channel and system Will remain formed.
t.好適なピクセル信号処理、ピクセル論理符号化ステージ及び方法の第2の必須の態様及び要素は、サブピクセルの磁性状態を切り替える磁場の効率的生成である(RGBなどの色システムの基本的プリミティブであり、よって便宜上、最終的色ピクセルの従来の構成要素について検討する際には、命名規則はより一般的に保持され、必要な場合には区別がなされる)。磁気クロストークが一切無いことを確実にするために、場発生構造(例えば、「コイル」)が、側面ではなくピクセル送信軸の経路に配されるのが好ましい。これは、縁部に場発生手段を一切置かないことによって、必要とされる場の強度を低減させ、周囲の材料/マトリックスにおける(磁気的に)不透過性の材料か、又はLevy等のドメイン継続方法の場合のように、素地面を変調域に限定する周期的構造の実施のいずれかによって、磁力線の管理を行う。透明材料は、該当周波数に対して透過的である、ITO及びその他のより新しくかつ今後現れる導電性材料などの入手可能な材料を含み得る。そして/又は、必ずしも大量に透明である必要はないが、適切な周期的要素サイズ、形状配置、及び周期性の周期的構造であるその他の材料(例えば金属)も、変調域/サブピクセル送信経路に堆積又は形成されてもよい。 t. The second essential aspect and element of the preferred pixel signal processing, pixel logic encoding stage and method is the efficient generation of the magnetic field to switch the magnetic states of the sub-pixels (the basic primitives of color systems such as RGB Thus, for convenience, when considering the conventional components of the final color pixel, the naming convention is kept more general and distinctions made when necessary). In order to ensure that there is no magnetic crosstalk, it is preferred that field generating structures (e.g. "coils") be placed in the path of the pixel transmit axis rather than the sides. This reduces the required field strength by not placing any field generating means at the edge, either a (magnetically) impermeable material in the surrounding material / matrix or a domain such as Levy As in the case of the continuation method, the management of the field lines is carried out either by the implementation of a periodic structure which limits the substrate to the modulation zone. Transparent materials can include available materials such as ITO and other newer and emerging conductive materials that are transparent to the frequency of interest. And / or other material (e.g., metal) that is not necessarily large enough to be transparent, but that is a periodic element of appropriate periodic element size, geometry, and periodicity, also the modulation zone / subpixel transmission path May be deposited or formed.
u.この方法は、最初に本開示の著者によって、2004年米国仮出願 が譲渡され、かつ後に米国特許出願 に開示された、同社のための2004年国際設計文書において提案された。後に、201+ に、NHKの研究者らが、ピクセルの経路にITOを使用して、Kerr回転子のために彼の方法(この方法がMO及びMPC装置について全般的に提案されていた) [参照SEが調べるべき]を用いた。 u. This method was first filed by the author of the present disclosure in the 2004 US Provisional Application. Is assigned, and later a US patent application Proposed in the 2004 International Design Document for the company, which is disclosed in Later, 201+ At the same time, NHK researchers use his ITO in the pixel path and his method for Kerr rotators (this method has been generally proposed for MO and MPC devices) [Reference SE should investigate] was used.
v.ピクセル信号処理サブシステムのための好適なハイブリッドMPCピクセル信号処理ソリューションの第3の重要な要素は、サブピクセルのアレイのアドレス指定方法である。好適な方法は、前述で言及したように、係属中の米国特許出願 である、Wireless Addressing and Power of Device Arrays(素子アレイの無線アドレス指定及び電力)に記載されている。本出願については、無線アドレス指定は、低周波数の磁気共鳴による無線電力方法を省いて、低電力要件を考えると、無線アレイ(サブピクセル)要素の電力供給を統合するのに十分であり得るが、微小アンテナを介した電力供給よりも、材料の選択及び設計の詳細次第では、マイクロリング共振器の方がより効率的かもしれない。しかしながら、HMD又はウェアラブル装置全体としての無線電力供給は、ローカル高出力密度メタキャパシタシステムと又は無線低周波数パックによってパワーアップすることができるその他の電気容量テクノロジーと組み合わせられた場合、頭部に装着した際の重量及び嵩を減らしつつ、ユニット全体に電力供給する好適な方法である。基本的低周波数磁気共鳴ソリューションは、Witricity, Incから入手できる。より複雑なシステムについては、米国特許出願 「Wireless Power Relay(無線電力継電器)」を参照する。 v. The third important element of a preferred hybrid MPC pixel signal processing solution for the pixel signal processing subsystem is the method of addressing the array of sub-pixels. A preferred method, as mentioned earlier, is a pending US patent application. Wireless addressing and power of Device Arrays (wireless addressing and power of element arrays). For the present application, wireless addressing may be sufficient to integrate the powering of the wireless array (sub-pixel) elements, omitting the low frequency magnetic resonance wireless power method and considering the low power requirements. Depending on the material selection and design details, microring resonators may be more efficient than powering via microantennas. However, the wireless power supply as a whole HMD or wearable device mounted on the head when combined with the local high power density metacapacitor system or any other capacitance technology that can be powered up by a wireless low frequency pack It is the preferred method of powering the entire unit while reducing the weight and bulk of the process. Basic low frequency magnetic resonance solutions are available from Witricity, Inc. US Patent Applications for more complex systems See “Wireless Power Relay”.
w.アレイ/マトリックスのアドレス指定及び電力供給のその他の好適な方法は、電圧に基づくスピン波アドレス指定を含み、これは言及した出願では特定されておらず、よって本提案では新規な変異形であるが、当初言及した「ハイブリッドMPCピクセル信号処理 」出願 及びこれのその他の形状因子及び使用事例に適用可能である。その他のディスプレイテクノロジーのために開発された高速電流に基づくバックプレーン/能動的マトリックスソリューション(OLEDなど)も、利用可能なオプションである。 w. Other preferred methods of array / matrix addressing and powering include voltage-based spin wave addressing, which is not specified in the mentioned application, and is thus a novel variant in the present proposal. Originally mentioned "Hybrid MPC pixel signal processing" application And other form factors and use cases thereof. High speed current based backplane / active matrix solutions (such as OLEDs) developed for other display technologies are also available options.
x.好適さは劣るその他のピクセル信号処理ピクセル論理符号化テクノロジー及び方法も、その他の具体的な設計の選択に応じて、無線アドレス指定及び電力供給方法、並びに電圧に基づくスピン波方法からメリットを得ることとなる。 x. Other less preferred pixel signal processing pixel logic coding technologies and methods also benefit from radio addressing and power delivery methods and voltage based spin wave methods depending on other specific design choices. It becomes.
y.このようなその他のピクセル信号処理、ピクセル論理符号化手段(マッハ・ツェンダー干渉計に基づく変調器を含む)(その効率性は典型的に、周波数材料システムに基づき、かつ赤外線及び/又は近赤外線で最も効率的となる)も用いてよいが、これらは好適さは劣るものであり、また同様に、言及された出願の教示に従い、当該クラスの手段について最も効率的な周波数のために最適化された構造及び/又は材料システムにおいて、あらゆる数のその他のピクセル信号論理符号化手段も用いてよい。 y. Such other pixel signal processing, pixel logic coding means (including modulators based on Mach-Zehnder interferometers) (the efficiency of which is typically based on frequency material systems, and in the infrared and / or near infrared) The most efficient) may also be used, but these are less preferred and, likewise, optimized for the most efficient frequency for the means of the class according to the teaching of the mentioned application Any number of other pixel signal logic encoding means may also be used in the architecture and / or material system.
z.提案されたシステムの好適実施形態にとって、言及された[2008]米国特許出願「Telecom−structured Pixel signal Processing methods(テレコム構造化されたピクセル信号処理方法)に続く、二重サブピクセルアレイシステムを、本出願のために本明細書に開示されるこの特定のバリエーションと最適化されたバージョン、並びに同様の動作要件又は望ましいメリットを有するその他の非HMD及び非ウェアラブル表示システムのアプリケーションと共に、特定することも必須である。 z. For the preferred embodiment of the proposed system, this [2008] US patent application entitled "Telecom-structured Pixel signal Processing methods (Telecom-structured pixel signal processing method)" is used to form a dual sub-pixel array system. It is also essential to identify with this particular variation and optimized version disclosed herein for the application, and other non-HMD and non-wearable display system applications having similar operating requirements or desirable benefits. It is.
aa.ピクセル信号処理に続いて、マニピュレーション構造及びプロセスのピクセル論理状態符号化ステージは、オプションの信号利得ステージである。このオプションが該当する場合、以下の説明においてそれが明白な時点で取り上げることとなる。 aa. Following pixel signal processing, the pixel logic state encoding stage of the manipulation structure and process is an optional signal gain stage. If this option applies, it will be taken at a clear point in the following description.
bb.波長/周波数シフトステージ:好適なハイブリッドMPCピクセル信号処理システムの特定の本バージョンについて、好適なナノ蛍光体及び/又は量子ドット(例えば、QD Vision)が増強された蛍光体色システムを用いる周波数アップコンバートステージが続く(但し、周期的に分極された装置/材料システムも、言及された開示におけるオプションとして特定される)。商的に利用可能な基本テクノロジーは、GE、Cree、及び商慣行で知られている広範囲のその他のベンダーなどの供給業者からのテクノロジーを含む。 bb. Wavelength / frequency shift stage: frequency up-conversion using phosphor color system with preferred nanophosphors and / or quantum dots (eg QD Vision) enhanced for this particular version of the preferred hybrid MPC pixel signal processing system Stages follow (although periodically polarized devices / material systems are also identified as options in the mentioned disclosure). Basic technologies that are commercially available include technologies from suppliers such as GE, Cree, and a wide range of other vendors known in commercial practice.
cc.何が行われているかというと、照明ステージで典型的に発生するアップコンバートプロセスの分割又は分離であり、また赤外線及び/又は近赤外線周波数での操作のために及びその他の理由で最適化されたその他のいくつかのステージが完了する後まで、この分割又は分離を遅延させることが、この時点で当業者にとって明らかになるであろう。 cc. What is being done is the division or separation of the upconversion process that typically occurs in the illumination stage, and is optimized for operation at infrared and / or near infrared frequencies and for other reasons Delaying this division or separation until after several other stages have been completed will be apparent to one skilled in the art at this point.
dd.よって、RGBサブピクセル色システムなどの色システムに合わせて調整されたナノ蛍光体/量子ドットが増強された蛍光物質/構造的形成の最適化によって、色システムは完全に実施される。繰り返すが、このようなディスプレイシステムの概念及び操作の再考が、言及された出願においてより詳細に記載されている。 dd. Thus, optimization of the nanophosphor / quantum dot enhanced phosphor / structural formation tailored to a color system such as the RGB subpixel color system completely implements the color system. Again, a reconsideration of the concepts and operation of such a display system is described in more detail in the mentioned application.
ee.ハイブリッドMPCピクセル信号処理方法を使用することの利点は、本来のMPC変調速度の高速度であり、これはかなりの長期間に亘って10ナノ秒未満と実証されてきており、現在はsub−nsが関連基準である。蛍光体励起発光反応の速度は比較的速い(さほど速くはないとしても)が、全体としてかつ正味、全色変調合計速度は15ナノ秒未満であり、理論的にさらに低い正味持続時間の測定値にさえ最適化されるであろう。 ee. The advantage of using the hybrid MPC pixel signal processing method is the high speed of the original MPC modulation rate, which has been demonstrated to be less than 10 nanoseconds for quite a long time, and is currently sub-ns Is the relevant standard. The rate of the phosphor-excitation reaction is relatively fast (although not very fast), but overall and net, the total color modulation total rate is less than 15 nanoseconds, and a theoretically lower net duration measurement Will even be optimized.
ff.提案された構造における変異形は、赤外線及び/又は近赤外線サブピクセルチャネルのそれぞれに帯域フィルターを追加し、これは処理シーケンスの終わりに、R、G、又はBへのアップスケーリングについて「オン」又は「オフ」のいずれかなる。この変異形は、フィルター要素の複雑さを追加する一方で、以下の場合に好適となり得る。1)材料の複合において、ハイブリッドMPCステージ自体が、赤外線及び/又は近赤外線ドメインの異なるサブバンドにより効率的に反応する、適合された材料のアレイである場合(但し、これはこの場合には当てはまらないと思われるが、その波長ドメイン内で市販されているバルクLPE MOLフィルムでさえ、そのほぼ100%の伝送効率と非常に低電力の偏光回転に起因する)。2)異なるナノ蛍光体及び/又は量子ドットで増強されたナノ蛍光体/蛍光物質の形成の効率が、十分に非常に高いため、それぞれの最終的R、G及びBサブピクセル構成要素についてより精密にまとめられた赤外線及び/又は近赤外線周波数帯域に値する場合。この設計トレードオフは、帯域をまとめるための追加層/構造/堆積の通過という複雑さの追加と、これに対して、不可視入力照明スペクトルの異なる部分に合わせてより「調整された」周波数/波長シフトする材料を使用する可能性から得られる効率性利得とについての、コスト/メリットの分析に行きつくであろう。 ff. Variants in the proposed structure add band-pass filters to each of the infrared and / or near infrared sub-pixel channels, which are "on" or upscaling to R, G, or B at the end of the processing sequence. It will be either "off". This variant, while adding to the complexity of the filter element, may be suitable in the following cases. 1) In the case of composites of materials, where the hybrid MPC stage itself is an array of adapted materials that react more efficiently to different sub-bands of the infrared and / or near infrared domains (though this is not the case in this case) Although not likely, even bulk LPE MOL films commercially available in their wavelength domain are due to their near 100% transmission efficiency and very low power polarization rotation). 2) The efficiency of the formation of nanophosphors / fluorescent substances enhanced with different nanophosphors and / or quantum dots is sufficiently high so that it is more precise for each final R, G and B subpixel component In the case of being worthy of infrared and / or near infrared frequency bands summarized in. This design tradeoff adds the complexity of passing additional layers / structures / depositions to band together, as opposed to more “tuned” frequencies / wavelengths to different parts of the invisible input illumination spectrum We will end up with cost / benefit analysis of the efficiency gains from the possibility of using shifting materials.
gg.この色処理ステージに続いて、最初の赤外線及び/又は近赤外線照明源から実現されたサブピクセルグループは、統合された光学ピクセルチャネルを通して継続する。その他の最終的ピクセル構成要素が追加されることがない場合、出力ピクセルは、必要に応じて、変調及び色ステージ構成要素の寸法についての設計の選択次第となり、好ましくは拡散手段によるオプションのピクセル拡張(言及されたものを含み、かつ言及された出願で開示されている通り)が必要となり得る(ピクセルスポットサイズ縮小化は、ここでは必要となる可能性は非常に低く、このピクセルスポットサイズ縮小化は関連技術分野では公知であり、かつ言及された出願のうちの特定の出願、特に[2008]で開示されている通り、光学フォーカス又はその他の方法を必要とする)。 gg. Following this color processing stage, the sub-pixel groups realized from the first infrared and / or near infrared illumination source continue through the integrated optical pixel channel. If other final pixel components are not to be added, the output pixel will depend on the design choice for the modulation and dimensions of the color stage component, as appropriate, and is preferably an optional pixel expansion by diffusion means It may be necessary (including those mentioned and as disclosed in the mentioned application) (pixel spot size reduction is very unlikely to be necessary here, and this pixel spot size reduction Are known in the relevant art and require optical focusing or other methods as disclosed in the specific application of the mentioned applications, in particular [2008]).
hh.ビューアーの眼から適切な距離に仮想焦平面を実現する目的で、コリメート光学素子(小型レンズアレイを含む)、ファイバーが光伝送軸に並行に配されているテキスタイル複合物に埋め込まれた光ファイバーアレイ、「フラット」又は平面逆インデックスメタマテリアル構造、及び当該技術分野で公知のその他の光学的方法が用いられる。好ましくは、すべての要素は、追加のバルク光学アイピース要素/構造を必要とするのではなく、マクロ光学素子/構造上の合成層内に製作され又は実現される。ファイバータイプ方法と、これに対して、積層複合物もしくは堆積製作された多層構造、又は2つ以上の組み合わせ/ハイブリッドという、さらなる疑問については、以降の構造的/機械的システムというセクションで扱う。 hh. Collimating optics (including lenslet arrays), an optical fiber array embedded in a textile composite in which the fibers are arranged parallel to the light transmission axis, for the purpose of realizing a virtual focal plane at an appropriate distance from the viewer's eye "Flat" or planar inverted index metamaterial structures and other optical methods known in the art are used. Preferably, all the elements are fabricated or realized in a composite layer on the macro-optical element / structure, rather than requiring additional bulk optical eyepiece elements / structures. Further questions of fiber type methods and, in contrast, laminated composites or deposited multilayer structures, or two or more combinations / hybrids, are addressed in the sections below on Structural / Mechanical Systems.
ii.前述の通り、開示されたピクセル信号処理ピクセル論理構造及び動作ステージ(好適なハイブリッドMO/MPC方法及びマニピュレーション構造を含む)を実施するピクセル信号処理ピクセル論理アレイ機能的/光学/構造的素子は、事前にフィルタリングされているが、(当業者に期待される通り)ピクセル化されたアレイである入射波面の場全体に亘って作動するバルク装置ではない。 ii. As mentioned above, pixel signal processing pixel logic array functional / optical / structural elements implementing the disclosed pixel signal processing pixel logic structure and operation stages (including preferred hybrid MO / MPC methods and manipulation structures) However, it is not a bulk device that operates across the field of the incident wavefront, which is a pixelated array (as would be expected by one skilled in the art).
jj.それぞれの最終ピクセルは、少なくとも2つのピクセル構成要素(前述の色システムRGBサブピクセルを超えて)を含み得るものである。一つは、最初からのビデオ画像を生成する、アレイに配された構成要素であり、これは単純なテキストとデジタルグラフィックを含み得るが、本システムのすべての目的上、CGI又は相対的にリモートなライブもしくはアーカイブのデジタルイメージのいずれかから、又はこれらの複合物及びハイブリッドから高解像度画像を生成することができる。 jj. Each final pixel may include at least two pixel components (beyond the aforementioned color system RGB sub-pixels). One is an arrayed component that generates the video image from scratch, which may include simple text and digital graphics, but for all purposes of this system, CGI or relatively remote High resolution images can be generated from either live or archived digital images, or from their composites and hybrids.
11.パススルー現実世界照明及びピクセル化されたアレイ ― 可視周波数パススルーで動作する場合についての詳細条件(すなわち、赤外線/近赤外線にダウンコンバートされていない): 構造化された及び作動光学体及びフォトニック構造及びステージを通した視野からの現実世界の生成されていない光線の伝送及び処理に戻る。 11. Pass-Through Real-World Illumination and Pixelated Arrays-Detailed Conditions for Working with Visible Frequency Pass-Through (ie, Not Downconverted to Infrared / Near Infrared): Structured and Operating Optics and Photonic Structures and Returning to the transmission and processing of real world ungenerated rays from a view through the stage.
a.これらの赤外線及び/又は近赤外線駆動されたサブピクセルクラスタと共にアドレス指定アレイ上の同一場所に配置されるのは、別のセットのピクセル又はその他のサブピクセル構成要素のいずれかであり、これは事実上、HMDのビューアー及び装着者の前方のライブ視野から生じる最終的ピクセルチャネル構成要素である。これらは、最終ピクセルの「パススルー」で完全にアドレス可能な構成要素である。 a. It is either another set of pixels or other sub-pixel components that are co-located on the addressing array with these infrared and / or near infrared driven sub-pixel clusters. Above, the final pixel channel component resulting from the viewer of the HMD and the live view in front of the wearer. These are completely addressable components in the "pass-through" of the final pixel.
b.これらのチャネルは、特定された通りピクセルに細分化された前方複合光学素子/構造から生じる。 b. These channels originate from the front complex optics / structures subdivided into pixels as specified.
c.これらの光チャネルは、利用可能な効率的分割方法を用いることによって、波面の損失を低くして波面部分を伝搬する。表面小型レンズアレイ又はミラー漏斗アレイを提案される再分割方法と組み合わせて用いてよく、これは縁から縁までに非常に近い光線キャプチャー効率を可能にするため、その後、キャプチャーされた波面部分は効率的に結合されて、細分化された/ピクセル化された誘導光学体/アレイ構造の相対的「コア」となる。よって、従来のステップインデックス結合方法が使用されているか否か、又はMTIR微細孔アレイ、又は真のフォトニック結晶構造、又は2つ以上の方法のハイブリッドの如何を問わず、結合手段に寄与するピクセル化アレイ形成の領域は、損失を最小限に抑えて、最小限のパーセンテージの波面を受け取ることになる。 c. These light channels propagate wavefront portions with low wavefront losses by using available efficient splitting methods. A surface lenslet array or mirror funnel array may be used in combination with the proposed repartitioning method, which allows the light capture efficiency very close from edge to edge, so that the captured wavefront portion is then efficient Coupled together, they become the relative "core" of fragmented / pixelated guiding optics / array structures. Thus, whether the conventional step index bonding method is used, or a pixel that contributes to the bonding means, regardless of whether it is a MTIR microporous array, or a true photonic crystal structure, or a hybrid of two or more methods. The area of integrated array formation will receive the minimum percentage of wavefronts with minimal loss.
d.効率的な波面取り込み、ルート決定、及び誘導された/ピクセル化されたセグメント化には、本システムの特定のバージョン及び動作モードのために、可視及び赤外線及び/又は近赤外線周波数の焦点を合わせかつ/又は反射する広帯域光学素子が必要であり、そしてこれは、後述の通り、光学ラインナップ及びシーケンスにおける最初で第1の光学フィルタリング構造及び手段として赤外線及び/又は近赤外線フィルターを実施するという提案にもかかわらず必要とされる。 d. Efficient wavefront capture, routing, and induced / pixelated segmentation focus on visible and infrared and / or near infrared frequencies for specific versions of the system and mode of operation and A broadband optical element is required which reflects and / or reflects, and it is also proposed to implement an infrared and / or near infrared filter as the first and first optical filtering structure and means in the optical lineup and sequence as described below Though needed.
a.大半の構成において、その赤外線及び近赤外線照明ステージは、当該ステージを通して散在して、赤外線及び/又は近赤外線に透過的であるが、可視周波数光誘導/経路閉じ込めを提供する、「パススルー」のキャプチャーされた照明のための誘導構造が存在するため、赤外線及び/又は近赤外線は、チャネル化された「パススルー」ピクセル構成要素と干渉せずに、均一に配信されることが可能である。 a. In most configurations, the infrared and near infrared illumination stages are "pass-through" captures that are interspersed throughout the stage and transparent to infrared and / or near infrared, but provide visible frequency light guidance / path confinement Because there is a guiding structure for the illuminated illumination, the infrared and / or near infrared can be uniformly distributed without interfering with the channelized "pass-through" pixel component.
b.誘導された入射波面部分信号チャネルがピクセル信号処理、つまりピクセル状態符号化ステージに達すると、そうでなければ「バルク」であるフィルムのバルクMO又は多層MPCフィルム又は周期的に構造化された格子(又は2Dもしくはは3Dの周期的構造)の単一の形成が存在する場合、その材料又は構造化された材料の効率が、赤外線及び/又は近赤外線用に最適化されている場合、並行ピクセル信号処理、つまりピクセル論理状態構造が、まったく同じ方法で、但しかなり低い効率で実施されることになる。 b. When the induced incident wavefront partial signal channel reaches the pixel signal processing, ie the pixel state coding stage, a bulk MO or multilayer MPC film or a periodically structured grating (film) which is otherwise 'bulk' Or parallel pixel signals if the efficiency of the material or structured material is optimized for infrared and / or near infrared, if there is a single formation of a 2D or 3D periodic structure) The processing, i.e. the pixel logic state structure, will be implemented in exactly the same way, but with much lower efficiency.
c.しかし、バルク形成でかつ構造化されたフォトニック結晶材料としての両方で、多様な手段で製作された広帯域MO材料として、その効率は、赤外線及び近赤外線用に最適化されたMO/MPC材料/構造化された材料の効率とは現時点では等しくはないが、改良し続けている。2005年に本開示の著者によって統率された初期の研究では、新しいMO及びMPC材料がモデル化かつ製作され、これは初めて、緑色帯域レジーム用の大幅に改良された伝送/ファラデー回転ペアリングを実証しただけでなく、最初の無視できないほどの、実際のところディスプレイアプリケーションにとって重要かつ容認可能で競争的な、青色帯域における性能を実証した。 c. However, as a broadband MO material fabricated by various means, both as bulk-formed and structured photonic crystal material, its efficiency has been optimized for infrared and near infrared MO / MPC materials / The efficiency of structured materials is not equal at the moment but continues to improve. Initial work, led by the author of the present disclosure in 2005, models and produces new MO and MPC materials, which for the first time demonstrate significantly improved transmission / Faraday rotational pairing for the green band regime. Not only did the first non-negligible, in fact, significant and acceptable, competitive, performance in the blue band for display applications was demonstrated.
しかしながらこのような材料の製作は、より費用がかかる傾向にあり、もしも「生成的」ピクセル構成要素のために及びパススルーピクセル構成要素のために、異なる材料が「小型フィルム」として堆積される場合、これは製作プロセスの複雑さと費用を増大させる。しかし、このような構成は、すべての条件が同じだとすると、最終的な統合されたピクセルの「パススルー」構成要素のピクセル論理状態符号化の効率を改良することになるであろう。 However, the fabrication of such materials tends to be more expensive, if different materials are to be deposited as "small films", for "genetic" pixel components and for pass-through pixel components. This adds to the complexity and cost of the fabrication process. However, such an arrangement would improve the efficiency of pixel logic state encoding of the final integrated pixel "pass-through" component, all conditions being equal.
d.「適合された」MOカテゴリーの材料の堆積又は形成が無い場合(この論理は、好適さは劣るが、その最大効率がMO/MPCのように周波数に依存し、その代わりに単一の形成を使用する、変調システムにも適用される)、すべての条件が同じだとすると、変調手段がより低効率となる程度に、パススルーの最終ピクセル構成要素の強度はより低くなる。 d. In the absence of deposition or formation of "fitted" MO category materials (this logic is less preferred, but its maximum efficiency is frequency dependent like MO / MPC, instead a single formation If all conditions are the same, which is also used, the strength of the pass-through final pixel component will be lower, to the extent that the modulation means is less efficient.
e.典型的に、パススルーシステムについては、蛍光物質タイプ又はその他の波長/周波数シフト手段は一切使用されないだろうと、想定されるであろう。しかし、本来のMO/MPC材料の効率がより低いかもしれない範囲において、この場合には、ピクセル論理ステージ符号化ステージでの材料性能の不足にある程度対処するために、帯域最適化材料の異なる形成を用いてよい。 e. Typically, for pass-through systems, it will be assumed that no phosphor type or other wavelength / frequency shifting means will be used. However, to the extent that the efficiency of the original MO / MPC material may be lower, in this case, different formations of band optimization material to partially address the lack of material performance at the pixel logic stage encoding stage May be used.
f.さらに、低照度又は暗視操作のために提案される通り、言及した出願のうちのいくつかの出願(米国特許出願 「ピクセル信号処理」 及び米国特許出願ハイブリッドMPCピクセル信号処理 )のオプションとして提案される通りの、オプションの「利得」ステージであって、このステージで、励起された利得材料が大量投入されて、光学的、電気的、音質的、機械的、又は磁気的のいずれかで利得媒体においてエネルギー利得を実施し(この詳細については言及された出願に記載されている通り、かつ当該分野において公知であるか又は将来考案され得るその他の方法によって)、最終ピクセルの伝送された「パススルー」構成要素が利得媒体を通過する際に、この構成要素の強度を増強する。これが可変でアドレス可能なステージであるが、この設計オプションが選択された場合には、むしろブランケット利得を高める設定であるということは、好ましくない。 f. Furthermore, as suggested for low light or night vision operation, some of the applications mentioned (US patent application "Pixel signal processing" And US patent application hybrid MPC pixel signal processing An optional “gain” stage, as proposed as an option), in which a large amount of pumped gain material is introduced to provide an optical, electrical, sound, mechanical or magnetic The energy gain is implemented in the gain medium at any of the final pixels (as described in the referenced application for this detail and by other methods known in the art or may be devised in the future), As the transmitted "pass-through" component passes through the gain medium, it enhances the strength of this component. This is a variable and addressable stage, but if this design option is chosen, it is not preferred that it be a setting that would rather increase the blanket gain.
g.さらに、誘導された入射波面部分チャネルがピクセル信号処理、すなわちピクセル状態符号化ステージ(前述の通り)に達すると、低照度及び暗視アプリケーションについてのオプションだが、ピクセル信号処理及び光学チャネル管理システム全体の有価なオプション構成がある。 g. Furthermore, when the induced incident wavefront sub-channel reaches the pixel signal processing, ie pixel state coding stage (as described above), an option for low illumination and night vision applications, but for the entire pixel signal processing and optical channel management system There is a valuable option configuration.
h.この変異形では、赤外線フィルターを取り除くことが可能だが、入射した現実世界波面からの赤外線及び/又は近赤外線光を能動的変調アレイシーケンスまで通過させることが目標であるため、入射する「実際の」赤外線は、センサアレイの仲介を必要とせずに、赤外線出力が視野で可視である範囲で、ビューアーにとっては生成された類似色(モノクロ又は偽カラーの赤外線諧調度)画像で、ピクセル信号処理変調器を通してかつ直接通過される。 h. In this variant, it is possible to remove the infrared filter, but since the goal is to pass the infrared and / or near infrared light from the incident real world wavefront to the active modulation array sequence, the incident "actual" Infrared is a pixel signal processing modulator with a similar color (monochrome or false color infrared gradient) image generated for the viewer to the extent that the infrared output is visible in the field of view, without the need for sensor array intervention. Pass through and directly.
i.そして前述の通り、パススルー赤外線(もし有益な場合には、+近赤外線)の強度を波長/周波数シフトステージまで増加させるために、利得ステージを実施し得る。 i. And, as mentioned above, a gain stage may be implemented to increase the intensity of pass-through infrared (if useful, + near infrared) to the wavelength / frequency shift stage.
j.さらに、基本赤外線及び/又は近赤外線背景照明(適切な基本レベルを設定するために変調された強度)は、通常フルカラー動作モードを通して、波長/周波数シフトステージ及び媒体を起動する閾値に達しない範囲で調整され得る。 j. In addition, the basic infrared and / or near infrared background illumination (intensity modulated to set the appropriate base level) usually does not reach the threshold for activating the wavelength / frequency shift stage and medium through full color operation mode It can be adjusted.
k.赤外線フィルタリング手段の除去/不活性化は機械的に行われ得るが、それは受動的光学素子が、「跳ね上げる」ことができるヒンジ付き又は片持ちヒンジ付き装置内に配備されたか、又は能動的構成要素として、電気泳動的タイプの活性化されたバルクのカプセル化された層(この中では複数の相対的にフラットなフィルタリングミクロ要素を静電的に(機械的)回転させる)においてのように不活性化される場合であり、よって、最低入射角度が通過され、複数の回転した要素は、もはや赤外線をフィルタリングしない)。その他の受動的又は能動的活性化/除去方法を用いてもよい。 k. Although removal / deactivation of the infrared filtering means can be done mechanically, it may be provided that passive optics are deployed in a hinged or cantilevered device that can be "flipped up" or in an active configuration As an element, as in the electrophoretic type activated bulk encapsulated layer (in which several relatively flat filtering microelements are electrostatically (mechanically) rotated) When activated, the lowest incident angle is passed, and the multiple rotated elements no longer filter infrared). Other passive or active activation / removal methods may be used.
l.低照度又は暗視操作用の赤外線フィルター及び偏光フィルターは、生成システムが「能動的」に使用されているか否かに応じて、閾値を生成するためのみならず、ピクセル化されたアレイに入射した実際の赤外線波面部分の一部に対してデータをスーパーインポーズするために、両方とも取り除いてよい。能動的に使用されている場合、生成源の効率を最大化するために、好適なデジタルピクセル信号処理システムは、最初の偏光フィルターが、信号内のピクセル論理状態を符号化する光学スイッチ/変調器を実施することを必要とする。 l. Infrared filters and polarizing filters for low-light or night-vision operations were incident not only on the thresholding, but also on the pixelated array, depending on whether the production system is being used "actively" Both may be removed to superimpose data on a portion of the actual infrared wavefront portion. When actively used, in order to maximize the efficiency of the generation source, the preferred digital pixel signal processing system is an optical switch / modulator in which the first polarization filter encodes pixel logic states in the signal. Need to carry out.
m.パススルーシステムのデメリットは、入射する赤外線及び/又は近赤外線の強度を低減することである。 m. The disadvantage of pass-through systems is to reduce the intensity of incident infrared and / or near infrared radiation.
n.この問題に対処するために設計された本システムの別の実施形態では、入って来る信号を増やすために、ピクセル信号処理、つまりピクセル論理状態符号化ステージの前に利得ステージを置く。 n. Another embodiment of the present system designed to address this issue places the gain stage before the pixel signal processing, ie the pixel logic state encoding stage, to increase the incoming signal.
o.「自然」入射光の入力で励起された利得媒体を用いる本システム及びあらゆるシステムの設計パラメータにおいて、非コヒーレント、非コリメートの「自然」光での利得媒体の効率を考慮すべきである。 o. The efficiency of the gain medium with non-coherent, non-collimated "natural" light should be considered in the design parameters of the present system and any system that uses a gain medium pumped with the input of "natural" incident light.
p.第2の別の構成要素3個のシステムが実施され、これは生成手段用の構成要素サブチャネルと、入射可視光構成要素と、偏光フィルタリングされていない入射赤外線構成要素とを含む。この変異形を実現するために、偏光フィルター要素が無いこの第3のサブチャネル/構成要素から出るピクセル化された偏光フィルター要素が実施されなければならない。 p. A second separate component three system is implemented which includes a component sub-channel for the generating means, an incident visible light component and an incident infrared component which is not polarization filtered. In order to realize this variant, a pixelated polarization filter element exiting from this third subchannel / component without a polarization filter element has to be implemented.
q.このタイプの低照度暗視動作モード要件を有する、より基本的な一体化された構成要素2個のオプション・システムタイプについては、最初の入射波面入力及びチャネル化/ピクシレーションステージに追加の光学素子が必要とされる。 q. For the more basic integrated component two option system type with this type of low illumination night vision operating mode requirements, additional optics on the first incident wavefront input and channelization / pixilation stage Is required.
r.入射する赤外線(及び必要な場合は近赤外線)は、最終的な可視ピクセルの通常の「生成的」ソース構成要素と、入って来る入射波面の可視光部分全体を最終的な可視ピクセルの当該ソース構成要素へと誘導するパススルーチャネルとに向かうサブチャネルとの間で分割され得るが、赤外線及び/又は近赤外線を最終的ピクセル用の可視光サブチャネル及びソースに送信する特定の効率利得は一切ない。 r. The incident infrared radiation (and near infrared radiation, if necessary) is the usual "generating" source component of the final visible pixel, and the entire visible light portion of the incoming incident wavefront that source of the final visible pixel. It may be split between the sub-channel towards the pass-through channel leading to the component, but there is no specific efficiency gain to transmit infrared and / or near infrared to the visible light sub-channel and source for the final pixel .
s.むしろ、入射実波面の取り込みを最大化するための小型レンズ又は別の光学キャプチャー手段の後に続いて、又はこの小型レンズと一体化されているのは、周波数スプリッタである。一つの方法は、赤外線及び/又は近赤外線光のみ許可する、可視光用の帯域フィルター1個と、赤外線及び/又は近赤外線光用のもう1個の隣接フィルターとの、対向するフィルターを実施することである。このような対向するフィルターの多様な幾何学的配置(両方平面で、又は入射波面光学キャプチャー構造の中心焦点から両フィルターが対向して45度オフセットされて設定されて)は、異なる利点を提供するものであり、その利点とは、(小型レンズ、又は逆インデックスメタマテリアル「フラット」レンズを含むその他の光学素子又は手段により)焦点を合わされた合成可視/赤外線近赤外線ビームが第1の別個の一つの帯域範囲となるようにし、その他のビームが対向するフィルター表面に反射することを可能にし、また、中心焦点からさらに離れたフィルター構造に最初に衝突する焦点ビームの部分については、上記と逆に同様に可能とすることである。格子構造は、二重フィルタースプリッタ配置を実施するための好適な方法であるが、2つのフィルタリング面を実施するための後続のステージにおいて(当該技術分野で公知でありかつ今後開発される多様な方法で)堆積され得るバルク材料形成に基づく、その他の方法も当該技術分野で公知である。(UVはこのステージの前にフィルタリングされるが、赤外線の後とすることが好ましい赤外線ということをご注意下さい。いくつかの罪状認否では、赤外線及び偏光子フェーズが最初と2番目であり、UVフィルターは3番目となる。その他の場合、赤外線の後にUV、そして偏光子となる。異なる配置は、異なる使用事例について異なる価値があり、製作費用及び特定のプロセスシーケンスへの異なる影響がある)。 s. Rather, it is a frequency splitter that follows, or is integrated with, a lenslet or another optical capture means to maximize capture of the incident real wavefront. One method implements opposing filters of one band pass filter for visible light and another adjacent filter for infrared and / or near infrared light, which allows only infrared and / or near infrared light It is. The different geometrical arrangements of such opposing filters (both set in both planes or offset from each other by 45 degrees from the central focus of the incident wavefront optical capture structure) provide different advantages. The advantage is that the combined visible / infrared near infrared beam focused (by a lenslet or other optical element or means including a reverse index metamaterial "flat" lens) is a first separate The two band ranges allow the other beams to be reflected to the opposite filter surface, and for the portion of the focused beam which initially strikes the filter structure further from the central focus, the opposite is true. It is equally possible. The grating structure is the preferred method to implement the dual filter splitter arrangement, but in subsequent stages to implement the two filtering faces (a variety of methods known in the art and to be developed in the future) Other methods based on bulk material formation that can be deposited) are also known in the art. (Please note that UVs are filtered before this stage, but preferably after infrared rays. In some cases, the infrared and polarizer phases are first and second, and in some cases the UVs are The filter is third, otherwise UV, then infrared followed by UV, and polarizers.Different arrangements have different value for different use cases, have different impact on fabrication costs and specific process sequences).
12.パススルーと、生成された/人工的ピクセル/サブピクセルアレイとの組み合わせ 12. Combination of pass-through with generated / artificial pixel / subpixel array
この2つの構成要素光チャネルは、前述の通り同一場所に置かれ、かつ一緒に好ましくはピクセル調和化手段に出力され(拡散及び/又はその他の混合方法及び当該技術分野において公知であるか又は将来考案されるその他の方法によって利用可能であるように)、この生成ソースはパススルーソースと組み合わされて、従来の色覚人工的加色表示システムのRGBサブピクセルと同様に、最終的合成ピクセルを形成する。そしてこれは、前述の通り及び言及した出願に詳細が記載されている通り、本開示の目的の一部でもある顔面に近いという人間工学上の設計目標を前提として、HVSで最も効果的かつ最も容易である仮想焦平面での画像を形成するために、さらにピクセルビーム形成され、そして特にコリメートされかつその他の方法で光学的に向けられる。 The two component light channels are co-located as described above and are preferably output together to the pixel harmonization means (diffuse and / or other mixing methods and known in the art or in the future This generation source is combined with the pass-through source to form the final composite pixel, similar to the RGB sub-pixels of the conventional color vision artificial color additive display system, as available by the other methods contemplated . And this is the most effective and most effective with HVS, given the ergonomic design goal of being close to the face, which is also part of the purpose of this disclosure, as described in detail above and in the mentioned application. In order to form an image at a virtual focal plane that is easy, it is further pixel beam shaped and in particular collimated and otherwise optically directed.
a.「生成的」構成要素(これ自体はRGBサブピクセルから成る)と、可変「パススルー」構成要素とを有する基本的な一体化された2つの構成要素のシステムの動作 ― 第1は主要な動作モードで、そして第2はオプションの低照度暗視モード用に構成されている a. Basic integrated two-component system operation with a "genetic" component (which itself consists of RGB sub-pixels) and a variable "pass-through" component-the first is the main mode of operation And the second is configured for optional low illumination night vision mode
明るく日が照る日中の屋外で、提案される形態のHMDの装着者は、一体化双眼鏡(2つの別個のレンズの形状因子装置構造)又は接続されたバイザーで見るが、これは装着者に対して、ピクセルアレイ(これ自体が、生成的高性能ピクセルと、ビューアーが対面している「世界への窓」のパススルーで可変的強度波面部分という、2つの入力構成要素の一体化によって形成されている)の一体化によって形成された画像を提示する。 The wearer of the HMD in the proposed form looks out with integrated binoculars (two separate lens form factor device constructions) or a connected visor, in the daytime outdoors where the sun shines, which In contrast, the pixel array (which is itself formed by the integration of two input components: a generative high-performance pixel and a pass-through variable-intensity wavefront portion of the "window to the world" facing the viewer. Present the image formed by the integration of
b.最終的一体化ピクセル用の合成色構成要素は、「生成的」ピクセル構成要素によって形成され、これは不可視赤外線及び/又は近赤外線「内部」「注入された」後部照明として始まり、これは各サブピクセルについて10ナノ秒未満で(そして最近では1ナノ秒未満で)オン又はオフにされる。そしてその赤外線及び/又は近赤外線サブピクセルは、最も広い可能な全色範囲を生成するために利用可能な最良で最新の材料及びシステムを用いて、合成蛍光物質/構造を活性化させる。 b. The composite color component for the final integrated pixel is formed by the "generating" pixel component, which starts as invisible infrared and / or near infrared "internal" "injected" back lighting, which is It is turned on or off in less than 10 nanoseconds (and recently less than 1 nanosecond) for a pixel. And the infrared and / or near infrared sub-pixels activate synthetic fluorescent materials / structures using the best modern materials and systems available to generate the widest possible full color range.
c.サブピクセルの状態が非常に短い波動で設定されると、一定の電力をスイッチに適用することなしに、「メモリ」スイッチはその状態が変わるまで、オン状態を維持する。 c. When the sub-pixel state is set with very short waves, the "memory" switch remains on until the state changes, without applying constant power to the switch.
d.よって、生成的構成要素は、高フレーム率、高ダイナミックレンジ、低電力、広色域ピクセル切替えテクノロジーである。 d. Thus, the generative component is high frame rate, high dynamic range, low power, wide gamut pixel switching technology.
e.合成ピクセルの第2の構成要素は、パススルー構成要素であり、これは装着者に面した方向から入射する、本HMDの前方光学面に衝突する波面全体のうちの効率的に高パーセンテージの細分化された部分として始まる。これらの波面部分は、通常モードでUV及び赤外線についてフィルタリングされ、また同様に偏光ソート又はフィルタリングされる(これは現実世界照明を低減させたベースか又は最大化したベースのいずれか、選択された設計戦略に応じて選ばれる)。低減させたベース、すなわち偏光フィルタリングでは、結果として、偏光モード事象の組成と偏光子の効率に応じて、可視視野の全体的明るさが実質的に(約1/3〜1/2に)低減される。 e. The second component of the composite pixel is the pass-through component, which is a fraction of the efficiently high percentage of the total wavefront that strikes the front optical surface of the present HMD, which is incident from the direction facing the wearer It starts as a These wavefront portions are filtered for UV and infrared in normal mode, and are also polarization sorted or filtered (this is either a reduced real world illumination or a maximized selected design) It is chosen according to the strategy). A reduced base, ie polarization filtering, results in a substantial reduction (approximately 1/3 to 1/2) in the overall brightness of the visible field of view depending on the composition of the polarization mode event and the efficiency of the polarizer Be done.
f.特に明るい昼の光では(但し、非常に低照度から全く光が無い状態以外の概してすべての照明条件では)、パススルー強度の低減により、入射波面部分の照明レベルと「競い合い」かつ一致させ又はこれを上回ることが容易になる。よって、二つの役目を果たすか又は二つのメリットを生み出すシステムの構成要素によって達成される受動的光学手段によって、これはピクセル論理状態符号化を実施する好適な変調システム(偏光変調に基づく)の必要とされる構成要素であり、またこれは電力要件も低減させ、かつ生成システムとパススルーシステムの値の較正、調整及び合成を簡略化する。 f. With particularly bright daytime light (but in generally all lighting conditions except very low to no light at all), the reduction of the pass-through intensity will "match" and match or match the illumination level of the incident wavefront portion Is easier to Thus, by means of passive optical means achieved by components of the system that perform two roles or produce two benefits, this is a need for a suitable modulation system (based on polarization modulation) to implement pixel logic state coding These components also reduce the power requirements and simplify the calibration, adjustment and synthesis of the values of the generation system and the pass-through system.
g.このシステムの設計特長は、ほとんどの人々にとって、屋外での明るい照明条件は偏光サングラスを使用することによって管理されているという事実を活用している。屋内では、過度に明るい放射性又は透過性ディスプレイは眼精疲労をもたらすと知られており、従って、屋内であっても照明レベルを全体的に下げることは、結果として、視野における「競合する光環境」を再度創り出すことなしに、生成システムにて、相対的にわずかに照明レベルを上げるというより単純な問題をもたらす。低減された自然パススルー照明(オプションであるが、LED又は確かにレーザー光よりも効率性が劣る利得ステージによって、オプションで高めることができる)と、場面の部分にグラフィック又は合成要素を追加する生成システムとの組み合わせが、結果としてそうでない場合よりも調和化されかつ強度がより低いベースラインをもたらす。(生成システム、つまり一体化アレイの該当部分は、必ずしもFOV全体をARモード生成しないが、完全VRモードでは生成することができる)。 g. The design features of this system take advantage of the fact that for most people, bright outdoor lighting conditions are managed by using polarized sunglasses. Indoors, excessively bright emissive or transmissive displays are known to lead to eyestrain, so reducing the illumination level overall even indoors results in a "competitive light environment in the field of view. In the production system, the problem of raising the light level relatively slightly is raised rather than creating the '' again. A reduced natural pass-through illumination (optional, but can optionally be enhanced by a gain stage that is less efficient than LEDs or laser light) and a generation system that adds graphic or synthetic elements to parts of the scene And the combination with E., results in a baseline that is more harmonized and less intense than otherwise. (The generation system, ie the relevant part of the integrated array, does not necessarily generate the entire FOV in AR mode but can be generated in full VR mode).
h.ユーザの透視ビューでの合成要素と実要素との計算された調整及び合成(感知及び計算システムにおいて次に取り扱う局面である)を前提とすると、生成ソースとパススルーソースのハイブリッドは、ディスプレイレベルでの目に見えるラグや感知できるほどの待ち時間は一切無しに、ハイブリッドのモバイルAR/混合現実ビューを容易にかつ迅速に生成できる。 h. Given the computed coordination and compositing of compositing elements and real elements in the perspective view of the user (which is the next aspect of the sensing and computing system), the hybrid of the generated source and the pass-through source is at the display level It can easily and quickly create a hybrid mobile AR / Mixed Reality view without any visible lag or appreciable latency.
i.デフォルト「オフ」スキーム(すなわち、好適な偏光変調形態での偏光子及びアナライザが、同一よりもむしろ「交差している」)で設計された、パススルー波面部分は一切伝搬されない、パススルーピクセル構成要素サブチャネルでは、現実の風景とモーション追跡との較正を前提とするモバイルHMDは、モバイルVRモードで機能できる。後述するが、提案されるセンサ及び関連処理システムとの組み合わせで、HMDは、パススルーはオフされたBarrilleauxの「間接視ディスプレイ」として機能できる。 i. The pass-through pixel component sub-designated with the default "off" scheme (ie the polarizer and analyzer in the preferred polarization modulation form are "crossed" rather than the same), no pass-through wavefront portion is propagated In the channel, mobile HMDs that assume calibration of real scenery and motion tracking can function in mobile VR mode. As described below, in combination with the proposed sensor and associated processing system, the HMD can function as an "indirect viewing display" of Barrilleaux with pass-through turned off.
j.生成システムがオフされて、そして特に、最適化された可視周波数MO/MPC材料構造の追加費用及び複雑さがある場合、可変的パススルーシステム(生成的/増強されたチャネルを追加するピクセル照明/画像プリミティブ情報の無い)も実施可能である。 j. Variable pass-through system (pixel illumination / image adding generative / enhanced channels, especially when the generation system is off and there is additional cost and complexity of optimized visible frequency MO / MPC material structure It is also possible to implement primitive information).
「間接視ディスプレイ」の逆構成では、提案されるセンサ及び関連処理システムについて本明細書中で後述する通り、本システムのさらなる変異形が採用されて、かつ「パススルー」チャネルフィルターが、それぞれそれ自身のピクセル信号論理状態符号化変調器を有するRGBサブピクセルチャネルに細分化された(赤外線/近赤外線及び可視スペクトルフィルタースプリッタのパターンに従って)場合、パススルーシステムの可変伝送手段を、直視システムになるように増強することができる。そのデメリットはダイナミックレンジとなり、比較すると相対的に低照度照明となる、補足するための生成的手段が無いということである。さらに、このような変異形(生成的構造を単純に排除するモード又はシステム)は、場面一体化合成及びパースペクティブ計算を行う上でのボトルネックを単純化する、並行処理システムによって対処可能な二重アレイのメリットは有さないことになる。さらに、異なる調整が行われた可視スペクトルの最適MO/MPC材料/構造に基づくこのようなシステムは、赤外線/近赤外線に基づく生成システムよりも高価となり、かつ効率がより低くなるであろう。 In the reverse configuration of the "indirect vision display", further variants of the system are adopted and the "pass-through" channel filters are themselves respectively, as described later herein for the proposed sensor and associated processing system In the case of subdivision into RGB sub-pixel channels (following the pattern of infrared / near infrared and visible spectral filter splitters) with pixel signal logic state coding modulator of 0, the variable transmission means of the pass through system to be a direct view system It can be enhanced. The disadvantage is that it has a dynamic range and, by comparison, relatively low illumination, which has no means of complementing generation. Furthermore, such variants (modes or systems that simply eliminate generative structures) are doubled that can be handled by parallel processing systems, which simplifies the bottleneck in performing scene-integrated synthesis and perspective calculations. It will not have the benefits of an array. Furthermore, such a system based on an optimized MO / MPC material / structure in the visible spectrum with different adjustments will be more expensive and less efficient than a production system based on infrared / near infrared.
k.最適化されたシステムとは、効率的な生成的構成要素と、可変的強度だが全体的により低照度レベルのパススルー構成要素とを組み合わせたシステムである。 k. An optimized system is one that combines an efficient generative component with a pass-through component of variable intensity but at a lower overall illumination level.
l.好適な無線アドレス指定及び電力供給は、知的構造システムの機能素子部分から電力、熱、重量及び嵩をさらに低減させる。 l. The preferred wireless addressing and powering further reduces the power, heat, weight and bulk from the functional element part of the intelligent construction system.
m.赤外線フィルターを取り除く又はオフすることができるシステムについて、非常に低い照度又は暗視モードでは、赤外線(及び望ましい場合は近赤外線)がピクセル状態システムを損失なしに通過し、オプションの利得ステージは赤外線信号強度を引き上げ、かつ/又は赤外線/近赤外線内部注入照明構成要素は閾値/基礎強度を高め、これらに加えて、入射するピクセル化された赤外線の強度が追加/重畳されて、赤外線/近赤外線は波長/周波数シフト手段(好適な蛍光物質タイプシステム)を通過し、システムはモノクロ又は偽カラーに設定されて、直視低照度又は暗視システムが実現される。偏光フィルターが適所に置かれて、生成システムは作動しかつグラフィック及び完全なイメージを追加することができ、補助センサシステム(以下参照)からの信号か、又は他の構成で提案されている通り、波長/周波数シフトにエネルギー入力することが、十分な出力を生み出すために十分であるということを確実にするために、単純に基礎レベルを追加するかのいずれかで、入射赤外線の低減された強度を補う。 m. For systems that can remove or turn off the infrared filter, in very low illumination or night-vision modes, infrared (and near infrared if desired) passes through the pixel state system without loss, and the optional gain stage is an infrared signal Increasing intensity and / or infrared / near infrared internal injection lighting components increase threshold / basal intensity, in addition to which additional / superimposed intensity of incoming pixelated infrared, infrared / near infrared Passing the wavelength / frequency shifting means (preferred fluorescent type system), the system is set to monochrome or false color to realize a direct vision low illumination or night vision system. With the polarizing filter in place, the generation system can operate and add graphics and complete images, as suggested by the signal from the auxiliary sensor system (see below) or in other configurations, Reduced intensity of incident infrared radiation, either simply by adding a base level to ensure that the energy input to the wavelength / frequency shift is sufficient to produce sufficient power Make up for.
II.モバイルAR及びVR用センサシステム II. Sensor system for mobile AR and VR
言及された開示の様々な事例に従い、合成の生成イメージを内部全体(そしていくつかの事例では、望ましい場合には又は効率を考慮して必要とされる場合には、通過し得る外部照明条件)と最適化及び調和化するセンサシステムなしに画像を表示する画像表示構造が無く、また、ユーザの位置、視野角や、総じてモーション追跡を考慮していない、本提案の一般事例に続く。 According to the various cases of the disclosure mentioned, the composite generated image can be totally internal (and in some cases external lighting conditions that may be passed as desired or considered for efficiency) There is no image display structure that displays an image without a sensor system that optimizes and harmonizes, and follows the general case of the proposal, which does not take into account the user's position, viewing angle and motion tracking in general.
1.本システムの好適なバージョンでは、少なくともいくつかの装置構成要素が、構造的要素として2つの役目を果たすが、これらの場合では、感知できるほどの範囲において、その他の機能的目的と感知を一体化するその他の要素が、当該装置を一体化された総体的システムとして特に区別する組み合わせとなることは、まったく不可能である。( 1. In the preferred version of the system, at least some of the device components serve two structural elements, but in these cases they integrate other functional purposes and sensing to the extent that they can be sensed. It is impossible at all to be a combination that specifically distinguishes the device as an integrated overall system. (
2.最適な総体的形態では、大型の個々のマクロカメラシステムではない形態だが、むしろ多数の分散されたセンサのアレイである、加速度計、デジタルジャイロセンサ、光学追跡及びその他のシステムを含む、当該技術分野において公知であるものなどのモーション追跡センサを実施する際に、本開示のシステムは好適な実施態様であり、これは、分散された本来のかつローカルの処理のメリットを、そしてリアルタイムで「包括的な」照明条件を取り込むとともに、保存された位置/測地/地形データへのローカルアップデートを可能にするためにリアルタイムで幾何学的形状データを抽出するための、画像に基づく/写真測量方法の追加的特定のメリットを実現し、合成画像要素の較正とその効果的透視ビューレンダリングと、ハイブリッド/混合ビュー場面への一体化及び組成を加速するためのものである。 2. In the best general form the art is not a large individual macro camera system, but rather an array of multiple distributed sensors, including accelerometers, digital gyro sensors, optical tracking and other systems, the art In implementing a motion tracking sensor such as that known in the art, the system of the present disclosure is the preferred embodiment, which provides the benefits of distributed native and local processing, and in a "real time" manner in real time. Add image based / photogrammetric method to extract geometry data in real time to capture “real” lighting conditions and allow local updating to stored position / geolocation / terrain data Achieving specific benefits, calibration of composite image elements and their effective perspective view rendering, and / Is used to accelerate the integration and composition of the mixed view the scene.
3.言及された出願で開示されている通り、かつ簡略に拡大すると、特に使用されるかつ証明済みのリアルタイム情報を集める価値のある「画像に基づく」かつ写真測量の方法の中で、市販のLytroシステムによって実例を示される明視野方法があり、これはマルチサンプリングされた(そして最適には分散されたセンサアレイ)空間から、リアルタイムで空間を画像サンプル化することができ、その後、十分な初期データを入力し/取り込んだ後に、ビューモーフィング(view−morphed)された3D空間を生成できる。そして仮想カメラが、リアルタイムで所定の解像度で、写真測量データから抽出された通り、3D空間内の様々な位置に位置付けられる。 3. As disclosed in the mentioned application, and enlarged briefly, the commercially available Lytro system, among the "image-based" and photogrammetric methods that is particularly valuable for collecting used and proven real-time information There is a bright field method illustrated by the following which can image sample the space in real time from the multisampled (and optimally distributed sensor array) space and then sufficient initial data After input / import, a view-morphed 3D space can be generated. The virtual camera is then positioned at various locations in 3D space, as extracted from the photogrammetric data, at a predetermined resolution in real time.
4.遮蔽及び不透明度(好適な提案される表示サブシステムの一体化された二重生成的及びパススルー構成要素を用いて)を含む、較正された透視画像合成を可能にするために、余分のローカルの幾何学的/地形データについて、Lytro 明視野方法と協調してかつ組み合わせて、その他の画像に基づく方法を使用することができる。このような方法は、CGIのシェーディング/ライティング又は単純なグラフィック/テキスト要素とさえ、そしてナビゲートされた現実世界の3D地形空間のライブアップデートと一致させるように、照明パラメータを得るためにリアルタイムでFOV全体のサンプリングを提供するものであり、ファイル、GPS及び従来のモーションセンサのみからの切断された無関係のピクセルポイントでの別個の計算を単純に行うのとは対照的である。計算上の負担を大幅に減らすパラメトリックサンプリングによって、ライティング及び相対的位置/幾何学的形状に一般的補正を適用することができる。 4. Extra local to allow for calibrated fluoroscopic image synthesis, including occlusion and opacity (using integrated dual generative and pass-through components of the preferred proposed display subsystem) Other image based methods can be used for geometric / terrain data in coordination and combination with the Lytro bright field method. Such methods are FOV in real time to obtain lighting parameters to match CGI shading / lighting or even simple graphic / text elements and live updates of navigated real world 3D terrain space It provides overall sampling as opposed to simply performing separate calculations on disconnected irrelevant pixel points from the file, GPS and conventional motion sensors only. General correction can be applied to lighting and relative position / geometry by parametric sampling, which greatly reduces the computational burden.
5.信号方法からのGPS及びその他のモバイルネットワーク三角測量によるユーザの「絶対的」位置決めとの組み合わせで、HMDの及びあらゆるハプティックインターフェースのモーションセンサ追跡との組み合わせで、また同様に、ライブアップデートされた画像に基づく写真測量システムからのユーザの身体の画像に基づくマッピングを含み、そして、多数の小型センサ及びカメラを用いる、高速リアルタイムの画像に基づく方法から得られた相対位置及び地形パラメータに依存する。 5. In combination with GPS and other mobile network triangulation “absolute” positioning by signal methods, in combination with HMD and motion sensor tracking of any haptic interface, as well as to live updated images Image-based mapping of the user's body from the photogrammetry system, and relying on relative position and terrain parameters obtained from high-speed real-time image-based methods using multiple miniature sensors and cameras.
6.これに関連して、MITで開発されたBayindir/Fink「光ファブリック」カメラが、分散されたアレイを実施する特定の物理的方法の検証の一例である。本開示の発明者が提案する通り、ファイバー装置及び知的テキスタイル複合物方法、又はより単純なMITファイバー装置ファブ方法及び光ファブリック実施態様、又はその他のファイバー装置知的/能動的/フォトニックテキスタイル方法に従うかの如何を問わず、HMD機械フレームの構造内に配され、かつシステムに寄与しない負荷として機能するよりもむしろ、構造的システムソリューションに追加も行うことによって2つの役目を果たす、分散されたテキスタイル合成カメラアレイは、並行で分散されたデータの取り込みのために提供する有利な多装置アレイシステムを実施する好適なバージョンである。 6. In this regard, the Bayindir / Fink "optical fabric" camera developed at MIT is an example of verification of a particular physical method of implementing a distributed array. As proposed by the inventors of the present disclosure, a fiber device and intelligent textile composite method, or a simpler MIT fiber device fab method and an optical fabric embodiment, or other fiber device intelligent / active / photonic textile method Whether in compliance or not, they are distributed within the structure of the HMD machine frame and serve two roles by also adding to the structural system solution, rather than acting as a load that does not contribute to the system A textile synthesis camera array is a preferred version of implementing an advantageous multi-apparatus array system that provides for the acquisition of data distributed in parallel.
7.多数のミニチュアカメラ光学センサアレイ装置を含み得るマルチポイントミニチュアセンサアレイは、もう一つのマルチパースペクティブシステムの好適な実施態様である。 7. A multipoint miniature sensor array, which may include multiple miniature camera optical sensor array devices, is another preferred embodiment of the multi-perspective system.
8.小型アレイの多数のその他のカメラ/センサのいくつかと組み合わせられた、より基本的な一体化商用Lytroシステムは、好適さは劣るものの、それでもなお優れた組み合わせであり、多数の画像に基づく方法を可能にする。 8. The more basic integrated commercial Lytro system combined with some of the many other cameras / sensors in a small array is less preferred, but still a superior combination, enabling multiple image based methods Make it
9.繰り返すが、多数のより低い解像度の素子アレイに配置されるのが好ましい補助赤外線センサは、前述の通り、表示システムにオーバーライド低照度/暗視フィードを提供するか、又は実際の赤外線パススルーと調和してかつ協調して機能するように、補正及び補足データを生成システムに提供することができる。 9. Again, the auxiliary infrared sensor, which is preferably located in a number of lower resolution element arrays, provides the display system with an override low intensity / night vision feed, as described above, or in harmony with the actual infrared pass-through. Corrections and supplemental data can be provided to the generation system to function in a coordinated and coordinated manner.
10.一般レベルでのパターンにおいて可視スペクトル用の、同一の配置に基づくLytroタイプの明視野システムは、その他の周波数帯域でのセンサのために用いてもよく、これはアプリケーションに応じて、低照度/暗視のみならず、UV又はマイクロウェーブなどのその他のアプリケーション及び使用事例のためのフィールド解析を含むことができる。より長い波長での解像度の制限を前提として、それにも拘らず、不可視の、又は不可視でGPS/LIDARによって補足された参照データから空間再構築が生成されてよく、また複雑な環境のセンサスキャンを行う際に、その他の寸法データ収集相関性が得られる。小型化が進むにつれ、現在さらに益々小さい形状因子及び小型化で実現されつつあるコンパクト質量分析も、HMDへの一体化のために企図することができる。 10. The same layout Lytro type bright field system for the visible spectrum in patterns at the general level may be used for sensors in other frequency bands, depending on the application, low intensity / darkness As well as viewing, field analysis for other applications and use cases such as UV or microwave can be included. Given the limitation of resolution at longer wavelengths, spatial reconstruction may nevertheless be generated from reference data that is invisible or invisible and captured by GPS / LIDAR, and sensor scans of complex environments In doing so, other dimensional data collection correlations are obtained. As miniaturization progresses, compact mass spectrometry, which is now being realized with ever smaller form factors and miniaturizations, can also be contemplated for integration into the HMD.
11.最後に、照明パラメータの高速データサンプリングと、ローカル環境の材料、幾何学的形状及び大気条件について当該照明パラメータからわかることについて有利である画像に基づく方法の中で、コンパクトグローバル反射率分布図を抽出するためにその表面が撮像される反射面であり、HMDの重要な頂点(左右の角、又は中心のみであり、反射された表面全体を取り込むために多数の撮像素子と対になる頂点であり、あるいは、コンパクトで圧縮された反射面を抽出するために、凹形反射部分半球「穴」も、それのみで又は好ましくは球面と組み合わせて、いずれの場合も磁場を介して同じ速度で維持されるか、又は強力なスピンドル上又はほとんど隠して搭載するかのいずれかで、利用することもできる)に位置付けられる1つ以上のミクロ「光プローブ」は、ライブイメージと、生成されたCGI/デジタルイメージの高速グラフィック一体化(遮蔽を含むシェーディング、ライティング、パースペクティブレンダリングなど)を加速するためのみならず、複雑で素早く変化する環境における敏感な操作のためのリスクと思われる要因の高速解析を実施するために、空間のライティング、材料及び幾何学的形状を写真測量するために、写真測量からのその他の関連方法と併用して、高度に加速された方法を提供できる。 11. Finally, a compact global reflectance map is extracted in an image-based method that is advantageous for high-speed data sampling of the lighting parameters and knowing about the material, geometry and atmospheric conditions of the local environment from the lighting parameters The reflective surface on which the surface is imaged, the key vertices of the HMD (left and right corners or only the center, and the vertex paired with multiple imagers to capture the entire reflected surface Or, in order to extract a compact and compressed reflective surface, the concave reflective partial hemisphere "holes", either alone or preferably in combination with a spherical surface, are in each case maintained at the same speed via the magnetic field (Or can be used either on a powerful spindle or mounted mostly concealed) Black “light probe” is not only to accelerate live images and high-speed graphic integration of generated CGI / digital images (shading with shading, lighting, perspective rendering etc) but also in complex and rapidly changing environments Used in conjunction with other relevant methods from photogrammetry to photogram the lighting of the space, materials and geometry, in order to carry out a fast analysis of factors considered to be risks for sensitive manipulations. Provide a highly accelerated method.
III.機械及び基板システム III. Machine and substrate system
前述の内容から明白になる通り、好適実施形態に重点を置いて既に提案されてきた画像表示サブシステム及び分散されかつ画像に基づく感知及び補助撮像システムは、本開示の構造的で機械的かつ人間工学上の目標について実質的メリットと価値を既に提供している。 As will be apparent from the foregoing, the image display subsystem and the distributed and image-based sensing and auxiliary imaging system already proposed with emphasis on the preferred embodiments are structural, mechanical and human of the present disclosure. It has already provided substantial benefits and values for engineering goals.
1.重量、嵩、サイズ、バランス、人間工学、及びコストにおいてメリットのある構造的機能的一体化の一つの好適実施形態は、可撓性光学構造的基板と組み合わせられた張力がかけられた薄フィルムのテキスタイル合成構造の実施態様であり、特に好ましいのはCorning Willow Glass(コーニングウィローガラス)で形成されたHMDフレームであり、これはHMD内に一体化されなければならないすべての処理及び機能電子装置で折り畳まれ(かつ好ましくは密封され)、これら電子装置は、折り畳まれたガラスフレーム上に組み立てるために、無線電力供給を使わない、好適さは劣るバージョンでの電力供給を含むことができる。ガラスと装着者を保護するために、かつ快適さと人間工学のために、保護コーティングが機能光学構造部材に適用され/ラップされ又はその他の態様で追加され(衝撃波システムに基づくD30などのように)、これは衝撃が無い場合には柔らかくかつ弾力性があるが、衝撃を受けると、衝撃波がこの材料を固化させ、耐久性が低い(但し認め得るほどの耐久性はある)ウィローガラス構造的/機能的システムに保護バリアを提供する)。折り畳まれたウィローガラスは(その内面はガラス上のシステムの電子機器の場所となっている)、強度を追加するため、かつ電子機器を衝撃からより良く保護するため、そしてまたこれによってより薄い基板を可能にするために、円筒形の形態又は半円筒に形作られる。 1. One preferred embodiment of structural functional integration that benefits in weight, bulk, size, balance, ergonomics, and cost is the tensioned thin film combined with the flexible optical structural substrate An embodiment of a textile synthetic structure, particularly preferred is an HMD frame formed of Corning Willow Glass, which folds in all the processing and functional electronics that must be integrated in the HMD (And preferably sealed), these electronic devices can include less preferred versions of the power supply without using a wireless power supply to assemble on the folded glass frame. A protective coating is applied / wrapped or otherwise added to functional optical components to protect the glass and the wearer, and for comfort and ergonomics (such as D30 based on a shockwave system) Although this is soft and resilient in the absence of an impact, shocks cause the shockwave to solidify the material, resulting in poor durability (but with an appreciable durability) Willow glass structural / Provide a protective barrier for functional systems). A folded willow glass (the inner surface of which is the location of the system's electronics on glass), to add strength and to better protect the electronics from shock, and also thereby a thinner substrate In order to make it possible, it is shaped into a cylindrical form or semi-cylinder.
光ファイバーデータ及び照明は、可撓性のテキスタイルで(好ましくは、外側合成層としてはD30で、又はその他の衝撃耐性のある合成構成要素で)包まれかつ保護されたケーブルを介して、ポケットの中の又はユーザの身体上の知的テキスタイル合成ウェアラブル物に一体化されて、従って平らにされて、重量が分散されかつバランスが保たれた、照明、電力供給(好ましくは無線)、及びデータ処理ユニットから配送される。 Fiber optic data and lighting are in the pocket via a cable wrapped and protected with flexible textiles (preferably with D30 as the outer synthetic layer or other impact resistant synthetic components) Lighting, power supply (preferably wireless), and data processing unit integrated in the intelligent textile synthetic wearable on or at the user's body and thus flattened, weight dispersed and balanced Delivered from
2.光ファイバー(データ、光及びオプションで電力)ケーブルが合成ウィローガラスフレームと一体化されると、この光ファイバーは複合物として、E−Oデータ転送用のデータ入力点に、そしてディスプレイ面上の照明挿入点に(好ましくはより高価で不要な熱融着で)結合される。 2. When optical fiber (data, light and optionally power) cables are integrated with the synthetic willow glass frame, this optical fiber as a composite, at the data input point for E-O data transfer, and at the illumination insertion point on the display surface (Preferably by more expensive and unnecessary heat sealing).
3.このバージョンでのディスプレイフレーム構造的要素はまた、ウィローガラス又はウィローガラスタイプの材料システムと、オプションの追加構成要素となるが、代わりに、光学形状因子要素(双眼鏡ペア又は連続バイザー)を形成する固体ガラス又はポリマーレンズでもよく、これらは、望ましい表面幾何学形状の形成に役立つレンズタイプのプレフォームに続く薄フィルム合成層であり、また適切な曲がりを実現するために、圧縮リブも用いてよい。 3. The display frame structural element in this version is also a material system of willow glass or willow glass type, and an optional additional component, but instead a solid that forms an optical form factor (binoculars pair or continuous visor) It may be a glass or polymer lens, which is a thin film composite layer following a lens-type preform that helps form the desired surface geometry, and compression ribs may also be used to achieve proper bending.
4.機能的光学素子のシーケンスは、最初のフィルターの後かつその最も複雑なステージにおいて、提案される構造的及び基板システムの両方で見られる通り好適なオプションである導光/閉じ込めチャネルが、エアロゲル張力付与膜マトリックスの一部として、光ファイバーなどの光チャネル要素を実現することとなる。又は、赤外線パススルー用の固定(又は半可撓性)光チャネルから赤外線生成的チャネルまで、そして可視パススルーチャネルを有し、空洞とその間の空間にエアロゲルを浸透させ、かつ正圧下のエアロゲルを含む、空洞赤外線/近赤外線剛性シェルを用いてもよく、これは非常に強力で低密度軽量強化された構造的システムを実現することになる。エアロゲルフィラメント複合物が商用に開発され、かつ合成エアロゲルシステムのこのカテゴリーが進歩し続けており、シリカ及びその他のエアロゲルについての広範囲の材料オプションが提供され、今や低コストの製造方法(Cabot、Aspen Aerogelなど)で製作されている。 4. The sequence of functional optics is a preferred option as seen in both the proposed structural and substrate systems after the first filter and at its most complex stage, the light guiding / confining channels are airgel tensioned As part of the membrane matrix, optical channel elements such as optical fibers will be realized. Or from a fixed (or semi-flexible) light channel for infrared pass-through to an infrared generative channel, and a visible pass-through channel, permeating the airgel into the cavity and the space between and including the airgel under positive pressure A hollow infrared / near infrared rigid shell may be used, which will provide a very powerful, low density lightweight reinforced structural system. Aerogel filament composites have been developed commercially and this category of synthetic aerogel systems continues to advance, offering a wide range of material options for silica and other aerogels, and now low cost manufacturing methods (Cabot, Aspen Aerogel Etc).
5.追加のオプション及び/又はウィローガラスでハイブリッド形態に用いることができるものは、グラフェン・CNT(カーボンナノチューブ)機能的構造的システム(単独で又は繰り返すが好ましくはエアロゲルとの合成で)である。 5. An additional option and / or that can be used in hybrid form in Willow glass is a graphene-CNT (carbon nanotube) functional structural system (alone or in combination with but preferably synthesized with airgel).
6.グラフェンがさらに開発され又は機能的エレクトロニクス及びフォトニクスがフィーチャーする際、グラフェン層又は多層で、薄膜化ウィローガラス基板上に又はエアロゲルとのサンドイッチシステム内のいずれかに形成され、電子的相互接続のためにグラフェンとCNTが混合され、光学的相互接続のためにガラス上に光ファイバーと平面導波管が、そしてその他の方法でSOGシステム要素と組み合わせられ、SOGの上にはさらに異種の材料システム(異種CMOS+システムの場合には、ポスト「純」CMOS)が用いられているものが、好適な構造的実施態様となるだろう。 6. As graphene is further developed or functional electronics and photonics features, graphene layers or multilayers are formed either on thinned Willow glass substrate or in a sandwich system with aerogel for electronic interconnection Graphene and CNT are mixed, an optical fiber and a planar waveguide are combined on glass for optical interconnection, and otherwise combined with an SOG system element, and another heterogeneous material system (heterologous CMOS + on SOG) In the case of a system, post "pure" CMOS) would be the preferred structural implementation.
7.より短期的な近い将来には、グラフェン、CNT、及び好ましくは圧縮要素としてのグラフェンとCNTの組み合わせ(単独で又は巻かれたウィローガラス及びオプションのエアロゲル・セル・サンドイッチとの組み合わせで)が、優れた基板品質を有する好適な軽量一体化構造的システムを提供する。よって、搭載プロセッサ、センサ配備と、濃密ピクセル信号処理アレイ層の両方について、半可撓性のウィローガラス、又は今後Asahi、Schott 及びその他によって開発される可能性のある同様のガラス製品、並びに好適さは劣るが、短期的将来にポリマー又はポリマーガラスのハイブリッドも、堆積基板として機能し得る。 7. In the near-term near future, graphene, CNT, and preferably a combination of graphene and CNT as a compression element (alone or in combination with rolled Willow glass and optional airgel cell sandwich) are superior It provides a suitable lightweight integrated structural system with different substrate quality. Thus, for both on-board processor, sensor deployment, and dense pixel signal processing array layers, semi-flexible willow glass, or similar glass products that may be developed by Asahi, Schott and others, and preferred Although less, in the short run, polymers or polymer glass hybrids can also function as deposition substrates.
IV.その他のモバイル又は半装着可能な形状因子(タブレットなど)も、好ましいHMD形状因子での完全適用を前提として、モバイルAR及びVRソリューションの多くを実施し得る。 IV. Other mobile or semi-mountable form factors (such as tablets) may also implement many of the mobile AR and VR solutions given full application with the preferred HMD form factor.
本明細書において特定の実施形態を開示してきたが、ピクセル変調に必要な操作及びステージの分解及び別個での最適化に基づき、提案される新規の画像表示及び投影の適用及び範囲を制限するものとは解釈されるべきではない。 Although specific embodiments have been disclosed herein, they limit the application and scope of the proposed novel image display and projection based on the manipulation and stage resolution required for pixel modulation and the separate optimization. It should not be interpreted as.
上記システム及び方法は、本発明の好適実施形態の詳細を理解するための助けとして、一般的用語で説明してきた。本明細書の説明では、本発明の実施形態の徹底した理解を提供するために、構成要素及び/又は方法の実施例などの数多くの具体的な詳細が提供されている。本発明のいくつかの特長及びメリットはこのようなモードで実現され、かついずれの場合でも必要とされはしない。しかしながら、関連分野の当業者は、本発明のある実施形態が、具体的な詳細のうちの1つ以上無しに、又はその他の装置、システム、アセンブリ、方法、構成要素、材料、パーツ及び/又は等と共に、実施可能であることを認識するであろう。その他の事例では、本発明の実施形態の曖昧な局面を避けるために、周知の構造、材料、又は操作は具体的に示されたり説明されたりはしていない。 The above systems and methods have been described in general terms as an aid to understanding the details of the preferred embodiments of the present invention. In the description herein, numerous specific details, such as examples of components and / or methods, are provided in order to provide a thorough understanding of embodiments of the present invention. Several features and advantages of the present invention are realized in such a mode and are not required in any case. However, one skilled in the relevant art will recognize that certain embodiments of the present invention may be practiced without one or more of the specific details, or with other devices, systems, assemblies, methods, components, materials, parts and / or parts. You will recognize that it is feasible, as well as others. In other instances, well-known structures, materials, or operations have not been specifically shown or described to avoid obscuring aspects of embodiments of the present invention.
本明細書に亘って「一実施形態」、「ある実施形態」、又は「特定の実施形態」への言及は、当該実施形態に関連して説明される特定の特長、構造又は特徴が、本発明の少なくとも一実施形態に含まれ、かつ必ずしもすべての実施形態に含まれるわけではないことを意味する。よって、本明細書全体に亘って様々な場所にて「一実施形態において」、「ある実施形態において」、又は「特定の実施形態において」というフレーズがそれぞれ現れているが、必ずしも同一の実施形態を言及している訳ではない。さらに、本発明の特定の実施形態の特定の特長、構造、又は特徴は、その他の1つ以上の実施形態と、適切な態様で組み合わせられ得る。本明細書において説明されかつ示される本発明の実施形態のその他のバリエーション及び修正が、本明細書における教示に鑑み可能であり、かつ本発明の精神及び範囲の一部と見なされるべきであることが理解されるべきである。 References to “one embodiment,” “an embodiment,” or “specific embodiment” throughout this specification may be made to the specific feature, structure or features described in connection with that embodiment. It is meant to be included in at least one embodiment of the invention, and not necessarily included in all embodiments. Thus, the phrases “in one embodiment,” “in an embodiment,” or “in a particular embodiment” appear in various places throughout the specification, although the same embodiment is necessarily the same. Does not refer to Furthermore, the particular features, structures or characteristics of particular embodiments of the present invention may be combined in any suitable manner with one or more other embodiments. Other variations and modifications of the embodiments of the invention described and illustrated herein are possible in view of the teachings herein, and should be considered as part of the spirit and scope of the invention. Should be understood.
また、図面/図に示された要素の1つ以上が、特定の適用に従って有用であるように、より分離されたもしくは一体化された態様で、又は特定の場合には取り除かれもしくは操作不可能な状態とされさえして、実施可能でもあることも認められるであろう。 Also, one or more of the elements shown in the drawings / figures may be useful in accordance with the particular application, in a more separated or integrated manner, or in certain cases removed or otherwise inoperable It will also be appreciated that it can be implemented as well.
加えて、図面/図中のいずれの信号矢印も、別段の注記が特にない限り、制限するものではなく、例示的なものとしてのみ見なされるべきである。さらに、本明細書上「又は」という語は、別段の指示がない限り、「及び/又は」を意味することが概して意図されている。構成要素又はステップの組み合わせもまた、注記されるように見なされるものであり、ここで用語は、分離するか又は組み合わせる能力は不明確であるとして予測される。 In addition, any signal arrows in the drawings / figures are to be regarded as illustrative only, and not limiting, unless otherwise noted. Further, as used herein, the term "or" is generally intended to mean "and / or" unless otherwise indicated. Combinations of components or steps are also to be regarded as being annotated, where the term is predicted as unclear in its ability to separate or combine.
本明細書の説明で使用されている通り、かつこの後に続く請求項全体に亘って、「a」、「an」、及び「the」は、文脈上別段の指示がなされていない限り、複数の言及を含む。また、本明細書の説明で使用されている通り、かつこの後に続く請求項全体に亘って、文脈上別段の指示がなされていない限り、「in(〜における)」の意味は「in(〜の中)」及び「on(〜の上)」を含む。 As used in the description herein, and throughout the claims that follow, "a", "an", and "the" refer to a plurality of unless indicated otherwise in the context. Including mention. Also, as used in the description herein, and throughout the claims that follow, unless the context indicates otherwise, the meaning of "in" is "in ( Including ") and" on ".
本発明の示された実施形態の前述の説明(要約で説明されているものを含む)は、徹底的であること又は本明細書に開示されているまさにその形態を制限することを意図されてはいない。本発明の特定の実施形態及び本発明についての実施例は、例示目的のみのために本明細書において説明されており、関連分野の当業者が認識しかつ理解するように、本発明の精神及び範囲内で多様な同等の修正が可能である。前述のように、これらの修正は、本発明の示された実施形態の前述の説明に鑑みて本発明になされる得るものであり、かつ本発明の精神及び範囲内に含まれるべきである。 The foregoing description of the disclosed embodiments of the present invention, including those described in the abstract, is intended to be exhaustive or to limit the precise forms disclosed herein. There is not. Specific embodiments of the present invention and examples for the present invention are described herein for illustrative purposes only, and as one of ordinary skill in the relevant art would recognize and understand, the spirit and scope of the present invention Various equivalent modifications are possible within the scope. As noted above, these modifications can be made to the invention in light of the foregoing description of the illustrated embodiments of the invention and are to be included within the spirit and scope of the invention.
よって、本発明は、その特定の実施形態に言及して本明細書において説明されてきたが、前述の開示において修正の自由度、多様な変更及び置換が意図されており、かついくつかの事例では、明記されている通りの本発明の範囲及び精神から逸脱することなく、他の特長の対応する使用無しに、本発明の実施形態のいくつかの特長が利用されることが理解されるであろう。従って、本発明の本質的な範囲及び精神に特定の状況又は素材を適応するために、多くの修正がなされ得る。本発明が、以下の請求項で使用されている特定の用語及び/又は本発明を実施するために企図された最良のモードとして開示された特定の実施形態に制限されないことが意図されるが、本発明は、添付の請求の範囲内に該当するあらゆる実施形態及び相当物を含むであろう。よって、本発明の範囲は、添付の請求項によってのみ判定されるべきである。 Thus, while the present invention has been described herein with reference to particular embodiments thereof, the above disclosure is intended to be flexible, various changes and substitutions, and in some cases, various modifications. It will be understood that without departing from the scope and spirit of the present invention as specified, several features of the embodiments of the present invention will be utilized without corresponding use of other features. I will. Accordingly, many modifications may be made to adapt a particular situation or material to the essential scope and spirit of the present invention. It is intended that the invention not be limited to the specific terms used in the following claims and / or to the specific embodiments disclosed as the best mode contemplated for carrying out the invention. The present invention will include all embodiments and equivalents that fall within the scope of the appended claims. Accordingly, the scope of the present invention should be determined solely by the appended claims.
Claims (10)
合成世界環境からチャネル化された画像組成信号の第2のセットを作成するための第2のインターフェースと、
前記インターフェースに結合された信号処理マトリックスであって、前記チャネル化された画像組成信号をチャネル化された画像組成信号の処理済みセットとしてチャネル化し、処理し、インターリーブし、かつ配信するように構成された分離された光チャネルの信号処理マトリックスと、
前記信号処理マトリックスに結合された信号マニピュレーション構造のセットであって、前記チャネル化された画像組成信号の処理済みセットから人間視覚システムのために表示画像プリミティブのセットを作成するように構成された、信号マニピュレーション構造のセットと
を備える、フォトニック拡張現実システム。 A first interface for creating a first set of channelized image composition signals from a real world environment;
A second interface for creating a second set of channelized image composition signals from the synthetic world environment;
A signal processing matrix coupled to the interface, configured to channelize, process, interleave, and deliver the channelized image composition signal as a processed set of channelized image composition signals. Signal processing matrix of the separated optical channel,
A set of signal manipulation structures coupled to the signal processing matrix, configured to create a set of display image primitives for a human vision system from the processed set of channelized image composition signals; Photonic augmented reality system, comprising a set of signal manipulation structures.
前記合成世界からチャネル化された合成世界画像組成信号のセットを作成するオーグメンタであって、当該チャネル化された合成世界画像組成信号のセットはそれぞれ、望ましい属性のオーグメンタ・セットを有しており、チャネル化されたオーグメンタ画像組成信号の出力セットにおける前記チャネル化された合成世界画像組成信号のセットを含む、オーグメンタと、
前記オーグメンタに結合されたビジュアライザであって、それぞれが望ましい属性のビジュアライザ・セットを有するチャネル化されたビジュアライザ画像組成信号の出力セットを作成する各前記チャネル化されたオーグメンタ画像組成信号についての前記望ましい属性のオーグメンタ・セットからの周波数/波長変調又は周波数/波長変換属性を修正するために、前記チャネル化されたオーグメンタ画像組成信号の出力セットを処理する、ビジュアライザと、
前記ビジュアライザに結合された出力コンストラクタであって、前記チャネル化されたビジュアライザ画像組成信号の出力セットから表示画像プリミティブのセットを作成する、出力コンストラクタと
を備える、フォトニックシステム。 A photonic system for visualizing an operation world including a synthetic world in a virtual reality mode,
An augmentor for creating a set of channelized composite world image composition signals from the composite world, wherein each set of channelized composite world image composition signals has an augmentor set of desirable attributes, An augmentor comprising a set of channelized composite world image composition signals in an output set of channelized augmentor image composition signals;
The desired attributes for each of the channelized augmentor image composition signals that create an output set of channelized visualizer image composition signals each having a visualizer set with desirable attributes, the visualizer coupled to the augmentor. Processing the output set of the channelized augmentor image composition signal to modify frequency / wavelength modulation or frequency / wavelength conversion attributes from an augmentor set of
An output constructor coupled to the visualizer, the output constructor creating a set of display image primitives from the output set of the channelized visualizer image composition signal.
前記現実世界からチャネル化された現実世界画像組成信号のセットを作成する現実世界インターフェースであって、前記チャネル化された現実世界画像組成信号のセットはそれぞれ、望ましい属性の現実世界セットを有する、現実世界インターフェースをさらに備え、
前記オーグメンタは、前記チャネル化された現実世界画像組成信号のセットを受信し、かつ前記チャネル化されたオーグメンタ画像組成信号の出力セットにおいて前記チャネル化された現実世界画像組成信号のセットを選択的に含む、請求項2に記載のフォトニックシステム。 The operation world further includes the real world of the augmented reality mode,
A real world interface for creating a set of channelized real world image composition signals from the real world, wherein each of the set of channelized real world image composition signals has a real world set of desired attributes, the reality Further equipped with a world interface,
The augmentor receives the set of channelized real world image composition signals and selectively selects the set of channelized real world image composition signals in an output set of the channelized augmentor image composition signals The photonic system according to claim 2, comprising.
合成世界環境からチャネル化された画像組成信号の第2のセットを作成することと、
分離された光チャネルの信号処理マトリックスを用いて、チャネル化された画像組成信号の処理済みセットとして前記チャネル化された画像組成信号を処理することと、
前記チャネル化された画像組成信号の処理済みセットから人間視覚システムのために表示画像プリミティブのセットを作成することと
を含む、方法。 Creating a first set of channelized image composition signals from the real world environment;
Creating a second set of channelized image composition signals from the synthetic world environment;
Processing the channelized image composition signal as a processed set of channelized image composition signals using a separated light channel signal processing matrix;
Creating a set of display image primitives for a human vision system from the processed set of channelized image composition signals.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2022031648A JP2022081556A (en) | 2016-03-15 | 2022-03-02 | Hybrid photonic vr/ar systems |
Applications Claiming Priority (17)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US201662308585P | 2016-03-15 | 2016-03-15 | |
| US201662308825P | 2016-03-15 | 2016-03-15 | |
| US201662308361P | 2016-03-15 | 2016-03-15 | |
| US201662308687P | 2016-03-15 | 2016-03-15 | |
| US62/308,687 | 2016-03-15 | ||
| US62/308,585 | 2016-03-15 | ||
| US62/308,361 | 2016-03-15 | ||
| US62/308,825 | 2016-03-15 | ||
| US15/458,009 | 2017-03-13 | ||
| US15/458,009 US20180122143A1 (en) | 2016-03-15 | 2017-03-13 | Hybrid photonic vr/ar systems |
| US15/457,980 US20180031763A1 (en) | 2016-03-15 | 2017-03-13 | Multi-tiered photonic structures |
| US15/457,980 | 2017-03-13 | ||
| US15/457,967 | 2017-03-13 | ||
| US15/457,991 | 2017-03-13 | ||
| US15/457,967 US20180035090A1 (en) | 2016-03-15 | 2017-03-13 | Photonic signal converter |
| US15/457,991 US9986217B2 (en) | 2016-03-15 | 2017-03-13 | Magneto photonic encoder |
| PCT/US2017/022459 WO2017209829A2 (en) | 2016-03-15 | 2017-03-15 | Hybrid photonic vr/ar systems |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022031648A Division JP2022081556A (en) | 2016-03-15 | 2022-03-02 | Hybrid photonic vr/ar systems |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2019521387A true JP2019521387A (en) | 2019-07-25 |
Family
ID=65863567
Family Applications (2)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018568159A Pending JP2019521387A (en) | 2016-03-15 | 2017-03-15 | Hybrid Photonic VR / AR System |
| JP2022031648A Pending JP2022081556A (en) | 2016-03-15 | 2022-03-02 | Hybrid photonic vr/ar systems |
Family Applications After (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022031648A Pending JP2022081556A (en) | 2016-03-15 | 2022-03-02 | Hybrid photonic vr/ar systems |
Country Status (2)
| Country | Link |
|---|---|
| JP (2) | JP2019521387A (en) |
| CN (2) | CN109564748B (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN114449137A (en) * | 2020-11-02 | 2022-05-06 | 北京小米移动软件有限公司 | Optical filter structure, shooting method, device, terminal and storage medium |
| CN120499521A (en) * | 2025-07-15 | 2025-08-15 | 杭州海康微影传感科技有限公司 | Image data transmission method, device and equipment |
Families Citing this family (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN110518976A (en) * | 2019-07-31 | 2019-11-29 | 同济大学 | A kind of communication device based on distributed optical resonance system |
| CN110706322B (en) * | 2019-10-17 | 2023-08-11 | 网易(杭州)网络有限公司 | Image display method, device, electronic equipment and readable storage medium |
| CN112891946B (en) * | 2021-03-15 | 2024-05-28 | 网易(杭州)网络有限公司 | Game scene generation method and device, readable storage medium and electronic equipment |
| CN116027270B (en) * | 2023-03-30 | 2023-06-23 | 烟台恒研光电有限公司 | Positioning method and positioning system based on averaging processing technology |
Family Cites Families (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4341397B2 (en) * | 2003-12-16 | 2009-10-07 | セイコーエプソン株式会社 | Light propagation characteristic control apparatus, optical display apparatus, light propagation characteristic control program, optical display apparatus control program, light propagation characteristic control method, optical display apparatus control method, and projector |
| US9584778B2 (en) * | 2008-02-14 | 2017-02-28 | Sutherland C. Ellwood, Jr. | Hybrid telecom network-structured architecture and system for digital image distribution, display and projection |
| WO2012122104A2 (en) * | 2011-03-09 | 2012-09-13 | Dolby Laboratories Licensing Corporation | High contrast grayscale and color displays |
| KR101310941B1 (en) * | 2012-08-03 | 2013-09-23 | 삼성전자주식회사 | Display apparatus for displaying a plurality of content views, shutter glasses device for syncronizing with one of the content views and methods thereof |
| KR101984915B1 (en) * | 2012-12-03 | 2019-09-03 | 삼성전자주식회사 | Supporting Portable Device for operating an Augmented reality contents and system, and Operating Method thereof |
| US10203762B2 (en) * | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
-
2017
- 2017-03-15 CN CN201780030255.4A patent/CN109564748B/en not_active Expired - Fee Related
- 2017-03-15 JP JP2018568159A patent/JP2019521387A/en active Pending
- 2017-03-15 CN CN202211274817.9A patent/CN115547275A/en active Pending
-
2022
- 2022-03-02 JP JP2022031648A patent/JP2022081556A/en active Pending
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN114449137A (en) * | 2020-11-02 | 2022-05-06 | 北京小米移动软件有限公司 | Optical filter structure, shooting method, device, terminal and storage medium |
| CN120499521A (en) * | 2025-07-15 | 2025-08-15 | 杭州海康微影传感科技有限公司 | Image data transmission method, device and equipment |
Also Published As
| Publication number | Publication date |
|---|---|
| CN115547275A (en) | 2022-12-30 |
| JP2022081556A (en) | 2022-05-31 |
| CN109564748A (en) | 2019-04-02 |
| CN109564748B (en) | 2022-11-04 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US20180122143A1 (en) | Hybrid photonic vr/ar systems | |
| US12277658B2 (en) | Systems and methods for mixed reality | |
| CN109564748B (en) | Mixed photon VR/AR system | |
| Aukstakalnis | Practical augmented reality: A guide to the technologies, applications, and human factors for AR and VR | |
| CN111869204B (en) | Method for rendering light field images for light field display based on integral imaging | |
| Hainich et al. | Displays: fundamentals & applications | |
| US10593092B2 (en) | Integrated 3D-D2 visual effects display | |
| CN101414425B (en) | Display device and display method | |
| US10297071B2 (en) | 3D light field displays and methods with improved viewing angle, depth and resolution | |
| KR102071077B1 (en) | A collimated stereo display system | |
| DE102018002772A1 (en) | Minimalistic glasses with fiber-optic high-resolution integral light field for the display of extended virtual realities | |
| WO2018076661A1 (en) | Three-dimensional display apparatus | |
| Rolland et al. | See-through head-worn display (HWD) architectures | |
| US20220163816A1 (en) | Display apparatus for rendering three-dimensional image and method therefor | |
| Broll et al. | VR/AR output devices | |
| Zhang et al. | Design and implementation of an optical see-through near-eye display combining Maxwellian-view and light-field methods | |
| Peddie et al. | Technology issues | |
| Hua | Past and future of wearable augmented reality displays and their applications | |
| Jin et al. | Micro‐LED Retinal Projection for Augmented Reality Near‐Eye Displays | |
| WO2017209829A2 (en) | Hybrid photonic vr/ar systems | |
| Hua et al. | Head-mounted projection display technology and applications | |
| Hua | Advances in Head‐Mounted Light‐Field Displays for Virtual and Augmented Reality | |
| CN114675418B (en) | Ultra-light wearable display device and method for the same | |
| Maimone | Computational see-through near-eye displays | |
| Rath et al. | Modern Development and Challenges in Virtual Reality |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20200312 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200316 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20200312 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210129 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210303 |
|
| A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210603 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20211102 |