JP4889036B2 - Image processing apparatus and image processing method - Google Patents
Image processing apparatus and image processing method Download PDFInfo
- Publication number
- JP4889036B2 JP4889036B2 JP2007186325A JP2007186325A JP4889036B2 JP 4889036 B2 JP4889036 B2 JP 4889036B2 JP 2007186325 A JP2007186325 A JP 2007186325A JP 2007186325 A JP2007186325 A JP 2007186325A JP 4889036 B2 JP4889036 B2 JP 4889036B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- control information
- image processing
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Description
本発明は、複合現実感を提供するための技術に関するものである。 The present invention relates to a technique for providing mixed reality.
近年、現実世界と仮想世界とをリアルタイムかつシームレスに融合させる技術として複合現実感、いわゆるMR(Mixed Reality)技術が知られている。MR技術の1つに、次のような技術が知られている。即ち、ビデオシースルー型HMD(Head Mounted Display)の装着者の瞳位置から観察される被写体と略一致する被写体をビデオカメラなどで撮像する。そして、その撮像画像にCG(Computer Graphics)を重畳表示した複合現実画像を、HMDの装着者に提供する。 In recent years, a mixed reality, so-called MR (Mixed Reality) technology is known as a technology for seamlessly combining the real world and the virtual world in real time. The following techniques are known as one of MR techniques. That is, a video camera or the like captures a subject that substantially matches the subject observed from the pupil position of the wearer of a video see-through HMD (Head Mounted Display). Then, a mixed reality image in which CG (Computer Graphics) is superimposed and displayed on the captured image is provided to the wearer of the HMD.
図7は、ビデオシースルー型HMDを用いた一般的な複合現実感提示システムの機能構成を示すブロック図である。 FIG. 7 is a block diagram showing a functional configuration of a general mixed reality presentation system using a video see-through HMD.
701は、ビデオシースルー型のHMDである。HMD701は、撮像部703、表示部704、3次元位置姿勢センサ705、I/F(インターフェース)706を有する。
702は、HMD701から受け取った3次元位置姿勢情報に基づいて仮想空間画像(CG)を生成し、HMD701から受け取った撮像画像との合成処理を行う画像処理装置である。画像処理装置702は、一般にはPC(パーソナルコンピュータ)やワークステーション等の高性能な演算処理機能やグラフィック表示機能を有する装置により構成されている。画像処理装置702は、I/F707、位置姿勢情報生成部708、CG描画合成部710、コンテンツDB(データベース)709を有する。
先ず、HMD701を構成する各部の動作について説明する。 First, the operation of each part constituting the HMD 701 will be described.
撮像部703は、HMD701を頭部に装着するユーザの視線位置と略一致する外界の画像を撮像する。撮像部703は、ステレオ画像を撮像すべく、右目用の撮像素子、左目用の撮像素子、光学系、そして後段の画像処理のためのDSP(Digital Signal Processing)により構成されている。
The
表示部704は、画像処理装置702から送出される右目用のMR画像、左目用のMR画像を表示するためのものである。従って、表示部704は、右目用の表示デバイス、左目用の表示デバイス、光学系により構成されている。それぞれの表示デバイスとしては、小型の液晶ディスプレイやMEMS(Micro Electro−Mechanical Systems)による網膜スキャンタイプのデバイスが用いられる。
The
3次元位置姿勢センサ705は、自身の位置姿勢を計測するためのものである。3次元位置姿勢センサ705には、磁気センサやジャイロセンサ(加速度、角速度)が使用される。
The three-dimensional position and
I/F706は、画像処理装置702とのデータ通信を行うために用いられるものであり、撮像部703により撮像された撮像画像、3次元位置姿勢センサ705により計測された位置姿勢情報は、このI/F706を介して画像処理装置702に送信される。また、画像処理装置702から送信されたMR画像は、このI/F706を介して受信する。I/F706には、リアルタイム性が求められかつ大容量の伝送が可能な、USBやIEEE1394のメタル線、GigabitEthernet(登録商標)等の光ファイバが用いられる。
The I / F 706 is used to perform data communication with the
次に、画像処理装置702を構成する各部の動作について説明する。
Next, the operation of each part constituting the
I/F707は、HMD701とのデータ通信を行うために用いられるものであり、画像処理装置702が生成したMR画像は、このI/F707を介してHMD701に送信される。また、HMD701から送信された撮像画像、位置姿勢情報は、このI/F707を介して受信する。
The I / F 707 is used for data communication with the
位置姿勢情報生成部708は、HMD701から送信された位置姿勢情報に基づいて、HMD701を装着したユーザの目の位置姿勢を示す位置姿勢情報を生成する。ユーザの目の位置姿勢を示す位置姿勢情報を生成する方法としては、このほかにも、例えば、撮像部703が撮像した画像を用いる方法もある。
The position and orientation
コンテンツDB709には、仮想空間を構成する各仮想物体に係るデータが保存されている。 In the content DB 709, data related to each virtual object constituting the virtual space is stored.
CG描画合成部710は、コンテンツDB709に保存されているデータを用いて仮想空間を構築し、構築した仮想空間を、位置姿勢情報生成部708が生成した位置姿勢情報が示す位置姿勢を有する視点から見た画像を、仮想空間画像として生成する。そして、生成した仮想空間画像を、I/F707を介してHMD701から受信した撮像画像上に合成したMR画像を生成する。生成したMR画像は、I/F707を介してHMD701に送信する。
The CG
仮想空間画像の生成は上述の通り、3次元位置姿勢センサ705による計測結果に基づいて行われており、撮像画像を背景として仮想空間画像が重畳される。ここで、仮想空間画像を生成するために用いる位置姿勢情報を計測したタイミングと、この仮想空間画像を重畳する対象となる撮像画像の撮像タイミングとは、略一致していることが好ましい。そこで、システム間の伝送遅延や処理時間等、リアルタイム性を損なうような影響を考慮した場合は、仮想空間画像を生成したタイミングに最も近いタイミングで撮像された撮像画像に対してこの仮想空間画像を重畳するのが好ましい。
The generation of the virtual space image is performed based on the measurement result by the three-dimensional position and
以上説明した構成による処理によって、HMD701を頭部に装着したユーザに対して、現実世界と仮想世界とがリアルタイムかつシームレスに融合した複合現実世界を提供することができる。一般的なMR技術およびシステムの構成については特許文献1に開示されている。
By the processing with the configuration described above, a mixed real world in which the real world and the virtual world are seamlessly fused can be provided to a user wearing the HMD 701 on the head. A general MR technique and system configuration are disclosed in
ここで、複合現実世界の現実感・没入感をより増加させる為に、表示を高画角にし、視野を広げることが挙げられる。光学的に表示画角を広くするほど光学系レンズ歪みが相対的に増加してしまうため、違和感の無い表示画像を提示するためにはこのレンズ歪みの補正を行う必要がある。レンズ歪み補正の一つの方法として、光学系への入力画像を予め電気的に補正する手法がある。 Here, in order to increase the sense of reality and immersion in the mixed reality world, it is possible to increase the field of view and widen the field of view. Since the optical system lens distortion relatively increases as the display angle of view is optically widened, it is necessary to correct this lens distortion in order to present a display image without a sense of incongruity. As one method of correcting lens distortion, there is a method of electrically correcting an input image to the optical system in advance.
図8Aは、光学系の2次元的な歪みの一例を示す図である。図8Aに示す如く、光学系の構成によっては上下非対称な歪みが生じる場合がある。従って、矩形の表示エリアに表示された矩形画像を、図8Aに示すような歪みを有する光学系を介して観察した場合、図8Aに示すように、歪んだ画像として観察されることになる。こうした歪みを電気的に打ち消す方法として、光学的に歪む量を打ち消すように予め逆に歪んだ画像を用意する手法がある。 FIG. 8A is a diagram illustrating an example of a two-dimensional distortion of the optical system. As shown in FIG. 8A, vertical and asymmetric distortion may occur depending on the configuration of the optical system. Therefore, when a rectangular image displayed in the rectangular display area is observed through an optical system having distortion as shown in FIG. 8A, it is observed as a distorted image as shown in FIG. 8A. As a method of electrically canceling such distortion, there is a method of preparing an image distorted in advance so as to cancel the amount of optical distortion.
図8Bは、矩形画像に対して、図8Aに示した歪みの逆の歪みを与えた場合に得られる画像を示す図である。従って、図8Bに示した画像を、図8Aに示した歪みを有する光学系を介して観察すると、図8Cに示す如く、元の矩形画像を観察することができる。図8Cは、元々の矩形画像を示す図である。 FIG. 8B is a diagram illustrating an image obtained when a distortion reverse to the distortion illustrated in FIG. 8A is applied to the rectangular image. Therefore, when the image shown in FIG. 8B is observed through the optical system having the distortion shown in FIG. 8A, the original rectangular image can be observed as shown in FIG. 8C. FIG. 8C is a diagram illustrating an original rectangular image.
図9は、図7に示した構成に、光学歪みを考慮して表示前に画像を変形させる構成を加えた、複合現実感提示システムの機能構成を示すブロック図である。図9に示した構成が図7に示した構成と異なるのは、HMD701の代わりに、HMD701に歪み補正部911を加えたHMD901を用いている点にある。
FIG. 9 is a block diagram illustrating a functional configuration of the mixed reality presentation system in which a configuration in which an image is deformed before display in consideration of optical distortion is added to the configuration illustrated in FIG. The configuration shown in FIG. 9 is different from the configuration shown in FIG. 7 in that an
光学系の構成によっては上下方向と左右方向とのアスペクトがずれた歪みが生じるため、歪み補正部911は、I/F706を介して受信したMR画像から、表示部704が有する光学系の光学歪み特性に基づいて決まる部分を切り取る。そして、マスク処理と光学歪み補正のための画像マッピングを行う。
Depending on the configuration of the optical system, a distortion in which the aspect between the vertical direction and the horizontal direction is shifted occurs. Therefore, the
図8Dは、光学歪みを考慮して画像を電子的に歪ませた際の画像と、表示領域との関係を示す図である。係る表示領域に表示画像をマッピングするため、表示画像の上部(斜線で示した領域)が切り捨てられていることがわかる。図8Dでは画像上部を切り取っているが、光学歪みによっては上下左右のいずれか、また、その組み合わせた領域が切り取られることになる。
しかしながら、上述した従来の技術においては、以下のような課題がある。 However, the conventional techniques described above have the following problems.
図8Dの斜線で示した領域は、表示対象としない、切り取られた領域であるにもかかわらず、画像処理装置702は係る領域のデータもHMD701に送信している。即ち、本来必要でない画像情報までも、毎フレーム送信してしまっている。
Although the hatched area in FIG. 8D is a clipped area that is not a display target, the
また、画像処理装置702は、表示部704における表示を制御するために用いる表示画像制御情報をHMD701に送信するために、MR画像の画像情報とは別の通信帯域を確保する必要がある。また、表示画像制御情報を用いて表示画像をリアルタイムに制御する場合には、表示画像制御情報と表示画像とが時間的にリンクする構成が必要となってしまう。
Further, the
本発明は以上の問題に鑑みて成されたものであり、HMDに対して送信する画像情報の為の通信帯域とは別の通信帯域を設けることなく、HMDにおける表示を制御するための制御情報をHMDに送信するための技術を提供することを目的とする。 The present invention has been made in view of the above problems, and control information for controlling display in the HMD without providing a communication band different from the communication band for image information transmitted to the HMD. An object of the present invention is to provide a technique for transmitting a message to an HMD.
本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。 In order to achieve the object of the present invention, for example, an image processing apparatus of the present invention comprises the following arrangement.
即ち、表示装置が表示した画像を光学系を介してユーザに提示する頭部装着型表示装置、に接続されている画像処理装置であって、
第1の画像を生成する生成手段と、
前記光学系の光学歪み特性とは逆の光学歪み特性に基づいて、前記第1の画像内で非表示対象となる領域を特定する特定手段と、
前記非表示対象となる領域に対して、表示制御を行うために用いる制御情報を埋め込むことで、第2の画像を生成する埋め込み手段と、
前記第2の画像を前記頭部装着型表示装置に対して送信する手段と
を備えることを特徴とする。
That is, an image processing device connected to a head-mounted display device that presents an image displayed by a display device to a user via an optical system,
Generating means for generating a first image;
Identifying means for identifying a region to be non-displayed in the first image based on an optical distortion characteristic opposite to the optical distortion characteristic of the optical system;
Embedding means for generating a second image by embedding control information used to perform display control in the non-display target area;
Means for transmitting the second image to the head-mounted display device.
本発明の目的を達成するために、例えば、本発明の画像処理方法は以下の構成を備える。 In order to achieve the object of the present invention, for example, an image processing method of the present invention comprises the following arrangement.
即ち、表示装置が表示した画像を光学系を介してユーザに提示する頭部装着型表示装置、に接続されている画像処理装置が行う画像処理方法であって、
第1の画像を生成する生成工程と、
前記光学系の光学歪み特性とは逆の光学歪み特性に基づいて、前記第1の画像内で非表示対象となる領域を特定する特定工程と、
前記非表示対象となる領域に対して、表示制御を行うために用いる制御情報を埋め込むことで、第2の画像を生成する埋め込み工程と、
前記第2の画像を前記頭部装着型表示装置に対して送信する工程と
を備えることを特徴とする。
That is, an image processing method performed by an image processing device connected to a head-mounted display device that presents an image displayed by a display device to a user via an optical system,
A generating step of generating a first image;
A specifying step of specifying a non-display target region in the first image based on an optical distortion characteristic opposite to an optical distortion characteristic of the optical system;
An embedding step of generating a second image by embedding control information used for performing display control in the non-display target region;
Transmitting the second image to the head-mounted display device.
本発明の構成によれば、HMDに対して送信する画像情報の為の通信帯域とは別の通信帯域を設けることなく、HMDにおける表示を制御するための制御情報をHMDに送信することができる。 According to the configuration of the present invention, control information for controlling display in the HMD can be transmitted to the HMD without providing a communication band different from the communication band for image information transmitted to the HMD. .
以下、添付図面を参照し、本発明の好適な実施形態について詳細に説明する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
[第1の実施形態]
図1は、仮想空間の画像と現実空間の画像とを合成した複合現実空間画像をユーザに提示するための、本実施形態に係るシステムの機能構成を示すブロック図である。図1に示す如く、本実施形態に係るシステムは、HMD101と画像処理装置102とで構成されている。
[First Embodiment]
FIG. 1 is a block diagram showing a functional configuration of a system according to this embodiment for presenting a user with a mixed reality space image obtained by synthesizing a virtual space image and a real space image. As shown in FIG. 1, the system according to this embodiment includes an
先ず、HMD101について説明する。HMD101は頭部装着型表示装置の一例として用いる装置であり、HMD101の機能として後述する機能を有しているのであれば、HMD101以外の頭部装着型表示装置を用いても良い。
First, the
HMD101は、撮像部103、表示部104、3次元位置姿勢センサ105、I/F106、表示画像制御情報デコード部113、歪み補正部111、レンズ歪み情報格納テーブル115、により構成されている。以下、HMD101を構成するこれらの各部について説明する。
The
撮像部103は、自身の位置姿勢に応じて見える現実空間の動画像を撮像するものであり、撮像した各フレームの画像(撮像画像、現実空間画像)は後段のI/F106に順次送出される。本実施形態では、撮像部103は、ステレオ画像を撮像すべく、右目用の撮像素子、左目用の撮像素子、光学系、そして後段の画像処理のためのDSP(Digital Signal Processing)により構成されている。以下では、一方の目に特化した説明ではない限り、それぞれの目に対する撮像部103をまとめて説明する。
The
表示部104は、画像処理装置102から送出される右目用のMR画像、左目用のMR画像を歪み補正部111が補正した結果を表示するためのものである。従って、表示部104は、右目用の表示装置、左目用の表示装置、表示装置が表示した画像を光学的に変形させてユーザの目に対して提示する光学系、により構成されている。それぞれの表示装置としては、小型の液晶ディスプレイやMEMSによる網膜スキャンタイプのデバイスが用いられる。このような構成を有する表示部104は、HMD101を頭部に装着したユーザの眼前に位置するようにHMD101に取り付けられている。なお、表示部104による表示は、表示画像制御情報デコード部113がI/F106を介して画像処理装置102から受信したMR画像から取得した表示画像制御情報(制御情報)に基づいて制御される。
The
3次元位置姿勢センサ105は、自身の位置姿勢を計測するものである。例えば、3次元位置姿勢センサ105として磁気センサを用いる場合、現実空間中の所定の位置には磁界を発生するトランスミッタが設置されることになる。3次元位置姿勢センサ105は、係るトランスミッタが発生した磁界中における自身の位置姿勢に応じた磁気の変化を検知し、その検知結果は、トランスミッタの動作制御を行うセンサ制御装置に送出される。センサ制御装置は、係る検知結果に基づいて、センサ座標系における3次元位置姿勢センサ105の位置姿勢を求める。そして求めた位置姿勢を、I/F106に送出する。ここで、センサ座標系とは、トランスミッタの位置を原点とし、係る原点で互いに直交する3軸をそれぞれ、x軸、y軸、z軸とする座標系である。なお、3次元位置姿勢センサ105として適用可能なセンサはこれ以外でも良く、例えば、光学式センサ、超音波センサ、ジャイロセンサ(加速度、角速度)などを用いることもできる。
The three-dimensional position and
表示画像制御情報デコード部113は、I/F106を介して画像処理装置102から受信したMR画像から制御情報を取得し、取得した制御情報に基づいて、この受信したMR画像に対する様々な画像処理を行う。画像処理後のMR画像、及び制御情報は、後段の歪み補正部111に送出する。
The display image control
歪み補正部111は、表示画像制御情報デコード部113から受けたMR画像を、表示部104が有する光学系の歪み特性(光学歪み特性)とは逆の光学歪み特性に基づいて変形させたMR画像を生成する。そして生成したMR画像を後段の表示部104に送出する。
The
レンズ歪み情報格納テーブル115は、表示部104が有する光学系の歪み特性とは逆の光学歪み特性を示すレンズ歪み情報を保持しており、係るレンズ歪み情報は要求に応じて適宜外部に送信する。レンズ歪み情報について詳しくは後述する。
The lens distortion information storage table 115 holds lens distortion information indicating an optical distortion characteristic opposite to the distortion characteristic of the optical system included in the
I/F106は、画像処理装置102とのデータ通信を行うためのものであり、リアルタイム性が求められかつ大容量の伝送が可能な、USBやIEEE1394のメタル線、GigabitEthernet(登録商標)等の光ファイバにより構成されている。撮像部103が撮像した現実空間画像や、3次元位置姿勢センサ105が計測した結果としての位置姿勢情報、レンズ歪み情報格納テーブル115が保持するレンズ歪み情報は、このI/F106を介して画像処理装置102に送信される。
The I /
次に、画像処理装置102について説明する。画像処理装置102は、HMD101から送信された位置姿勢情報に基づいた仮想空間画像を生成し、生成した仮想空間画像を、HMD101から送信された現実空間画像上に重畳させたMR画像を生成する。そして生成したMR画像上に、後述する制御情報を埋め込む。そして、制御情報を埋め込んだMR画像をHMD101に対して送信する。画像処理装置102は、一般にはパソコンやワークステーション等の高性能な演算処理機能やグラフィック表示機能を有する装置により構成される。
Next, the
画像処理装置102は、I/F107、位置姿勢情報生成部108、CG描画合成部110、コンテンツDB109、表示画像制御情報エンコード部112、レンズ歪み情報解析部114、により構成されている。
The
I/F107はHMD101とのデータ通信を行うためのものであり、I/F106と同様、リアルタイム性が求められかつ大容量の伝送が可能な、USBやIEEE1394のメタル線、GigabitEthernet(登録商標)等の光ファイバにより構成されている。
The I /
位置姿勢情報生成部108は、HMD101から送出された位置姿勢情報から、撮像部103の位置姿勢を求める。HMD101から送出された位置姿勢情報は、3次元位置姿勢センサ105の位置姿勢を示すものである。従って、例えば、撮像部103と3次元位置姿勢センサ105との位置姿勢関係を予め求めておき、係る位置姿勢関係を3次元位置姿勢センサ105の位置姿勢に加えることで、撮像部103の位置姿勢情報を求めることができる。もちろん、撮像部103の位置姿勢情報を求める方法は他にもあり、例えば、撮像部103が撮像した画像を用いて撮像部103の位置姿勢情報を求める方法もある。
The position and orientation
コンテンツDB109には、仮想空間を構成する各仮想物体についてのデータが登録されている。例えば、仮想物体がポリゴンで構成されている場合には、各ポリゴンの色や法線ベクトルのデータ、ポリゴンを構成する各頂点の座標データ等が、コンテンツDB109に登録されている。
In the
CG描画合成部110は、コンテンツDB109に登録されているデータを用いて仮想空間を構築する。そして係る仮想空間を、位置姿勢情報生成部108が生成した位置姿勢情報が示す位置姿勢を有する視点から見える画像を、仮想空間画像として生成する。そして生成した仮想空間画像を、I/F107を介してHMD101から受信した現実空間画像上に合成することで、MR画像を生成する。生成したMR画像は、後段の表示画像制御情報エンコード部112に送出する。
The CG
レンズ歪み情報解析部114は、HMD101内のレンズ歪み情報格納テーブル115から上記レンズ歪み情報を取得し、取得したレンズ歪み情報を用いて、CG描画合成部110が生成したMR画像内で制御情報を埋め込む領域を特定する。
The lens distortion
ここで、制御情報とは、表示部104における表示制御、表示する画像に係る制御を行うために用いられるものである。制御情報には、例えば、表示画像の明るさ、色味、ガンマなどの画質を制御する情報、表示画像の提示位置、サイズなどの画面自体を制御する情報、MR画像に重畳する警告メッセージなどの重畳文字を制御する情報が含まれている。
Here, the control information is used to perform display control on the
なお、レンズ歪み情報解析部114による上記レンズ歪み情報の取得は、画像処理装置102の電源投入直後の初期化処理において行うことが好ましい。これは、異なるレンズ歪み情報をもつHMDが画像処理装置102に接続されても対応することができるからである。
The acquisition of the lens distortion information by the lens distortion
表示画像制御情報エンコード部112は、CG描画合成部110から受けたMR画像内のレンズ歪み情報解析部114が特定した領域に対して、制御情報を埋め込む。MR画像に対する制御情報の埋め込み処理について詳しくは後述する。そして表示画像制御情報エンコード部112は、制御情報を埋め込んだMR画像をI/F107を介してHMD101に送信する。
The display image control
図3Aは、画像処理装置102が、制御情報を埋め込んだMR画像を生成してHMD101に送信するための一連の処理のフローチャートである。
FIG. 3A is a flowchart of a series of processes for the
ステップS300では、レンズ歪み情報解析部114はHMD101に対してアクセスし、レンズ歪み情報格納テーブル115に登録されているレンズ歪み情報を取得する。
In step S <b> 300, the lens distortion
ここで、レンズ歪み情報とは、表示部104が有する光学歪み特性とは逆の光学歪み特性を示す情報である。従って、レンズ歪み情報を用いれば、例えば、図8Cに示す矩形画像を図8Bに示した画像(画像B)に変形させることができる。これにより、図8Aに示す光学歪み特性を有する光学系を介して観察される画像が画像Cとなる。換言すれば、画像Cを構成する各画素について、対応する画像B上の画素を特定することができる。
Here, the lens distortion information is information indicating an optical distortion characteristic opposite to the optical distortion characteristic of the
ステップS301では、レンズ歪み情報解析部114は、ステップS300で取得したレンズ歪み情報を参照する。そして、表示部104が有する光学系の光学歪み特性とは逆の光学歪み特性に基づいてMR画像を変形させた場合に、非表示対象となる領域として予め定めた画素位置範囲に含まれている領域を特定する。図8C、8Dを例に取ると、ステップS301では、図8Cに示した画像において、図8Dに示した斜線部分(非表示対象となる領域として予め定めた画素位置範囲)に対応する領域を求めることになる。即ち、ステップS301では、MR画像において、非表示対象となる領域を示す領域情報を予め求めておく。
In step S301, the lens distortion
上記ステップS300、ステップS301における処理は、画像処理装置102の電源投入直後の初期化処理で行うことが望ましい。
The processes in steps S300 and S301 are preferably performed in an initialization process immediately after the
一方、上述したように、HMD101からは、撮像部103が撮像した現実空間画像と、3次元位置姿勢センサ105が計測した、3次元位置姿勢センサ105の位置姿勢を示す位置姿勢情報が、I/F106を介して送信される。従って、ステップS302では、I/F107を介して、この送信された現実空間画像と、位置姿勢情報とを受信(取得)する。I/F107を介して受信した現実空間画像は、CG描画合成部110に入力されるし、I/F107を介して受信した位置姿勢情報は、位置姿勢情報生成部108に入力される。
On the other hand, as described above, from the
次に、ステップS303では先ず、位置姿勢情報生成部108は上述の通り、I/F107を介して受信した位置姿勢情報と、撮像部103と3次元位置姿勢センサ105との位置姿勢関係とを用いて、撮像部103の位置姿勢情報を求める。そしてその後、CG描画合成部110は、コンテンツDB109に登録されているデータを用いて仮想空間を構築し、係る仮想空間を、撮像部103の位置姿勢から見た画像を、仮想空間画像として生成する。そして、生成した仮想空間画像を、I/F107を介して受信した現実空間画像上に合成することで、合成画像としてのMR画像(第1の画像)を生成する。生成したMR画像は後段の表示画像制御情報エンコード部112に送出する。
In step S303, first, the position / orientation
次に、ステップS303で生成したMR画像に対する制御処理を行う場合には、処理はステップS304を介してステップS305に進むし、制御処理を行わない場合には、処理はステップS304を介してステップS390に進む。あるフレームにおけるMR画像に対して制御処理を行うか否かは、事前に設定しておいても良いし、ユーザ指示入力などを検知することで適宜判断しても良い。 Next, when the control process is performed on the MR image generated at step S303, the process proceeds to step S305 via step S304. When the control process is not performed, the process proceeds to step S390 via step S304. Proceed to Whether to perform control processing on an MR image in a certain frame may be set in advance, or may be appropriately determined by detecting user instruction input or the like.
ステップS390では、表示画像制御情報エンコード部112は、ステップS303で生成したMR画像に対しては制御処理は行わない旨を示すヘッダ情報を、ステップS301で特定した(第1の画像内の)非表示対象となる領域に対して埋め込む。ここでの埋め込み処理は、非表示対象となる領域を構成するデータを単にヘッダ情報を構成するデータに置換する処理でも良いし、電子透かしとして埋め込む処理でも良い。また、非表示対象となる領域が複数箇所の場合には、例えば最も左上隅の領域に埋め込むなど、予め決めておいても良い。
In step S390, the display image control
一方、ステップS305では、表示画像制御情報エンコード部112は、ステップS301で特定した非表示対象となる領域に対して、制御情報を埋め込む。ステップS305における埋め込み処理は、埋め込む情報が異なるのみで、それ以外についてはステップS390と同様にして行う。
On the other hand, in step S305, the display image control
次にステップS391では、表示画像制御情報エンコード部112は、ステップS305で制御情報を埋め込んだ、若しくはステップS390でヘッダ情報を埋め込んだMR画像、のうち何れか(第2の画像)を、I/F107を介してHMD101に送信する。なお、MR画像において、非表示対象となる領域を構成する各画素のデータは、例えば、画素値が0を示すデータ(例えば、MR画像がRGB画像である場合には、R=G=B=0を示すデータ)に置換する。
Next, in step S391, the display image control
次に、本処理を終了する指示が入力されたことを検知した、若しくは本処理を終了する条件が満たされた場合には本処理を終了する。一方、本処理を終了する指示は入力されていないし、本処理を終了する条件も満たされていない場合には、ステップS392を介してステップS302に戻り、次のフレームに対してステップS302以降の処理を行う。 Next, when it is detected that an instruction to end the process is input, or when a condition for ending the process is satisfied, the process ends. On the other hand, if the instruction to end this process has not been input and the conditions for ending this process have not been satisfied, the process returns to step S302 via step S392, and the process from step S302 onward for the next frame. I do.
図2は、ステップS305で行う制御情報の埋め込み処理を説明する図である。 FIG. 2 is a diagram for explaining the control information embedding process performed in step S305.
図2(a)には、表示部104が有する光学系の光学歪み特性とは逆の光学歪み特性に基づいて変形させたMR画像201と、表示部104が有する表示装置の表示画面202との関係を示している。光学系のレンズにより上下方向と左右方向とのアスペクトがずれた歪みが生じるため、変形後のMR画像201の上部は実際には表示しない領域となる。表示しない領域を構成する画素のデータは、ある画素値を示すデータに置換するか、若しくは係る領域そのものを物理的に遮光する等、係る領域を観察できないようにする。
2A shows an
図2(b)には、変形していないMR画像における非表示対象となる領域を示している。図2(b)に示した斜線領域は、図2(a)に示した斜線領域、即ち、非表示対象となる領域に対応している。 FIG. 2B shows a non-display target region in the undeformed MR image. The hatched area shown in FIG. 2B corresponds to the hatched area shown in FIG. 2A, that is, the area to be hidden.
図2(c)には、変形していないMR画像における非表示対象となる領域に、制御情報を埋め込んだ場合のMR画像を示している。制御情報は、画像中に埋め込んでいるので、係る画像に対する様々な処理の実行の可否や、制御情報のサイズ、属性を管理することが望ましい。 FIG. 2 (c) shows an MR image when control information is embedded in a region that is a non-display target in an undeformed MR image. Since the control information is embedded in the image, it is desirable to manage whether or not various processes can be executed on the image, and the size and attributes of the control information.
図10A、10Bに、制御情報を構成するヘッダ情報と、重畳文字制御情報と、の構成例を示す。もちろん、制御情報に含めうる情報に関しては、図10A、10Bに示したものに限定しない。 FIGS. 10A and 10B show a configuration example of header information constituting the control information and superimposed character control information. Of course, the information that can be included in the control information is not limited to that shown in FIGS. 10A and 10B.
図10Aは、ヘッダ情報の構成例を示す図である。 FIG. 10A is a diagram illustrating a configuration example of header information.
「実行可否」とは、制御情報に基づいた様々な表示制御を行うか否かを示している。 The “executability” indicates whether or not various display controls are performed based on the control information.
「サイズ」とは、制御情報の全データサイズ、制御情報が1フレームの画像に埋め込むことができない場合に何フレーム分の画像に埋め込んでいるか、その場合に、現ヘッダ情報が何フレーム目に埋め込まれているのかを示している。 “Size” means the total data size of the control information, how many frames of the control information are embedded when the control information cannot be embedded in one frame image, and in that case, in what frame the current header information is embedded It is shown that.
「属性」とは、制御情報に基づいた表示制御が、画像制御、画面制御、重畳文字制御の何れであるのかを示している。 The “attribute” indicates whether display control based on the control information is image control, screen control, or superimposed character control.
図10Bは、重畳文字制御情報の構成例を示す図である。 FIG. 10B is a diagram illustrating a configuration example of superimposed character control information.
「表示時間」とは、文字を表示する時間の長さを示している。 “Display time” indicates the length of time for displaying characters.
「表示位置」とは、表示する文字の表示位置(座標値)を示している。 “Display position” indicates the display position (coordinate value) of the character to be displayed.
「表示色」とは、表示する文字の色を示している。 “Display color” indicates the color of a character to be displayed.
「文字サイズ」とは、表示する文字のサイズ(ポイント数)を示している。 “Character size” indicates the size (number of points) of characters to be displayed.
「表示内容」とは、実際に表示する文字列を示している。 “Display content” indicates a character string to be actually displayed.
なお、上述の説明では特に触れていないが、ヘッダ情報の先頭部分には、ヘッダ情報に固有の情報(コード)が記録されているものとする。これは、係る制御情報を抽出する側で、MR画像中のどこにヘッダ情報が記録されているのかを検索する際に用いられるものである。 Although not particularly mentioned in the above description, it is assumed that information (code) unique to the header information is recorded at the head portion of the header information. This is used when searching for where the header information is recorded in the MR image on the side of extracting the control information.
次に、HMD101が、画像処理装置102から送信されたMR画像を受信し、これを表示部104に表示するために行う一連の処理について、同処理のフローチャートを示す図4Aを用いて、以下説明する。
Next, a series of processing performed by the
ステップS400では、上記ステップS300においてレンズ歪み情報解析部114から要求された、レンズ歪み情報格納テーブル115内に登録されているレンズ歪み情報を、I/F106を介して画像処理装置102に対して送信する。ステップS400における処理は、HMD101の電源投入直後の初期化処理で行うことが望ましい。
In step S400, the lens distortion information registered in the lens distortion information storage table 115 requested from the lens distortion
次に、ステップS401では、撮像部103が撮像した現実空間画像、3次元位置姿勢センサ105が計測した位置姿勢情報を、I/F106を介して画像処理装置102に対して送信する。
Next, in step S <b> 401, the real space image captured by the
次にステップS402では、図3Aのフローチャートに従って画像処理装置102から送信された、制御情報が埋め込まれたMR画像を、I/F106を介して表示画像制御情報デコード部113が取得する。
In step S <b> 402, the display image control
次にステップS403では、表示画像制御情報デコード部113は、ステップS402で取得したMR画像中を検索し、ヘッダ情報に固有の情報(コード)を検索する。即ち、ステップS403では、MR画像中に埋め込まれた制御情報を検索し、取得する。従って、ステップS403では、制御情報の埋め込み方法に応じた抽出処理を行うことになる。
In step S403, the display image control
そして、制御情報を抽出した結果、表示画像制御情報デコード部113は、抽出した制御情報中のヘッダ情報中の「実行可否」を参照し、表示制御を行う(値が「0」)か表示制御を行わない(値が「1」)かを判断する。係る判断の結果、表示制御を行う場合には処理をステップS404に進め、表示制御を行わない場合には、処理をステップS490に進める。
Then, as a result of extracting the control information, the display image control
ステップS404では、表示画像制御情報デコード部113は、ステップS403で抽出した制御情報中のヘッダ情報、重畳文字制御情報を参照し、ステップS402で取得したMR画像に対して対応する表示制御処理を行う。そして歪み補正部111は、表示制御処理結果としてのMR画像を、表示部104が有する光学系の光学歪み特性とは逆の光学歪み特性に基づいて変形させたMR画像を生成し、表示部104に対して送出する。即ち、表示部104の表示領域(表示画面上)にMR画像をマッピングする。
In step S404, the display image control
次に、本処理を終了する指示が入力されたことを検知した、若しくは本処理を終了する条件が満たされた場合には本処理を終了する。一方、本処理を終了する指示は入力されていないし、本処理を終了する条件も満たされていない場合には、ステップS490を介してステップS401に戻り、次のフレームに対してステップS401以降の処理を行う。 Next, when it is detected that an instruction to end the process is input, or when a condition for ending the process is satisfied, the process ends. On the other hand, if the instruction to end this process has not been input and the conditions for ending this process are not satisfied, the process returns to step S401 via step S490, and the processes in and after step S401 are performed for the next frame. I do.
以上の説明により、本実施形態によれば、MR画像において表示しない領域に対して制御情報を埋め込むので、表示する領域に対する画質に何等影響を与えないし、係るMR画像の送信帯域内でMR画像と制御情報とを両方送信することができる。また、制御情報とMR画像とが1対1の関係でHMD101に送信されるので、制御情報に基づいた制御処理と、この制御情報を埋め込んだMR画像の表示処理との同期を容易に取ることができる。
As described above, according to the present embodiment, the control information is embedded in the region that is not displayed in the MR image, so that there is no influence on the image quality for the display region, and the MR image and the MR image are transmitted within the transmission band of the MR image. Both control information can be transmitted. In addition, since the control information and the MR image are transmitted to the
[第2の実施形態]
第1の実施形態では、MR画像において非表示対象となる領域を構成するデータサイズが、制御情報のデータサイズよりも大きいことが前提となる。しかし、MR画像において非表示対象となる領域を構成するデータサイズが、制御情報のデータサイズ以下である場合には、この制御情報を分割し、分割したそれぞれの分割制御情報を連続する複数フレームのMR画像のそれぞれに分散させて埋め込んでも良い。
[Second Embodiment]
In the first embodiment, it is premised that the data size constituting the non-display target area in the MR image is larger than the data size of the control information. However, when the data size constituting the non-display target area in the MR image is equal to or smaller than the data size of the control information, the control information is divided, and the divided division control information is divided into a plurality of consecutive frames. It may be dispersed and embedded in each MR image.
この場合、図3AのフローチャートにおけるステップS305における処理は、次のようになる。 In this case, the process in step S305 in the flowchart of FIG. 3A is as follows.
図3Bは、本実施形態に係るステップS305における処理の詳細を示すフローチャートである。なお、本実施形態では、ステップS305における処理は、表示画像制御情報エンコード部112が行うものとする。
FIG. 3B is a flowchart showing details of processing in step S305 according to the present embodiment. In the present embodiment, the display image control
先ずステップS306では、上記ステップS301で特定した領域を構成するデータサイズXと、制御情報のデータサイズYとの大小比較を行う。係る大小比較の結果、X>Yの場合には処理をステップS310に進め、X≦Yの場合には、処理をステップS308に進める。 First, in step S306, the data size X constituting the area specified in step S301 is compared with the data size Y of the control information. As a result of such size comparison, if X> Y, the process proceeds to step S310, and if X ≦ Y, the process proceeds to step S308.
ステップS306からステップS310に進んだ場合、ステップS310では、第1の実施形態と同様にして、制御情報を埋め込む。 When the process proceeds from step S306 to step S310, in step S310, control information is embedded as in the first embodiment.
一方、ステップS308では、制御情報をデータサイズXよりも小さくなるような単位に分割するのであるが、実際に分割されるのは重畳文字制御情報であり、分割したそれぞれの単位には、元のヘッダ情報に基づいて新たにヘッダ情報が発行される。新たに発行するヘッダ情報は、元のヘッダ情報において「サイズ」の項目だけである。そしてステップS310では、分割した単位に新たに発行したヘッダ情報を付加した分割制御情報を、ステップS301で特定した領域に埋め込む。即ち、分割制御情報のデータサイズが、上記データサイズXよりも小さくなるように分割されている。 On the other hand, in step S308, the control information is divided into units that are smaller than the data size X, but what is actually divided is superimposed character control information, and each divided unit includes the original information. New header information is issued based on the header information. The newly issued header information is only the item “size” in the original header information. In step S310, the division control information in which the newly issued header information is added to the divided unit is embedded in the area specified in step S301. That is, the division control information is divided so that the data size is smaller than the data size X.
一方、本実施形態に係る上記ステップS404では、次のような処理を行う。 On the other hand, in step S404 according to the present embodiment, the following processing is performed.
図4Bは、本実施形態に係るステップS404における処理の詳細を示すフローチャートである。 FIG. 4B is a flowchart showing details of the processing in step S404 according to the present embodiment.
先ずステップS405では、表示画像制御情報デコード部113は、ステップS403で抽出した制御情報中のヘッダ情報を参照し、「分割フレーム数」が2以上、即ち、係る制御情報が分割制御情報であるのか否かを判断する。係る判断の結果、「分割フレーム数」が1である場合、即ち、係る制御情報が分割制御情報ではない場合には、処理をステップS409に進め、2以上であれば、処理をステップS406に進める。
First, in step S405, the display image control
ステップS409では、表示画像制御情報デコード部113は、ステップS403で抽出した制御情報中の重畳文字制御情報を参照する。そしてステップS410では、表示画像制御情報デコード部113は、ステップS402で取得したMR画像に対して対応する表示制御処理を行う。そして歪み補正部111は、表示制御処理結果としてのMR画像を、表示部104が有する光学系の光学歪み特性とは逆の光学歪み特性に基づいて変形させたMR画像を生成し、表示部104に対して送出する。
In step S409, the display image control
一方、ステップS406では、表示画像制御情報デコード部113は、ステップS403で抽出した分割制御情報を保持しておく。なお、この取得した分割制御情報中のヘッダ情報中の「分割フレーム数」が、ヘッダ情報中の「分割フレームの場合における現フレーム番号」と等しくなった場合にはステップS407を介してステップS408に進む。即ち、分割元が復元可能な数の分割制御情報が集まった場合にはステップS407を介してステップS408に進む。一方、未だ集まっていない場合には、次のフレームにて分割制御情報を取得すべく、本処理を終了する。
On the other hand, in step S406, the display image control
ステップS408では、表示画像制御情報デコード部113は、収集した全ての分割制御情報を1つにまとめる。即ち、それぞれの分割制御情報中の重畳文字制御情報を1つにマージする。
In step S408, the display image control
ステップS409では、表示画像制御情報デコード部113は、この1つにマージした重畳文字制御情報を参照する。そしてステップS410では、表示画像制御情報デコード部113は、ステップS402で取得したMR画像に対して対応する表示制御処理を行う。そして歪み補正部111は、表示制御処理結果としてのMR画像を、表示部104が有する光学系の光学歪み特性とは逆の光学歪み特性に基づいて変形させたMR画像を生成し、表示部104に対して送出する。即ち、表示部104の表示領域にMR画像をマッピングする。
In step S409, the display image control
[第3の実施形態]
第1の実施形態では、表示するMR画像に対して、表示部104が有する光学系の歪み特性とは逆の歪み特性に応じて変形させる処理をHMD101側で行っていたが、画像処理装置102側で行うようにしても良い。
[Third Embodiment]
In the first embodiment, the
図5は、画像処理装置側で、表示対象のMR画像に対して、表示部104が有する光学系の光学歪み特性とは逆の光学歪み特性に応じた変形を行う場合の、システムの機能構成を示すブロック図である。本実施形態に係るシステムは、第1の実施形態に係るシステムの構成とは異なるものの、その目的とするところは同じである。即ち、現実空間画像と仮想空間画像とを合成させたMR画像を、HMDを頭部に装着したユーザの眼前に提供する。
FIG. 5 shows the functional configuration of the system when the MR image to be displayed is deformed according to the optical distortion characteristic opposite to the optical distortion characteristic of the optical system included in the
また、図5に示した各部のうち、図1に示したものと同じものについては同じ参照番号を付けており、その説明は省略する。HMD501は、HMD101から歪み補正部111を省いた構成を有し、画像処理装置502は、画像処理装置102に歪み補正部111と同じ動作を行う歪み補正部511を加えた構成を有する。
5 that are the same as those shown in FIG. 1 are given the same reference numerals, and descriptions thereof are omitted. The
即ち、画像処理装置502側では、歪み補正部511は、CG描画合成部110が生成したMR画像を歪み補正部111と同様にして変形させ、表示画像制御情報エンコード部112は、この変形させたMR画像に対して制御情報を埋め込む。そしてこの変形させたMR画像に対して制御情報が埋め込まれたものをHMD501に対して送信する。
That is, on the
HMD501側では、単にこのMR画像から制御情報を抽出し、このMR画像をそのまま何等変形させることなく、この制御情報に基づいて表示部104に表示させる。
On the
図6は、画像処理装置502からHMD501に対して送信する、制御情報が埋め込まれたMR画像と、表示部104の表示画面との関係を示す図である。表示部104が有する光学系のレンズにより上下と左右に斜線で示す実際には表示しない領域が存在する。表示しない領域は、第1の実施形態と同様に、ある画素値のデータで埋めるか、物理的に遮光するなどの手段により観察できないようにする。MR画像に対するそれ以外の取り扱いについては第1の実施形態と同じである。
FIG. 6 is a diagram illustrating a relationship between the MR image embedded with the control information transmitted from the
[第4の実施形態]
図1,5に示した画像処理装置102、502としては、一般のPC(パーソナルコンピュータ)を用いることが好ましく、その場合、係るコンピュータのハードウェア構成の一例としては、図11に示すようなハードウェア構成が考えられる。
[Fourth Embodiment]
As the
図11は、画像処理装置102、502に適用可能なコンピュータのハードウェア構成例を示すブロック図である。
FIG. 11 is a block diagram illustrating a hardware configuration example of a computer applicable to the
CPU1101は、RAM1102やROM1103に格納されているプログラムやデータを用いて、コンピュータ全体の制御を行うと共に、画像処理装置102、502が行うものとして上述した各処理を実行する。例えば、CPU1101は、位置姿勢情報生成部108、CG描画合成部110、表示画像制御情報エンコード部112、レンズ歪み情報解析部114、歪み補正部111、として機能する。
The
RAM1102は、外部記憶装置1106からロードされたプログラムやデータ、I/F107を介してHMD101(501)から受信した現実空間画像、位置姿勢情報、レンズ歪み情報を一時的に記憶するためのエリアを有する。また、RAM1102は、CPU1101が各種の処理を実行する際に用いるワークエリアも有する。即ち、RAM1102は、各種のエリアを適宜提供することができる。
The
ROM1103には、本コンピュータの設定データや、ブートプログラムなどが格納されている。
The
操作部1104は、キーボードやマウス等により構成されており、本コンピュータの操作者が操作することで、各種の指示をCPU1101に対して入力することができる。
The
表示部1105は、CRTや液晶画面などにより構成されており、CPU1101による処理結果を画像や文字などでもって表示することができる。
The
外部記憶装置1106は、ハードディスクドライブ装置に代表される大容量情報記憶装置である。ここには、OS(オペレーティングシステム)や、画像処理装置102(502)が行うものとして上述した処理をCPU1101に実行させるためのプログラムやデータが保存されている。係るプログラムには、位置姿勢情報生成部108、CG描画合成部110、表示画像制御情報エンコード部112、レンズ歪み情報解析部114、歪み補正部111、の機能をCPU1101に実行させるためのプログラムも含まれている。また、係るデータには、仮想空間を構成する各仮想物体のデータも含まれている。即ち、コンテンツDB109は、外部記憶装置1106内に含められていることになる。
The
外部記憶装置1106に保存されているプログラムやデータは、CPU1101による制御に従って適宜RAM1102にロードされる。そしてCPU1101はこのロードされたプログラムやデータを用いて、処理を実行する。
Programs and data stored in the
I/F107は、図1に示したものと同じものであり、HMD101(501)とのデータ通信は、このI/F107を介して行われる。
The I /
1108は、上述の各部を繋ぐバスである。
A
[その他の実施形態]
また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。即ち、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
[Other Embodiments]
Needless to say, the object of the present invention can be achieved as follows. That is, a recording medium (or storage medium) in which a program code of software that realizes the functions of the above-described embodiments is recorded is supplied to the system or apparatus. Needless to say, such a storage medium is a computer-readable storage medium. Then, the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.
また、コンピュータが読み出したプログラムコードを実行することにより、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行う。その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, by executing the program code read by the computer, an operating system (OS) or the like running on the computer performs part or all of the actual processing based on the instruction of the program code. Needless to say, the process includes the case where the functions of the above-described embodiments are realized.
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれたとする。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Furthermore, it is assumed that the program code read from the recording medium is written in a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer. After that, based on the instruction of the program code, the CPU included in the function expansion card or function expansion unit performs part or all of the actual processing, and the function of the above-described embodiment is realized by the processing. Needless to say.
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。 When the present invention is applied to the recording medium, program code corresponding to the flowchart described above is stored in the recording medium.
Claims (10)
第1の画像を生成する生成手段と、
前記光学系の光学歪み特性とは逆の光学歪み特性に基づいて、前記第1の画像内で非表示対象となる領域を特定する特定手段と、
前記非表示対象となる領域に対して、表示制御を行うために用いる制御情報を埋め込むことで、第2の画像を生成する埋め込み手段と、
前記第2の画像を前記頭部装着型表示装置に対して送信する手段と
を備えることを特徴とする画像処理装置。 An image processing device connected to a head-mounted display device that presents an image displayed by a display device to a user via an optical system,
Generating means for generating a first image;
Identifying means for identifying a region to be non-displayed in the first image based on an optical distortion characteristic opposite to the optical distortion characteristic of the optical system;
Embedding means for generating a second image by embedding control information used to perform display control in the non-display target area;
An image processing apparatus comprising: means for transmitting the second image to the head-mounted display device.
撮像装置によって撮像された現実空間画像を取得する手段と、
前記撮像装置の位置姿勢に応じて仮想空間画像を生成する手段と、
前記現実空間画像と前記仮想空間画像との合成画像を、前記第1の画像として生成する手段と
を備えることを特徴とする請求項1に記載の画像処理装置。 The generating means includes
Means for acquiring a real space image captured by the imaging device;
Means for generating a virtual space image according to the position and orientation of the imaging device;
The image processing apparatus according to claim 1, further comprising: a unit that generates a composite image of the real space image and the virtual space image as the first image.
前記光学系の光学歪み特性とは逆の光学歪み特性に基づいて前記第1の画像を変形させた画像を前記表示装置の表示画面上にマッピングした場合に、当該マッピングした画像上で非表示対象として予め設定された領域に対応する、前記第1の画像内の領域を特定することを特徴とする請求項1に記載の画像処理装置。 The specifying means is:
When an image obtained by deforming the first image based on the optical distortion characteristic opposite to the optical distortion characteristic of the optical system is mapped on the display screen of the display device, a non-display target is displayed on the mapped image. The image processing apparatus according to claim 1, wherein a region in the first image corresponding to a region set in advance is specified.
前記非表示対象となる領域のデータサイズが、前記制御情報のデータサイズ以下である場合には、前記制御情報を分割する手段を備え、
分割したそれぞれの分割制御情報を、連続する各フレームにおける前記第1の画像の前記非表示対象となる領域に対して埋め込むことを特徴とする請求項1に記載の画像処理装置。 The embedding means is
Data size of the area to be the non-display target, if the is equal to or less than the data size of the control information comprises means for dividing the control information,
The image processing apparatus according to claim 1, wherein the divided division control information is embedded in the non-display target area of the first image in each successive frame.
前記画像処理装置の生成手段が、第1の画像を生成する生成工程と、
前記画像処理装置の特定手段が、前記光学系の光学歪み特性とは逆の光学歪み特性に基づいて、前記第1の画像内で非表示対象となる領域を特定する特定工程と、
前記画像処理装置の埋め込み手段が、前記非表示対象となる領域に対して、表示制御を行うために用いる制御情報を埋め込むことで、第2の画像を生成する埋め込み工程と、
前記画像処理装置の送信手段が、前記第2の画像を前記頭部装着型表示装置に対して送信する工程と
を備えることを特徴とする画像処理方法。 An image processing method performed by an image processing device connected to a head-mounted display device that presents an image displayed by a display device to a user via an optical system,
A generating step in which the generating means of the image processing device generates a first image;
A specifying step of specifying a region to be non-displayed in the first image based on an optical distortion characteristic opposite to the optical distortion characteristic of the optical system , by the specifying unit of the image processing apparatus ;
An embedding step in which the embedding unit of the image processing device generates a second image by embedding control information used to perform display control on the non-display target region;
And a step of transmitting the second image to the head-mounted display device.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007186325A JP4889036B2 (en) | 2007-07-17 | 2007-07-17 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007186325A JP4889036B2 (en) | 2007-07-17 | 2007-07-17 | Image processing apparatus and image processing method |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JP2009025919A JP2009025919A (en) | 2009-02-05 |
| JP2009025919A5 JP2009025919A5 (en) | 2010-08-26 |
| JP4889036B2 true JP4889036B2 (en) | 2012-02-29 |
Family
ID=40397690
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2007186325A Expired - Fee Related JP4889036B2 (en) | 2007-07-17 | 2007-07-17 | Image processing apparatus and image processing method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4889036B2 (en) |
Families Citing this family (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| GB2558345B (en) | 2015-05-04 | 2021-05-12 | Google Llc | Pass-through display of captured imagery |
| CN108140259B (en) | 2015-08-18 | 2022-06-14 | 奇跃公司 | Virtual and Augmented Reality Systems and Methods |
| US10735649B2 (en) | 2018-02-22 | 2020-08-04 | Magic Leap, Inc. | Virtual and augmented reality systems and methods using display system control information embedded in image data |
| JP2021039444A (en) * | 2019-08-30 | 2021-03-11 | キヤノン株式会社 | Image processing device and its control method and program |
| JP2023111180A (en) * | 2022-01-31 | 2023-08-10 | セイコーエプソン株式会社 | virtual image display |
| CN118897401A (en) * | 2023-05-05 | 2024-11-05 | 华为技术有限公司 | Optical system and electronic equipment |
Family Cites Families (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4187726B2 (en) * | 2005-03-29 | 2008-11-26 | 三洋電機株式会社 | Watermark embedding apparatus and program |
| JP5483796B2 (en) * | 2006-08-31 | 2014-05-07 | キヤノン株式会社 | Image display device and image display system |
-
2007
- 2007-07-17 JP JP2007186325A patent/JP4889036B2/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| JP2009025919A (en) | 2009-02-05 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7068562B2 (en) | Techniques for recording augmented reality data | |
| US11410269B2 (en) | Mixed reality system with virtual content warping and method of generating virtual content using same | |
| AU2022200841B2 (en) | Mixed reality system with multi-source virtual content compositing and method of generating virtual content using same | |
| EP3596705B1 (en) | Mixed reality system with color virtual content warping and method of generating virtual content using same | |
| JP4933406B2 (en) | Image processing apparatus and image processing method | |
| JP4553362B2 (en) | System, image processing apparatus, and information processing method | |
| US20210368152A1 (en) | Information processing apparatus, information processing method, and program | |
| US7782320B2 (en) | Information processing method and information processing apparatus | |
| US20100026714A1 (en) | Mixed reality presentation system | |
| JP4889036B2 (en) | Image processing apparatus and image processing method | |
| JP2009015648A (en) | Image processing apparatus and image processing method | |
| JP4217661B2 (en) | Image processing method and image processing apparatus | |
| JP2019040356A (en) | Image processing system, image processing method and computer program | |
| JP2023174066A (en) | Image processing apparatus, image processing method, and program | |
| JP5683402B2 (en) | Image composition apparatus and image composition method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100712 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100712 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111115 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111118 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111209 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 4889036 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141222 Year of fee payment: 3 |
|
| LAPS | Cancellation because of no payment of annual fees |