[go: up one dir, main page]

JP4889036B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP4889036B2
JP4889036B2 JP2007186325A JP2007186325A JP4889036B2 JP 4889036 B2 JP4889036 B2 JP 4889036B2 JP 2007186325 A JP2007186325 A JP 2007186325A JP 2007186325 A JP2007186325 A JP 2007186325A JP 4889036 B2 JP4889036 B2 JP 4889036B2
Authority
JP
Japan
Prior art keywords
image
display
control information
image processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007186325A
Other languages
Japanese (ja)
Other versions
JP2009025919A (en
JP2009025919A5 (en
Inventor
知彦 高山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007186325A priority Critical patent/JP4889036B2/en
Publication of JP2009025919A publication Critical patent/JP2009025919A/en
Publication of JP2009025919A5 publication Critical patent/JP2009025919A5/ja
Application granted granted Critical
Publication of JP4889036B2 publication Critical patent/JP4889036B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、複合現実感を提供するための技術に関するものである。   The present invention relates to a technique for providing mixed reality.

近年、現実世界と仮想世界とをリアルタイムかつシームレスに融合させる技術として複合現実感、いわゆるMR(Mixed Reality)技術が知られている。MR技術の1つに、次のような技術が知られている。即ち、ビデオシースルー型HMD(Head Mounted Display)の装着者の瞳位置から観察される被写体と略一致する被写体をビデオカメラなどで撮像する。そして、その撮像画像にCG(Computer Graphics)を重畳表示した複合現実画像を、HMDの装着者に提供する。   In recent years, a mixed reality, so-called MR (Mixed Reality) technology is known as a technology for seamlessly combining the real world and the virtual world in real time. The following techniques are known as one of MR techniques. That is, a video camera or the like captures a subject that substantially matches the subject observed from the pupil position of the wearer of a video see-through HMD (Head Mounted Display). Then, a mixed reality image in which CG (Computer Graphics) is superimposed and displayed on the captured image is provided to the wearer of the HMD.

図7は、ビデオシースルー型HMDを用いた一般的な複合現実感提示システムの機能構成を示すブロック図である。   FIG. 7 is a block diagram showing a functional configuration of a general mixed reality presentation system using a video see-through HMD.

701は、ビデオシースルー型のHMDである。HMD701は、撮像部703、表示部704、3次元位置姿勢センサ705、I/F(インターフェース)706を有する。   Reference numeral 701 denotes a video see-through type HMD. The HMD 701 includes an imaging unit 703, a display unit 704, a three-dimensional position / orientation sensor 705, and an I / F (interface) 706.

702は、HMD701から受け取った3次元位置姿勢情報に基づいて仮想空間画像(CG)を生成し、HMD701から受け取った撮像画像との合成処理を行う画像処理装置である。画像処理装置702は、一般にはPC(パーソナルコンピュータ)やワークステーション等の高性能な演算処理機能やグラフィック表示機能を有する装置により構成されている。画像処理装置702は、I/F707、位置姿勢情報生成部708、CG描画合成部710、コンテンツDB(データベース)709を有する。   Reference numeral 702 denotes an image processing apparatus that generates a virtual space image (CG) based on the three-dimensional position and orientation information received from the HMD 701 and performs synthesis processing with the captured image received from the HMD 701. The image processing apparatus 702 is generally configured by an apparatus having a high-performance arithmetic processing function and a graphic display function such as a PC (personal computer) or a workstation. The image processing apparatus 702 includes an I / F 707, a position / orientation information generation unit 708, a CG drawing synthesis unit 710, and a content DB (database) 709.

先ず、HMD701を構成する各部の動作について説明する。   First, the operation of each part constituting the HMD 701 will be described.

撮像部703は、HMD701を頭部に装着するユーザの視線位置と略一致する外界の画像を撮像する。撮像部703は、ステレオ画像を撮像すべく、右目用の撮像素子、左目用の撮像素子、光学系、そして後段の画像処理のためのDSP(Digital Signal Processing)により構成されている。   The imaging unit 703 captures an image of the outside world that substantially matches the line-of-sight position of the user wearing the HMD 701 on the head. The imaging unit 703 includes a right-eye imaging device, a left-eye imaging device, an optical system, and a DSP (Digital Signal Processing) for subsequent image processing in order to capture a stereo image.

表示部704は、画像処理装置702から送出される右目用のMR画像、左目用のMR画像を表示するためのものである。従って、表示部704は、右目用の表示デバイス、左目用の表示デバイス、光学系により構成されている。それぞれの表示デバイスとしては、小型の液晶ディスプレイやMEMS(Micro Electro−Mechanical Systems)による網膜スキャンタイプのデバイスが用いられる。   The display unit 704 is for displaying a right-eye MR image and a left-eye MR image sent from the image processing apparatus 702. Therefore, the display unit 704 includes a right-eye display device, a left-eye display device, and an optical system. As each display device, a small liquid crystal display or a retinal scan type device using MEMS (Micro Electro-Mechanical Systems) is used.

3次元位置姿勢センサ705は、自身の位置姿勢を計測するためのものである。3次元位置姿勢センサ705には、磁気センサやジャイロセンサ(加速度、角速度)が使用される。   The three-dimensional position and orientation sensor 705 is for measuring its own position and orientation. As the three-dimensional position / orientation sensor 705, a magnetic sensor or a gyro sensor (acceleration, angular velocity) is used.

I/F706は、画像処理装置702とのデータ通信を行うために用いられるものであり、撮像部703により撮像された撮像画像、3次元位置姿勢センサ705により計測された位置姿勢情報は、このI/F706を介して画像処理装置702に送信される。また、画像処理装置702から送信されたMR画像は、このI/F706を介して受信する。I/F706には、リアルタイム性が求められかつ大容量の伝送が可能な、USBやIEEE1394のメタル線、GigabitEthernet(登録商標)等の光ファイバが用いられる。   The I / F 706 is used to perform data communication with the image processing apparatus 702. The captured image captured by the imaging unit 703 and the position and orientation information measured by the three-dimensional position and orientation sensor 705 are the I / F 706. Is transmitted to the image processing apparatus 702 via / F706. Further, the MR image transmitted from the image processing apparatus 702 is received via this I / F 706. For the I / F 706, an optical fiber such as a USB or IEEE 1394 metal line or Gigabit Ethernet (registered trademark), which is required to have real-time characteristics and can transmit a large amount of capacity, is used.

次に、画像処理装置702を構成する各部の動作について説明する。   Next, the operation of each part constituting the image processing apparatus 702 will be described.

I/F707は、HMD701とのデータ通信を行うために用いられるものであり、画像処理装置702が生成したMR画像は、このI/F707を介してHMD701に送信される。また、HMD701から送信された撮像画像、位置姿勢情報は、このI/F707を介して受信する。   The I / F 707 is used for data communication with the HMD 701, and the MR image generated by the image processing apparatus 702 is transmitted to the HMD 701 via the I / F 707. The captured image and position / orientation information transmitted from the HMD 701 are received via the I / F 707.

位置姿勢情報生成部708は、HMD701から送信された位置姿勢情報に基づいて、HMD701を装着したユーザの目の位置姿勢を示す位置姿勢情報を生成する。ユーザの目の位置姿勢を示す位置姿勢情報を生成する方法としては、このほかにも、例えば、撮像部703が撮像した画像を用いる方法もある。   The position and orientation information generation unit 708 generates position and orientation information indicating the position and orientation of the eyes of the user wearing the HMD 701 based on the position and orientation information transmitted from the HMD 701. As another method for generating position and orientation information indicating the position and orientation of the user's eyes, for example, there is a method using an image captured by the imaging unit 703, for example.

コンテンツDB709には、仮想空間を構成する各仮想物体に係るデータが保存されている。   In the content DB 709, data related to each virtual object constituting the virtual space is stored.

CG描画合成部710は、コンテンツDB709に保存されているデータを用いて仮想空間を構築し、構築した仮想空間を、位置姿勢情報生成部708が生成した位置姿勢情報が示す位置姿勢を有する視点から見た画像を、仮想空間画像として生成する。そして、生成した仮想空間画像を、I/F707を介してHMD701から受信した撮像画像上に合成したMR画像を生成する。生成したMR画像は、I/F707を介してHMD701に送信する。   The CG drawing composition unit 710 constructs a virtual space using data stored in the content DB 709, and the constructed virtual space is viewed from the viewpoint having the position and orientation indicated by the position and orientation information generated by the position and orientation information generation unit 708. The viewed image is generated as a virtual space image. Then, an MR image is generated by synthesizing the generated virtual space image on the captured image received from the HMD 701 via the I / F 707. The generated MR image is transmitted to the HMD 701 via the I / F 707.

仮想空間画像の生成は上述の通り、3次元位置姿勢センサ705による計測結果に基づいて行われており、撮像画像を背景として仮想空間画像が重畳される。ここで、仮想空間画像を生成するために用いる位置姿勢情報を計測したタイミングと、この仮想空間画像を重畳する対象となる撮像画像の撮像タイミングとは、略一致していることが好ましい。そこで、システム間の伝送遅延や処理時間等、リアルタイム性を損なうような影響を考慮した場合は、仮想空間画像を生成したタイミングに最も近いタイミングで撮像された撮像画像に対してこの仮想空間画像を重畳するのが好ましい。   The generation of the virtual space image is performed based on the measurement result by the three-dimensional position and orientation sensor 705 as described above, and the virtual space image is superimposed with the captured image as a background. Here, it is preferable that the timing at which the position / orientation information used for generating the virtual space image is measured substantially coincides with the imaging timing of the captured image on which the virtual space image is to be superimposed. Therefore, when taking into consideration effects such as transmission delays between systems and processing time that impair the real-time property, this virtual space image is applied to the captured image captured at the timing closest to the timing at which the virtual space image was generated. It is preferable to superimpose.

以上説明した構成による処理によって、HMD701を頭部に装着したユーザに対して、現実世界と仮想世界とがリアルタイムかつシームレスに融合した複合現実世界を提供することができる。一般的なMR技術およびシステムの構成については特許文献1に開示されている。   By the processing with the configuration described above, a mixed real world in which the real world and the virtual world are seamlessly fused can be provided to a user wearing the HMD 701 on the head. A general MR technique and system configuration are disclosed in Patent Document 1.

ここで、複合現実世界の現実感・没入感をより増加させる為に、表示を高画角にし、視野を広げることが挙げられる。光学的に表示画角を広くするほど光学系レンズ歪みが相対的に増加してしまうため、違和感の無い表示画像を提示するためにはこのレンズ歪みの補正を行う必要がある。レンズ歪み補正の一つの方法として、光学系への入力画像を予め電気的に補正する手法がある。   Here, in order to increase the sense of reality and immersion in the mixed reality world, it is possible to increase the field of view and widen the field of view. Since the optical system lens distortion relatively increases as the display angle of view is optically widened, it is necessary to correct this lens distortion in order to present a display image without a sense of incongruity. As one method of correcting lens distortion, there is a method of electrically correcting an input image to the optical system in advance.

図8Aは、光学系の2次元的な歪みの一例を示す図である。図8Aに示す如く、光学系の構成によっては上下非対称な歪みが生じる場合がある。従って、矩形の表示エリアに表示された矩形画像を、図8Aに示すような歪みを有する光学系を介して観察した場合、図8Aに示すように、歪んだ画像として観察されることになる。こうした歪みを電気的に打ち消す方法として、光学的に歪む量を打ち消すように予め逆に歪んだ画像を用意する手法がある。   FIG. 8A is a diagram illustrating an example of a two-dimensional distortion of the optical system. As shown in FIG. 8A, vertical and asymmetric distortion may occur depending on the configuration of the optical system. Therefore, when a rectangular image displayed in the rectangular display area is observed through an optical system having distortion as shown in FIG. 8A, it is observed as a distorted image as shown in FIG. 8A. As a method of electrically canceling such distortion, there is a method of preparing an image distorted in advance so as to cancel the amount of optical distortion.

図8Bは、矩形画像に対して、図8Aに示した歪みの逆の歪みを与えた場合に得られる画像を示す図である。従って、図8Bに示した画像を、図8Aに示した歪みを有する光学系を介して観察すると、図8Cに示す如く、元の矩形画像を観察することができる。図8Cは、元々の矩形画像を示す図である。   FIG. 8B is a diagram illustrating an image obtained when a distortion reverse to the distortion illustrated in FIG. 8A is applied to the rectangular image. Therefore, when the image shown in FIG. 8B is observed through the optical system having the distortion shown in FIG. 8A, the original rectangular image can be observed as shown in FIG. 8C. FIG. 8C is a diagram illustrating an original rectangular image.

図9は、図7に示した構成に、光学歪みを考慮して表示前に画像を変形させる構成を加えた、複合現実感提示システムの機能構成を示すブロック図である。図9に示した構成が図7に示した構成と異なるのは、HMD701の代わりに、HMD701に歪み補正部911を加えたHMD901を用いている点にある。   FIG. 9 is a block diagram illustrating a functional configuration of the mixed reality presentation system in which a configuration in which an image is deformed before display in consideration of optical distortion is added to the configuration illustrated in FIG. The configuration shown in FIG. 9 is different from the configuration shown in FIG. 7 in that an HMD 901 in which a distortion correction unit 911 is added to the HMD 701 is used instead of the HMD 701.

光学系の構成によっては上下方向と左右方向とのアスペクトがずれた歪みが生じるため、歪み補正部911は、I/F706を介して受信したMR画像から、表示部704が有する光学系の光学歪み特性に基づいて決まる部分を切り取る。そして、マスク処理と光学歪み補正のための画像マッピングを行う。   Depending on the configuration of the optical system, a distortion in which the aspect between the vertical direction and the horizontal direction is shifted occurs. Therefore, the distortion correction unit 911 performs optical distortion of the optical system included in the display unit 704 from the MR image received via the I / F 706. Cut out the part determined based on the characteristics. Then, image mapping for mask processing and optical distortion correction is performed.

図8Dは、光学歪みを考慮して画像を電子的に歪ませた際の画像と、表示領域との関係を示す図である。係る表示領域に表示画像をマッピングするため、表示画像の上部(斜線で示した領域)が切り捨てられていることがわかる。図8Dでは画像上部を切り取っているが、光学歪みによっては上下左右のいずれか、また、その組み合わせた領域が切り取られることになる。
特開平11−88913号公報(図7、段落[0035])
FIG. 8D is a diagram illustrating a relationship between an image when the image is electronically distorted in consideration of optical distortion and a display area. Since the display image is mapped to the display area, it can be seen that the upper part of the display image (the area indicated by the oblique lines) is cut off. In FIG. 8D, the upper part of the image is cut out, but depending on the optical distortion, either the top, bottom, left, or right, or the combined area is cut out.
Japanese Patent Laid-Open No. 11-88913 (FIG. 7, paragraph [0035])

しかしながら、上述した従来の技術においては、以下のような課題がある。   However, the conventional techniques described above have the following problems.

図8Dの斜線で示した領域は、表示対象としない、切り取られた領域であるにもかかわらず、画像処理装置702は係る領域のデータもHMD701に送信している。即ち、本来必要でない画像情報までも、毎フレーム送信してしまっている。   Although the hatched area in FIG. 8D is a clipped area that is not a display target, the image processing apparatus 702 also transmits data of the area to the HMD 701. That is, even image information that is not originally necessary is transmitted every frame.

また、画像処理装置702は、表示部704における表示を制御するために用いる表示画像制御情報をHMD701に送信するために、MR画像の画像情報とは別の通信帯域を確保する必要がある。また、表示画像制御情報を用いて表示画像をリアルタイムに制御する場合には、表示画像制御情報と表示画像とが時間的にリンクする構成が必要となってしまう。   Further, the image processing apparatus 702 needs to secure a communication band different from the image information of the MR image in order to transmit the display image control information used for controlling the display on the display unit 704 to the HMD 701. Further, when the display image is controlled in real time using the display image control information, a configuration in which the display image control information and the display image are temporally linked is necessary.

本発明は以上の問題に鑑みて成されたものであり、HMDに対して送信する画像情報の為の通信帯域とは別の通信帯域を設けることなく、HMDにおける表示を制御するための制御情報をHMDに送信するための技術を提供することを目的とする。   The present invention has been made in view of the above problems, and control information for controlling display in the HMD without providing a communication band different from the communication band for image information transmitted to the HMD. An object of the present invention is to provide a technique for transmitting a message to an HMD.

本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。   In order to achieve the object of the present invention, for example, an image processing apparatus of the present invention comprises the following arrangement.

即ち、表示装置が表示した画像を光学系を介してユーザに提示する頭部装着型表示装置、に接続されている画像処理装置であって、
第1の画像を生成する生成手段と、
前記光学系の光学歪み特性とは逆の光学歪み特性に基づいて、前記第1の画像内で非表示対象となる領域を特定する特定手段と、
前記非表示対象となる領域に対して、表示制御を行うために用いる制御情報を埋め込むことで、第2の画像を生成する埋め込み手段と、
前記第2の画像を前記頭部装着型表示装置に対して送信する手段と
を備えることを特徴とする。
That is, an image processing device connected to a head-mounted display device that presents an image displayed by a display device to a user via an optical system,
Generating means for generating a first image;
Identifying means for identifying a region to be non-displayed in the first image based on an optical distortion characteristic opposite to the optical distortion characteristic of the optical system;
Embedding means for generating a second image by embedding control information used to perform display control in the non-display target area;
Means for transmitting the second image to the head-mounted display device.

本発明の目的を達成するために、例えば、本発明の画像処理方法は以下の構成を備える。   In order to achieve the object of the present invention, for example, an image processing method of the present invention comprises the following arrangement.

即ち、表示装置が表示した画像を光学系を介してユーザに提示する頭部装着型表示装置、に接続されている画像処理装置が行う画像処理方法であって、
第1の画像を生成する生成工程と、
前記光学系の光学歪み特性とは逆の光学歪み特性に基づいて、前記第1の画像内で非表示対象となる領域を特定する特定工程と、
前記非表示対象となる領域に対して、表示制御を行うために用いる制御情報を埋め込むことで、第2の画像を生成する埋め込み工程と、
前記第2の画像を前記頭部装着型表示装置に対して送信する工程と
を備えることを特徴とする。
That is, an image processing method performed by an image processing device connected to a head-mounted display device that presents an image displayed by a display device to a user via an optical system,
A generating step of generating a first image;
A specifying step of specifying a non-display target region in the first image based on an optical distortion characteristic opposite to an optical distortion characteristic of the optical system;
An embedding step of generating a second image by embedding control information used for performing display control in the non-display target region;
Transmitting the second image to the head-mounted display device.

本発明の構成によれば、HMDに対して送信する画像情報の為の通信帯域とは別の通信帯域を設けることなく、HMDにおける表示を制御するための制御情報をHMDに送信することができる。   According to the configuration of the present invention, control information for controlling display in the HMD can be transmitted to the HMD without providing a communication band different from the communication band for image information transmitted to the HMD. .

以下、添付図面を参照し、本発明の好適な実施形態について詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

[第1の実施形態]
図1は、仮想空間の画像と現実空間の画像とを合成した複合現実空間画像をユーザに提示するための、本実施形態に係るシステムの機能構成を示すブロック図である。図1に示す如く、本実施形態に係るシステムは、HMD101と画像処理装置102とで構成されている。
[First Embodiment]
FIG. 1 is a block diagram showing a functional configuration of a system according to this embodiment for presenting a user with a mixed reality space image obtained by synthesizing a virtual space image and a real space image. As shown in FIG. 1, the system according to this embodiment includes an HMD 101 and an image processing apparatus 102.

先ず、HMD101について説明する。HMD101は頭部装着型表示装置の一例として用いる装置であり、HMD101の機能として後述する機能を有しているのであれば、HMD101以外の頭部装着型表示装置を用いても良い。   First, the HMD 101 will be described. The HMD 101 is an apparatus used as an example of a head-mounted display device, and a head-mounted display device other than the HMD 101 may be used as long as the HMD 101 has a function described later as a function of the HMD 101.

HMD101は、撮像部103、表示部104、3次元位置姿勢センサ105、I/F106、表示画像制御情報デコード部113、歪み補正部111、レンズ歪み情報格納テーブル115、により構成されている。以下、HMD101を構成するこれらの各部について説明する。   The HMD 101 includes an imaging unit 103, a display unit 104, a three-dimensional position and orientation sensor 105, an I / F 106, a display image control information decoding unit 113, a distortion correction unit 111, and a lens distortion information storage table 115. Hereinafter, each of these parts constituting the HMD 101 will be described.

撮像部103は、自身の位置姿勢に応じて見える現実空間の動画像を撮像するものであり、撮像した各フレームの画像(撮像画像、現実空間画像)は後段のI/F106に順次送出される。本実施形態では、撮像部103は、ステレオ画像を撮像すべく、右目用の撮像素子、左目用の撮像素子、光学系、そして後段の画像処理のためのDSP(Digital Signal Processing)により構成されている。以下では、一方の目に特化した説明ではない限り、それぞれの目に対する撮像部103をまとめて説明する。   The imaging unit 103 captures a moving image of the real space that can be seen according to its own position and orientation, and the captured images of each frame (captured image and real space image) are sequentially transmitted to the I / F 106 at the subsequent stage. . In the present embodiment, the imaging unit 103 includes a right-eye imaging device, a left-eye imaging device, an optical system, and a DSP (Digital Signal Processing) for subsequent image processing in order to capture a stereo image. Yes. Below, unless it is the description specialized for one eye, the imaging part 103 with respect to each eye is demonstrated collectively.

表示部104は、画像処理装置102から送出される右目用のMR画像、左目用のMR画像を歪み補正部111が補正した結果を表示するためのものである。従って、表示部104は、右目用の表示装置、左目用の表示装置、表示装置が表示した画像を光学的に変形させてユーザの目に対して提示する光学系、により構成されている。それぞれの表示装置としては、小型の液晶ディスプレイやMEMSによる網膜スキャンタイプのデバイスが用いられる。このような構成を有する表示部104は、HMD101を頭部に装着したユーザの眼前に位置するようにHMD101に取り付けられている。なお、表示部104による表示は、表示画像制御情報デコード部113がI/F106を介して画像処理装置102から受信したMR画像から取得した表示画像制御情報(制御情報)に基づいて制御される。   The display unit 104 is for displaying a result of correcting the MR image for the right eye and the MR image for the left eye sent from the image processing apparatus 102 by the distortion correction unit 111. Therefore, the display unit 104 includes a right-eye display device, a left-eye display device, and an optical system that optically deforms an image displayed by the display device and presents the image to the user's eyes. As each display device, a small liquid crystal display or a retinal scan type device using MEMS is used. The display unit 104 having such a configuration is attached to the HMD 101 so as to be positioned in front of the eyes of the user wearing the HMD 101 on the head. The display by the display unit 104 is controlled based on display image control information (control information) acquired from the MR image received from the image processing apparatus 102 by the display image control information decoding unit 113 via the I / F 106.

3次元位置姿勢センサ105は、自身の位置姿勢を計測するものである。例えば、3次元位置姿勢センサ105として磁気センサを用いる場合、現実空間中の所定の位置には磁界を発生するトランスミッタが設置されることになる。3次元位置姿勢センサ105は、係るトランスミッタが発生した磁界中における自身の位置姿勢に応じた磁気の変化を検知し、その検知結果は、トランスミッタの動作制御を行うセンサ制御装置に送出される。センサ制御装置は、係る検知結果に基づいて、センサ座標系における3次元位置姿勢センサ105の位置姿勢を求める。そして求めた位置姿勢を、I/F106に送出する。ここで、センサ座標系とは、トランスミッタの位置を原点とし、係る原点で互いに直交する3軸をそれぞれ、x軸、y軸、z軸とする座標系である。なお、3次元位置姿勢センサ105として適用可能なセンサはこれ以外でも良く、例えば、光学式センサ、超音波センサ、ジャイロセンサ(加速度、角速度)などを用いることもできる。   The three-dimensional position and orientation sensor 105 measures its own position and orientation. For example, when a magnetic sensor is used as the three-dimensional position and orientation sensor 105, a transmitter that generates a magnetic field is installed at a predetermined position in the real space. The three-dimensional position / orientation sensor 105 detects a change in magnetism according to its own position / orientation in the magnetic field generated by the transmitter, and the detection result is sent to a sensor control device that controls the operation of the transmitter. The sensor control device obtains the position and orientation of the three-dimensional position and orientation sensor 105 in the sensor coordinate system based on the detection result. The obtained position and orientation are sent to the I / F 106. Here, the sensor coordinate system is a coordinate system in which the position of the transmitter is the origin, and the three axes orthogonal to each other at the origin are the x axis, the y axis, and the z axis. The sensor applicable as the three-dimensional position and orientation sensor 105 may be other than this, and for example, an optical sensor, an ultrasonic sensor, a gyro sensor (acceleration, angular velocity), or the like may be used.

表示画像制御情報デコード部113は、I/F106を介して画像処理装置102から受信したMR画像から制御情報を取得し、取得した制御情報に基づいて、この受信したMR画像に対する様々な画像処理を行う。画像処理後のMR画像、及び制御情報は、後段の歪み補正部111に送出する。   The display image control information decoding unit 113 acquires control information from the MR image received from the image processing apparatus 102 via the I / F 106, and performs various image processing on the received MR image based on the acquired control information. Do. The MR image after the image processing and the control information are sent to the subsequent distortion correction unit 111.

歪み補正部111は、表示画像制御情報デコード部113から受けたMR画像を、表示部104が有する光学系の歪み特性(光学歪み特性)とは逆の光学歪み特性に基づいて変形させたMR画像を生成する。そして生成したMR画像を後段の表示部104に送出する。   The distortion correction unit 111 deforms the MR image received from the display image control information decoding unit 113 based on the optical distortion characteristic opposite to the distortion characteristic (optical distortion characteristic) of the optical system included in the display unit 104. Is generated. Then, the generated MR image is sent to the display unit 104 in the subsequent stage.

レンズ歪み情報格納テーブル115は、表示部104が有する光学系の歪み特性とは逆の光学歪み特性を示すレンズ歪み情報を保持しており、係るレンズ歪み情報は要求に応じて適宜外部に送信する。レンズ歪み情報について詳しくは後述する。   The lens distortion information storage table 115 holds lens distortion information indicating an optical distortion characteristic opposite to the distortion characteristic of the optical system included in the display unit 104, and the lens distortion information is appropriately transmitted to the outside as required. . Details of the lens distortion information will be described later.

I/F106は、画像処理装置102とのデータ通信を行うためのものであり、リアルタイム性が求められかつ大容量の伝送が可能な、USBやIEEE1394のメタル線、GigabitEthernet(登録商標)等の光ファイバにより構成されている。撮像部103が撮像した現実空間画像や、3次元位置姿勢センサ105が計測した結果としての位置姿勢情報、レンズ歪み情報格納テーブル115が保持するレンズ歪み情報は、このI/F106を介して画像処理装置102に送信される。   The I / F 106 is for performing data communication with the image processing apparatus 102, and is optical such as USB or IEEE 1394 metal wire or Gigabit Ethernet (registered trademark) that requires real-time performance and can transmit large volumes. It is composed of fiber. The real space image captured by the imaging unit 103, the position / orientation information as a result measured by the three-dimensional position / orientation sensor 105, and the lens distortion information held by the lens distortion information storage table 115 are processed through the I / F 106. Transmitted to the device 102.

次に、画像処理装置102について説明する。画像処理装置102は、HMD101から送信された位置姿勢情報に基づいた仮想空間画像を生成し、生成した仮想空間画像を、HMD101から送信された現実空間画像上に重畳させたMR画像を生成する。そして生成したMR画像上に、後述する制御情報を埋め込む。そして、制御情報を埋め込んだMR画像をHMD101に対して送信する。画像処理装置102は、一般にはパソコンやワークステーション等の高性能な演算処理機能やグラフィック表示機能を有する装置により構成される。   Next, the image processing apparatus 102 will be described. The image processing apparatus 102 generates a virtual space image based on the position and orientation information transmitted from the HMD 101, and generates an MR image in which the generated virtual space image is superimposed on the real space image transmitted from the HMD 101. Then, control information to be described later is embedded on the generated MR image. Then, the MR image in which the control information is embedded is transmitted to the HMD 101. The image processing apparatus 102 is generally configured by an apparatus having a high-performance arithmetic processing function or graphic display function such as a personal computer or a workstation.

画像処理装置102は、I/F107、位置姿勢情報生成部108、CG描画合成部110、コンテンツDB109、表示画像制御情報エンコード部112、レンズ歪み情報解析部114、により構成されている。   The image processing apparatus 102 includes an I / F 107, a position / orientation information generation unit 108, a CG drawing synthesis unit 110, a content DB 109, a display image control information encoding unit 112, and a lens distortion information analysis unit 114.

I/F107はHMD101とのデータ通信を行うためのものであり、I/F106と同様、リアルタイム性が求められかつ大容量の伝送が可能な、USBやIEEE1394のメタル線、GigabitEthernet(登録商標)等の光ファイバにより構成されている。   The I / F 107 is used for data communication with the HMD 101. Like the I / F 106, the I / F 107 is required to have real-time characteristics and can transmit a large capacity, such as a USB or IEEE 1394 metal line, Gigabit Ethernet (registered trademark), or the like. It is comprised by the optical fiber of.

位置姿勢情報生成部108は、HMD101から送出された位置姿勢情報から、撮像部103の位置姿勢を求める。HMD101から送出された位置姿勢情報は、3次元位置姿勢センサ105の位置姿勢を示すものである。従って、例えば、撮像部103と3次元位置姿勢センサ105との位置姿勢関係を予め求めておき、係る位置姿勢関係を3次元位置姿勢センサ105の位置姿勢に加えることで、撮像部103の位置姿勢情報を求めることができる。もちろん、撮像部103の位置姿勢情報を求める方法は他にもあり、例えば、撮像部103が撮像した画像を用いて撮像部103の位置姿勢情報を求める方法もある。   The position and orientation information generation unit 108 obtains the position and orientation of the imaging unit 103 from the position and orientation information sent from the HMD 101. The position and orientation information sent from the HMD 101 indicates the position and orientation of the three-dimensional position and orientation sensor 105. Therefore, for example, the position and orientation relationship between the imaging unit 103 and the three-dimensional position and orientation sensor 105 is obtained in advance, and the position and orientation relationship of the imaging unit 103 is obtained by adding the position and orientation relationship to the position and orientation of the three-dimensional position and orientation sensor 105. You can ask for information. Of course, there are other methods for obtaining the position / orientation information of the imaging unit 103, for example, there is a method for obtaining the position / orientation information of the imaging unit 103 using an image captured by the imaging unit 103.

コンテンツDB109には、仮想空間を構成する各仮想物体についてのデータが登録されている。例えば、仮想物体がポリゴンで構成されている場合には、各ポリゴンの色や法線ベクトルのデータ、ポリゴンを構成する各頂点の座標データ等が、コンテンツDB109に登録されている。   In the content DB 109, data about each virtual object constituting the virtual space is registered. For example, when the virtual object is composed of polygons, the color and normal vector data of each polygon, the coordinate data of each vertex constituting the polygon, and the like are registered in the content DB 109.

CG描画合成部110は、コンテンツDB109に登録されているデータを用いて仮想空間を構築する。そして係る仮想空間を、位置姿勢情報生成部108が生成した位置姿勢情報が示す位置姿勢を有する視点から見える画像を、仮想空間画像として生成する。そして生成した仮想空間画像を、I/F107を介してHMD101から受信した現実空間画像上に合成することで、MR画像を生成する。生成したMR画像は、後段の表示画像制御情報エンコード部112に送出する。   The CG drawing composition unit 110 constructs a virtual space using data registered in the content DB 109. Then, an image that can be seen from the viewpoint having the position and orientation indicated by the position and orientation information generated by the position and orientation information generation unit 108 is generated as the virtual space image. Then, the generated virtual space image is synthesized on the real space image received from the HMD 101 via the I / F 107, thereby generating an MR image. The generated MR image is sent to the display image control information encoding unit 112 at the subsequent stage.

レンズ歪み情報解析部114は、HMD101内のレンズ歪み情報格納テーブル115から上記レンズ歪み情報を取得し、取得したレンズ歪み情報を用いて、CG描画合成部110が生成したMR画像内で制御情報を埋め込む領域を特定する。   The lens distortion information analysis unit 114 acquires the lens distortion information from the lens distortion information storage table 115 in the HMD 101, and uses the acquired lens distortion information to output control information in the MR image generated by the CG drawing synthesis unit 110. Specify the area to embed.

ここで、制御情報とは、表示部104における表示制御、表示する画像に係る制御を行うために用いられるものである。制御情報には、例えば、表示画像の明るさ、色味、ガンマなどの画質を制御する情報、表示画像の提示位置、サイズなどの画面自体を制御する情報、MR画像に重畳する警告メッセージなどの重畳文字を制御する情報が含まれている。   Here, the control information is used to perform display control on the display unit 104 and control related to an image to be displayed. The control information includes, for example, information for controlling the image quality such as brightness, color, and gamma of the display image, information for controlling the screen itself, such as the display position and size of the display image, and a warning message superimposed on the MR image. Information that controls the superimposed characters is included.

なお、レンズ歪み情報解析部114による上記レンズ歪み情報の取得は、画像処理装置102の電源投入直後の初期化処理において行うことが好ましい。これは、異なるレンズ歪み情報をもつHMDが画像処理装置102に接続されても対応することができるからである。   The acquisition of the lens distortion information by the lens distortion information analysis unit 114 is preferably performed in an initialization process immediately after the image processing apparatus 102 is turned on. This is because the HMD having different lens distortion information can cope with the connection to the image processing apparatus 102.

表示画像制御情報エンコード部112は、CG描画合成部110から受けたMR画像内のレンズ歪み情報解析部114が特定した領域に対して、制御情報を埋め込む。MR画像に対する制御情報の埋め込み処理について詳しくは後述する。そして表示画像制御情報エンコード部112は、制御情報を埋め込んだMR画像をI/F107を介してHMD101に送信する。   The display image control information encoding unit 112 embeds control information in the region specified by the lens distortion information analysis unit 114 in the MR image received from the CG drawing synthesis unit 110. Details of the process of embedding control information in the MR image will be described later. Then, the display image control information encoding unit 112 transmits the MR image in which the control information is embedded to the HMD 101 via the I / F 107.

図3Aは、画像処理装置102が、制御情報を埋め込んだMR画像を生成してHMD101に送信するための一連の処理のフローチャートである。   FIG. 3A is a flowchart of a series of processes for the image processing apparatus 102 to generate an MR image in which control information is embedded and transmit it to the HMD 101.

ステップS300では、レンズ歪み情報解析部114はHMD101に対してアクセスし、レンズ歪み情報格納テーブル115に登録されているレンズ歪み情報を取得する。   In step S <b> 300, the lens distortion information analysis unit 114 accesses the HMD 101 and acquires lens distortion information registered in the lens distortion information storage table 115.

ここで、レンズ歪み情報とは、表示部104が有する光学歪み特性とは逆の光学歪み特性を示す情報である。従って、レンズ歪み情報を用いれば、例えば、図8Cに示す矩形画像を図8Bに示した画像(画像B)に変形させることができる。これにより、図8Aに示す光学歪み特性を有する光学系を介して観察される画像が画像Cとなる。換言すれば、画像Cを構成する各画素について、対応する画像B上の画素を特定することができる。   Here, the lens distortion information is information indicating an optical distortion characteristic opposite to the optical distortion characteristic of the display unit 104. Therefore, if lens distortion information is used, for example, the rectangular image shown in FIG. 8C can be transformed into the image (image B) shown in FIG. 8B. Thereby, an image observed through the optical system having the optical distortion characteristics shown in FIG. In other words, for each pixel constituting the image C, a corresponding pixel on the image B can be specified.

ステップS301では、レンズ歪み情報解析部114は、ステップS300で取得したレンズ歪み情報を参照する。そして、表示部104が有する光学系の光学歪み特性とは逆の光学歪み特性に基づいてMR画像を変形させた場合に、非表示対象となる領域として予め定めた画素位置範囲に含まれている領域を特定する。図8C、8Dを例に取ると、ステップS301では、図8Cに示した画像において、図8Dに示した斜線部分(非表示対象となる領域として予め定めた画素位置範囲)に対応する領域を求めることになる。即ち、ステップS301では、MR画像において、非表示対象となる領域を示す領域情報を予め求めておく。   In step S301, the lens distortion information analysis unit 114 refers to the lens distortion information acquired in step S300. Then, when the MR image is deformed based on the optical distortion characteristic opposite to the optical distortion characteristic of the optical system included in the display unit 104, it is included in a pixel position range that is predetermined as a non-display target area. Identify the area. Taking FIGS. 8C and 8D as an example, in step S301, an area corresponding to the hatched portion (a pixel position range predetermined as a non-display target area) in the image shown in FIG. 8C is obtained. It will be. That is, in step S301, area information indicating an area to be non-displayed in the MR image is obtained in advance.

上記ステップS300、ステップS301における処理は、画像処理装置102の電源投入直後の初期化処理で行うことが望ましい。   The processes in steps S300 and S301 are preferably performed in an initialization process immediately after the image processing apparatus 102 is turned on.

一方、上述したように、HMD101からは、撮像部103が撮像した現実空間画像と、3次元位置姿勢センサ105が計測した、3次元位置姿勢センサ105の位置姿勢を示す位置姿勢情報が、I/F106を介して送信される。従って、ステップS302では、I/F107を介して、この送信された現実空間画像と、位置姿勢情報とを受信(取得)する。I/F107を介して受信した現実空間画像は、CG描画合成部110に入力されるし、I/F107を介して受信した位置姿勢情報は、位置姿勢情報生成部108に入力される。   On the other hand, as described above, from the HMD 101, position / posture information indicating the position / posture of the three-dimensional position / posture sensor 105 measured by the three-dimensional position / posture sensor 105 and the real space image picked up by the image pickup unit 103 are I / O. Sent via F106. Accordingly, in step S302, the transmitted real space image and position / orientation information are received (acquired) via the I / F 107. The real space image received via the I / F 107 is input to the CG drawing synthesis unit 110, and the position / orientation information received via the I / F 107 is input to the position / orientation information generation unit 108.

次に、ステップS303では先ず、位置姿勢情報生成部108は上述の通り、I/F107を介して受信した位置姿勢情報と、撮像部103と3次元位置姿勢センサ105との位置姿勢関係とを用いて、撮像部103の位置姿勢情報を求める。そしてその後、CG描画合成部110は、コンテンツDB109に登録されているデータを用いて仮想空間を構築し、係る仮想空間を、撮像部103の位置姿勢から見た画像を、仮想空間画像として生成する。そして、生成した仮想空間画像を、I/F107を介して受信した現実空間画像上に合成することで、合成画像としてのMR画像(第1の画像)を生成する。生成したMR画像は後段の表示画像制御情報エンコード部112に送出する。   In step S303, first, the position / orientation information generation unit 108 uses the position / orientation information received via the I / F 107 and the position / orientation relationship between the imaging unit 103 and the three-dimensional position / orientation sensor 105 as described above. Thus, the position and orientation information of the imaging unit 103 is obtained. After that, the CG drawing synthesis unit 110 constructs a virtual space using data registered in the content DB 109 and generates an image obtained by viewing the virtual space from the position and orientation of the imaging unit 103 as a virtual space image. . Then, the generated virtual space image is combined with the real space image received via the I / F 107 to generate an MR image (first image) as a combined image. The generated MR image is sent to the display image control information encoding unit 112 at the subsequent stage.

次に、ステップS303で生成したMR画像に対する制御処理を行う場合には、処理はステップS304を介してステップS305に進むし、制御処理を行わない場合には、処理はステップS304を介してステップS390に進む。あるフレームにおけるMR画像に対して制御処理を行うか否かは、事前に設定しておいても良いし、ユーザ指示入力などを検知することで適宜判断しても良い。   Next, when the control process is performed on the MR image generated at step S303, the process proceeds to step S305 via step S304. When the control process is not performed, the process proceeds to step S390 via step S304. Proceed to Whether to perform control processing on an MR image in a certain frame may be set in advance, or may be appropriately determined by detecting user instruction input or the like.

ステップS390では、表示画像制御情報エンコード部112は、ステップS303で生成したMR画像に対しては制御処理は行わない旨を示すヘッダ情報を、ステップS301で特定した(第1の画像内の)非表示対象となる領域に対して埋め込む。ここでの埋め込み処理は、非表示対象となる領域を構成するデータを単にヘッダ情報を構成するデータに置換する処理でも良いし、電子透かしとして埋め込む処理でも良い。また、非表示対象となる領域が複数箇所の場合には、例えば最も左上隅の領域に埋め込むなど、予め決めておいても良い。   In step S390, the display image control information encoding unit 112 specifies the header information indicating that the control process is not performed on the MR image generated in step S303 in step S301 (in the first image). Embed the area to be displayed. The embedding process here may be a process of simply replacing the data constituting the non-display target area with the data constituting the header information, or may be the process of embedding as a digital watermark. In addition, when there are a plurality of non-display target areas, they may be determined in advance, for example, embedded in the upper left corner area.

一方、ステップS305では、表示画像制御情報エンコード部112は、ステップS301で特定した非表示対象となる領域に対して、制御情報を埋め込む。ステップS305における埋め込み処理は、埋め込む情報が異なるのみで、それ以外についてはステップS390と同様にして行う。   On the other hand, in step S305, the display image control information encoding unit 112 embeds control information in the non-display target area specified in step S301. The embedding process in step S305 is performed in the same manner as in step S390 except for the information to be embedded.

次にステップS391では、表示画像制御情報エンコード部112は、ステップS305で制御情報を埋め込んだ、若しくはステップS390でヘッダ情報を埋め込んだMR画像、のうち何れか(第2の画像)を、I/F107を介してHMD101に送信する。なお、MR画像において、非表示対象となる領域を構成する各画素のデータは、例えば、画素値が0を示すデータ(例えば、MR画像がRGB画像である場合には、R=G=B=0を示すデータ)に置換する。   Next, in step S391, the display image control information encoding unit 112 converts any one (second image) of the MR images in which the control information is embedded in step S305 or the header information in step S390 (second image) to I / O. It transmits to HMD101 via F107. In the MR image, the data of each pixel constituting the non-display target region is, for example, data indicating a pixel value of 0 (for example, when the MR image is an RGB image, R = G = B = (Data indicating 0).

次に、本処理を終了する指示が入力されたことを検知した、若しくは本処理を終了する条件が満たされた場合には本処理を終了する。一方、本処理を終了する指示は入力されていないし、本処理を終了する条件も満たされていない場合には、ステップS392を介してステップS302に戻り、次のフレームに対してステップS302以降の処理を行う。   Next, when it is detected that an instruction to end the process is input, or when a condition for ending the process is satisfied, the process ends. On the other hand, if the instruction to end this process has not been input and the conditions for ending this process have not been satisfied, the process returns to step S302 via step S392, and the process from step S302 onward for the next frame. I do.

図2は、ステップS305で行う制御情報の埋め込み処理を説明する図である。   FIG. 2 is a diagram for explaining the control information embedding process performed in step S305.

図2(a)には、表示部104が有する光学系の光学歪み特性とは逆の光学歪み特性に基づいて変形させたMR画像201と、表示部104が有する表示装置の表示画面202との関係を示している。光学系のレンズにより上下方向と左右方向とのアスペクトがずれた歪みが生じるため、変形後のMR画像201の上部は実際には表示しない領域となる。表示しない領域を構成する画素のデータは、ある画素値を示すデータに置換するか、若しくは係る領域そのものを物理的に遮光する等、係る領域を観察できないようにする。   2A shows an MR image 201 deformed based on an optical distortion characteristic opposite to the optical distortion characteristic of the optical system included in the display unit 104, and a display screen 202 of the display device included in the display unit 104. FIG. Showing the relationship. Since the distortion of the aspect of the up-down direction and the left-right direction is caused by the lens of the optical system, the upper part of the MR image 201 after the deformation is an area that is not actually displayed. Data of pixels constituting a region not to be displayed is replaced with data indicating a certain pixel value, or such a region itself is physically shielded so that the region cannot be observed.

図2(b)には、変形していないMR画像における非表示対象となる領域を示している。図2(b)に示した斜線領域は、図2(a)に示した斜線領域、即ち、非表示対象となる領域に対応している。   FIG. 2B shows a non-display target region in the undeformed MR image. The hatched area shown in FIG. 2B corresponds to the hatched area shown in FIG. 2A, that is, the area to be hidden.

図2(c)には、変形していないMR画像における非表示対象となる領域に、制御情報を埋め込んだ場合のMR画像を示している。制御情報は、画像中に埋め込んでいるので、係る画像に対する様々な処理の実行の可否や、制御情報のサイズ、属性を管理することが望ましい。   FIG. 2 (c) shows an MR image when control information is embedded in a region that is a non-display target in an undeformed MR image. Since the control information is embedded in the image, it is desirable to manage whether or not various processes can be executed on the image, and the size and attributes of the control information.

図10A、10Bに、制御情報を構成するヘッダ情報と、重畳文字制御情報と、の構成例を示す。もちろん、制御情報に含めうる情報に関しては、図10A、10Bに示したものに限定しない。   FIGS. 10A and 10B show a configuration example of header information constituting the control information and superimposed character control information. Of course, the information that can be included in the control information is not limited to that shown in FIGS. 10A and 10B.

図10Aは、ヘッダ情報の構成例を示す図である。   FIG. 10A is a diagram illustrating a configuration example of header information.

「実行可否」とは、制御情報に基づいた様々な表示制御を行うか否かを示している。   The “executability” indicates whether or not various display controls are performed based on the control information.

「サイズ」とは、制御情報の全データサイズ、制御情報が1フレームの画像に埋め込むことができない場合に何フレーム分の画像に埋め込んでいるか、その場合に、現ヘッダ情報が何フレーム目に埋め込まれているのかを示している。   “Size” means the total data size of the control information, how many frames of the control information are embedded when the control information cannot be embedded in one frame image, and in that case, in what frame the current header information is embedded It is shown that.

「属性」とは、制御情報に基づいた表示制御が、画像制御、画面制御、重畳文字制御の何れであるのかを示している。   The “attribute” indicates whether display control based on the control information is image control, screen control, or superimposed character control.

図10Bは、重畳文字制御情報の構成例を示す図である。   FIG. 10B is a diagram illustrating a configuration example of superimposed character control information.

「表示時間」とは、文字を表示する時間の長さを示している。   “Display time” indicates the length of time for displaying characters.

「表示位置」とは、表示する文字の表示位置(座標値)を示している。   “Display position” indicates the display position (coordinate value) of the character to be displayed.

「表示色」とは、表示する文字の色を示している。   “Display color” indicates the color of a character to be displayed.

「文字サイズ」とは、表示する文字のサイズ(ポイント数)を示している。   “Character size” indicates the size (number of points) of characters to be displayed.

「表示内容」とは、実際に表示する文字列を示している。   “Display content” indicates a character string to be actually displayed.

なお、上述の説明では特に触れていないが、ヘッダ情報の先頭部分には、ヘッダ情報に固有の情報(コード)が記録されているものとする。これは、係る制御情報を抽出する側で、MR画像中のどこにヘッダ情報が記録されているのかを検索する際に用いられるものである。   Although not particularly mentioned in the above description, it is assumed that information (code) unique to the header information is recorded at the head portion of the header information. This is used when searching for where the header information is recorded in the MR image on the side of extracting the control information.

次に、HMD101が、画像処理装置102から送信されたMR画像を受信し、これを表示部104に表示するために行う一連の処理について、同処理のフローチャートを示す図4Aを用いて、以下説明する。   Next, a series of processing performed by the HMD 101 for receiving the MR image transmitted from the image processing apparatus 102 and displaying the MR image on the display unit 104 will be described below with reference to FIG. 4A showing a flowchart of the processing. To do.

ステップS400では、上記ステップS300においてレンズ歪み情報解析部114から要求された、レンズ歪み情報格納テーブル115内に登録されているレンズ歪み情報を、I/F106を介して画像処理装置102に対して送信する。ステップS400における処理は、HMD101の電源投入直後の初期化処理で行うことが望ましい。   In step S400, the lens distortion information registered in the lens distortion information storage table 115 requested from the lens distortion information analysis unit 114 in step S300 is transmitted to the image processing apparatus 102 via the I / F 106. To do. The processing in step S400 is preferably performed by initialization processing immediately after the HMD 101 is turned on.

次に、ステップS401では、撮像部103が撮像した現実空間画像、3次元位置姿勢センサ105が計測した位置姿勢情報を、I/F106を介して画像処理装置102に対して送信する。   Next, in step S <b> 401, the real space image captured by the image capturing unit 103 and the position / orientation information measured by the three-dimensional position / orientation sensor 105 are transmitted to the image processing apparatus 102 via the I / F 106.

次にステップS402では、図3Aのフローチャートに従って画像処理装置102から送信された、制御情報が埋め込まれたMR画像を、I/F106を介して表示画像制御情報デコード部113が取得する。   In step S <b> 402, the display image control information decoding unit 113 acquires the MR image embedded with the control information transmitted from the image processing apparatus 102 according to the flowchart of FIG. 3A via the I / F 106.

次にステップS403では、表示画像制御情報デコード部113は、ステップS402で取得したMR画像中を検索し、ヘッダ情報に固有の情報(コード)を検索する。即ち、ステップS403では、MR画像中に埋め込まれた制御情報を検索し、取得する。従って、ステップS403では、制御情報の埋め込み方法に応じた抽出処理を行うことになる。   In step S403, the display image control information decoding unit 113 searches the MR image acquired in step S402 to search for information (code) unique to the header information. That is, in step S403, the control information embedded in the MR image is retrieved and acquired. Accordingly, in step S403, extraction processing according to the control information embedding method is performed.

そして、制御情報を抽出した結果、表示画像制御情報デコード部113は、抽出した制御情報中のヘッダ情報中の「実行可否」を参照し、表示制御を行う(値が「0」)か表示制御を行わない(値が「1」)かを判断する。係る判断の結果、表示制御を行う場合には処理をステップS404に進め、表示制御を行わない場合には、処理をステップS490に進める。   Then, as a result of extracting the control information, the display image control information decoding unit 113 refers to “executability” in the header information in the extracted control information and performs display control (value is “0”) or display control. Is not performed (value is “1”). If it is determined that display control is to be performed, the process proceeds to step S404. If display control is not to be performed, the process proceeds to step S490.

ステップS404では、表示画像制御情報デコード部113は、ステップS403で抽出した制御情報中のヘッダ情報、重畳文字制御情報を参照し、ステップS402で取得したMR画像に対して対応する表示制御処理を行う。そして歪み補正部111は、表示制御処理結果としてのMR画像を、表示部104が有する光学系の光学歪み特性とは逆の光学歪み特性に基づいて変形させたMR画像を生成し、表示部104に対して送出する。即ち、表示部104の表示領域(表示画面上)にMR画像をマッピングする。   In step S404, the display image control information decoding unit 113 refers to the header information and superimposed character control information in the control information extracted in step S403, and performs corresponding display control processing on the MR image acquired in step S402. . Then, the distortion correction unit 111 generates an MR image obtained by deforming the MR image as the display control processing result based on the optical distortion characteristic opposite to the optical distortion characteristic of the optical system included in the display unit 104, and the display unit 104. Is sent out. That is, the MR image is mapped on the display area (on the display screen) of the display unit 104.

次に、本処理を終了する指示が入力されたことを検知した、若しくは本処理を終了する条件が満たされた場合には本処理を終了する。一方、本処理を終了する指示は入力されていないし、本処理を終了する条件も満たされていない場合には、ステップS490を介してステップS401に戻り、次のフレームに対してステップS401以降の処理を行う。   Next, when it is detected that an instruction to end the process is input, or when a condition for ending the process is satisfied, the process ends. On the other hand, if the instruction to end this process has not been input and the conditions for ending this process are not satisfied, the process returns to step S401 via step S490, and the processes in and after step S401 are performed for the next frame. I do.

以上の説明により、本実施形態によれば、MR画像において表示しない領域に対して制御情報を埋め込むので、表示する領域に対する画質に何等影響を与えないし、係るMR画像の送信帯域内でMR画像と制御情報とを両方送信することができる。また、制御情報とMR画像とが1対1の関係でHMD101に送信されるので、制御情報に基づいた制御処理と、この制御情報を埋め込んだMR画像の表示処理との同期を容易に取ることができる。   As described above, according to the present embodiment, the control information is embedded in the region that is not displayed in the MR image, so that there is no influence on the image quality for the display region, and the MR image and the MR image are transmitted within the transmission band of the MR image. Both control information can be transmitted. In addition, since the control information and the MR image are transmitted to the HMD 101 in a one-to-one relationship, the control process based on the control information and the MR image display process in which the control information is embedded can be easily synchronized. Can do.

[第2の実施形態]
第1の実施形態では、MR画像において非表示対象となる領域を構成するデータサイズが、制御情報のデータサイズよりも大きいことが前提となる。しかし、MR画像において非表示対象となる領域を構成するデータサイズが、制御情報のデータサイズ以下である場合には、この制御情報を分割し、分割したそれぞれの分割制御情報を連続する複数フレームのMR画像のそれぞれに分散させて埋め込んでも良い。
[Second Embodiment]
In the first embodiment, it is premised that the data size constituting the non-display target area in the MR image is larger than the data size of the control information. However, when the data size constituting the non-display target area in the MR image is equal to or smaller than the data size of the control information, the control information is divided, and the divided division control information is divided into a plurality of consecutive frames. It may be dispersed and embedded in each MR image.

この場合、図3AのフローチャートにおけるステップS305における処理は、次のようになる。   In this case, the process in step S305 in the flowchart of FIG. 3A is as follows.

図3Bは、本実施形態に係るステップS305における処理の詳細を示すフローチャートである。なお、本実施形態では、ステップS305における処理は、表示画像制御情報エンコード部112が行うものとする。   FIG. 3B is a flowchart showing details of processing in step S305 according to the present embodiment. In the present embodiment, the display image control information encoding unit 112 performs the process in step S305.

先ずステップS306では、上記ステップS301で特定した領域を構成するデータサイズXと、制御情報のデータサイズYとの大小比較を行う。係る大小比較の結果、X>Yの場合には処理をステップS310に進め、X≦Yの場合には、処理をステップS308に進める。   First, in step S306, the data size X constituting the area specified in step S301 is compared with the data size Y of the control information. As a result of such size comparison, if X> Y, the process proceeds to step S310, and if X ≦ Y, the process proceeds to step S308.

ステップS306からステップS310に進んだ場合、ステップS310では、第1の実施形態と同様にして、制御情報を埋め込む。   When the process proceeds from step S306 to step S310, in step S310, control information is embedded as in the first embodiment.

一方、ステップS308では、制御情報をデータサイズXよりも小さくなるような単位に分割するのであるが、実際に分割されるのは重畳文字制御情報であり、分割したそれぞれの単位には、元のヘッダ情報に基づいて新たにヘッダ情報が発行される。新たに発行するヘッダ情報は、元のヘッダ情報において「サイズ」の項目だけである。そしてステップS310では、分割した単位に新たに発行したヘッダ情報を付加した分割制御情報を、ステップS301で特定した領域に埋め込む。即ち、分割制御情報のデータサイズが、上記データサイズXよりも小さくなるように分割されている。   On the other hand, in step S308, the control information is divided into units that are smaller than the data size X, but what is actually divided is superimposed character control information, and each divided unit includes the original information. New header information is issued based on the header information. The newly issued header information is only the item “size” in the original header information. In step S310, the division control information in which the newly issued header information is added to the divided unit is embedded in the area specified in step S301. That is, the division control information is divided so that the data size is smaller than the data size X.

一方、本実施形態に係る上記ステップS404では、次のような処理を行う。   On the other hand, in step S404 according to the present embodiment, the following processing is performed.

図4Bは、本実施形態に係るステップS404における処理の詳細を示すフローチャートである。   FIG. 4B is a flowchart showing details of the processing in step S404 according to the present embodiment.

先ずステップS405では、表示画像制御情報デコード部113は、ステップS403で抽出した制御情報中のヘッダ情報を参照し、「分割フレーム数」が2以上、即ち、係る制御情報が分割制御情報であるのか否かを判断する。係る判断の結果、「分割フレーム数」が1である場合、即ち、係る制御情報が分割制御情報ではない場合には、処理をステップS409に進め、2以上であれば、処理をステップS406に進める。   First, in step S405, the display image control information decoding unit 113 refers to the header information in the control information extracted in step S403, and the “number of divided frames” is 2 or more, that is, whether the control information is the divided control information. Judge whether or not. As a result of the determination, if the “number of divided frames” is 1, that is, if the control information is not the divided control information, the process proceeds to step S409, and if it is 2 or more, the process proceeds to step S406. .

ステップS409では、表示画像制御情報デコード部113は、ステップS403で抽出した制御情報中の重畳文字制御情報を参照する。そしてステップS410では、表示画像制御情報デコード部113は、ステップS402で取得したMR画像に対して対応する表示制御処理を行う。そして歪み補正部111は、表示制御処理結果としてのMR画像を、表示部104が有する光学系の光学歪み特性とは逆の光学歪み特性に基づいて変形させたMR画像を生成し、表示部104に対して送出する。   In step S409, the display image control information decoding unit 113 refers to the superimposed character control information in the control information extracted in step S403. In step S410, the display image control information decoding unit 113 performs a corresponding display control process on the MR image acquired in step S402. Then, the distortion correction unit 111 generates an MR image obtained by deforming the MR image as the display control processing result based on the optical distortion characteristic opposite to the optical distortion characteristic of the optical system included in the display unit 104, and the display unit 104. Is sent to.

一方、ステップS406では、表示画像制御情報デコード部113は、ステップS403で抽出した分割制御情報を保持しておく。なお、この取得した分割制御情報中のヘッダ情報中の「分割フレーム数」が、ヘッダ情報中の「分割フレームの場合における現フレーム番号」と等しくなった場合にはステップS407を介してステップS408に進む。即ち、分割元が復元可能な数の分割制御情報が集まった場合にはステップS407を介してステップS408に進む。一方、未だ集まっていない場合には、次のフレームにて分割制御情報を取得すべく、本処理を終了する。   On the other hand, in step S406, the display image control information decoding unit 113 holds the division control information extracted in step S403. When the “number of divided frames” in the header information in the obtained division control information becomes equal to “the current frame number in the case of divided frames” in the header information, the process proceeds to step S408 via step S407. move on. That is, when the number of pieces of division control information that can be restored by the division source is collected, the process proceeds to step S408 via step S407. On the other hand, if not yet gathered, this process is terminated to obtain the division control information in the next frame.

ステップS408では、表示画像制御情報デコード部113は、収集した全ての分割制御情報を1つにまとめる。即ち、それぞれの分割制御情報中の重畳文字制御情報を1つにマージする。   In step S408, the display image control information decoding unit 113 combines all the collected division control information into one. That is, the superimposed character control information in each division control information is merged into one.

ステップS409では、表示画像制御情報デコード部113は、この1つにマージした重畳文字制御情報を参照する。そしてステップS410では、表示画像制御情報デコード部113は、ステップS402で取得したMR画像に対して対応する表示制御処理を行う。そして歪み補正部111は、表示制御処理結果としてのMR画像を、表示部104が有する光学系の光学歪み特性とは逆の光学歪み特性に基づいて変形させたMR画像を生成し、表示部104に対して送出する。即ち、表示部104の表示領域にMR画像をマッピングする。   In step S409, the display image control information decoding unit 113 refers to the superimposed character control information merged into one. In step S410, the display image control information decoding unit 113 performs a corresponding display control process on the MR image acquired in step S402. Then, the distortion correction unit 111 generates an MR image obtained by deforming the MR image as the display control processing result based on the optical distortion characteristic opposite to the optical distortion characteristic of the optical system included in the display unit 104, and the display unit 104. Is sent to. That is, the MR image is mapped on the display area of the display unit 104.

[第3の実施形態]
第1の実施形態では、表示するMR画像に対して、表示部104が有する光学系の歪み特性とは逆の歪み特性に応じて変形させる処理をHMD101側で行っていたが、画像処理装置102側で行うようにしても良い。
[Third Embodiment]
In the first embodiment, the HMD 101 side performs the process of deforming the MR image to be displayed according to the distortion characteristic opposite to the distortion characteristic of the optical system included in the display unit 104, but the image processing apparatus 102. It may be performed on the side.

図5は、画像処理装置側で、表示対象のMR画像に対して、表示部104が有する光学系の光学歪み特性とは逆の光学歪み特性に応じた変形を行う場合の、システムの機能構成を示すブロック図である。本実施形態に係るシステムは、第1の実施形態に係るシステムの構成とは異なるものの、その目的とするところは同じである。即ち、現実空間画像と仮想空間画像とを合成させたMR画像を、HMDを頭部に装着したユーザの眼前に提供する。   FIG. 5 shows the functional configuration of the system when the MR image to be displayed is deformed according to the optical distortion characteristic opposite to the optical distortion characteristic of the optical system included in the display unit 104 on the image processing apparatus side. FIG. Although the system according to the present embodiment is different from the configuration of the system according to the first embodiment, the purpose thereof is the same. That is, the MR image obtained by combining the real space image and the virtual space image is provided in front of the user wearing the HMD on the head.

また、図5に示した各部のうち、図1に示したものと同じものについては同じ参照番号を付けており、その説明は省略する。HMD501は、HMD101から歪み補正部111を省いた構成を有し、画像処理装置502は、画像処理装置102に歪み補正部111と同じ動作を行う歪み補正部511を加えた構成を有する。   5 that are the same as those shown in FIG. 1 are given the same reference numerals, and descriptions thereof are omitted. The HMD 501 has a configuration in which the distortion correction unit 111 is omitted from the HMD 101, and the image processing apparatus 502 has a configuration in which a distortion correction unit 511 that performs the same operation as the distortion correction unit 111 is added to the image processing apparatus 102.

即ち、画像処理装置502側では、歪み補正部511は、CG描画合成部110が生成したMR画像を歪み補正部111と同様にして変形させ、表示画像制御情報エンコード部112は、この変形させたMR画像に対して制御情報を埋め込む。そしてこの変形させたMR画像に対して制御情報が埋め込まれたものをHMD501に対して送信する。   That is, on the image processing apparatus 502 side, the distortion correction unit 511 deforms the MR image generated by the CG drawing synthesis unit 110 in the same manner as the distortion correction unit 111, and the display image control information encoding unit 112 deforms this. Control information is embedded in the MR image. Then, the deformed MR image in which control information is embedded is transmitted to the HMD 501.

HMD501側では、単にこのMR画像から制御情報を抽出し、このMR画像をそのまま何等変形させることなく、この制御情報に基づいて表示部104に表示させる。   On the HMD 501 side, control information is simply extracted from this MR image, and this MR image is displayed on the display unit 104 based on this control information without any modification.

図6は、画像処理装置502からHMD501に対して送信する、制御情報が埋め込まれたMR画像と、表示部104の表示画面との関係を示す図である。表示部104が有する光学系のレンズにより上下と左右に斜線で示す実際には表示しない領域が存在する。表示しない領域は、第1の実施形態と同様に、ある画素値のデータで埋めるか、物理的に遮光するなどの手段により観察できないようにする。MR画像に対するそれ以外の取り扱いについては第1の実施形態と同じである。   FIG. 6 is a diagram illustrating a relationship between the MR image embedded with the control information transmitted from the image processing apparatus 502 to the HMD 501 and the display screen of the display unit 104. Due to the optical lens of the display unit 104, there is an area that is not actually displayed, which is indicated by diagonal lines in the vertical and horizontal directions. As in the first embodiment, the area not to be displayed is not observed by a means such as filling with data of a certain pixel value or physically shielding light. The other handling of the MR image is the same as that in the first embodiment.

[第4の実施形態]
図1,5に示した画像処理装置102、502としては、一般のPC(パーソナルコンピュータ)を用いることが好ましく、その場合、係るコンピュータのハードウェア構成の一例としては、図11に示すようなハードウェア構成が考えられる。
[Fourth Embodiment]
As the image processing apparatuses 102 and 502 shown in FIGS. 1 and 5, it is preferable to use a general PC (personal computer). In this case, as an example of the hardware configuration of such a computer, a hardware as shown in FIG. Hardware configuration.

図11は、画像処理装置102、502に適用可能なコンピュータのハードウェア構成例を示すブロック図である。   FIG. 11 is a block diagram illustrating a hardware configuration example of a computer applicable to the image processing apparatuses 102 and 502.

CPU1101は、RAM1102やROM1103に格納されているプログラムやデータを用いて、コンピュータ全体の制御を行うと共に、画像処理装置102、502が行うものとして上述した各処理を実行する。例えば、CPU1101は、位置姿勢情報生成部108、CG描画合成部110、表示画像制御情報エンコード部112、レンズ歪み情報解析部114、歪み補正部111、として機能する。   The CPU 1101 uses the programs and data stored in the RAM 1102 and the ROM 1103 to control the entire computer, and executes the processes described above as performed by the image processing apparatuses 102 and 502. For example, the CPU 1101 functions as the position / orientation information generation unit 108, the CG drawing synthesis unit 110, the display image control information encoding unit 112, the lens distortion information analysis unit 114, and the distortion correction unit 111.

RAM1102は、外部記憶装置1106からロードされたプログラムやデータ、I/F107を介してHMD101(501)から受信した現実空間画像、位置姿勢情報、レンズ歪み情報を一時的に記憶するためのエリアを有する。また、RAM1102は、CPU1101が各種の処理を実行する際に用いるワークエリアも有する。即ち、RAM1102は、各種のエリアを適宜提供することができる。   The RAM 1102 has an area for temporarily storing programs and data loaded from the external storage device 1106, real space images received from the HMD 101 (501) via the I / F 107, position and orientation information, and lens distortion information. . The RAM 1102 also has a work area used when the CPU 1101 executes various processes. That is, the RAM 1102 can provide various areas as appropriate.

ROM1103には、本コンピュータの設定データや、ブートプログラムなどが格納されている。   The ROM 1103 stores setting data of the computer, a boot program, and the like.

操作部1104は、キーボードやマウス等により構成されており、本コンピュータの操作者が操作することで、各種の指示をCPU1101に対して入力することができる。   The operation unit 1104 is configured by a keyboard, a mouse, and the like, and can input various instructions to the CPU 1101 by being operated by an operator of the computer.

表示部1105は、CRTや液晶画面などにより構成されており、CPU1101による処理結果を画像や文字などでもって表示することができる。   The display unit 1105 is configured by a CRT, a liquid crystal screen, or the like, and can display a processing result by the CPU 1101 using an image, text, or the like.

外部記憶装置1106は、ハードディスクドライブ装置に代表される大容量情報記憶装置である。ここには、OS(オペレーティングシステム)や、画像処理装置102(502)が行うものとして上述した処理をCPU1101に実行させるためのプログラムやデータが保存されている。係るプログラムには、位置姿勢情報生成部108、CG描画合成部110、表示画像制御情報エンコード部112、レンズ歪み情報解析部114、歪み補正部111、の機能をCPU1101に実行させるためのプログラムも含まれている。また、係るデータには、仮想空間を構成する各仮想物体のデータも含まれている。即ち、コンテンツDB109は、外部記憶装置1106内に含められていることになる。   The external storage device 1106 is a large-capacity information storage device represented by a hard disk drive device. Here, programs and data for causing the CPU 1101 to execute the processing described above as being performed by the OS (operating system) and the image processing apparatus 102 (502) are stored. The program includes a program for causing the CPU 1101 to execute the functions of the position / orientation information generation unit 108, the CG drawing synthesis unit 110, the display image control information encoding unit 112, the lens distortion information analysis unit 114, and the distortion correction unit 111. It is. In addition, the data includes data of each virtual object constituting the virtual space. That is, the content DB 109 is included in the external storage device 1106.

外部記憶装置1106に保存されているプログラムやデータは、CPU1101による制御に従って適宜RAM1102にロードされる。そしてCPU1101はこのロードされたプログラムやデータを用いて、処理を実行する。   Programs and data stored in the external storage device 1106 are appropriately loaded into the RAM 1102 under the control of the CPU 1101. The CPU 1101 executes processing using the loaded program and data.

I/F107は、図1に示したものと同じものであり、HMD101(501)とのデータ通信は、このI/F107を介して行われる。   The I / F 107 is the same as that shown in FIG. 1, and data communication with the HMD 101 (501) is performed via the I / F 107.

1108は、上述の各部を繋ぐバスである。   A bus 1108 connects the above-described units.

[その他の実施形態]
また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。即ち、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
[Other Embodiments]
Needless to say, the object of the present invention can be achieved as follows. That is, a recording medium (or storage medium) in which a program code of software that realizes the functions of the above-described embodiments is recorded is supplied to the system or apparatus. Needless to say, such a storage medium is a computer-readable storage medium. Then, the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.

また、コンピュータが読み出したプログラムコードを実行することにより、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行う。その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, an operating system (OS) or the like running on the computer performs part or all of the actual processing based on the instruction of the program code. Needless to say, the process includes the case where the functions of the above-described embodiments are realized.

さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれたとする。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Furthermore, it is assumed that the program code read from the recording medium is written in a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer. After that, based on the instruction of the program code, the CPU included in the function expansion card or function expansion unit performs part or all of the actual processing, and the function of the above-described embodiment is realized by the processing. Needless to say.

本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。   When the present invention is applied to the recording medium, program code corresponding to the flowchart described above is stored in the recording medium.

仮想空間の画像と現実空間の画像とを合成した複合現実空間画像をユーザに提示するための、本発明の第1の実施形態に係るシステムの機能構成を示すブロック図である。It is a block diagram which shows the function structure of the system which concerns on the 1st Embodiment of this invention for showing a user the mixed reality space image which synthesize | combined the image of the virtual space, and the image of the real space. ステップS305で行う制御情報の埋め込み処理を説明する図である。It is a figure explaining the embedding process of the control information performed at step S305. 画像処理装置102が、制御情報を埋め込んだMR画像を生成してHMD101に送信するための一連の処理のフローチャートである。5 is a flowchart of a series of processes for the image processing apparatus 102 to generate an MR image in which control information is embedded and transmit it to the HMD 101. 本発明の第2の実施形態に係るステップS305における処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the process in step S305 which concerns on the 2nd Embodiment of this invention. HMD101が、画像処理装置102から送信されたMR画像を受信し、これを表示部104に表示するために行う一連の処理のフローチャートである。6 is a flowchart of a series of processes performed in order for the HMD 101 to receive an MR image transmitted from the image processing apparatus 102 and display the MR image on the display unit 104. 本発明の第2の実施形態に係るステップS404における処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the process in step S404 which concerns on the 2nd Embodiment of this invention. 画像処理装置側で、表示対象のMR画像に対して、表示部104が有する光学系の光学歪み特性とは逆の光学歪み特性に応じた変形を行う場合の、システムの機能構成を示すブロック図である。The block diagram which shows the function structure of a system in the case of performing the deformation | transformation according to the optical distortion characteristic opposite to the optical distortion characteristic of the optical system which the display part 104 has with respect to MR image of a display object by the image processing apparatus side. It is. 画像処理装置502からHMD501に対して送信する、制御情報が埋め込まれたMR画像と、表示部104の表示画面との関係を示す図である。6 is a diagram illustrating a relationship between an MR image in which control information is embedded, which is transmitted from the image processing apparatus 502 to the HMD 501, and a display screen of the display unit 104. FIG. ビデオシースルー型HMDを用いた一般的な複合現実感提示システムの機能構成を示すブロック図である。It is a block diagram which shows the function structure of the general mixed reality presentation system using video see-through type HMD. 光学系の2次元的な歪みの一例を示す図である。It is a figure which shows an example of the two-dimensional distortion of an optical system. 矩形画像に対して、図8Aに示した歪みの逆の歪みを与えた場合に得られる画像を示す図である。It is a figure which shows the image obtained when the distortion reverse to the distortion shown to FIG. 8A is given with respect to the rectangular image. 元々の矩形画像を示す図である。It is a figure which shows the original rectangular image. 光学歪みを考慮して画像を電子的に歪ませた際の画像と、表示領域との関係を示す図である。It is a figure which shows the relationship between the image when an image is distorted electronically in consideration of optical distortion, and a display area. 図7に示した構成に、光学歪みを考慮して表示前に画像を変形させる構成を加えた、複合現実感提示システムの機能構成を示すブロック図である。It is a block diagram which shows the function structure of a mixed reality presentation system which added the structure which deform | transforms an image before a display in consideration of optical distortion to the structure shown in FIG. ヘッダ情報の構成例を示す図である。It is a figure which shows the structural example of header information. 重畳文字制御情報の構成例を示す図である。It is a figure which shows the structural example of superimposition character control information. 画像処理装置102、502に適用可能なコンピュータのハードウェア構成例を示すブロック図である。FIG. 3 is a block diagram illustrating a hardware configuration example of a computer applicable to the image processing apparatuses 102 and 502.

Claims (10)

表示装置が表示した画像を光学系を介してユーザに提示する頭部装着型表示装置、に接続されている画像処理装置であって、
第1の画像を生成する生成手段と、
前記光学系の光学歪み特性とは逆の光学歪み特性に基づいて、前記第1の画像内で非表示対象となる領域を特定する特定手段と、
前記非表示対象となる領域に対して、表示制御を行うために用いる制御情報を埋め込むことで、第2の画像を生成する埋め込み手段と、
前記第2の画像を前記頭部装着型表示装置に対して送信する手段と
を備えることを特徴とする画像処理装置。
An image processing device connected to a head-mounted display device that presents an image displayed by a display device to a user via an optical system,
Generating means for generating a first image;
Identifying means for identifying a region to be non-displayed in the first image based on an optical distortion characteristic opposite to the optical distortion characteristic of the optical system;
Embedding means for generating a second image by embedding control information used to perform display control in the non-display target area;
An image processing apparatus comprising: means for transmitting the second image to the head-mounted display device.
前記生成手段は、
撮像装置によって撮像された現実空間画像を取得する手段と、
前記撮像装置の位置姿勢に応じて仮想空間画像を生成する手段と、
前記現実空間画像と前記仮想空間画像との合成画像を、前記第1の画像として生成する手段と
を備えることを特徴とする請求項1に記載の画像処理装置。
The generating means includes
Means for acquiring a real space image captured by the imaging device;
Means for generating a virtual space image according to the position and orientation of the imaging device;
The image processing apparatus according to claim 1, further comprising: a unit that generates a composite image of the real space image and the virtual space image as the first image.
前記撮像装置は、前記頭部装着型表示装置に備わっていることを特徴とする請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the imaging device is included in the head-mounted display device. 前記特定手段は、
前記光学系の光学歪み特性とは逆の光学歪み特性に基づいて前記第1の画像を変形させた画像を前記表示装置の表示画面上にマッピングした場合に、当該マッピングした画像上で非表示対象として予め設定された領域に対応する、前記第1の画像内の領域を特定することを特徴とする請求項1に記載の画像処理装置。
The specifying means is:
When an image obtained by deforming the first image based on the optical distortion characteristic opposite to the optical distortion characteristic of the optical system is mapped on the display screen of the display device, a non-display target is displayed on the mapped image. The image processing apparatus according to claim 1, wherein a region in the first image corresponding to a region set in advance is specified.
前記埋め込み手段は、
前記非表示対象となる領域データサイズが、前記制御情報のデータサイズ以下である場合には、前記制御情報を分割する手段を備え、
分割したそれぞれの分割制御情報を、連続する各フレームにおける前記第1の画像の前記非表示対象となる領域に対して埋め込むことを特徴とする請求項1に記載の画像処理装置。
The embedding means is
Data size of the area to be the non-display target, if the is equal to or less than the data size of the control information comprises means for dividing the control information,
The image processing apparatus according to claim 1, wherein the divided division control information is embedded in the non-display target area of the first image in each successive frame.
前記埋め込み手段は、前記第1の画像を前記光学系の光学歪み特性とは逆の光学歪み特性に基づいて変形させることにより得られる画像に対して前記制御情報を埋め込むことを特徴とする請求項1に記載の画像処理装置。 It said embedding means includes a feature in that with respect to the first image and the optical distortion characteristic of pre-Symbol optics image obtained by Rukoto deformed based on optical distortion characteristics of the reverse, embedding the control information The image processing apparatus according to claim 1. 前記制御情報には、表示時間、表示位置、表示色、文字サイズ、表示内容のうちの少なくとも1つを示す情報が含まれていることを特徴とする請求項1乃至6の何れか1項に記載の画像処理装置。 7. The control information according to claim 1, wherein the control information includes information indicating at least one of display time, display position, display color, character size, and display content. The image processing apparatus described. 表示装置が表示した画像を光学系を介してユーザに提示する頭部装着型表示装置、に接続されている画像処理装置が行う画像処理方法であって、
前記画像処理装置の生成手段が、第1の画像を生成する生成工程と、
前記画像処理装置の特定手段が、前記光学系の光学歪み特性とは逆の光学歪み特性に基づいて、前記第1の画像内で非表示対象となる領域を特定する特定工程と、
前記画像処理装置の埋め込み手段が、前記非表示対象となる領域に対して、表示制御を行うために用いる制御情報を埋め込むことで、第2の画像を生成する埋め込み工程と、
前記画像処理装置の送信手段が、前記第2の画像を前記頭部装着型表示装置に対して送信する工程と
を備えることを特徴とする画像処理方法。
An image processing method performed by an image processing device connected to a head-mounted display device that presents an image displayed by a display device to a user via an optical system,
A generating step in which the generating means of the image processing device generates a first image;
A specifying step of specifying a region to be non-displayed in the first image based on an optical distortion characteristic opposite to the optical distortion characteristic of the optical system , by the specifying unit of the image processing apparatus ;
An embedding step in which the embedding unit of the image processing device generates a second image by embedding control information used to perform display control on the non-display target region;
And a step of transmitting the second image to the head-mounted display device.
コンピュータに請求項8に記載の画像処理方法を実行させるためのプログラム。   A program for causing a computer to execute the image processing method according to claim 8. 請求項9に記載のプログラムを格納した、コンピュータが読み取り可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 9.
JP2007186325A 2007-07-17 2007-07-17 Image processing apparatus and image processing method Expired - Fee Related JP4889036B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007186325A JP4889036B2 (en) 2007-07-17 2007-07-17 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007186325A JP4889036B2 (en) 2007-07-17 2007-07-17 Image processing apparatus and image processing method

Publications (3)

Publication Number Publication Date
JP2009025919A JP2009025919A (en) 2009-02-05
JP2009025919A5 JP2009025919A5 (en) 2010-08-26
JP4889036B2 true JP4889036B2 (en) 2012-02-29

Family

ID=40397690

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007186325A Expired - Fee Related JP4889036B2 (en) 2007-07-17 2007-07-17 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP4889036B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2558345B (en) 2015-05-04 2021-05-12 Google Llc Pass-through display of captured imagery
CN108140259B (en) 2015-08-18 2022-06-14 奇跃公司 Virtual and Augmented Reality Systems and Methods
US10735649B2 (en) 2018-02-22 2020-08-04 Magic Leap, Inc. Virtual and augmented reality systems and methods using display system control information embedded in image data
JP2021039444A (en) * 2019-08-30 2021-03-11 キヤノン株式会社 Image processing device and its control method and program
JP2023111180A (en) * 2022-01-31 2023-08-10 セイコーエプソン株式会社 virtual image display
CN118897401A (en) * 2023-05-05 2024-11-05 华为技术有限公司 Optical system and electronic equipment

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4187726B2 (en) * 2005-03-29 2008-11-26 三洋電機株式会社 Watermark embedding apparatus and program
JP5483796B2 (en) * 2006-08-31 2014-05-07 キヤノン株式会社 Image display device and image display system

Also Published As

Publication number Publication date
JP2009025919A (en) 2009-02-05

Similar Documents

Publication Publication Date Title
JP7068562B2 (en) Techniques for recording augmented reality data
US11410269B2 (en) Mixed reality system with virtual content warping and method of generating virtual content using same
AU2022200841B2 (en) Mixed reality system with multi-source virtual content compositing and method of generating virtual content using same
EP3596705B1 (en) Mixed reality system with color virtual content warping and method of generating virtual content using same
JP4933406B2 (en) Image processing apparatus and image processing method
JP4553362B2 (en) System, image processing apparatus, and information processing method
US20210368152A1 (en) Information processing apparatus, information processing method, and program
US7782320B2 (en) Information processing method and information processing apparatus
US20100026714A1 (en) Mixed reality presentation system
JP4889036B2 (en) Image processing apparatus and image processing method
JP2009015648A (en) Image processing apparatus and image processing method
JP4217661B2 (en) Image processing method and image processing apparatus
JP2019040356A (en) Image processing system, image processing method and computer program
JP2023174066A (en) Image processing apparatus, image processing method, and program
JP5683402B2 (en) Image composition apparatus and image composition method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100712

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100712

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111118

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111209

R151 Written notification of patent or utility model registration

Ref document number: 4889036

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141222

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees