[go: up one dir, main page]

JP2011128838A - 画像表示装置 - Google Patents

画像表示装置 Download PDF

Info

Publication number
JP2011128838A
JP2011128838A JP2009286131A JP2009286131A JP2011128838A JP 2011128838 A JP2011128838 A JP 2011128838A JP 2009286131 A JP2009286131 A JP 2009286131A JP 2009286131 A JP2009286131 A JP 2009286131A JP 2011128838 A JP2011128838 A JP 2011128838A
Authority
JP
Japan
Prior art keywords
image
virtual object
approaching
image display
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2009286131A
Other languages
English (en)
Inventor
Teruyasu Kawamata
輝泰 河又
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2009286131A priority Critical patent/JP2011128838A/ja
Publication of JP2011128838A publication Critical patent/JP2011128838A/ja
Ceased legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】現実空間の画像に、仮想物体の画像を重畳表示する画像表示装置において、現実空間内において当該画像表示装置の利用者に接近する物体を仮想物体画像表示によって隠蔽しないように仮想物体画像を表示し、係る接近物を利用者に気づかせるための画像表示方法を提供する。
【解決手段】接近物可視性判定部117は、接近物検出部111が検出した接近物の表示領域と表示対象仮想物体検索部110が検索した仮想物体画像の表示領域とを比較し、接近物の表示領域が所定の割合以上見えるか否かによって、接近物の可視性を判定する。接近物の可視性がないと判定された場合、仮想物体表示位置変更部116は、利用者がより接近物を発見しやすくなるように仮想物体画像の表示位置を変更する。
【選択図】図1

Description

本発明は、現実空間画像上に仮想物体の画像を重畳して利用者に提示する画像表示装置に関するものである。
従来の画像表示装置としては、仮想現実システムに対するインターフェースとして利用者が装着し、物理的環境における接近物に関して警告を与えるようなヘッドマウントディスプレイに関する衝突警告システムが開示されている(例えば、特許文献1)。
この文献によれば、物理的環境において接近物を検出した場合に、仮想的環境の映像表示を終了する、もしくは物理的環境の映像を前記仮想的環境の映像表示に代えて供給することで利用者に衝突の危険性を指示することができる。
特表平10−504917号公報
しかしながら、前記従来の構成では、衝突の危険性を検出した場合には、仮想的環境の映像表示はすべて終了されるので、仮想現実システムを利用しながら街中を歩く場合など、接近物が頻繁に検出されるシーンでは仮想的環境の映像を参照できない時間が長くなり、利用者に不便を強いるという課題を有していた。
本発明は、接近物を検出した場合には利用者に当該接近物を提示しながら、可能な限り仮想的環境の映像をも提示することができる画像表示装置を提供することを目的とする。
前記従来の課題を解決するために、本発明の画像表示装置は、現実空間の画像と仮想物体の画像とを表示する画像表示部と、当該画像表示装置に接近する物体および当該接近する物体の前記画像表示装置における画像表示領域を検出する接近物検出部と、前記接近物検出部が検出した接近する物体の画像表示領域と前記画像表示部における仮想物体の画像の表示領域とが重複すると判定された場合に、前記仮想物体の画像の前記画像表示部における表示を変更する仮想物体画像変更部と、を備えている。
本構成によって、仮想物体の画像表示方法を変更できるので、接近物を検出した場合に接近物を隠蔽しないように仮想物体の画像を表示することで、利用者が接近物に気づきやすいように接近物と仮想物体の画像の両方を提示することができる。
本発明の第一の実施の形態における画像表示装置の機能構成を示す図 本発明の第一の実施の形態における画像表示装置を利用する現実空間を説明する図 本発明の第一の実施の形態における現実空間画像撮像領域取得部106が出力する現実空間画像撮像領域情報の例を説明する図 本発明の第一の実施の形態における仮想物体データベース109が保持する仮想物体の表示情報の例を示す図 本発明の第一の実施の形態における接近物検出部111が検出した危険な接近物の例を示す図 本発明の第一の実施の形態における接近物可視性判定部117の判定方法の具体例を示す図(a)現実空間画像の図(b)仮想物体画像の表示例の図(c)接近物と仮想物体とを重畳して表示した際の重複表示領域の図 本発明の第一の実施の形態における仮想物体表示位置変更部116が、仮想物体表示位置を変更する方法の具体例を示す図(a)仮想物体の表示位置変更前の状態を示す図(b)仮想物体の表示位置変更後の状態を示す図 本発明の第一の実施の形態における仮想物体付加画像生成部115が生成する仮想物体付加画像の具体例を示す図(a)仮想物体の表示位置変更前の状態を示す図(b)仮想物体の表示位置変更後の状態を示す図 本発明の第一の実施の形態における仮想物体付加画像生成部115が生成する仮想物体付加画像の具体例を示す図(a)仮想物体の表示位置変更前の状態を示す図(b)仮想物体の表示位置変更後の状態を示す図 本発明の第一の実施の形態における仮想物体画像変更部114の処理を説明するフローチャート 本発明の第一の実施の形態における仮想物体画像変更部114によって変更された仮想物体画像と仮想物体付加画像を示す図 表示サイズを縮小した仮想物体画像の具体例を示す図 透過度を変更した仮想物体画像の具体例を示す図 本来の仮想物体画像の代わりに表示する代替の仮想物体画像の具体例を示す図 本発明の第一の実施の形態における画像表示装置の処理を示すフローチャート 本発明の第一の実施の形態における画像表示装置によって提示される合成画像の具体例を示す図 本発明の第二の実施の形態における画像表示装置の機能構成を示す図 本発明の第三の実施の形態における画像表示装置の機能構成を示す図
(実施の形態1)本発明の第一の実施の形態を図面を参照して詳細に説明する。図1は本発明の第一の実施の形態の画像表示装置の機能構成を示す図である。
カメラ101は、画像表示装置に搭載され、画像表示装置を利用する利用者の視点から見える現実空間の画像を撮像する。また、撮像時には事前に設定された焦点距離、画角などの撮像パラメータが使用される。カメラ101は、現実空間画像と撮像パラメータとを出力する。
図2はカメラ101によって撮像された現実空間画像の例を示す。現実空間には接近してくる車201と地下鉄乗り場への入り口202があり、これらが現実空間画像として撮像されている。
GPS103は、画像表示装置に搭載され、現実空間における画像表示装置の3次元位置を測定し、出力する。
電子コンパス102は、画像表示装置に搭載され、現実空間における画像表示装置の方位角を測定し、出力する。
加速度センサ104は、画像表示装置に搭載され、現実空間における画像表示装置の3次元加速度を測定し、出力する。
現実空間画像生成部105は、カメラ101から受信した現実空間画像を、後段の画像合成部112と、接近物検出部111とに出力する。
現実空間画像撮像領域取得部106は、GPS103からの画像表示装置の3次元位置と、電子コンパス102からの画像表示装置の方位角と、加速度センサ104からの画像表示装置の3次元加速度と、カメラ101からの撮像パラメータとを受信し、これらの情報を統合して解析することにより、カメラ101が現実空間画像に撮像した空間領域を現実空間画像撮像領域情報として構築し、出力する。
現実空間画像撮像領域情報としては、例えば、現実空間画像撮像領域を錐体の空間領域であるとみなして撮像錐体領域とし、撮像錐体領域頂点位置と、撮像錐体領域の高さ方向の方位と、撮像錐体領域高さと、撮像錐体領域頂点角との組み合わせのように、カメラ101が撮像した現実空間の空間領域を一意に表すパラメータの組み合わせが用いられる。
図3は現実空間画像撮像領域情報の具体例を説明する図である。ここでは、現実空間画像撮像領域情報として、撮像錐体領域頂点位置と、撮像錐体領域の高さ方向の方位と、撮像錐体領域高さと、撮像錐体領域頂点角との組み合わせを用いている。
図3において、撮像錐体領域の頂点である撮像錐体領域頂点位置Pはカメラ101の3次元位置に等しい。
撮像錐体領域の高さ方向の方位は、撮像錐体領域高さ方向方位パラメータθとφによって表され、角θはカメラ101の方位角に等しく、また、角φはカメラ101の仰角に等しい。カメラ101の仰角は、カメラ101の加速度情報を積分することで算出されるものである。
撮像錐体領域高さは、撮像錐体領域高さT’で表される。撮像錐体領域高さT’は所定の距離で決定される。所定の距離とは、例えばカメラ101の焦点距離をTとしてT’=1.5×Tとなる距離のように、画像表示装置の利用者にとって回避を要する接近物が、撮像錐体領域内に含まれるような距離が設定される。
撮像錐体領域頂点角は、撮像錐体領域頂点角αで表され、これはカメラ101の画角に等しい。
撮像錐体領域は図3の円錐の内側の空間領域であり、前記の撮像錐体領域頂点位置P、撮像錐体領域高さ方向方位パラメータθ、φ、撮像錐体領域高さT’と撮像錐体領域頂点角αとで定義される。
仮想物体データベース109は、現実空間画像に重畳して表示する仮想物体の表示情報を記憶しており、利用者の要求に応じて仮想物体の表示情報を出力する。
仮想物体の表示情報としては、例えば、仮想物体を現実空間に重畳して表示する際の表示基準位置を示す3次元位置情報と、仮想物体を表示する際の表示サイズ情報と、現実空間に重畳表示する表示イメージデータとの組み合わせのように、仮想物体を現実空間に重畳して表示する際に必要なパラメータの組み合わせが用いられる。
図4は仮想物体データベース109が保持する仮想物体の表示情報の例を示す図である。図4が示す仮想物体401は、表示位置として北緯20度25分31秒、東経136度4分11秒、高度50m、表示サイズとして幅150ピクセル、高さ50ピクセル、表示イメージデータとして画像データ402が指定されている。
なお、上記説明においては、仮想物体データベース109は仮想物体の表示イメージデータとして画像データを保持しているが、これには限定されない。すなわち、仮想物体の表示情報として別途テキスト情報を合わせて保持し、前記テキスト情報をレンダリングした画像を表示イメージデータとして用いてもよい。
表示対象仮想物体検索部110は、仮想物体データベース109からの仮想物体の表示情報と、現実空間画像撮像領域取得部106からの現実空間画像撮像領域情報とを受信し、現実空間画像撮像領域内に表示可能な仮想物体を検索し、表示可能な仮想物体の表示情報を表示対象仮想物体の表示情報として出力する。
具体的には、仮想物体の表示基準位置が、現実空間画像撮像領域情報の示す空間領域の内部に位置する場合は、前記仮想物体を表示可能な仮想物体と判定する。
画像表示装置位置姿勢取得部107は、GPS103からの画像表示装置の3次元位置と、電子コンパス102からの画像表示装置の方位角と、加速度センサ104からの画像表示装置の3次元加速度とから、画像表示装置の3次元位置と3次元姿勢情報を解析し、出力する。
画像表示装置速度取得部108は、GPS103からの画像表示装置の3次元位置と、加速度センサ104からの画像表示装置の3次元加速度とから、画像表示装置の3次元速度を解析し、出力する。
接近物検出部111は、現実空間画像生成部105からの現実空間画像と、現実空間画像撮像領域取得部106からの現実空間画像撮像領域情報とを受信し、撮像時刻の異なる複数の現実空間画像を画像解析することで、現実空間内において画像表示装置に接近する物体を検出し、さらに、画像表示装置位置姿勢取得部107からの画像表示装置の位置姿勢と、画像表示装置速度取得部108からの画像表示装置の速度とを受信し、前記検出された接近物の中から、利用者にとって衝突の危険性が高い物体を検出し、接近物情報として出力する。なお、画像解析によって接近物を検出する技術については周知の技術であるので、これについての詳細な説明は省略する。
接近物情報としては、例えば、接近物の現実空間内における3次元位置情報と、接近物の現実空間内における3次元速度情報と、接近物の現実空間画像内における表示領域と、接近物の現実空間画像内における表示領域の移動方向情報との組み合わせのように、接近物の現実空間内における位置と速度、および、現実空間画像内における表示領域とその移動を一意に表すパラメータの組み合わせが用いられる。
接近物検出部111が検出した接近物が利用者にとって衝突の危険性が高いか否かを判断する方法として、例えば次のような条件を用いればよい。
条件:接近物と画像表示装置との衝突予測時刻が所定の閾値以内である。
所定の閾値としては、現在時刻から10秒、というように、利用者が余裕をもって接近物を回避することができるような時間が設定される。
この条件が満たされているか否かの判定をするためには、例えば次のような方法を用いればよい。すなわち、まず、接近物の3次元位置情報と、画像表示装置の3次元位置情報とから、2地点のユークリッド距離を計算する。次に、接近物の3次元速度情報と、画像表示装置の3次元速度情報とから、画像表示装置に対する接近物の相対的な速度を算出する。次に、前記ユークリッド距離を、前記接近物の相対的な速度で除算することで、接近物と画像表示装置が衝突するまでの予測時刻を算出し、これと閾値とを比較し、予測時刻の方が早ければ接近物が利用者にとって衝突の危険性が高いと判定する。
図5は図2で示す現実環境において検出された危険な接近物の例を示す図である。ここでは、接近してくる車201が接近物として検出され、接近物情報として現実空間内での接近物の3次元の位置情報である3次元位置情報Pと、現実空間内での接近物の3次元の速度情報である3次元速さ情報Vr及び3次元向き情報Dと、現実空間画像内における接近物の表示領域である接近物表示領域Ra(図5の矩形の領域)と、現実空間画像内における接近物の移動方向Viとが図中に示されている。
仮想物体画像変更部114は、接近物可視性判定部117と、仮想物体表示位置変更部116と、仮想物体付加画像生成部115とを内包している。
仮想物体画像変更部114は、表示対象仮想物体検索部110からの表示対象仮想物体の表示情報と、接近物検出部111からの接近物情報とを受信し、接近物可視性判定部117と、仮想物体表示位置変更部116とを用いることで接近物が仮想物体によって隠蔽されるような場合にも、接近物の可視性を向上するように仮想物体画像を変更し、出力する。さらに仮想物体付加画像生成部115を用いることで、利用者がより効果的に仮想物体を認識できるような付加画像を生成し、これを仮想物体画像と合わせて出力する。
接近物可視性判定部117は、表示対象仮想物体検索部110からの表示対象仮想物体の表示情報と、接近物検出部111からの接近物情報とを受信し、接近物が仮想物体によって隠蔽されず、利用者が十分に接近物を見ることができるか否かを判定する。
図6は判定方法の具体例を示す図である。図6(a)は現実空間画像であり、接近してくる車201が接近物として検出され、その表示領域である接近物表示領域Raを示している。また、図6(b)は仮想物体画像の表示例であり、仮想物体601が表示され、その表示領域である仮想物体表示領域Rvを示している。図6(c)は接近物と仮想物体とを重畳して表示した際の重複表示領域を示している。
ここでは、接近物表示領域Raから算出される表示面積である接近物表示面積Saと、接近物表示領域Raと表示対象仮想物体の仮想物体表示領域Rvとが重複して表示される領域Rhの表示面積Shとを比較し、接近物表示面積Saに対して重複表示領域の表示面積Shが所定の閾値を下回ることで接近物が可視であると判定する。閾値としては、例えば30%のように、利用者が接近物との衝突回避行動を取るために、利用者が接近物を容易に発見しやすくなるような割合が設定される。
なお、上記説明においては、可視性判定のための閾値を、接近物の状態によらず常に一定の値としているが、これには限定されない。すなわち、接近物と画像表示装置の距離や、接近物と画像表示装置の相対速度に応じて閾値を変えてもよい。この方法によれば、近くにある接近物や、急速に近づいてくる接近物を、利用者がより発見しやすくなるように選択的に提示することができる。
また、上記説明においては、可視性判定のための閾値を、接近物の物体種別によらず常に一定の値としているが、これにも限定されない。すなわち、接近物の物体種別に応じて閾値を変えてもよい。この場合、利用者が予め指定した優先的に見たい物体や、緊急車両のような注意を要するものを、利用者がより発見しやすくなるように選択的に提示することができる。
仮想物体表示位置変更部116は、表示対象仮想物体検索部110からの表示対象仮想物体の表示情報と、接近物検出部111からの接近物情報とを受信し、接近物可視性を改善するように仮想物体の表示位置を変更し、変更後の仮想物体の表示情報を出力する。
図7は仮想物体の表示位置の変更方法の具体例を示す図である。図7(a)は仮想物体の表示位置変更前の状態を示す図である。ここでは、仮想物体表示領域Rv、接近物表示領域Raが示されており、接近物検出部111からの接近物情報に基づき、接近物表示領域Raは移動方向Viの方向に移動している。
図7(b)は仮想物体の表示位置変更後の状態を示す図であり、変更後の仮想物体表示領域Rv’が示されている。ここでは、接近物表示領域Raの移動方向Viの逆方向であるVi’=−Viを仮想物体の表示位置移動方向とし、前記表示位置移動方向に沿って、仮想物体の表示位置を所定の移動量だけ移動させることで、仮想物体の表示位置を変更している。
所定の移動量としては、例えば仮想物体表示領域Rvの高さhの1/2のように、仮想物体の表示位置の移動によって接近物の表示面積が増大し、かつ、仮想物体の表示位置の移動量ができるだけ小さくなるような移動量が設定される。
仮想物体付加画像生成部115は、表示対象仮想物体検索部110からの表示対象仮想物体の表示情報と、仮想物体表示位置変更部116からの変更された仮想物体の表示情報とを受信し、仮想物体の表示情報が変更されたことを利用者に明示的に示すための付加的な画像を生成し、出力する。
図8は仮想物体の表示位置が変更されたことを示すための付加的な画像の具体例を示す図である。図8(a)は仮想物体の表示位置変更前の状態を示す図である。この図では、仮想物体801は表示基準位置Pvを基点として表示されている。図8(b)は仮想物体の表示位置変更後の状態を示す図である。この図では、表示位置の変更された仮想物体802が示されており、表示基準位置はPv’に移動している。ここでは、仮想物体付加画像生成部115は、表示位置変更後の仮想物体の表示基準位置Pv’を基点として、元の表示基準位置Pvを指す矢印状の引き出し線の画像803を生成する。
なお、上記説明においては、仮想物体付加画像として矢印状の引き出し線の画像を生成しているが、これには限定されない。すなわち、仮想物体の表示位置が変更したことを示す一連のアニメーションを生成してもよい。
図9は仮想物体の表示位置が変更されたこと示すための付加的な画像として生成した、一連のアニメーション画像の具体例を示す図である。図9(a)は仮想物体の表示位置変更前の状態を示す図であり、ここでは、仮想物体901が示されている。図9(b)は仮想物体の表示位置変更後の状態を示す図である。この図では、表示位置の変更された仮想物体902が示されている。ここでは、仮想物体付加画像生成部115は、表示位置変更後の仮想物体902の表示位置と元の仮想物体901の表示位置との間を補完する仮想物体付加画像903および904を生成する。
図10は仮想物体画像の変更処理を説明するフローチャートである。まず、接近物可視性判定部117は、接近物検出部111からの接近物情報を受信し、接近物表示領域の面積を算出する(ステップS1001)。
次に、接近物可視性判定部117は、表示対象仮想物体検索部110からの表示対象仮想物体の表示情報と、接近物検出部111からの接近物情報とを受信し、接近物と仮想物体の表示重複領域の面積を算出する(ステップS1002)。
次に、接近物可視性判定部117は、ステップS1001で算出した接近物表示領域の面積と、ステップS1002で算出した表示重複領域の面積とから、接近物の可視性を判定する(ステップS1003)。
接近物が可視性なしと判定された場合(ステップS1003のNo)、仮想物体表示位置変更部116は、表示対象仮想物体検索部110からの表示対象仮想物体の表示情報と、接近物検出部111からの接近物情報とを受信し、仮想物体の表示位置を変更する(ステップS1006)。
ステップS1006で仮想物体の表示位置を変更したのち、再びステップS1002に戻る。
接近物が可視性ありと判定された場合(ステップS1003のYes)、仮想物体画像変更部114は、仮想物体表示位置変更部116によって変更された仮想物体の表示情報を出力する(ステップS1004)。
次に、仮想物体付加画像生成部115は、表示対象仮想物体検索部110からの表示対象仮想物体の表示情報と、仮想物体表示位置変更部116からの変更された仮想物体の表示情報とを受信し、仮想物体の表示情報が変更されたことを利用者に明示的に示すための付加的な画像を生成し、出力する(ステップS1005)。
図11は、図2で示す現実空間画像に、図4で示す仮想物体を重畳表示する際に、図10で示す一連の処理を適用した場合の表示位置を変更された仮想物体画像1101と、その付加的な画像1102を示している。
なお、上記説明においては、仮想物体画像の変更方法として仮想物体画像の表示位置だけを変更しているが、これには限定されない。すなわち、仮想物体画像の変更方法として、仮想物体画像の表示サイズを変更してもよい。
この方法によれば、仮想物体画像の表示位置は変更されないので、表示される位置が重要な意味を持つ案内表示などの仮想物体画像の意味を損ねることなく、仮想物体画像を表示することができる。図12は、この方法に基づいて表示サイズを縮小した仮想物体画像1201を示している。
また、仮想物体画像の変更方法として、仮想物体画像の一部もしくは全ての透過度を変更してもよい。この方法によれば、仮想物体画像の表示サイズは変更されないので、表示される仮想物体画像が縮小されすぎて見づらくなることを避けつつ、仮想物体画像と接近物の両方を利用者に提示することができる。図13は、この方法に基づいて透過度を変更した仮想物体画像1301を示している。
また、仮想物体画像の変更方法として、仮想物体画像そのものを表示せず、その代替画像を表示するように変更し、利用者からの要求があった場合に、代替画像から本来の仮想物体画像に切り替えて表示してもよい。この方法によれば、本来の仮想物体画像は表示されなくなるが、仮想物体画像が存在していることを利用者に分かりやすく提示することができるため、利用者は接近物の存在と、仮想物体画像の存在の両方を認識することができる。図14は、この方法に基づいて本来の仮想物体画像の代わりに表示された代替の仮想物体画像1401を示している。
仮想物体画像生成部113は、仮想物体画像変更部114からの仮想物体表示情報と仮想物体付加画像とを受信し、それぞれの仮想物体の表示位置にそれぞれの仮想物体の表示イメージデータを配置し、さらに仮想物体付加画像とを合わせた1枚の仮想物体画像を生成し、出力する。仮想物体の表示イメージデータまたは仮想物体付加画像が存在しない画素には所定の透過色を設定しておく。これにより、後段の合成処理の処理負荷を軽減させることができる。
画像合成部112は、現実空間画像生成部105からの現実空間画像と、仮想物体画像生成部113からの仮想物体画像とを受信し、現実空間画像上に仮想物体画像を重畳して合成することで、合成画像を生成し、出力する。仮想物体画像を合成する際に、所定の透過色の設定された画素は透過合成処理を省略し、現実空間画像上の画素を表示する。
画像表示部118は、画像合成部112からの合成画像を受信し、表示装置に合成画像を表示する。
図15は画像表示装置に画像を表示する一連の処理を示すフローチャートである。まず、現実空間画像生成部105は、カメラ101から受信した現実空間画像を、後段の画像合成部112と、接近物検出部111とに出力する(ステップS1501)。
次に、現実空間画像撮像領域取得部106は、GPS103からのカメラ101の3次元位置と、電子コンパス102からのカメラ101の撮像方位角と、加速度センサ104からのカメラ101の加速度情報と、カメラ101からの撮像パラメータとを受信し、これらの情報を統合することにより、カメラ101が現実空間画像に撮像した空間領域を現実空間画像撮像領域情報として構築し、出力する(ステップS1502)。
次に、画像表示装置位置姿勢取得部107は、GPS103からの画像表示装置の3次元位置と、電子コンパス102からの画像表示装置の方位角と、加速度センサ104からの画像表示装置の3次元加速度とから、画像表示装置の3次元位置と3次元姿勢情報を解析し、出力する(ステップS1503)。
次に、画像表示装置速度取得部108は、GPS103からの画像表示装置の3次元位置と、加速度センサ104からの画像表示装置の3次元加速度とから画像表示装置の3次元速度を解析し、出力する(ステップS1504)。
次に、表示対象仮想物体検索部110は、仮想物体データベース109からの仮想物体の表示情報と、現実空間画像撮像領域取得部106からの現実空間画像撮像領域情報とを受信し、現実空間画像撮像領域内に表示可能な仮想物体を検索し、
表示可能な仮想物体の表示情報を表示対象仮想物体の表示情報として出力する(ステップS1505)。
次に、接近物検出部111は、現実空間画像生成部105からの現実空間画像を受信し、
撮像時刻の異なる複数の現実空間画像を画像解析することで、現実空間内において画像表示装置に接近する物体を検出し、さらに、画像表示装置位置姿勢取得部107からの画像表示装置の位置姿勢と、画像表示装置速度取得部108からの画像表示装置の速度とから、
接近物検出部111において検出された接近物の中から、利用者にとって衝突の危険性が高い物体を検出し、接近物情報として出力する(ステップS1506)。
次に、仮想物体画像変更部114は、表示対象仮想物体検索部110からの表示対象仮想物体の表示情報と、接近物検出部111からの接近物情報とを受信し、接近物可視性判定部117と、仮想物体表示位置変更部116とを用いることで接近物が仮想物体によって隠蔽されるような場合にも、接近物の視認性を向上するように仮想物体画像を変更し、出力する。さらに仮想物体付加画像生成部115を用いることで、利用者が仮想物体をより効果的に認識できるような付加画像を生成し、これを仮想物体画像と合わせて出力する(ステップS1507)。
次に、仮想物体画像生成部113は、仮想物体画像変更部114からの仮想物体表示情報と仮想物体付加画像とを受信し、仮想物体表示位置に仮想物体の表示イメージデータを配置し、さらに仮想物体付加画像とを合わせた1枚の仮想物体画像を生成し、出力する(ステップS1508)。
次に、画像合成部112は、現実空間画像生成部105からの現実空間画像と、仮想物体画像生成部113からの仮想物体画像とを受信し、現実空間画像上に仮想物体画像を重畳して合成することで、合成画像を生成し、出力する(ステップS1509)。
次に、画像表示部118は、画像合成部112からの合成画像を受信し、表示装置に合成画像を表示する(ステップS1510)。
図16は第一の実施の形態に示す方法によって表示される合成画像を示すものである。
この実施の形態に係る画像表示装置は、図16(a)で示す現実空間画像に、図16(b)で示す仮想物体表示画像を重畳合成し、図16(c)で示す合成画像を画像表示装置に表示する。
このように、第一の実施の形態に係る画像表示装置では、仮想物体画像を現実空間画像に重畳して表示する際に、接近物検出部が検出した接近物を隠蔽しないように仮想物体画像を表示することができるため、利用者は容易に接近物を発見できるようになり、接近物との衝突の可能性を低減することができる。
(実施の形態2)本発明の第二の実施の形態を図面を参照して詳細に説明する。図17は本発明の第二の実施の形態の画像表示装置の機能構成を示す図である。なお、図1、および、第一の実施の形態と共通する構成については同一の符号を付して示し、重複する説明は省略する。
近接センサ119は、画像表示装置に搭載され、現実空間において画像表示装置に接近する物体の物体情報を出力する。物体情報としては、例えば、物体の3次元位置と、画像表示装置から見た物体の前面投影面の形状データとの組み合わせのように、当該物体が現実空間画像においてどの領域に表示されるかを解析できるようなパラメータの組み合わせが用いられる。
接近物検出部111は、近接センサ119からの接近物情報と、画像表示装置位置姿勢取得部107からの画像表示装置の位置姿勢と、画像表示装置速度取得部108からの画像表示装置の速度とを受信し、近接センサ119で検出された接近物の中から、利用者にとって衝突の危険性が高い物体を検出し、接近物情報として出力する。
接近物検出部111は、近接センサ119から受信した接近物の3次元位置を時間微分することで接近物の3次元速度情報を取得する。接近物検出部111は、この3次元速度情報を用い、第一の実施の形態に記載の方法によって、検出した接近物が利用者にとって衝突の危険性が高いか否かを判断する。
また、第一の実施の形態に示す接近物情報のうち、接近物の現実空間画像内における表示領域と、接近物の現実空間画像内における表示領域の移動方向情報は、近接センサ119からの接近物情報と、現実空間画像生成部105からの現実空間画像と、現実空間画像撮像領域取得部106からの現実空間画像撮像領域情報とを用いて幾何学的に解析できる。
この解析によって得られた接近物の現実空間画像内における表示領域と、接近物の現実空間画像内における表示領域の移動方向情報と、近接センサ119から得られた3次元位置情報と、前記3次元位置情報の時間微分によって得られた3次元速度情報とを合わせて接近物情報を構築し、利用者にとって衝突の危険性が高い物体の接近物情報として出力する。
このように、第二の実施の形態に係る画像表示装置では、接近物検出に近接センサを用いることで、画像解析では検出の難しい接近物をも検知することができるため、視界の良くない環境においても、第一の実施の形態と同等の効果を得ることができる。
(実施の形態3)本発明の第三の実施の形態を図面を参照して詳細に説明する。図18は本発明の第三の実施の形態の画像表示装置の機能構成を示す図である。なお、図1、および、第二の実施の形態と共通する構成については同一の符号を付して示し、重複する説明は省略する。
受信装置120は、画像表示装置に搭載され、現実空間において画像表示装置に接近する物体の物体情報を無線を介して受信し、後段の接近物検出部111に出力する。物体情報としては、例えば、物体の3次元位置と、物体の3次元形状データとの組み合わせのように、当該物体が現実空間画像においてどの領域に表示されるかを解析できるようなパラメータの組み合わせが用いられる。
接近物検出部111は、受信装置120からの接近物情報と、画像表示装置位置姿勢取得部107からの画像表示装置の位置姿勢と、画像表示装置速度取得部108からの画像表示装置の速度とを受信し、受信装置120が受信した接近物情報の中から、利用者にとって衝突の危険性が高い物体を検出し、接近物情報として出力する。
接近物検出部111は、受信装置120が受信した接近物の3次元位置を時間微分することで接近物の3次元速度情報を取得する。接近物検出部111は、この3次元速度情報を用い、第一の実施形態に記載の方法によって、検出した接近物が利用者にとって衝突の危険性が高いか否かを判断する。
また、第一の実施の形態に示す接近物情報のうち、接近物の現実空間画像内における表示領域と、接近物の現実空間画像内における表示領域の移動方向情報は、受信装置120からの接近物情報と、現実空間画像生成部105からの現実空間画像と、現実空間画像撮像領域取得部106からの現実空間画像撮像領域情報とを用いて幾何学的に解析できる。
この解析によって得られた接近物の現実空間画像内における表示領域と、接近物の現実空間画像内における表示領域の移動方向情報と、受信装置120から得られた3次元位置情報と、前記3次元位置情報の時間微分によって得られた3次元速度情報とを合わせて接近物情報を構築し、利用者にとって衝突の危険性が高い物体の接近物情報として出力する。
このように、この実施形態に係る画像表示装置では、接近物検出に受信情報を用いることで、画像解析では検出のできない接近物をも検出することができるため、接近物が他の物体の影にあるような状況においても、第一の実施の形態と同等の効果を得ることができる。
本発明に係る画像表示装置は、仮想物体の画像を表示しながら接近物をも発見しやすく提示することで、当該装置利用者と接近物との衝突回避を促すことが可能になるので、
画像表示装置等として有用である。
101 カメラ
102 電子コンパス
103 GPS
104 加速度センサ
105 現実空間画像生成部
106 現実空間画像撮像領域取得部
107 画像表示装置位置姿勢取得部
108 画像表示装置速度取得部
109 仮想物体データベース
110 表示対象仮想物体検索部
111 接近物検出部
112 画像合成部
113 仮想物体画像生成部
114 仮想物体画像変更部
115 仮想物体付加画像生成部
116 仮想物体表示位置変更部
117 接近物可視性判定部
118 画像表示部
119 近接センサ
120 受信装置
201 現実空間で接近してくる車
202 現実空間にある地下鉄乗り場への入り口
401 仮想物体データベースに保持された仮想物体表示情報の例
402 仮想物体の表示イメージデータ
601 仮想物体の表示例
801 表示位置変更前の仮想物体画像
802 表示位置変更後の仮想物体画像
803 仮想物体付加画像の例
901 表示位置変更前の仮想物体画像
902 表示位置変更後の仮想物体画像
903 仮想物体付加画像の例
904 仮想物体付加画像の例
1101 表示位置を変更された仮想物体画像
1102 仮想物体付加画像
1201 表示サイズを縮小した仮想物体画像
1301 透過度を変更した仮想物体画像
1401 仮想物体の代わりに表示された代替の仮想物体画像

Claims (17)

  1. 画像表示装置であって、現実空間の画像と仮想物体の画像とを表示する画像表示部と、当該画像表示装置に接近する物体および当該接近する物体の前記画像表示装置における画像表示領域を検出する接近物検出部と、前記接近物検出部が検出した接近する物体の画像表示領域と前記画像表示部における仮想物体の画像の表示領域とが重複すると判定された場合に、前記仮想物体の画像の前記画像表示部における表示を変更する仮想物体画像変更部と、を備える画像表示装置。
  2. 前記仮想物体画像変更部は、前記接近物検出部が検出した接近する物体の画像表示領域を隠蔽しない位置に前記仮想物体の画像を配置し直す請求項1に記載の画像表示装置。
  3. 前記仮想物体画像変更部は、前記接近物検出部が検出した接近する物体の進行方向の表示領域を隠蔽しない位置に前記仮想物体の画像を配置し直す請求項1又は請求項2に記載の画像表示装置。
  4. 前記仮想物体画像変更部は、前記仮想物体の画像の表示位置を変更する場合には、変更後の位置から変更前の位置を指し示す引き出し線を表示する請求項1乃至請求項3のいずれか1項に記載の画像表示装置。
  5. 前記仮想物体画像変更部は、前記仮想物体の画像の一部または全ての透過度を変更する請求項1乃至請求項4のいずれか1項に記載の画像表示装置。
  6. 前記仮想物体画像変更部は、前記仮想物体の画像を示す代替画像に置換して表示する請求項1乃至請求項5のいずれか1項に記載の画像表示装置。
  7. 前記仮想物体画像変更部は、前記仮想物体の画像の表示サイズを変更する請求項1乃至請求項6のいずれか1項に記載の画像表示装置。
  8. 前記仮想物体画像変更部は、前記仮想物体の画像の変更前後の変化を一連のアニメーションで表示する請求項1乃至請求項7のいずれか1項に記載の画像表示装置。
  9. 前記仮想物体画像変更部は、仮想のテキスト画像の表示を変更する請求項1乃至請求項8のいずれか1項に記載の画像表示装置。
  10. 前記仮想物体画像変更部は、前記接近物検出部が検出した接近する物体の位置、姿勢、および速度に応じて前記仮想物体の表示方法を変更する請求項1乃至請求項9のいずれか1項に記載の画像表示装置。
  11. 前記仮想物体画像変更部は、前記接近物検出部が検出した接近する物体の物体種別に応じて前記仮想物体の表示方法を変更する請求項1乃至請求項10のいずれか1項に記載の画像表示装置。
  12. 前記接近物検出部は、近接センサの測定値を用いることで接近する物体を検出する請求項1乃至請求項11のいずれか1項に記載の画像表示装置。
  13. 前記接近物検出部は、現実空間の画像を連続的に画像解析することで接近する物体を検出する請求項1乃至請求項12のいずれか1項に記載の画像表示装置。
  14. 前記接近物検出部は、他物体の位置情報又は接近情報を受信することで接近する物体を検出する請求項1乃至請求項13のいずれか1項に記載の画像表示装置。
  15. 当該画像表示装置の位置情報又は姿勢情報を取得する画像表示装置位置姿勢取得部と、当該画像表示装置の速度を取得する画像表示装置速度取得部とを備え、前記接近物検出部は、画像表示装置と前記接近物との相対的な位置関係又は相対的な姿勢関係又は相対的な速度関係に応じて接近物する物体を検出する方法を切り替える請求項1乃至請求項14のいずれか1項に記載の画像表示装置。
  16. 現実空間の画像と仮想物体の画像とを表示する画像表示ステップと、接近する物体を検出する接近物検出ステップと、前記画像表示ステップにおいて前記接近物検出ステップが検出した接近する物体の画像を取得する接近物画像取得ステップと、前記接近物画像取得ステップで取得した接近する物体の画像の表示領域と仮想物体の画像表示領域とが重複すると判定された場合に、前記画像表示ステップにおいて表示した前記仮想物体の画像表示を変更する仮想物体画像変更ステップと、を備える画像表示方法。
  17. 現実空間の画像と仮想物体の画像とを表示する画像表示ステップと、接近する物体を検出する接近物検出ステップと、前記画像表示ステップにおいて前記接近物検出ステップが検出した接近する物体の画像を取得する接近物画像取得ステップと、前記接近物画像取得ステップで取得した接近する物体の画像の表示領域と仮想物体の画像表示領域とが重複すると判定された場合に、前記画像表示ステップにおいて表示した前記仮想物体の画像表示を変更する仮想物体画像変更ステップと、を備える画像表示プログラム。
JP2009286131A 2009-12-17 2009-12-17 画像表示装置 Ceased JP2011128838A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009286131A JP2011128838A (ja) 2009-12-17 2009-12-17 画像表示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009286131A JP2011128838A (ja) 2009-12-17 2009-12-17 画像表示装置

Publications (1)

Publication Number Publication Date
JP2011128838A true JP2011128838A (ja) 2011-06-30

Family

ID=44291376

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009286131A Ceased JP2011128838A (ja) 2009-12-17 2009-12-17 画像表示装置

Country Status (1)

Country Link
JP (1) JP2011128838A (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014162823A1 (ja) * 2013-04-04 2014-10-09 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2015026286A (ja) * 2013-07-26 2015-02-05 セイコーエプソン株式会社 表示装置、表示システムおよび表示装置の制御方法
JP2016095579A (ja) * 2014-11-12 2016-05-26 キヤノン株式会社 情報処理装置、情報処理方法、情報処理システム及びプログラム
JP2016541035A (ja) * 2013-09-30 2016-12-28 株式会社ソニー・インタラクティブエンタテインメント ヘッドマウントディスプレイのユーザー向けカメラベース安全機構
CN107065196A (zh) * 2017-06-16 2017-08-18 京东方科技集团股份有限公司 一种增强现实显示装置及增强现实显示方法
JP2018005743A (ja) * 2016-07-06 2018-01-11 富士ゼロックス株式会社 情報処理装置、画像形成システムおよびプログラム
CN108885801A (zh) * 2016-03-29 2018-11-23 索尼公司 信息处理设备、信息处理方法和程序
JP2019109850A (ja) * 2017-12-20 2019-07-04 セイコーエプソン株式会社 透過型表示装置、表示制御方法、およびコンピュータープログラム
JP2020536305A (ja) * 2017-09-29 2020-12-10 アップル インコーポレイテッドApple Inc. 物理的境界監視器
US11144763B2 (en) 2018-04-02 2021-10-12 Canon Kabushiki Kaisha Information processing apparatus, image display method, and non-transitory computer-readable storage medium for display control
US11842449B2 (en) 2019-09-26 2023-12-12 Apple Inc. Presenting an environment based on user movement

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10504917A (ja) * 1995-05-25 1998-05-12 フィリップス エレクトロニクス ネムローゼ フェンノートシャップ ヘッドマウントディスプレイ用衝突警告システム
JP2000003438A (ja) * 1998-06-11 2000-01-07 Matsushita Electric Ind Co Ltd 標識認識装置
JP2004056763A (ja) * 2002-05-09 2004-02-19 Matsushita Electric Ind Co Ltd 監視装置、監視方法および監視用プログラム
JP2005098917A (ja) * 2003-09-26 2005-04-14 Mazda Motor Corp 車両用情報提供装置
JP2005157610A (ja) * 2003-11-25 2005-06-16 Canon Inc 画像処理装置および方法
JP2005293142A (ja) * 2004-03-31 2005-10-20 Canon Inc 画像処理方法および画像処理装置
WO2006035755A1 (ja) * 2004-09-28 2006-04-06 National University Corporation Kumamoto University 移動体ナビゲート情報表示方法および移動体ナビゲート情報表示装置
JP2006260011A (ja) * 2005-03-16 2006-09-28 Denso Corp 車両用表示装置
JP2006276023A (ja) * 2006-04-05 2006-10-12 Omron Corp 対象物検出装置および方法
JP2009169622A (ja) * 2008-01-15 2009-07-30 Canon Inc 画像処理装置、画像処理方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10504917A (ja) * 1995-05-25 1998-05-12 フィリップス エレクトロニクス ネムローゼ フェンノートシャップ ヘッドマウントディスプレイ用衝突警告システム
JP2000003438A (ja) * 1998-06-11 2000-01-07 Matsushita Electric Ind Co Ltd 標識認識装置
JP2004056763A (ja) * 2002-05-09 2004-02-19 Matsushita Electric Ind Co Ltd 監視装置、監視方法および監視用プログラム
JP2005098917A (ja) * 2003-09-26 2005-04-14 Mazda Motor Corp 車両用情報提供装置
JP2005157610A (ja) * 2003-11-25 2005-06-16 Canon Inc 画像処理装置および方法
JP2005293142A (ja) * 2004-03-31 2005-10-20 Canon Inc 画像処理方法および画像処理装置
WO2006035755A1 (ja) * 2004-09-28 2006-04-06 National University Corporation Kumamoto University 移動体ナビゲート情報表示方法および移動体ナビゲート情報表示装置
JP2006260011A (ja) * 2005-03-16 2006-09-28 Denso Corp 車両用表示装置
JP2006276023A (ja) * 2006-04-05 2006-10-12 Omron Corp 対象物検出装置および方法
JP2009169622A (ja) * 2008-01-15 2009-07-30 Canon Inc 画像処理装置、画像処理方法

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2014162823A1 (ja) * 2013-04-04 2017-02-16 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
CN105264572A (zh) * 2013-04-04 2016-01-20 索尼公司 信息处理设备、信息处理方法和程序
CN105264572B (zh) * 2013-04-04 2018-09-21 索尼公司 信息处理设备、信息处理方法和程序
WO2014162823A1 (ja) * 2013-04-04 2014-10-09 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2015026286A (ja) * 2013-07-26 2015-02-05 セイコーエプソン株式会社 表示装置、表示システムおよび表示装置の制御方法
JP2016541035A (ja) * 2013-09-30 2016-12-28 株式会社ソニー・インタラクティブエンタテインメント ヘッドマウントディスプレイのユーザー向けカメラベース安全機構
JP2016095579A (ja) * 2014-11-12 2016-05-26 キヤノン株式会社 情報処理装置、情報処理方法、情報処理システム及びプログラム
CN108885801A (zh) * 2016-03-29 2018-11-23 索尼公司 信息处理设备、信息处理方法和程序
JP2018005743A (ja) * 2016-07-06 2018-01-11 富士ゼロックス株式会社 情報処理装置、画像形成システムおよびプログラム
CN107065196A (zh) * 2017-06-16 2017-08-18 京东方科技集团股份有限公司 一种增强现实显示装置及增强现实显示方法
US11347055B2 (en) 2017-06-16 2022-05-31 Boe Technology Group Co., Ltd. Augmented reality display apparatus and augmented reality display method
US11127182B2 (en) 2017-09-29 2021-09-21 Apple Inc. Detecting physical boundaries
JP2020536305A (ja) * 2017-09-29 2020-12-10 アップル インコーポレイテッドApple Inc. 物理的境界監視器
JP7029526B2 (ja) 2017-09-29 2022-03-03 アップル インコーポレイテッド 物理的境界監視器
US11734867B2 (en) 2017-09-29 2023-08-22 Apple Inc. Detecting physical boundaries
JP7003633B2 (ja) 2017-12-20 2022-01-20 セイコーエプソン株式会社 透過型表示装置、表示制御方法、およびコンピュータープログラム
JP2019109850A (ja) * 2017-12-20 2019-07-04 セイコーエプソン株式会社 透過型表示装置、表示制御方法、およびコンピュータープログラム
US11144763B2 (en) 2018-04-02 2021-10-12 Canon Kabushiki Kaisha Information processing apparatus, image display method, and non-transitory computer-readable storage medium for display control
US11842449B2 (en) 2019-09-26 2023-12-12 Apple Inc. Presenting an environment based on user movement

Similar Documents

Publication Publication Date Title
JP2011128838A (ja) 画像表示装置
US11694407B2 (en) Method of displaying virtual information in a view of a real environment
US12067784B2 (en) Surveillance information generation apparatus, imaging direction estimation apparatus, surveillance information generation method, imaging direction estimation method, and program
CN102782741B (zh) 车辆周围监测装置
JP5208203B2 (ja) 死角表示装置
US9547796B2 (en) Parking assistance device and parking assistance method
JP6176541B2 (ja) 情報表示装置、情報表示方法及びプログラム
US20160191795A1 (en) Method and system for presenting panoramic surround view in vehicle
JP2008172535A (ja) 運転支援システム、画像処理装置及びずれ検出方法
WO2010044186A1 (ja) 動線作成システム、動線作成装置及び3次元動線表示装置
JP2007198962A (ja) 車両用案内表示装置
JP2010117800A (ja) 駐車場監視装置及び方法
JP2012164157A (ja) 画像合成装置
JP5267330B2 (ja) 画像処理装置および方法
JP5178454B2 (ja) 車両周囲監視装置及び車両周囲監視方法
US20130294650A1 (en) Image generation device
JP2015186085A (ja) 移動量導出装置、及び、移動量導出方法
WO2010113253A1 (ja) 3次元情報表示装置および3次元情報表示方法
JP7203205B2 (ja) 車両周辺画像生成装置、車両周辺表示システム、及び車両周辺表示方法
CN111108752A (zh) 街景服务方法及执行该方法的装置
JP4685050B2 (ja) 表示装置
JP2010157910A (ja) 画像表示装置
JP5168313B2 (ja) 画像表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121109

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20121217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130716

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131015

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131115

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131224

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20140107

A045 Written measure of dismissal of application

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20140422