JP2011205385A - Three-dimensional video control device, and three-dimensional video control method - Google Patents
Three-dimensional video control device, and three-dimensional video control method Download PDFInfo
- Publication number
- JP2011205385A JP2011205385A JP2010070443A JP2010070443A JP2011205385A JP 2011205385 A JP2011205385 A JP 2011205385A JP 2010070443 A JP2010070443 A JP 2010070443A JP 2010070443 A JP2010070443 A JP 2010070443A JP 2011205385 A JP2011205385 A JP 2011205385A
- Authority
- JP
- Japan
- Prior art keywords
- angle
- subject
- convergence angle
- main subject
- view
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Stereoscopic And Panoramic Photography (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
【課題】視聴者に与える疲労感を軽減しつつ、立体映像の効果をより良く得る事ができる立体映像制御装置を提供する事。
【解決手段】本発明の立体映像制御装置を含む立体映像カメラ100は、左目映像および右目映像により構成される立体映像の輻輳角を制御する装置であって、立体映像の画角内における主要被写体の位置を取得する画角内位置取得部110と、画角内における主要被写体の位置に応じて立体映像の輻輳角を制御する輻輳角制御部120とを有する。
【選択図】図2To provide a stereoscopic video control apparatus capable of obtaining a better stereoscopic video effect while reducing a feeling of fatigue given to a viewer.
A stereoscopic video camera 100 including a stereoscopic video control device of the present invention is a device for controlling a convergence angle of a stereoscopic video composed of a left-eye video and a right-eye video, and is a main subject within the angle of view of the stereoscopic video. Angle-of-view position acquisition unit 110 that acquires the position of the image, and a convergence angle control unit 120 that controls the convergence angle of the stereoscopic video according to the position of the main subject within the angle of view.
[Selection] Figure 2
Description
本発明は、左目映像および右目映像により構成される立体映像を制御する立体映像制御装置および立体映像制御方法に関する。 The present invention relates to a stereoscopic video control apparatus and a stereoscopic video control method for controlling a stereoscopic video composed of a left-eye video and a right-eye video.
近年、立体(3D:3 Dimension)映像技術が映画コンテンツなどの分野で一般に広まりつつある。 In recent years, 3D (3D) image technology is generally spreading in the field of movie content and the like.
立体映像から立体視が得られる仕組みは以下の通りである。人間が肉眼で被写体を見る際、左目と被写体とを結ぶ線と右目と被写体とを結ぶ線とが成す角である輻輳角は、左右の眼球の位置の違いから、被写体までの距離に応じて異なる。人間は、被写体に視線を合わせたときの輻輳角の感覚に基づいて、各被写体までの距離の大小を認識し、立体視を得る。立体映像の技術は、画角内における像の位置に微妙な差異(視差)を有する左目映像と右目映像とを生成し、それぞれを視聴者の左右の目に見せる事により、あたかも目の前に立体物が存在するかのような錯覚を視聴者に与えるものである。 The mechanism for obtaining a stereoscopic view from a stereoscopic image is as follows. When a human sees the subject with the naked eye, the convergence angle, which is the angle between the line connecting the left eye and the subject and the line connecting the right eye and the subject, depends on the distance to the subject due to the difference in the positions of the left and right eyeballs. Different. A human recognizes the size of the distance to each subject based on the sense of the convergence angle when the line of sight is brought to the subject, and obtains a stereoscopic view. Three-dimensional video technology creates a left-eye video and a right-eye video that have a subtle difference (parallax) in the position of the image within the angle of view, and makes each appear to the viewer's left and right eyes, as if in front of the eyes. It gives viewers the illusion that a three-dimensional object exists.
現実の立体物を見たときの映像(以下「実映像」という)と、立体映像との相違点は、眼から像までの実際の距離と、輻輳角により擬似的に得られる結像距離との間に、差異があるか否かである。実映像の場合は差異がなく、立体映像の場合は差異があり得る。なぜならば、実際に立体映像が存在する映像面(例えば、ディスプレイパネルの表示面)の位置と視聴者との距離は変わる事はないにもかかわらず、立体効果を得るために、結像距離を様々に変化させるためである。 The difference between the image when viewing a real three-dimensional object (hereinafter referred to as “real image”) and the three-dimensional image is that the actual distance from the eye to the image and the image formation distance obtained in a pseudo manner by the angle of convergence. Whether there is a difference between them. There is no difference in the case of a real image, and there can be a difference in the case of a stereoscopic image. This is because, in order to obtain a three-dimensional effect, the imaging distance is set in order to obtain a three-dimensional effect, although the distance between the position of the video plane where the stereoscopic video actually exists (for example, the display surface of the display panel) and the viewer does not change. This is for various changes.
このような、眼から像までの実際の距離と、輻輳角により擬似的に得られる結像距離との差異を、一般には「輻輳角矛盾」と呼ぶ。 Such a difference between the actual distance from the eye to the image and the imaging distance obtained in a pseudo manner by the convergence angle is generally referred to as “convergence angle contradiction”.
立体映像に輻輳角矛盾がない状況とは、映像面までの距離と、結像距離とが一致している状況である。この状況下においては、左目に投影する像と、右目に投影する像の、画面上の表示位置が概一致する。端的には、立体視用の眼鏡を外して映像を見た場合に、対象像が二重になって見える事がなく、一つの像として見える状況にある事が知られている。逆の言い方をすれば、眼鏡を外すと像が二重に見える場合は、その対象像には輻輳角矛盾があるといえる。 The situation where there is no convergence angle contradiction in the stereoscopic video is a situation where the distance to the video plane is equal to the imaging distance. Under this circumstance, the display positions on the screen of the image projected to the left eye and the image projected to the right eye substantially coincide. In short, it is known that when viewing a video with the glasses for stereoscopic viewing removed, the target image does not appear to be doubled but is seen as one image. In other words, if the image appears double when the glasses are removed, it can be said that there is a convergence angle contradiction in the target image.
3D映画等では、視聴者に見せたい被写体に意図的に輻輳角矛盾を付けたり、輻輳角に変化を持たせる事が行われている。これにより、被写体があたかも映像面から手前に飛び出した位置に見えたり、奥に引っ込んだ位置に見えたりする効果を出し、より演出性の高いアトラクティブな立体視映像が実現されている。 In a 3D movie or the like, a convergence angle contradiction is intentionally applied to a subject that a viewer wants to show to the viewer, or the convergence angle is changed. As a result, an effect of making the subject appear as if it has jumped out of the image plane or in a position where it has been retracted deeply is realized, and an attractive stereoscopic image with higher performance is realized.
従来、立体映像技術は、左右に並べて配置した2台のカメラを用いて左目映像および右目映像を撮影する事が広く行われている(例えば特許文献1参照)。また、立体映像技術は、肉眼で見たときの実際の被写体に対する輻輳角(以下「本来の輻輳角」という)に対して、立体映像の画面に映し出される被写体に対する輻輳角(以下「立体映像の輻輳角」という)を制御する事が行われている。輻輳角を制御する技術は、例えば特許文献1および特許文献2のものが知られている。
Conventionally, in stereoscopic video technology, it has been widely performed to take a left-eye video and a right-eye video using two cameras arranged side by side (see, for example, Patent Document 1). In addition, the 3D image technology uses a convergence angle (hereinafter referred to as “stereoscopic video”) for a subject displayed on a 3D video screen with respect to a vergence angle (hereinafter referred to as “original convergence angle”) with respect to an actual subject when viewed with the naked eye. Control of the convergence angle is performed. For example,
特許文献1および特許文献2記載の技術は、カメラから被写体までの距離に応じて、左目映像および右目映像に対するトリミング範囲をそれぞれ決定し、左目映像および右目映像のトリミングを行う。これにより、画角内における像の位置を制御し、立体映像の輻輳角を制御する事ができるようになっている。
The techniques described in
ところで、画面の端部(画面と画面周辺部との境界、つまり画角端部)に対する適切な輻輳角は、通常、立体映像の輻輳角とは関係なく一定である。なぜなら、画角端部に存在する画枠(例えばテレビの外枠部品)は、現実その場所に存在する立体物であり、この立体物を人間の目が見る時は、物理的な距離に完全に対応した状態で両眼の輻輳角が決まり、輻輳角矛盾は発生しない。一方、立体映像は、輻輳角矛盾を伴う事がしばしばある。 Incidentally, the appropriate convergence angle with respect to the edge of the screen (the boundary between the screen and the peripheral portion of the screen, that is, the edge of the angle of view) is usually constant regardless of the convergence angle of the stereoscopic video. This is because the picture frame (for example, the outer frame part of the TV) that exists at the edge of the angle of view is a three-dimensional object that actually exists in that place, and when the human eye sees this three-dimensional object, it is completely at a physical distance. The vergence angle of both eyes is determined in a state corresponding to, and vergence angle contradiction does not occur. On the other hand, stereoscopic images often have a contradiction in convergence angle.
画枠と立体映像を同時に注視した際には、両者の輻輳角矛盾の有無の違い(輻輳角矛盾が有るか、無いかの違い)は、著しいミスマッチとして視覚に捉えられ、視聴者に大きな違和感を与える場合がある。 When watching the image frame and 3D image at the same time, the difference in whether there is a contradiction in the convergence angle (difference in whether there is a convergence angle contradiction or not) is visually perceived as a significant mismatch, and the viewer feels a great sense of discomfort. May give.
そこで、上述の特許文献1および特許文献2記載の技術を用いて、立体映像の輻輳角矛盾を低減させる事が考えられる。これにより、視聴者に対して疲労感を軽減する事ができる。ところが、このように輻輳角矛盾を低減させると、立体映像の輻輳角の変化は狭い範囲に限定される事になる。すなわち、結像距離が映像面までの距離と常時一致してしまうため、立体視による飛出しや奥行きといった立体映像ならではの演出効果が充分に得られない。
Therefore, it is conceivable to reduce the contradiction of the convergence angle of the stereoscopic video by using the techniques described in
そこで、画角端部の映像を見え難くする技術が、従来提案されている(例えば特許文献3および特許文献4参照)。
Therefore, a technique for making it difficult to see the image at the end of the angle of view has been proposed (see, for example,
特許文献3記載の技術は、画角端部を仮想フレームで覆い隠す。また、特許文献4記載の技術は、画角端部にぼかしを入れる。これにより、画角端部における立体映像の輻輳角矛盾を認識し難くする事ができる。
The technique described in
しかしながら、特許文献3および特許文献4記載の技術では、やはり映像の立体感を十分に得る事は難しい。なぜなら、立体感を十分表現するためには、大きな輻輳角で被写体を表示するために画角をできるだけ大きく活用する事が望ましいが、特許文献3および特許文献4記載の技術では、画角端部を実質的に活用する事ができないからである。
However, with the techniques described in
本発明の目的は、視聴者に与える疲労感を軽減しつつ、立体映像の効果をより良く得る事ができる立体映像制御装置および立体映像制御方法を提供する事である。 An object of the present invention is to provide a 3D image control apparatus and a 3D image control method capable of obtaining a better effect of a 3D image while reducing a feeling of fatigue given to a viewer.
本発明の立体映像制御装置は、左目映像および右目映像により構成される立体映像の輻輳角を制御する立体映像制御装置であって、前記立体映像の画角内における主要被写体の位置を取得する画角内位置取得部と、前記画角内における前記主要被写体の位置に応じて前記立体映像の輻輳角を制御する輻輳角制御部とを有する。 A stereoscopic video control apparatus according to the present invention is a stereoscopic video control apparatus that controls a convergence angle of a stereoscopic video composed of a left-eye video and a right-eye video, and an image for acquiring a position of a main subject within the angle of view of the stereoscopic video. An in-corner position acquisition unit; and a convergence angle control unit that controls a convergence angle of the stereoscopic image in accordance with the position of the main subject within the angle of view.
本発明の立体映像制御方法は、左目映像および右目映像により構成される立体映像の輻輳角を制御する立体映像制御方法であって、前記立体映像の画角内における主要被写体の位置を取得するステップと、前記画角内における前記主要被写体の位置に応じて前記立体映像の輻輳角を制御するステップとを有するようにした。 The stereoscopic video control method of the present invention is a stereoscopic video control method for controlling a convergence angle of a stereoscopic video composed of a left-eye video and a right-eye video, and acquiring a position of a main subject within the angle of view of the stereoscopic video. And a step of controlling a convergence angle of the stereoscopic image in accordance with a position of the main subject within the angle of view.
本発明によれば、映像の立体感を出すべき画角中央部では輻輳角矛盾を増大させ、輻輳角矛盾の有無の違いが認識され易い画角端部では輻輳角矛盾を低減させるという事が可能となり、視聴者に与える疲労感を軽減しつつ、立体映像の効果をより良く得る事ができる。 According to the present invention, the convergence angle contradiction is increased at the central portion of the angle of view where the stereoscopic effect of the image should be produced, and the convergence angle contradiction is reduced at the end of the angle of view where the difference in presence or absence of the convergence angle is easily recognized. This makes it possible to obtain a better stereoscopic effect while reducing the feeling of fatigue given to the viewer.
以下、本発明の各実施の形態について、図面を参照して詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(実施の形態1)
図1は、本発明の実施の形態1に係る立体映像制御装置を含む立体映像カメラの外観の一例を示す図である。本実施の形態は、本発明を、立体映像を撮影可能な家庭用ビデオカメラに適用した例である。
(Embodiment 1)
FIG. 1 is a diagram showing an example of the appearance of a stereoscopic video camera including the stereoscopic video control apparatus according to
図1において、立体映像カメラ100は、左カメラ部200、右カメラ部300、制御部400、表示部500、および入力部600を有する。
In FIG. 1, the
左カメラ部200および右カメラ部300は、それぞれ、2眼式立体映像を構成する左目映像および右目映像を撮影するビデオカメラであり、例えば光学レンズおよび撮像素子を備えた電子部品である。以下、左目映像および右目映像を特に区別しないときは、単に「映像」と総称する。左カメラ部200および右カメラ部300(以下、適宜「カメラ」と総称する)は、視聴者の目に対応するもので、撮影された立体映像から立体視効果を得られるように、適切な距離を置いて水平に配置される。また、左カメラ部200の光軸方向と右カメラ部300の光軸方向とが成す角(以下「カメラ輻輳角」という)は、少なくとも一方のパン制御(光軸方向を左右方向に制御)により、調整可能となっている。
Each of the
制御部400は、立体映像カメラ100全体の動作を制御し、カメラの駆動、撮影、および映像処理等を行う電子部品である。制御部400は、立体映像に映し出される主要被写体の、立体映像の画角内における位置(以下「画角被写体位置」という)を取得する。なお、主要被写体は、立体映像に映し出される被写体の中で視聴者が主に注目すべき対象、または、立体映像の製作者が視聴者に注目させたい対象をいう。主要被写体は、人物、動物、模型等、各種の被写体が成り得るものである。そして、制御部400は、画角被写体位置が、画角の左端部および右端部の少なくとも一方(以下「画角端部」と総称する)の近傍のとき、主要被写体の輻輳角矛盾が低減するように、立体映像の輻輳角を制御する。具体的には、主要被写体の輻輳角が該当する画角端部の物理的な物体(例えばテレビのフレーム)を注視する場合と同一の輻輳角に近付くように、立体映像の輻輳角を制御する。
The
本実施の形態では、制御部400は、左カメラ部200と右カメラ部300の少なくとも一方のパン制御(以下、単に「パン制御」という)を行う事により、立体映像の輻輳角を所望の角度に制御する。
In the present embodiment, the
表示部500は、ユーザに情報や画像を提示するためのユーザインタフェースであり、例えば、液晶ディスプレイを有する。
The
入力部600は、ユーザが立体映像カメラ100の操作を行うもので、ポインティング、決定、取り消し等のユーザ操作を受け付けるためのユーザインタフェースである。入力部600は、例えば、ボタン、レバー、キーパッド、および液晶ディスプレイに一体的に配置されたタッチパネルの少なくとも何れかを有する。入力部600におけるユーザ操作受け付けの具体的な実施方法は、家庭用ビデオカメラやパーソナルコンピュータ等、一般的な電子機器に広く採用されている公知のユーザインタフェース技術を参照すれば良い。
The
左カメラ部200、右カメラ部300、表示部500、および入力部600は、それぞれ、制御部400に一体的に設けられている。制御部400は、例えば、図示しないが、CPU(central processing unit)、制御プログラムを格納したROM(read only memory)などの記憶媒体、およびRAM(random access memory)などの作業用メモリ等を搭載し、CPUによる制御プログラムの実行によってその機能を実現する。
The
このような立体映像カメラ100は、主要被写体が立体映像の画角端部の近傍に位置するときのみ、主要被写体の輻輳角矛盾を低減させる事ができる。
Such a
次に、立体映像カメラ100の構成について、図2および図3を用いて説明する。図2および図3において、図1と同一部分には同一の符号を付し、これについての説明を一部省略する。
Next, the configuration of the
図2は、立体映像カメラ100の構成の一例を示すブロック図である。
FIG. 2 is a block diagram illustrating an example of the configuration of the
立体映像カメラ100は、左カメラ部200および右カメラ部300に加えて、画角内位置取得部110、輻輳角制御部120、および記憶部130を有する。輻輳角制御部120と、画角内位置取得部110と、左カメラ部200および右カメラ部300とは、互いに接続している。記憶部130は、左カメラ部200および右カメラ部300に接続している。
In addition to the
画角内位置取得部110は、主要被写体を特定し、画角被写体位置と、カメラから主要被写体までの距離(以下「被写体距離」という)とを取得する。そして、画角内位置取得部110は、取得した画角被写体位置および被写体距離を、輻輳角制御部120へ出力する。
The in-view angle
輻輳角制御部120は、入力される画角被写体位置および被写体距離に基づいて、上述のパン制御を行う。具体的には、輻輳角制御部120は、画角被写体位置から、立体映像において主要被写体の輻輳角矛盾を低減させるか否か、および、低減させる場合にはどの程度低減させるのかを決定する。つまり、輻輳角制御部120は、主要被写体の輻輳角の目標値(以下「調整後映像輻輳角」という)を決定する。そして、輻輳角制御部120は、被写体距離から、決定した調整後映像輻輳角を実現するカメラ輻輳角(以下「調整後カメラ輻輳角」という)を算出する。そして、輻輳角制御部120は、算出した調整後カメラ輻輳角に一致するように、カメラのパン制御を行う。
The convergence
左カメラ部200および右カメラ部300は、左目映像と右目映像とをそれぞれ記憶部130へ出力する。
The
記憶部130は、入力される左目映像および右目映像を、それぞれの時間軸を対応付けた状態で、複数の静止画フレームの時系列データとして、外部から読み取り可能な状態で記憶する。具体的には、記憶部130は、例えば、画質調整、静止画フレームの生成、および動画記録フォーマットへの変換等の所定の処理を映像データに施し、記録媒体(例えば、HDD、メモリカード、ディスク)への記録を行う。記憶部130は、例えば、ブルーレイ(Blu-ray)ディスクレコーダおよびこのレコーダに装着されたブルーレイディスクを有する。
The
なお、立体映像カメラ100は、記憶部130に代えて、または記憶部130と共に、映像データを有線または無線により外部装置へ出力する通信部を備えても良い。
The
図3は、画角内位置取得部110の構成の一例を示すブロック図である。
FIG. 3 is a block diagram illustrating an example of the configuration of the in-view angle
図3に示すように、画角内位置取得部110は、画像認識部111、表示部500、および入力部600を有する。
As shown in FIG. 3, the in-view angle
表示部500は、例えば、左カメラ部200から入力される左目映像の画像のみを表示する。なお、表示部500は、右目映像を表示するようにしても良い。但し、パン制御が、一方のカメラ部を固定して他方のカメラ部のみを動かす事によって行われる場合には、固定されたほうのカメラ部の映像が表示される事が望ましい。
For example, the
画像認識部111は、例えば、表示部500に表示中の画像に対するユーザ操作を、入力部600を介して受け付け、表示中の画像から主要被写体を特定する。また、画像認識部111は、例えば、一旦特定された主要被写体を、映像において追尾する。そして、画像認識部111は、逐次、画角被写体位置を取得し、輻輳角制御部120へ出力する。画角被写体位置は、例えば、画角内において主要被写体の像が占める映像領域全体の位置でも良いし、主要被写体の像の中心や重心等の代表点の位置でも良い。但し、主要被写体の像の大きさによらずに適切な輻輳角制御を行うためには、画角被写体位置には、主要被写体の像の左端の位置と右端の位置の情報を持たせる事が望ましい。なぜなら、主要被写体の中心部が画角の中心付近にある場合でも、被写体が大きくアップで表示されるような場合には、その端部は画角端部に掛かる事が有り得るためである。なお、図3に示す画像認識部111と、図2に示す輻輳角制御部120および記憶部130とは、図1に示す制御部400に包含されている。
For example, the
このような構成を有する事により、立体映像カメラ100は、主要被写体が立体映像の画角端部の近傍に位置するときに、これを検出する事ができる。そして、立体映像カメラ100は、主要被写体が画角端部に位置すると検出したときにのみ輻輳角矛盾を低減させるという効果を奏する事ができる。
By having such a configuration, the
次に、立体映像カメラ100の動作について説明する。
Next, the operation of the
図4は、立体映像カメラ100の全体動作の一例を示すフローチャートである。ここでは、大まかな処理の流れについてまず説明し、各処理の詳細については後述する。
FIG. 4 is a flowchart showing an example of the overall operation of the
左カメラ部200および右カメラ部300は、立体映像カメラ100の動作中、左目映像および右目映像を、それぞれ画角内位置取得部110へフレーム単位で連続的に出力している。
The
まず、ステップS1000において、画像認識部111は、表示部500の表示映像に対するユーザ操作等に基づき、映像から主要被写体を認識する。
First, in step S1000, the
そして、ステップS2000において、画像認識部111は、認識した主要被写体について、画角被写体位置を取得し、輻輳角制御部120へ出力する。また、画像認識部111は、認識した主要被写体について、左目映像および右目映像と左カメラ部200および右カメラ部300のパラメータとに基づいて被写体距離を取得し、輻輳角制御部120へ出力する。画角被写体位置の取得処理および被写体距離の取得処理については、後述する。
In step S <b> 2000, the
そして、ステップS3000において、輻輳角制御部120は、画角被写体位置が、画角端部近傍であるか否かを判定する。輻輳角制御部120は、画角被写体位置が画角端部近傍である場合には(S3000:YES)、ステップS4000へ進み、画角被写体位置が画角端部近傍ではない場合には(S3000:NO)、ステップS5000へ進む。
In step S3000, the convergence
ステップS4000において、輻輳角制御部120は、主要被写体の輻輳角矛盾が低減するように、つまり、主要被写体の輻輳角が画角端部の輻輳角に近付くように、カメラ輻輳角を調整する。具体的には、輻輳角制御部120は、被写体距離から、カメラに対する主要被写体の本来の輻輳角(以下「被写体輻輳角」という)を算出する。そして、輻輳角制御部120は、被写体輻輳角に補正係数を適用した値を、調整後カメラ輻輳角として算出する。補正係数は、主要被写体が画角内を移動する際にその主要被写体の輻輳角を滑らかに変化させるためのパラメータである。被写体輻輳角の算出処理、補正係数、および調整後カメラ輻輳角の算出処理については、後述する。そして、輻輳角制御部120は、調整後カメラ輻輳角にカメラ輻輳角が一致するように、カメラのパン制御を行う。
In step S4000, the convergence
そして、ステップS5000において、立体映像カメラ100は、設定された調整後カメラ輻輳角で立体映像を撮影する。すなわち、左カメラ部200および右カメラ部300は、角被写体位置が画角端部近傍ではない場合には通常のカメラ輻輳角で、角被写体位置が画角端部近傍である場合には調整後カメラ輻輳角で、立体映像をそれぞれ撮影する。このとき、録画モードとなっている場合には、左カメラ部200および右カメラ部300は、左目映像および右目映像をそれぞれ記憶部130に出力し、立体映像のデータとして記録する。
In step S5000, the
そして、ステップS6000において、立体映像カメラ100は、ユーザ操作等により処理の終了を指示されたか否かを判断する。立体映像カメラ100は、処理の終了を指示されていない場合には(S6000:NO)、ステップS1000へ戻り、処理の終了を指示された場合には(S6000:YES)、一連の処理を終了する。
In step S6000, the
このような動作により、立体映像カメラ100は、主要被写体が画角端部の近傍に位置するときには輻輳角矛盾を低減し、主要被写体が画角端部の近傍に位置しないときには本来の輻輳角矛盾を維持して、立体映像の撮影を行う事ができる。
By such an operation, the
以下、上述の、画角被写体位置の取得処理、被写体距離の取得処理、被写体輻輳角の算出処理、補正係数、および調整後カメラ輻輳角の算出処理の詳細について、順に説明する。 The details of the above-described processing for obtaining the view angle subject position, the subject distance obtaining process, the subject convergence angle calculating process, the correction coefficient, and the adjusted camera convergence angle calculating process will be described in order below.
図5は、画角被写体位置の取得処理の一例を説明するための図である。この例では、主要被写体の特定は、画像に対するユーザ指定により行われる。 FIG. 5 is a diagram for explaining an example of the processing for obtaining the field angle subject position. In this example, the main subject is specified by user designation for the image.
表示部500は、例えば、図5に示すような被写体指定画面710を表示する。被写体指定画面710は、被写体711を含む画像712に重畳して、入力部600のポインティング操作によって移動可能なポインタ713を表示する。画像712は、例えば、左カメラ部200から入力された、最新の左目映像または過去の左目映像である。ポインタ713は、画像712に重ねて描画される仮想的な表示物であり、入力部600のポインティング操作により、任意の位置に移動し、任意の位置に対する指定操作を受け付ける事ができる。すなわち、ユーザは、表示部500の被写体指定画面710に映っている被写体711をポインタ713で指定することによって、主要被写体を指定することができる。なお、入力部600がタッチパネルを含む場合には、必ずしもポインタ713は必要ではない。
The
画像認識部111は、被写体指定画面710に映し出される映像712のうち、指定操作がされた位置周辺の領域に対して、画像認識処理を行う。これにより、画像認識部111は、ユーザが指定した被写体を特定する。そして、画像認識部111は、特定された被写体を主要被写体として扱い、以降、画像処理による追尾を行うと共に、主要被写体の画角内における位置(画角被写体位置)の取得を継続する。すなわち、画像認識部111は、まず、ポインティング時に決定された主要被写体の代表点を求める。そして、画像認識部111は、画像特徴を基準にして、以降の各時刻において、求めた代表点の移動先と推定される画像内位置を逐次計算し、画角被写体位置(Xs,Ys)として取得する。これにより、画角内位置取得部110は、画角内を移動する主要被写体の位置を取得し続ける事ができる。
The
なお、ポインティングによる対象指定の具体的な手法や、画像処理による対象追尾の具体的な手法は、それぞれ、例えばデジタルスチルカメラやデジタルビデオカメラに広く採用されている公知の各種手法を適宜採用すれば良い。 In addition, as a specific method for specifying an object by pointing and a specific method for tracking an object by image processing, various known methods widely used in, for example, digital still cameras and digital video cameras may be appropriately employed. good.
図6は、画角被写体位置の取得処理の他の例を説明するための図である。この例では、主要被写体の特定は、主要被写体の特徴に対する画像認識処理により行われる。 FIG. 6 is a diagram for explaining another example of the process of acquiring the view angle subject position. In this example, identification of the main subject is performed by image recognition processing for the characteristics of the main subject.
この例では、撮影される被写体のうち、各主要被写体は、予め定められたマーカを発する装置を装着している。マーカは、例えば発光信号であり、波長、輝度、明滅周期、明滅パターン等において、光学的に識別可能な予め定められた特性を有する事により、固有性を確保するものである。この場合、表示部500は、例えば、図6に示すような被写体指定画面720を表示する。被写体指定画面720には、複数の被写体721が映し出された映像722が表示される。
In this example, each of the main subjects to be photographed is equipped with a device that emits a predetermined marker. The marker is, for example, a light emission signal and has a predetermined characteristic that can be optically identified in the wavelength, luminance, blinking cycle, blinking pattern, and the like, thereby ensuring the uniqueness. In this case, the
画像認識部111は、被写体指定画面720に映し出される映像722から、マーカ723を探索し、探索されたマーカ723の位置周辺の領域に対して、画像認識処理を行う。これにより、画像認識部111は、マーカ723を装着した被写体の画像を認識する。これにより、画角内位置取得部110は、主要被写体が画角内を移動した場合でも、主要被写体の位置を取得し続ける事ができる。
The
なお、画像認識部111は、主要被写体のマーカとして取り扱うマーカの種類を切り換えても良い。この場合、例えば、画像認識部111は、黄色のマーカが付された被写体を主要被写体のマーカとする事が指定されているときには、黄色のマーカを探索する。そして、画像認識部111は、赤色のマーカが付された被写体を主要被写体のマーカとする事が指定されているときには、赤色のマーカを探索する。これにより、立体映像カメラ100は、主要被写体のマーカを切り換える事なく、主要被写体となる被写体を切り換える事ができる。
Note that the
また、マーカとして、被写体に取り付けた所定の光学パターンを持つマークや、被写体が予め有する視覚的特徴(例えば、服の色、服に描かれた模様、顔、または身体の個人的特徴等)等、他の各種画像特徴を採用しても良い。 In addition, as a marker, a mark having a predetermined optical pattern attached to the subject, a visual feature that the subject has in advance (for example, a clothing color, a pattern drawn on the clothing, a personal feature of the body, etc.) Various other image features may be employed.
また、画像認識による主要被写体特定の具体的手法は、公知の画像処理技術および信号処理技術等で採用されている各種手法を適宜採用すれば良い。 In addition, as a specific method for specifying a main subject by image recognition, various methods employed in a known image processing technique and signal processing technique may be appropriately employed.
次に、被写体距離の取得処理および被写体輻輳角の算出処理について、説明する。画像認識部111は、左目映像と右目映像と間の主要被写体の位置のずれ量の画角に対する比率と、映像の画角と、左カメラ部200および右カメラ部300との光軸が成す角から、被写体距離を求める。そして、画像認識部111は、被写体距離と左カメラ部200と右カメラ部300との距離から、三角測量法に基づいて、被写体輻輳角を算出する。
Next, subject distance acquisition processing and subject convergence angle calculation processing will be described. The
図7および図8は、被写体距離の取得処理および被写体輻輳角の算出処理を説明するための図である。 7 and 8 are diagrams for explaining subject distance acquisition processing and subject convergence angle calculation processing.
図7に示すように、立体映像カメラ100は、左カメラ部200の視点と右カメラ部300の視点が異なるため、同時に撮影した映像であっても、左目映像730と右目映像740とは同一の映像とはならない。通常、同一対象物の像であっても、左目映像730における対象物の像731の位置と、右目映像740における対象物の像741の位置との間には、差異が生じる。
As shown in FIG. 7, since the
画像認識部111は、例えば、左目映像730にて像731を主要対象物として認識した場合、同一の対象物の像741を、右目映像740から探索する。この像741の探索手法は、例えば、輝度、色、形状およびこれら組み合わせを用いた、公知の特徴抽出、パターンマッチング等の画像処理技術を、適宜採用すれば良い。
For example, when the
そして、画像認識部111は、例えば以下の式(1)を用いて、像731、741の画角左右方向における位置の差分(視差)dの、画角の幅wに対する比を、視差量Dとして算出する。
D = d/w ・・・・・・(1)
Then, the
D = d / w (1)
ここで、図8に示すように、左カメラ部200および右カメラ部300から、左カメラ部200の光軸と右カメラ部300の光軸との交差点までのそれぞれの距離は、近似的に同一の距離vとする。カメラ輻輳角θc、左カメラ部200と右カメラ部300との間隔である基線長b、および光軸交差点までの距離vについて、以下の式(2)が成り立つ。
v = b/tanθc ・・・・・・(2)
Here, as shown in FIG. 8, the distances from the
v = b / tan θ c (2)
ここでは、図8に示すように、左カメラ部200の画角および右カメラ部300の画角を近似的に同一の画角θfとする。カメラ輻輳角θcは、輻輳角制御部120によって制御されるパラメータであるため、例えば、輻輳角制御部120から取得する事が可能である。
Here, as shown in FIG. 8, in approximately the angle of the view angle and the
カメラ輻輳角θcがゼロに近似するとき、以下の式(3)が成り立つ。
2dz・tan(θf/2) = b ・・・・・・(3)
When the camera convergence angle θ c approximates zero, the following equation (3) is established.
2dz · tan (θ f / 2) = b (3)
したがって、この場合、画角内位置取得部110は、被写体距離zを、例えば以下の式(4)を用いて算出する。
z = b/{2d・tan(θf/2)} ・・・・・・(4)
Accordingly, in this case, the in-view angle
z = b / {2d · tan (θ f / 2)} (4)
一方、輻輳角矛盾がゼロのとき、つまり、左カメラ部200および右カメラ部300からそれぞれの光軸の交差点までのz軸方向の距離が、被写体距離zと一致しているとき、以下の式(5)および式(6)が成り立つ。
On the other hand, when the convergence angle contradiction is zero, that is, when the distance in the z-axis direction from the
2v・tan(θc/2) = b ・・・・・・(5)
2(v−z)・tan(θc/2) = 2dz・tan(θf/2) ・・・(6)
2v · tan (θ c / 2) = b (5)
2 (v−z) · tan (θ c / 2) = 2dz · tan (θ f / 2) (6)
すなわち、この場合、以下の式(7)が成り立つ。
b−2z・tan(θc/2)=2dz・tan(θf/2) ・・・(7)
That is, in this case, the following expression (7) is established.
b-2z · tan (θ c / 2) = 2dz · tan (θ f / 2) (7)
したがって、この場合、画角内位置取得部110は、被写体距離zを、例えば以下の式(8)を用いて算出する。
z = b/{2・tan(θc/2)+2d・tan(θf/2)} ・・・(8)
Accordingly, in this case, the in-view angle
z = b / {2 · tan (θ c / 2) + 2d · tan (θ f / 2)} (8)
このようにして、画角内位置取得部110は、被写体距離zを算出し、輻輳角制御部120へ出力する。
In this way, the in-view angle
輻輳角制御部120は、被写体距離zおよび基線長bから、例えば、以下の式(9)が成り立つθc'を、被写体輻輳角として算出する。
tan(θc'/2)=b/2z ・・・・・・(9)
The convergence
tan (θ c '/ 2) = b / 2z (9)
輻輳角制御部120は、上述の通り、画角被写体位置が、画角端部近傍であると判断した場合に、主要被写体の輻輳角矛盾が低減するように、カメラ輻輳角を調整する。
As described above, the convergence
画角端部近傍か否かの判断は、例えば、画面の中心から所定の範囲外にあるか否かによって判断する事ができる。最もシンプルな例としては、例えば、所定の範囲は、画角中心を0%、画角の左右端をそれぞれ100%としたときの、70%以下の範囲と定義される。この場合には、輻輳角制御部120は、主要被写体が70%を超える位置にあるとき、画角被写体位置が画角端部近傍であると判断し、主要被写体が70%以下の位置にあるとき、画角被写体位置が画角端部近傍ではないと判断する。例えば、画角被写体位置が上述のように主要被写体の像の左端の位置と右端の位置を含む場合には、輻輳角制御部120は、これら2点の少なくとも1つが70%を超える位置にあるとき、画角被写体位置が画角端部近傍であると判断する。
The determination as to whether or not it is near the angle of view can be made, for example, based on whether or not it is outside a predetermined range from the center of the screen. As a simplest example, for example, the predetermined range is defined as a range of 70% or less when the center of the angle of view is 0% and the left and right ends of the angle of view are 100%. In this case, when the main subject is at a position exceeding 70%, the convergence
そして、輻輳角制御部120は、予め定められた補正係数を被写体輻輳角に適用する事により、調整後カメラ輻輳角を算出する。
The convergence
図9は、補正係数の第1の例を示す図である。図10は、補正係数の第2の例を示す図である。図9および図10において、横軸は、画角中心を0%とし画角の左右端をそれぞれ100%として、画角被写体位置をパーセントで示し、縦軸は補正係数をパーセントで示す。なお、画角被写体位置が上述のように主要被写体の像の左端の位置と右端の位置を含む場合、輻輳角制御部120は、画面の左側について、画角の左端を100%とし、主要被写体の像の左端の位置を画角被写体位置とする。そして、輻輳角制御部120は、補正係数を決定し、被写体輻輳角を算出する。一方、輻輳角制御部120は、画面の右側については、画角の右端を100%とし、主要被写体の像の右端の位置を画角被写体位置として、補正係数を決定し、被写体輻輳角を算出する。
FIG. 9 is a diagram illustrating a first example of the correction coefficient. FIG. 10 is a diagram illustrating a second example of the correction coefficient. 9 and 10, the horizontal axis indicates the view angle center as 0%, the left and right ends of the view angle as 100%, the view angle subject position as a percentage, and the vertical axis indicates the correction coefficient as a percentage. When the angle of view subject position includes the left end position and the right end position of the main subject image as described above, the convergence
輻輳角制御部120は、例えば、図9または図10にグラフ化して示すような、補正係数751、752を、予め格納する。図9および図10に示す補正係数751、752は、画角中心から上述の所定の距離以下の範囲の位置に対応してほぼゼロであり、上述の所定の距離を超えて画角中心からより離れた位置ほど100に近付く。その変化は、滑らかな増加となっている。図9に示す補正係数751は、二次関数的に100に向かって増加する。一方、図10に示す補正係数752は、画角端部において変化が緩やかになっている。
The convergence
輻輳角制御部120は、画角被写体位置に対応する補正係数p(i)を取得する。ここで、記号iは、画角被写体位置を示す。また、ここで、そのシーンで意図される主要被写体の飛出し量に対応する輻輳角は、基本輻輳角θc0と定義する。基本輻輳角θc0は、ユーザが任意に決める事ができる。例えば、調整後カメラ輻輳角θc”が基本輻輳角θc0よりも大きい場合、主要被写体は、画面よりも手前に位置するように見える。そして、逆に、調整後カメラ輻輳角θc”が基本輻輳角θc0よりも小さい場合、主要被写体は、画面よりも奥に位置するように見える。
The convergence
輻輳角制御部120は、例えば、被写体輻輳角θc'、基本輻輳角θc0、および補正係数p(i)から、以下の式(10)を用いて調整後カメラ輻輳角θc”を算出する。
θc”=θc0+(θc'−θc0)p(i)/100 ・・・・・・(10)
For example, the convergence
θ c ″ = θ c0 + (θ c ′ −θ c0 ) p (i) / 100 (10)
調整後カメラ輻輳角θc”が被写体輻輳角θc'に一致している状態は、被写体距離で光軸が交差している状態であり、左目映像と右目映像とで画角内において同じ位置に主要被写体が位置する状態である。すなわち、調整後カメラ輻輳角θc”が被写体輻輳角θc'に一致しているときとは、主要被写体の輻輳角矛盾が無い状態である。また、調整後カメラ輻輳角θc”に対する被写体輻輳角θc'の差分は、立体映像における画枠の輻輳角に対する主要被写体の輻輳角の差分となる。 The state where the post-adjustment camera convergence angle θ c ″ coincides with the subject convergence angle θ c ′ is a state in which the optical axes intersect at the subject distance, and the left eye image and the right eye image have the same position within the angle of view. In other words, when the adjusted camera convergence angle θ c ″ matches the subject convergence angle θ c ′, there is no contradiction in the convergence angle of the main subject. The difference of the subject convergence angle θ c ′ with respect to the adjusted camera convergence angle θ c ″ is the difference of the convergence angle of the main subject with respect to the convergence angle of the image frame in the stereoscopic video.
図9に示す補正係数751および図10に示す補正係数752を適用した場合、調整後カメラ輻輳角θc”は、主要被写体が画角中心部から端部へ移動するに従って、基本輻輳角θc0から被写体輻輳角θc'へと変化する。すなわち、このような調整後カメラ輻輳角θc”となるようにパン制御が行われて撮影された主要被写体は、画角中心部に位置するときには、そのシーンで意図される飛出し量で見え、画角端部に近付くにつれ、画枠の距離に近付いて見える。
When the
図9に示す補正係数751を適用した場合に比べて、図10に示す補正係数752を適用した場合の方が、画枠における主要被写体の飛び出し量の変化が滑らかとなるため、より違和感の少ない立体視を実現する事ができる。また、図10に示す補正係数752を適用した場合の方が、カメラ輻輳角の調整をより滑らかに行う事ができるので、立体映像の輻輳角の制御がより容易である。
Compared with the case where the
なお、調整後カメラ輻輳角θc”は、必ずしも、基本輻輳角θc0に完全に一致するまで基本輻輳角θc0に近付けなくても良い。この場合、例えば、最大値が80%であるような補正係数p(i)を採用する。これにより、立体映像の効果を優先させつつ、視聴者に与える疲労感の軽減を図る事ができる。 Incidentally, adjusted camera convergence angle theta c "may not always close to the basic convergence angle theta c0 until exactly matches the base vergence angle theta c0. In this case, for example, as a maximum value of 80% The correction coefficient p (i) is adopted, so that the feeling of fatigue given to the viewer can be reduced while giving priority to the effect of the stereoscopic image.
以下、上記で説明した立体映像の輻輳角の制御によって得られる効果について説明する。 Hereinafter, an effect obtained by controlling the convergence angle of the stereoscopic image described above will be described.
図11は、立体映像カメラ100により生成された立体映像における、主要被写体の見え方のイメージを示す図である。
FIG. 11 is a diagram illustrating an image of how the main subject is seen in the stereoscopic video generated by the
図11に示すように、画枠761の右端部から左端部へと主要被写体762が移動する場合を想定する。主要被写体762が画枠761の端部近傍に位置するときは、視聴者763は、画枠761を強めに認識する。一方、主要被写体762が画枠761の中心部に位置するときは、視聴者763は、画枠761をほとんど認識しない。立体映像カメラ100により生成された立体映像では、主要被写体762は、画枠761の右端部近傍の区間および左端部近傍の区間では、画枠とほぼ同じ距離に見え、その間の区間では、意図される飛出し量に対応する距離に見える。
As shown in FIG. 11, it is assumed that the
立体視における主要被写体762の距離は、画枠761の位置に応じて、変化する事になる。しかし、主要被写体762の立体視による仮想空間上での位置は、主要被写体の絶対的な距離によってではなく、主に、背景等、他の被写体との間の相対的な位置関係によって得られる。したがって、輻輳角が上述のように調整され、主要被写体762の距離が変化しても、主要被写体762の仮想空間上での位置はほとんど変化せず、視聴者に与える違和感は少ないといえる。
The distance of the
図12は、主要被写体の像の欠けに対する効果を説明するための図である。 FIG. 12 is a diagram for explaining the effect on the missing image of the main subject.
主要被写体が画枠の端部に位置し、カメラ輻輳角が被写体輻輳角に一致していないとき、図12に示すように、像の欠けにより、左目映像における像771と右目映像における像772とが大きく異なる場合がある。像771、772がこのように大きく異なると、主要被写体の立体視が得難くなる。
When the main subject is located at the end of the image frame and the camera convergence angle does not coincide with the subject convergence angle, as shown in FIG. 12, due to the lack of image, an
この点、立体映像カメラ100により生成された立体映像では、主要被写体は、画枠の端部に位置するときには左目映像と右目映像とで画角内において同じ位置となるため、欠けが生じたとしても像771、772はほぼ同一となる。
In this regard, in the stereoscopic video generated by the
したがって、立体映像カメラ100により生成された立体映像は、立体視をできるだけ損なわずに、画面を最大限に使って映像表示を行う事ができる。
Therefore, the stereoscopic video generated by the
以上説明したように、本実施の形態に係る立体映像カメラ100は、画角被写体位置が画角端部の近傍のとき、主要被写体の輻輳角が画角端部の輻輳角に近付くように、撮影される立体映像の輻輳角を制御する。すなわち、立体映像カメラ100は、特に主要被写体が画枠の近くに位置するときには、被写体距離と画角被写体位置に応じて輻輳角を制御し、主要被写体の輻輳角矛盾が低減するように、立体映像を形成する。
As described above, in the
これにより、立体映像カメラ100は、主要被写体が立体映像の画角端部の近傍に位置するとき、つまり輻輳角矛盾が認識され易い場合にのみ、輻輳角矛盾を低減し、その他の場合には、元の輻輳角矛盾を維持する事ができる。すなわち、映像作成者(ここでは撮影者)が本来狙った立体感をできるだけ損なう事なく、画面を最大限に使って立体映像を表示する事ができる。すなわち、立体映像カメラ100は、視聴者に与える疲労感や違和感が少なく、かつ、立体視による飛出しや奥行きといった立体映像ならではの演出効果ができるだけ保持された映像を形成する事ができる。
Thereby, the
また、立体映像カメラ100は、主要被写体が立体映像の画角端部の近傍に位置するか否かを判断し、判断結果に応じて、輻輳角を適切に制御する。これにより、例えば、撮影者もしくは映像編集者は、主要被写体の位置に応じて逐一輻輳角を手動で調整する必要が無い。
In addition, the
なお、立体映像の輻輳角の制御手法は、カメラのパン制御に限定されない。例えば、立体映像カメラ100は、カメラ輻輳角を物理的に固定とし(この場合、カメラの光軸が並行、つまりカメラ輻輳角がゼロである事が望ましい)、撮影された映像に対するトリミングを行う事により、輻輳角の制御を行っても良い。
Note that the method of controlling the convergence angle of a stereoscopic image is not limited to camera pan control. For example, in the
この場合、立体映像カメラ100は、例えば、左カメラ部200および右カメラ部300から出力される左目映像および右目映像に対して、指定範囲の切り出し(トリミング)を行う映像形成部を備えれば良い。
In this case, the
映像形成部は、例えば、カメラ輻輳角とトリミング範囲との対応関係を予め格納しておき、輻輳角制御部120が算出した調整後カメラ輻輳角θc”に基づいて、対応するトリミング範囲でトリミングを行う。または、映像形成部は、例えば、右目映像における主要被写体の位置と右目映像における主要被写体の位置とが一致するように、トリミング範囲を決定しても良い。具体的には、例えば、映像形成部は、カメラ輻輳角がゼロのとき、左目映像のトリミング範囲と右目映像のトリミング範囲とのずれ量が視差量Dに一致するように、トリミング範囲を決定する。
For example, the video forming unit stores in advance a correspondence relationship between the camera convergence angle and the trimming range, and performs trimming in the corresponding trimming range based on the adjusted camera convergence angle θ c ″ calculated by the convergence
また、上記説明では、通常、画角の上端および下端は水平な直線であり、かつ画面の周囲には視認され易いものが配置される事が少ない事から、主要被写体が画角の上端部および下端部の近傍に位置する場合についての説明を省いた。しかし、立体映像カメラ100は、主要被写体が上下端部の近傍に位置する場合においても、輻輳角矛盾を低減させるように、本願発明を適用することができる。これにより、立体映像カメラ100は、画角の上端/下端が水平な直線ではない場合や、画面の周囲に視認され易いものが配置される場合でも、視聴者に与える疲労感を軽減しつつ立体映像の効果を保持した立体映像を生成する事ができる。
In the above description, the upper and lower ends of the angle of view are usually horizontal straight lines, and it is rare that objects that are easily visible are arranged around the screen. The description about the case where it is located near the lower end is omitted. However, the
(実施の形態2)
本発明の実施の形態2は、主要被写体および画角被写体位置の特定を、実世界における主要被写体の位置に基づいて行う例である。
(Embodiment 2)
The second embodiment of the present invention is an example in which the main subject and the view angle subject position are specified based on the position of the main subject in the real world.
図13は、本実施の形態に係る立体映像制御装置を含む立体映像カメラの使用の様子を示す図であり、実施の形態1の図1に対応するものである。図1と同一部分には同一符号を付し、これについての説明を省略する。 FIG. 13 is a diagram showing how the stereoscopic video camera including the stereoscopic video control apparatus according to the present embodiment is used, and corresponds to FIG. 1 of the first embodiment. The same parts as those in FIG. 1 are denoted by the same reference numerals, and description thereof will be omitted.
図13に示すように、本実施の形態に係る立体映像カメラ100aは、実施の形態1の制御部400とは異なる制御部400aと、更に、被写体位置取得部800aを備える。
As shown in FIG. 13, the
被写体位置取得部800aは、例えば、主要被写体が身に付ける無線通信装置900aから発せされる無線信号に基づいて、無線通信装置900aの位置、つまり主要被写体の実世界における位置を取得する。例えば、無線通信装置900aは無線タグを含み、被写体位置取得部800aはタグリーダを含む。
For example, the subject
図14は、本実施の形態に係る立体映像カメラ100aの構成の一例を示すブロック図であり、実施の形態1の図2に対応するものである。図2と同一部分には同一符号を付し、これについての説明を省略する。
FIG. 14 is a block diagram showing an example of the configuration of the
立体映像カメラ100aは、実施の形態1の画角内位置取得部110とは異なる画角内位置取得部110aを有する。画角内位置取得部110aは、主要被写体が身に付けている無線通信装置900aに備えられた被写体位置発信部910aから、所定の無線信号を受信する。
The
図15は、本実施の形態に係る画角内位置取得部110aの構成の一例を示すブロック図である。
FIG. 15 is a block diagram illustrating an example of the configuration of the in-view angle
図15に示すように、画角内位置取得部110aは、被写体位置取得部800a、画角取得部112a、および画角内位置計算部113aを有する。
As illustrated in FIG. 15, the in-view angle
被写体位置取得部800aは、受信した被写体位置発信部910aからの無線信号に基づいて、立体映像カメラ100aに対する被写体位置発信部910aの相対的な位置および姿勢(以下「空間被写体位置」という)を取得する。そして、被写体位置取得部800aは、取得した空間被写体位置を、画角内位置計算部113aへ出力する。
The subject
無線信号による空間被写体位置の計測手法は、例えば、GPS(global positioning system)情報を用いる手法を採用する事ができる。この場合、被写体位置発信部910aは、GPS受信機を有し、GPS受信機の機能により自己の位置情報(緯度、経度、および高度等)を取得し、この位置情報を含む無線信号を送信する。そして、被写体位置取得部800aは、GPS受信機と、更に、地磁気の向きから自己の方位を取得する方位計(コンパス)と、重力加速度の向きから自身の仰角を得る仰角計(傾きセンサ)とを有する。そして、被写体位置取得部800aは、自身の位置、方位、および仰角と、被写体位置発信部910aから受信した主要被写体の位置情報とを用いて、空間被写体位置を算出する。
For example, a method using GPS (global positioning system) information can be employed as a method for measuring the position of a spatial subject using a wireless signal. In this case, the
または、無線信号による空間被写体位置の計測手法は、例えば、UWB(ultra wide band)通信による距離計測を用いる手法を採用する事ができる。この場合、被写体位置発信部910aは、UWBアンテナを有し、被写体位置取得部800aは、立体映像カメラ100aに固定された複数のUWBアンテナを有する。そして、被写体位置取得部800aは、被写体位置発信部910aと被写体位置取得部800aとの間の無線信号の往復時間と三角測量法とに基づいて、空間被写体位置を算出する。
Alternatively, for example, a method using distance measurement by UWB (ultra wide band) communication can be adopted as a method for measuring the position of the space subject using a wireless signal. In this case, the subject
なお、空間被写体位置の計測手法は、上述の例に限定されるものではないが、電波(電磁波)による無線接続等、間に遮蔽物がある場合でも計測が可能な手法である事が望ましい。 Note that the method of measuring the spatial subject position is not limited to the above-described example, but it is desirable that the method can measure even when there is a shielding object such as a wireless connection using radio waves (electromagnetic waves).
画角取得部112aは、カメラが撮影する映像の画角(以下「撮影画角」という)を取得し、取得した撮影画角を、画角内位置計算部113aへ出力する。取得される撮影画角は、左カメラ部200の撮影画角でも良いし、右カメラ部300の撮影画角でも良い。但し、パン制御が、一方のカメラ部を固定して他方のカメラ部のみを動かす事によって行われ、かつ、左カメラ部200と右カメラ部300とで撮影画角が異なる場合には、固定された方のカメラ部の撮影画角が取得される事が望ましい。
The angle-of-
撮影画角は、レンズの設定およびズーム度合いに関係する。したがって、画角取得部112aは、例えば、レンズのズーム機構(図示せず)から焦点距離を取得し、取得した焦点距離を撮影画角に換算する。焦点距離の取得は、市販のビデオカメラ等で用いられている、ズーム機構の回転部の回転量をロータリーエンコーダで読み取る方法などを用いて行えば良い。また焦点距離から撮影画角への換算は、カメラ固有の固定値を用いた単純な乗除演算を用いて行えば良い。
The shooting angle of view is related to the lens setting and the zoom level. Therefore, the angle-of-
画角内位置計算部113aは、空間被写体位置および撮影画角から、画角被写体位置を算出する。また、画角内位置計算部113aは、例えば、空間被写体位置から、被写体距離を取得する。
The in-view angle
図16は、立体映像カメラ100aの全体動作の一例を示すフローチャートであり、実施の形態1の図4に対応するものである。図4と同一部分には同一ステップ番号を付し、これについての説明を省略する。
FIG. 16 is a flowchart showing an example of the overall operation of the
まず、ステップS1100aにおいて、被写体位置取得部800aは、被写体位置発信部910aが発する無線信号を読み取り、被写体位置発信部910aの存在位置(空間被写体位置)を取得する。そして、被写体位置取得部800aは、取得した空間被写体位置を、画角内位置計算部113aへ出力する。被写体位置の取得処理については、後述する。
First, in step S1100a, the subject
なお、被写体位置取得部800aは、被写体位置発信部910aが複数存在する場合には、その中の1つを選択し、画角内位置計算部113aへ出力する事が望ましい。例えば、被写体位置取得部800aは、被写体位置発信部910aが複数存在する場合には、本来の輻輳角が最も大きい被写体、つまり、最も距離が近い被写体を、主要被写体として取り扱う。
In addition, when there are a plurality of subject
そして、ステップS1200aにおいて、画角取得部112aは、撮影画角を取得し、画角内位置計算部113aへ出力する。
In step S1200a, the angle-of-
そして、ステップS2100aにおいて、画角内位置計算部113aは、空間被写体位置および撮影画角から、画角被写体位置を算出すると共に、被写体距離を取得する。そして、画角内位置計算部113aは、画角被写体位置および被写体距離を、輻輳角制御部120へ出力する。以降の動作(S3000〜S6000)は、実施の形態1と同様である。
In step S2100a, the in-view angle
このような立体映像カメラ100aは、主要被写体および画角被写体位置の特定を、画像認識処理を行う事なく、実世界における主要被写体の位置に基づいて行う事ができる。
Such a
以下、上述の、空間被写体位置の取得処理、被写体距離の取得処理、および画角被写体位置の取得処理の詳細について、順に説明する。 Details of the space subject position acquisition processing, subject distance acquisition processing, and field angle subject position acquisition processing described above will be sequentially described below.
図17は、空間被写体位置を定義する座標系の一例を示す図である。 FIG. 17 is a diagram illustrating an example of a coordinate system that defines a spatial subject position.
図17に示すように、被写体位置取得部800aは、立体映像カメラ100aの位置および姿勢を基準とするxyz軸から成る座標系を設定する。例えば、z軸の正の方向は、左カメラ部200の光軸方向である。x軸の正の方向は、左カメラ部200のレンズ中心から右カメラ部300のレンズ中心へ向かう方向である。y軸の正の方向は、x軸およびz軸に直交する方向のうち、通常の撮影状態において下側に向かう方向である。各軸の単位は、メートル等、一般的な距離単位を採用する事ができる。
As shown in FIG. 17, the subject
ここで、被写体位置発信部910aが図17に示す位置にある時、被写体位置取得部800aは、座標値から成る空間被写体位置(x,y,z)を取得する。空間被写体位置(x,y,z)は、例えば、主要被写体に取り付けられた無線通信装置900aの被写体位置発信部910aの代表点の位置である。
Here, when the subject
そして、被写体位置取得部800aは、この空間被写体位置(x,y,z)のうち、例えば、z軸の値を、被写体距離として取得する。
Then, the subject
図18〜図20は、画角被写体位置の取得処理を説明するための図である。 18 to 20 are diagrams for explaining the process of obtaining the field angle subject position.
図18および図19に示すように、被写体位置取得部800aは、水平画角θfh、垂直画角θfv、および空間被写体位置(x,y,z)を取得する。水平画角θfhは、カメラの水平方向の撮影画角である。垂直画角θfvは、カメラの垂直方向の撮影画角である。
As shown in FIGS. 18 and 19, the subject
そして、被写体位置取得部800aは、例えば、以下の式(11)および式(12)を用いて、主要被写体781の画角被写体位置(Xs,Ys)を算出する。画角被写体位置(Xs,Ys)は、図20に示すように、左目映像782の中心783を基準とした座標系における主要被写体の像782の位置を示す値である。具体的には、画角被写体位置(Xs,Ys)は、座標系の原点(画角中心)を0%とし画角の左右端および上下端をそれぞれ100%として、主要被写体782の位置をパーセントで示す値である。
Then, the subject
Xs=x/{z・tan(θfh/2)} ・・・・・・(11)
Ys=y/{z・tan(θfv/2)} ・・・・・・(12)
X s = x / {z · tan (θ fh / 2)} (11)
Y s = y / {z · tan (θ fv / 2)} (12)
なお、立体映像カメラ100aが画角被写体位置の取得に用いる座標系は、上述の例に限定されない。例えば、かかる座標系は、左カメラ部200の輻輳角がゼロの際の左カメラ部200の光軸をz軸としても良い。このようにしても、画角被写体位置の演算結果はほぼ同一の値が得られる。
Note that the coordinate system used by the
また、立体映像カメラ100は、画枠の上端部近傍および下端部近傍については、実施の形態1と同様に、輻輳角矛盾を少なくする制御を行わなくても良い。この場合、立体映像カメラ100は、画角被写体位置として、左右方向の位置のみを算出し、画枠の左端部近傍および右端部近傍のみについて輻輳角矛盾を少なくする制御を行う。
In addition, the
このように、本実施の形態に係る立体映像カメラ100aは、画像認識によらずに画角被写体位置を取得するので、主要被写体に対する画像認識を行う事ができない場合でも、適切な輻輳角制御を行う事ができる。これにより、例えば、主要被写体の像に障害物や画枠によって欠けが生じている場合にも、適正な輻輳角を得て立体映像を形成する事ができる。
As described above, the
なお、主要被写体の像の一部は画角内に位置するにも関わらず、画角被写体位置は画角外となっている場合が起こり得る。そこで、立体映像カメラ100aは、画角被写体位置が画角外の範囲(つまり100%を超える範囲)についても、被写体輻輳角に適用する補正係数を格納している事が望ましい。
Note that there may be a case where the view angle subject position is outside the view angle even though a part of the image of the main subject is located within the view angle. Therefore, it is desirable that the
図21は、補正係数の一例を示す図であり、実施の形態1の図9および図10に対応するものである。図21に示すように、補正係数791は、例えば、画角被写体位置が100%を超える範囲において、画角被写体位置100%に対応する値(ここでは100%)とする。これにより、主要被写体の像の一部は画角内に位置するにも関わらず、画角被写体位置は画角外となっている場合でも、主要被写体の像の輻輳角矛盾を低減する事ができる。特に、主要被写体が画枠から出るときや入るときに、主要被写体の輻輳角が滑らかに変化し、視聴者への負担をより軽減する事ができる。
FIG. 21 is a diagram showing an example of the correction coefficient, and corresponds to FIG. 9 and FIG. 10 of the first embodiment. As shown in FIG. 21, the
また、以上説明した各実施の形態では、輻輳角制御部は、被写体輻輳角の変化に対して、対応する調整後カメラ輻輳角への輻輳角の調整をほぼリアルタイムに行うものとしたが、これに制限されない。例えば、輻輳角制御部は、輻輳角の調整に、画角被写体位置に応じた遅延時間を持たせても良い。すなわち、立体映像制御装置は、被写体距離の変化に対する輻輳角変換の追従速度(以下、単に「追従速度」という)を、画角被写体位置に応じて変化させても良い。 Further, in each of the embodiments described above, the convergence angle control unit adjusts the convergence angle to the corresponding adjusted camera convergence angle in response to a change in the subject convergence angle. Not limited to. For example, the convergence angle control unit may provide a delay time corresponding to the view angle subject position in the adjustment of the convergence angle. In other words, the stereoscopic video control apparatus may change the follow-up speed of the convergence angle conversion with respect to the change in the subject distance (hereinafter simply referred to as “follow-up speed”) according to the view angle subject position.
例えば、輻輳角制御部は、画角被写体位置が画角中心部にあるときには、追従速度を遅くする。これにより、例えば、被写体距離の急激な変化が、時刻t=0から時刻t=1に掛けて発生した場合、図22に示すように、後続の時刻t=2〜5において、緩やかに輻輳角矛盾をなくす方向に変化する動きとなる。 For example, the convergence angle control unit slows the tracking speed when the view angle subject position is at the center of the view angle. Thereby, for example, when a sudden change in the subject distance occurs from time t = 0 to time t = 1, as shown in FIG. 22, at a subsequent time t = 2 to 5, the convergence angle is moderated. The movement changes in a direction that eliminates contradictions.
そして、輻輳角制御部は、画角被写体位置が画角端部近傍にあるときには、追従速度を速くする。これにより、被写体距離の変化が、図23に示すように、後続の時刻t=2〜5において、急速に輻輳角矛盾をなくす方向に変化する動きとなる。また、特に、追従速度が最大(つまり遅延時間がほぼゼロ)の場合には、図24に示すように、後続の時刻t=2〜5において、瞬時に輻輳角矛盾をなくす方向に変化する動きとなる。 The convergence angle control unit increases the follow-up speed when the view angle subject position is in the vicinity of the view angle end. As a result, as shown in FIG. 23, the change in the subject distance is a movement that rapidly changes in the direction of eliminating the convergence angle contradiction at subsequent times t = 2 to 5. In particular, when the follow-up speed is maximum (that is, the delay time is almost zero), as shown in FIG. 24, the movement that changes instantaneously in the direction of eliminating the convergence angle contradiction at time t = 2 to 5 as shown in FIG. It becomes.
このように、立体映像制御装置は、輻輳角制御の追従速度を画角被写体位置に応じて変化させる事により、視聴者への負担をより軽減するという効果を得る事ができる。具体的には、立体映像制御装置は、画角中心部、画角端部近傍それぞれに適した様態で、短時間的、瞬間的には立体演出効果(例えば画面から飛び出たり、奥に引っ込んだりという見せ方)を得つつも、長時間的には輻輳角矛盾を減少させることができる。 In this way, the stereoscopic video control apparatus can obtain an effect of further reducing the burden on the viewer by changing the tracking speed of the convergence angle control according to the view angle subject position. Specifically, the stereoscopic video control device is suitable for the center of the angle of view and the vicinity of the edge of the angle of view, and in a short time and instantaneously, a stereoscopic effect (for example, popping out of the screen or retracting in the back) In the long term, the convergence angle contradiction can be reduced.
また、以上説明した各実施の形態では、本発明を、立体映像を撮影可能な家庭用ビデオカメラに適用した例について説明したが、本発明の適用はこれに制限されない。本発明は、例えば、映画を撮影するためのビデオカメラ等、立体映像を制御または生成する各種装置に適用する事ができる。立体映像が映画である場合には、主要被写体は、例えば、主人公等の主要な役割を持つ登場人物や、各シーンにおいて視聴者の着目を集めたい登場人物あるいは物体である。 In each of the embodiments described above, an example in which the present invention is applied to a home video camera capable of shooting a stereoscopic video has been described, but the application of the present invention is not limited thereto. The present invention can be applied to various devices that control or generate stereoscopic images, such as video cameras for shooting movies. When the stereoscopic video is a movie, the main subject is, for example, a character who has a main role such as a hero or a character or an object that wants to attract viewers' attention in each scene.
また、立体映像制御装置の各装置部は、必ずしも1つの装置に一体的に設ける必要はない。例えば、立体映像制御装置は、制御部を、他の各装置部と有線または無線により接続された別体装置としても良い。 Further, each device unit of the stereoscopic video control device is not necessarily provided integrally in one device. For example, in the stereoscopic video control device, the control unit may be a separate device connected to other device units by wire or wirelessly.
本発明に係る立体映像制御装置および立体映像制御方法は、視聴者に与える疲労感を軽減しつつ、立体映像の効果をより良く得る事ができる立体映像制御装置および立体映像制御方法として有用である。具体的には、本発明に係る立体映像制御装置および立体映像制御方法は、例えば、業務用または家庭用ビデオカメラ、映像編集機、映像編集ソフトウェア等、立体映像を制御または生成する装置に有用である。 INDUSTRIAL APPLICABILITY The stereoscopic video control device and the stereoscopic video control method according to the present invention are useful as a stereoscopic video control device and a stereoscopic video control method capable of obtaining a better stereoscopic video effect while reducing the feeling of fatigue given to the viewer. . Specifically, the stereoscopic video control device and the stereoscopic video control method according to the present invention are useful for an apparatus that controls or generates a stereoscopic video, such as a business or home video camera, a video editing machine, and video editing software. is there.
100、100a 立体映像カメラ
110、110a 画角内位置取得部
111 画像認識部
112a 画角取得部
113a 画角内位置計算部
120 輻輳角制御部
130 記憶部
200 左カメラ部
300 右カメラ部
400、400a 制御部
500 表示部
600 入力部
800a 被写体位置取得部
900a 無線通信装置
910a 被写体位置発信部
100, 100a
Claims (12)
前記立体映像の画角内における主要被写体の位置を取得する画角内位置取得部と、
前記画角内における前記主要被写体の位置に応じて前記立体映像の輻輳角を制御する輻輳角制御部と、
を有する立体映像制御装置。 A stereoscopic video control device for controlling a convergence angle of a stereoscopic video composed of a left-eye video and a right-eye video,
An in-view angle position acquisition unit for acquiring the position of the main subject within the view angle of the stereoscopic image;
A convergence angle control unit that controls a convergence angle of the stereoscopic image according to the position of the main subject within the angle of view;
3D image control apparatus.
前記主要被写体が前記画角の端部の近傍に位置するか否かを判定し、前記主要被写体が前記端部の近傍に位置するときに前記主要被写体の輻輳角矛盾が低減するように、前記立体映像の輻輳角を制御する、
請求項1記載の立体映像制御装置。 The convergence angle control unit
It is determined whether or not the main subject is located near the end of the angle of view, and the convergence angle contradiction of the main subject is reduced when the main subject is located near the end. Control the convergence angle of stereoscopic images,
The stereoscopic image control apparatus according to claim 1.
前記主要被写体の位置が前記端部近傍のとき、前記端部に対する前記主要被写体の位置が、前記左目映像と前記右目映像との間で近付くように、前記立体映像の輻輳角を制御する、
請求項2記載の立体映像制御装置。 The convergence angle control unit
When the position of the main subject is near the end, the convergence angle of the stereoscopic image is controlled so that the position of the main subject relative to the end approaches between the left-eye image and the right-eye image.
The stereoscopic video control apparatus according to claim 2.
前記主要被写体の位置の前記端部までの距離に応じて、段階的に、前記立体映像の輻輳角を制御する、
請求項1記載の立体映像制御装置。 The convergence angle control unit
In accordance with the distance to the end of the position of the main subject, the convergence angle of the stereoscopic video is controlled step by step.
The stereoscopic image control apparatus according to claim 1.
前記主要被写体の位置が画角の左端部および右端部の少なくとも一方の近傍のとき、前記主要被写体の輻輳角矛盾が低減するように前記立体映像の輻輳角を制御する、
請求項2記載の立体映像制御装置。 The convergence angle control unit
When the position of the main subject is in the vicinity of at least one of the left end and the right end of the angle of view, the convergence angle of the stereoscopic image is controlled so as to reduce the contradiction of the convergence angle of the main subject.
The stereoscopic video control apparatus according to claim 2.
前記主要被写体の位置が画角の上端部および下端部の少なくとも一方の近傍のとき、前記主要被写体の輻輳角矛盾が低減するように前記立体映像の輻輳角を制御する、
請求項2記載の立体映像制御装置。 The convergence angle control unit
When the position of the main subject is in the vicinity of at least one of the upper end and the lower end of the angle of view, the convergence angle of the stereoscopic image is controlled so as to reduce the contradiction of the convergence angle of the main subject.
The stereoscopic video control apparatus according to claim 2.
請求項1記載の立体映像制御装置。 Controlling the convergence angle of the stereoscopic image by controlling the camera convergence angle as the angle formed by the optical axis of the camera that captures the left-eye image and the optical axis of the camera that captures the right-eye image,
The stereoscopic image control apparatus according to claim 1.
前記輻輳角制御部は、
前記トリミングの位置を制御する事により、前記立体映像の輻輳角を制御する、
請求項1記載の立体映像制御装置。 An image forming unit that performs trimming on each of the left-eye image and the right-eye image;
The convergence angle control unit
By controlling the trimming position, the angle of convergence of the stereoscopic image is controlled.
The stereoscopic image control apparatus according to claim 1.
前記画角内位置取得部は、
前記主要被写体の実世界における位置から、前記主要被写体の画角内における位置を取得する、
請求項1記載の立体映像制御装置。 A subject position obtaining unit for obtaining a position of the main subject in the real world,
The in-view angle position acquisition unit
Obtaining a position within the angle of view of the main subject from the position of the main subject in the real world;
The stereoscopic image control apparatus according to claim 1.
前記主要被写体から発せられる無線信号に基づいて、前記主要被写体の実世界における位置を取得する、
請求項9記載の立体映像制御装置。 The subject position acquisition unit
Acquiring a position of the main subject in the real world based on a radio signal emitted from the main subject;
The stereoscopic video control apparatus according to claim 9.
前記主要被写体の位置に応じて、異なる追従速度で、前記主要被写体の輻輳角の変化に対して前記立体映像の輻輳角の変化を追従させる、
請求項1記載の立体映像制御装置。 The convergence angle control unit
Depending on the position of the main subject, the change in the convergence angle of the stereoscopic image is made to follow the change in the convergence angle of the main subject at a different following speed.
The stereoscopic image control apparatus according to claim 1.
前記立体映像の画角内における主要被写体の位置を取得するステップと、
前記画角内における前記主要被写体の位置に応じて前記立体映像の輻輳角を制御するステップと、
を有する立体映像制御方法。 A stereoscopic video control method for controlling a convergence angle of a stereoscopic video composed of a left-eye video and a right-eye video,
Obtaining a position of a main subject within an angle of view of the stereoscopic image;
Controlling a convergence angle of the stereoscopic video according to a position of the main subject within the angle of view;
3D video control method.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010070443A JP2011205385A (en) | 2010-03-25 | 2010-03-25 | Three-dimensional video control device, and three-dimensional video control method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010070443A JP2011205385A (en) | 2010-03-25 | 2010-03-25 | Three-dimensional video control device, and three-dimensional video control method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2011205385A true JP2011205385A (en) | 2011-10-13 |
Family
ID=44881547
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2010070443A Pending JP2011205385A (en) | 2010-03-25 | 2010-03-25 | Three-dimensional video control device, and three-dimensional video control method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2011205385A (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9621873B2 (en) | 2012-05-31 | 2017-04-11 | Casio Computer Co., Ltd. | Apparatus including function to generate stereoscopic image, and method and storage medium for the same |
| WO2019230115A1 (en) * | 2018-05-30 | 2019-12-05 | ソニー・オリンパスメディカルソリューションズ株式会社 | Medical image processing apparatus |
| JPWO2020059472A1 (en) * | 2018-09-21 | 2021-08-30 | 本田技研工業株式会社 | Vehicle inspection system |
| WO2025100026A1 (en) * | 2023-11-08 | 2025-05-15 | キヤノン株式会社 | Image processing device, head-mounted display device, image processing method, and program |
-
2010
- 2010-03-25 JP JP2010070443A patent/JP2011205385A/en active Pending
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9621873B2 (en) | 2012-05-31 | 2017-04-11 | Casio Computer Co., Ltd. | Apparatus including function to generate stereoscopic image, and method and storage medium for the same |
| WO2019230115A1 (en) * | 2018-05-30 | 2019-12-05 | ソニー・オリンパスメディカルソリューションズ株式会社 | Medical image processing apparatus |
| JPWO2020059472A1 (en) * | 2018-09-21 | 2021-08-30 | 本田技研工業株式会社 | Vehicle inspection system |
| JP7054739B2 (en) | 2018-09-21 | 2022-04-14 | 本田技研工業株式会社 | Vehicle inspection system |
| WO2025100026A1 (en) * | 2023-11-08 | 2025-05-15 | キヤノン株式会社 | Image processing device, head-mounted display device, image processing method, and program |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10116922B2 (en) | Method and system for automatic 3-D image creation | |
| US10491886B2 (en) | Virtual reality display | |
| JP5260705B2 (en) | 3D augmented reality provider | |
| KR20210154814A (en) | Head-mounted display with pass-through imaging | |
| CN110377148B (en) | Computer readable medium, method of training object detection algorithm and training device | |
| US20130113701A1 (en) | Image generation device | |
| US9338426B2 (en) | Three-dimensional image processing apparatus, three-dimensional imaging apparatus, and three-dimensional image processing method | |
| US20190045125A1 (en) | Virtual reality video processing | |
| WO2017213070A1 (en) | Information processing device and method, and recording medium | |
| JP6768933B2 (en) | Information processing equipment, information processing system, and image processing method | |
| KR101270025B1 (en) | Stereo Camera Appratus and Vergence Control Method thereof | |
| CN108876840A (en) | A method of vertical or forward projection 3-D image is generated using virtual 3d model | |
| JP2011205385A (en) | Three-dimensional video control device, and three-dimensional video control method | |
| JP6649010B2 (en) | Information processing device | |
| KR20200128661A (en) | Apparatus and method for generating a view image | |
| KR102001255B1 (en) | Coordinated stereo image acquisition and viewing system | |
| CN119865594A (en) | Image rendering method and device, display device and naked eye 3D display system | |
| WO2018173207A1 (en) | Information processing device | |
| US11310472B2 (en) | Information processing device and image generation method for projecting a subject image onto a virtual screen | |
| JP7593334B2 (en) | Display device, image generating method and program | |
| KR101421442B1 (en) | Method and system tracking position of stereo camera | |
| JP2022015647A (en) | Information processing apparatus and image display method | |
| JP7465133B2 (en) | Information processing device and information processing method | |
| JP2023178093A (en) | Display unit, control method, and program | |
| KR20240114578A (en) | technique edit and location camera |