[go: up one dir, main page]

JP2011205385A - Three-dimensional video control device, and three-dimensional video control method - Google Patents

Three-dimensional video control device, and three-dimensional video control method Download PDF

Info

Publication number
JP2011205385A
JP2011205385A JP2010070443A JP2010070443A JP2011205385A JP 2011205385 A JP2011205385 A JP 2011205385A JP 2010070443 A JP2010070443 A JP 2010070443A JP 2010070443 A JP2010070443 A JP 2010070443A JP 2011205385 A JP2011205385 A JP 2011205385A
Authority
JP
Japan
Prior art keywords
angle
subject
convergence angle
main subject
view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010070443A
Other languages
Japanese (ja)
Inventor
Kazunori Inoue
和紀 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2010070443A priority Critical patent/JP2011205385A/en
Publication of JP2011205385A publication Critical patent/JP2011205385A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】視聴者に与える疲労感を軽減しつつ、立体映像の効果をより良く得る事ができる立体映像制御装置を提供する事。
【解決手段】本発明の立体映像制御装置を含む立体映像カメラ100は、左目映像および右目映像により構成される立体映像の輻輳角を制御する装置であって、立体映像の画角内における主要被写体の位置を取得する画角内位置取得部110と、画角内における主要被写体の位置に応じて立体映像の輻輳角を制御する輻輳角制御部120とを有する。
【選択図】図2
To provide a stereoscopic video control apparatus capable of obtaining a better stereoscopic video effect while reducing a feeling of fatigue given to a viewer.
A stereoscopic video camera 100 including a stereoscopic video control device of the present invention is a device for controlling a convergence angle of a stereoscopic video composed of a left-eye video and a right-eye video, and is a main subject within the angle of view of the stereoscopic video. Angle-of-view position acquisition unit 110 that acquires the position of the image, and a convergence angle control unit 120 that controls the convergence angle of the stereoscopic video according to the position of the main subject within the angle of view.
[Selection] Figure 2

Description

本発明は、左目映像および右目映像により構成される立体映像を制御する立体映像制御装置および立体映像制御方法に関する。   The present invention relates to a stereoscopic video control apparatus and a stereoscopic video control method for controlling a stereoscopic video composed of a left-eye video and a right-eye video.

近年、立体(3D:3 Dimension)映像技術が映画コンテンツなどの分野で一般に広まりつつある。   In recent years, 3D (3D) image technology is generally spreading in the field of movie content and the like.

立体映像から立体視が得られる仕組みは以下の通りである。人間が肉眼で被写体を見る際、左目と被写体とを結ぶ線と右目と被写体とを結ぶ線とが成す角である輻輳角は、左右の眼球の位置の違いから、被写体までの距離に応じて異なる。人間は、被写体に視線を合わせたときの輻輳角の感覚に基づいて、各被写体までの距離の大小を認識し、立体視を得る。立体映像の技術は、画角内における像の位置に微妙な差異(視差)を有する左目映像と右目映像とを生成し、それぞれを視聴者の左右の目に見せる事により、あたかも目の前に立体物が存在するかのような錯覚を視聴者に与えるものである。   The mechanism for obtaining a stereoscopic view from a stereoscopic image is as follows. When a human sees the subject with the naked eye, the convergence angle, which is the angle between the line connecting the left eye and the subject and the line connecting the right eye and the subject, depends on the distance to the subject due to the difference in the positions of the left and right eyeballs. Different. A human recognizes the size of the distance to each subject based on the sense of the convergence angle when the line of sight is brought to the subject, and obtains a stereoscopic view. Three-dimensional video technology creates a left-eye video and a right-eye video that have a subtle difference (parallax) in the position of the image within the angle of view, and makes each appear to the viewer's left and right eyes, as if in front of the eyes. It gives viewers the illusion that a three-dimensional object exists.

現実の立体物を見たときの映像(以下「実映像」という)と、立体映像との相違点は、眼から像までの実際の距離と、輻輳角により擬似的に得られる結像距離との間に、差異があるか否かである。実映像の場合は差異がなく、立体映像の場合は差異があり得る。なぜならば、実際に立体映像が存在する映像面(例えば、ディスプレイパネルの表示面)の位置と視聴者との距離は変わる事はないにもかかわらず、立体効果を得るために、結像距離を様々に変化させるためである。   The difference between the image when viewing a real three-dimensional object (hereinafter referred to as “real image”) and the three-dimensional image is that the actual distance from the eye to the image and the image formation distance obtained in a pseudo manner by the angle of convergence. Whether there is a difference between them. There is no difference in the case of a real image, and there can be a difference in the case of a stereoscopic image. This is because, in order to obtain a three-dimensional effect, the imaging distance is set in order to obtain a three-dimensional effect, although the distance between the position of the video plane where the stereoscopic video actually exists (for example, the display surface of the display panel) and the viewer does not change. This is for various changes.

このような、眼から像までの実際の距離と、輻輳角により擬似的に得られる結像距離との差異を、一般には「輻輳角矛盾」と呼ぶ。   Such a difference between the actual distance from the eye to the image and the imaging distance obtained in a pseudo manner by the convergence angle is generally referred to as “convergence angle contradiction”.

立体映像に輻輳角矛盾がない状況とは、映像面までの距離と、結像距離とが一致している状況である。この状況下においては、左目に投影する像と、右目に投影する像の、画面上の表示位置が概一致する。端的には、立体視用の眼鏡を外して映像を見た場合に、対象像が二重になって見える事がなく、一つの像として見える状況にある事が知られている。逆の言い方をすれば、眼鏡を外すと像が二重に見える場合は、その対象像には輻輳角矛盾があるといえる。   The situation where there is no convergence angle contradiction in the stereoscopic video is a situation where the distance to the video plane is equal to the imaging distance. Under this circumstance, the display positions on the screen of the image projected to the left eye and the image projected to the right eye substantially coincide. In short, it is known that when viewing a video with the glasses for stereoscopic viewing removed, the target image does not appear to be doubled but is seen as one image. In other words, if the image appears double when the glasses are removed, it can be said that there is a convergence angle contradiction in the target image.

3D映画等では、視聴者に見せたい被写体に意図的に輻輳角矛盾を付けたり、輻輳角に変化を持たせる事が行われている。これにより、被写体があたかも映像面から手前に飛び出した位置に見えたり、奥に引っ込んだ位置に見えたりする効果を出し、より演出性の高いアトラクティブな立体視映像が実現されている。   In a 3D movie or the like, a convergence angle contradiction is intentionally applied to a subject that a viewer wants to show to the viewer, or the convergence angle is changed. As a result, an effect of making the subject appear as if it has jumped out of the image plane or in a position where it has been retracted deeply is realized, and an attractive stereoscopic image with higher performance is realized.

従来、立体映像技術は、左右に並べて配置した2台のカメラを用いて左目映像および右目映像を撮影する事が広く行われている(例えば特許文献1参照)。また、立体映像技術は、肉眼で見たときの実際の被写体に対する輻輳角(以下「本来の輻輳角」という)に対して、立体映像の画面に映し出される被写体に対する輻輳角(以下「立体映像の輻輳角」という)を制御する事が行われている。輻輳角を制御する技術は、例えば特許文献1および特許文献2のものが知られている。   Conventionally, in stereoscopic video technology, it has been widely performed to take a left-eye video and a right-eye video using two cameras arranged side by side (see, for example, Patent Document 1). In addition, the 3D image technology uses a convergence angle (hereinafter referred to as “stereoscopic video”) for a subject displayed on a 3D video screen with respect to a vergence angle (hereinafter referred to as “original convergence angle”) with respect to an actual subject when viewed with the naked eye. Control of the convergence angle is performed. For example, Patent Literature 1 and Patent Literature 2 are known as techniques for controlling the convergence angle.

特許文献1および特許文献2記載の技術は、カメラから被写体までの距離に応じて、左目映像および右目映像に対するトリミング範囲をそれぞれ決定し、左目映像および右目映像のトリミングを行う。これにより、画角内における像の位置を制御し、立体映像の輻輳角を制御する事ができるようになっている。   The techniques described in Patent Document 1 and Patent Document 2 determine the trimming ranges for the left-eye video and the right-eye video according to the distance from the camera to the subject, and trim the left-eye video and the right-eye video. As a result, the position of the image within the angle of view can be controlled, and the convergence angle of the stereoscopic video can be controlled.

特開2007−194694号公報JP 2007-194694 A 特開平7−95623号公報JP-A-7-95623 特開平7−38267号公報JP-A-7-38267 特開2009−129420号公報JP 2009-129420 A

ところで、画面の端部(画面と画面周辺部との境界、つまり画角端部)に対する適切な輻輳角は、通常、立体映像の輻輳角とは関係なく一定である。なぜなら、画角端部に存在する画枠(例えばテレビの外枠部品)は、現実その場所に存在する立体物であり、この立体物を人間の目が見る時は、物理的な距離に完全に対応した状態で両眼の輻輳角が決まり、輻輳角矛盾は発生しない。一方、立体映像は、輻輳角矛盾を伴う事がしばしばある。   Incidentally, the appropriate convergence angle with respect to the edge of the screen (the boundary between the screen and the peripheral portion of the screen, that is, the edge of the angle of view) is usually constant regardless of the convergence angle of the stereoscopic video. This is because the picture frame (for example, the outer frame part of the TV) that exists at the edge of the angle of view is a three-dimensional object that actually exists in that place, and when the human eye sees this three-dimensional object, it is completely at a physical distance. The vergence angle of both eyes is determined in a state corresponding to, and vergence angle contradiction does not occur. On the other hand, stereoscopic images often have a contradiction in convergence angle.

画枠と立体映像を同時に注視した際には、両者の輻輳角矛盾の有無の違い(輻輳角矛盾が有るか、無いかの違い)は、著しいミスマッチとして視覚に捉えられ、視聴者に大きな違和感を与える場合がある。   When watching the image frame and 3D image at the same time, the difference in whether there is a contradiction in the convergence angle (difference in whether there is a convergence angle contradiction or not) is visually perceived as a significant mismatch, and the viewer feels a great sense of discomfort. May give.

そこで、上述の特許文献1および特許文献2記載の技術を用いて、立体映像の輻輳角矛盾を低減させる事が考えられる。これにより、視聴者に対して疲労感を軽減する事ができる。ところが、このように輻輳角矛盾を低減させると、立体映像の輻輳角の変化は狭い範囲に限定される事になる。すなわち、結像距離が映像面までの距離と常時一致してしまうため、立体視による飛出しや奥行きといった立体映像ならではの演出効果が充分に得られない。   Therefore, it is conceivable to reduce the contradiction of the convergence angle of the stereoscopic video by using the techniques described in Patent Document 1 and Patent Document 2 described above. Thereby, a feeling of fatigue can be reduced for the viewer. However, if the convergence angle contradiction is reduced in this way, the change in the convergence angle of the stereoscopic video is limited to a narrow range. In other words, since the imaging distance always coincides with the distance to the image plane, it is not possible to obtain a sufficient effect such as projection and depth in a stereoscopic view.

そこで、画角端部の映像を見え難くする技術が、従来提案されている(例えば特許文献3および特許文献4参照)。   Therefore, a technique for making it difficult to see the image at the end of the angle of view has been proposed (see, for example, Patent Document 3 and Patent Document 4).

特許文献3記載の技術は、画角端部を仮想フレームで覆い隠す。また、特許文献4記載の技術は、画角端部にぼかしを入れる。これにより、画角端部における立体映像の輻輳角矛盾を認識し難くする事ができる。   The technique described in Patent Document 3 covers the edge of the angle of view with a virtual frame. The technique described in Patent Document 4 blurs the edge of the angle of view. Thereby, it is possible to make it difficult to recognize the contradiction of the convergence angle of the stereoscopic video at the end of the angle of view.

しかしながら、特許文献3および特許文献4記載の技術では、やはり映像の立体感を十分に得る事は難しい。なぜなら、立体感を十分表現するためには、大きな輻輳角で被写体を表示するために画角をできるだけ大きく活用する事が望ましいが、特許文献3および特許文献4記載の技術では、画角端部を実質的に活用する事ができないからである。   However, with the techniques described in Patent Document 3 and Patent Document 4, it is difficult to obtain a sufficient stereoscopic effect. This is because, in order to sufficiently express the stereoscopic effect, it is desirable to use the field angle as much as possible in order to display the subject with a large convergence angle. However, in the techniques described in Patent Document 3 and Patent Document 4, the edge of the field angle is used. This is because it is not possible to make practical use of.

本発明の目的は、視聴者に与える疲労感を軽減しつつ、立体映像の効果をより良く得る事ができる立体映像制御装置および立体映像制御方法を提供する事である。   An object of the present invention is to provide a 3D image control apparatus and a 3D image control method capable of obtaining a better effect of a 3D image while reducing a feeling of fatigue given to a viewer.

本発明の立体映像制御装置は、左目映像および右目映像により構成される立体映像の輻輳角を制御する立体映像制御装置であって、前記立体映像の画角内における主要被写体の位置を取得する画角内位置取得部と、前記画角内における前記主要被写体の位置に応じて前記立体映像の輻輳角を制御する輻輳角制御部とを有する。   A stereoscopic video control apparatus according to the present invention is a stereoscopic video control apparatus that controls a convergence angle of a stereoscopic video composed of a left-eye video and a right-eye video, and an image for acquiring a position of a main subject within the angle of view of the stereoscopic video. An in-corner position acquisition unit; and a convergence angle control unit that controls a convergence angle of the stereoscopic image in accordance with the position of the main subject within the angle of view.

本発明の立体映像制御方法は、左目映像および右目映像により構成される立体映像の輻輳角を制御する立体映像制御方法であって、前記立体映像の画角内における主要被写体の位置を取得するステップと、前記画角内における前記主要被写体の位置に応じて前記立体映像の輻輳角を制御するステップとを有するようにした。   The stereoscopic video control method of the present invention is a stereoscopic video control method for controlling a convergence angle of a stereoscopic video composed of a left-eye video and a right-eye video, and acquiring a position of a main subject within the angle of view of the stereoscopic video. And a step of controlling a convergence angle of the stereoscopic image in accordance with a position of the main subject within the angle of view.

本発明によれば、映像の立体感を出すべき画角中央部では輻輳角矛盾を増大させ、輻輳角矛盾の有無の違いが認識され易い画角端部では輻輳角矛盾を低減させるという事が可能となり、視聴者に与える疲労感を軽減しつつ、立体映像の効果をより良く得る事ができる。   According to the present invention, the convergence angle contradiction is increased at the central portion of the angle of view where the stereoscopic effect of the image should be produced, and the convergence angle contradiction is reduced at the end of the angle of view where the difference in presence or absence of the convergence angle is easily recognized. This makes it possible to obtain a better stereoscopic effect while reducing the feeling of fatigue given to the viewer.

本発明の実施の形態1に係る立体映像制御装置を含む立体映像カメラの外観の一例を示す図The figure which shows an example of the external appearance of the stereoscopic video camera containing the stereoscopic video control apparatus which concerns on Embodiment 1 of this invention. 本実施の形態1に係る立体映像カメラの構成の一例を示すブロック図FIG. 2 is a block diagram illustrating an example of a configuration of a stereoscopic video camera according to the first embodiment. 本実施の形態1に係る画角内位置取得部の構成の一例を示すブロック図FIG. 3 is a block diagram illustrating an example of a configuration of an in-view angle position acquisition unit according to the first embodiment. 本実施の形態1に係る立体映像カメラの全体動作の一例を示すフローチャートThe flowchart which shows an example of the whole operation | movement of the stereoscopic video camera which concerns on this Embodiment 1. 本実施の形態1における画角被写体位置の取得処理の一例を説明するための図The figure for demonstrating an example of the acquisition process of a view angle subject position in this Embodiment 1. FIG. 本実施の形態1における画角被写体位置の取得処理の他の例を説明するための図The figure for demonstrating the other example of the acquisition process of a view angle subject position in this Embodiment 1. FIG. 本実施の形態1における被写体距離の取得処理および被写体輻輳角の算出処理を説明するための第1の図FIG. 1 is a first diagram for explaining subject distance acquisition processing and subject convergence angle calculation processing in the first embodiment; 本実施の形態1における被写体距離の取得処理および被写体輻輳角の算出処理を説明するための第2の図FIG. 6 is a second diagram for explaining subject distance acquisition processing and subject convergence angle calculation processing in the first embodiment; 本実施の形態1における補正係数の第1の例を示す図The figure which shows the 1st example of the correction coefficient in this Embodiment 1. 本実施の形態1における補正係数の第2の例を示す図The figure which shows the 2nd example of the correction coefficient in this Embodiment 1. FIG. 本実施の形態1における主要被写体の見え方のイメージを示す図The figure which shows the image of how the main subject looks in this Embodiment 1. 本実施の形態1における主要被写体の像の欠けに対する効果を説明するための図The figure for demonstrating the effect with respect to the lack of the image of the main subject in this Embodiment 1. FIG. 本発明の実施の形態2に係る立体映像制御装置を含む立体映像カメラの使用の様子を示す図The figure which shows the mode of use of the stereoscopic video camera containing the stereoscopic video control apparatus which concerns on Embodiment 2 of this invention. 本実施の形態2に係る立体映像カメラの構成の一例を示すブロック図Block diagram showing an example of the configuration of a stereoscopic video camera according to the second embodiment 本実施の形態2に係る画角内位置取得部の構成の一例を示すブロック図The block diagram which shows an example of a structure of the in-view angle position acquisition part which concerns on this Embodiment 2. FIG. 本実施の形態2に係る立体映像カメラの全体動作の一例を示すフローチャートThe flowchart which shows an example of the whole operation | movement of the stereoscopic video camera which concerns on this Embodiment 2. 本実施の形態2における空間被写体位置を定義する座標系の一例を示す図The figure which shows an example of the coordinate system which defines the space subject position in this Embodiment 2. 本実施の形態2における画角被写体位置の取得処理を説明するための第1の図FIG. 13 is a first diagram for explaining the process of obtaining the field angle subject position in the second embodiment. 本実施の形態2における画角被写体位置の取得処理を説明するための第2の図FIG. 7 is a second diagram for explaining the processing for obtaining the field angle subject position in the second embodiment. 本実施の形態2における画角被写体位置の取得処理を説明するための第3の図FIG. 3 is a third diagram for explaining the processing for obtaining the field angle subject position in the second embodiment. 本実施の形態2における補正係数の一例を示す図The figure which shows an example of the correction coefficient in this Embodiment 2. 本発明の実施の形態における画角被写体位置が画角中心部にあるときの追従速度の一例を示す図The figure which shows an example of a tracking speed when the view angle subject position exists in the center of the view angle in the embodiment of the present invention. 本発明の実施の形態における画角被写体位置が画角端部近傍にあるときの追従速度の第1の例を示す図The figure which shows the 1st example of the follow-up speed when the view angle subject position in the embodiment of the present invention is in the vicinity of the view angle end. 本発明の実施の形態における画角被写体位置が画角端部近傍にあるときの追従速度の第2の例を示す図The figure which shows the 2nd example of a follow-up speed when the view angle subject position in embodiment of this invention exists in the vicinity of the view angle edge part.

以下、本発明の各実施の形態について、図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(実施の形態1)
図1は、本発明の実施の形態1に係る立体映像制御装置を含む立体映像カメラの外観の一例を示す図である。本実施の形態は、本発明を、立体映像を撮影可能な家庭用ビデオカメラに適用した例である。
(Embodiment 1)
FIG. 1 is a diagram showing an example of the appearance of a stereoscopic video camera including the stereoscopic video control apparatus according to Embodiment 1 of the present invention. This embodiment is an example in which the present invention is applied to a home video camera capable of shooting a stereoscopic video.

図1において、立体映像カメラ100は、左カメラ部200、右カメラ部300、制御部400、表示部500、および入力部600を有する。   In FIG. 1, the stereoscopic video camera 100 includes a left camera unit 200, a right camera unit 300, a control unit 400, a display unit 500, and an input unit 600.

左カメラ部200および右カメラ部300は、それぞれ、2眼式立体映像を構成する左目映像および右目映像を撮影するビデオカメラであり、例えば光学レンズおよび撮像素子を備えた電子部品である。以下、左目映像および右目映像を特に区別しないときは、単に「映像」と総称する。左カメラ部200および右カメラ部300(以下、適宜「カメラ」と総称する)は、視聴者の目に対応するもので、撮影された立体映像から立体視効果を得られるように、適切な距離を置いて水平に配置される。また、左カメラ部200の光軸方向と右カメラ部300の光軸方向とが成す角(以下「カメラ輻輳角」という)は、少なくとも一方のパン制御(光軸方向を左右方向に制御)により、調整可能となっている。   Each of the left camera unit 200 and the right camera unit 300 is a video camera that captures a left-eye image and a right-eye image that form a binocular stereoscopic image, and is, for example, an electronic component that includes an optical lens and an image sensor. Hereinafter, when the left-eye video and the right-eye video are not particularly distinguished, they are simply collectively referred to as “video”. The left camera unit 200 and the right camera unit 300 (hereinafter, collectively referred to as “camera” as appropriate) correspond to the eyes of the viewer, and have an appropriate distance so that a stereoscopic effect can be obtained from the captured stereoscopic video. Is placed horizontally. The angle formed by the optical axis direction of the left camera unit 200 and the optical axis direction of the right camera unit 300 (hereinafter referred to as “camera convergence angle”) is determined by at least one pan control (controlling the optical axis direction in the left-right direction). Can be adjusted.

制御部400は、立体映像カメラ100全体の動作を制御し、カメラの駆動、撮影、および映像処理等を行う電子部品である。制御部400は、立体映像に映し出される主要被写体の、立体映像の画角内における位置(以下「画角被写体位置」という)を取得する。なお、主要被写体は、立体映像に映し出される被写体の中で視聴者が主に注目すべき対象、または、立体映像の製作者が視聴者に注目させたい対象をいう。主要被写体は、人物、動物、模型等、各種の被写体が成り得るものである。そして、制御部400は、画角被写体位置が、画角の左端部および右端部の少なくとも一方(以下「画角端部」と総称する)の近傍のとき、主要被写体の輻輳角矛盾が低減するように、立体映像の輻輳角を制御する。具体的には、主要被写体の輻輳角が該当する画角端部の物理的な物体(例えばテレビのフレーム)を注視する場合と同一の輻輳角に近付くように、立体映像の輻輳角を制御する。   The control unit 400 is an electronic component that controls the operation of the entire stereoscopic video camera 100 and performs camera driving, imaging, video processing, and the like. The control unit 400 acquires a position within the angle of view of the stereoscopic video (hereinafter referred to as “view angle subject position”) of the main subject displayed in the stereoscopic video. Note that the main subject refers to an object that the viewer should mainly focus on among the subjects displayed in the stereoscopic video or a target that the stereoscopic video producer wants the viewer to focus on. The main subject can be a variety of subjects such as a person, an animal, and a model. Then, the control unit 400 reduces the convergence angle contradiction of the main subject when the view angle subject position is in the vicinity of at least one of the left end portion and the right end portion of the view angle (hereinafter collectively referred to as “view angle end portion”). In this way, the convergence angle of the stereoscopic video is controlled. Specifically, the convergence angle of the stereoscopic image is controlled so that the convergence angle of the main subject approaches the same convergence angle as when a physical object (for example, a television frame) at the end of the corresponding field angle is observed. .

本実施の形態では、制御部400は、左カメラ部200と右カメラ部300の少なくとも一方のパン制御(以下、単に「パン制御」という)を行う事により、立体映像の輻輳角を所望の角度に制御する。   In the present embodiment, the control unit 400 performs pan control (hereinafter simply referred to as “pan control”) of at least one of the left camera unit 200 and the right camera unit 300, thereby setting the convergence angle of the stereoscopic video to a desired angle. To control.

表示部500は、ユーザに情報や画像を提示するためのユーザインタフェースであり、例えば、液晶ディスプレイを有する。   The display unit 500 is a user interface for presenting information and images to the user, and includes, for example, a liquid crystal display.

入力部600は、ユーザが立体映像カメラ100の操作を行うもので、ポインティング、決定、取り消し等のユーザ操作を受け付けるためのユーザインタフェースである。入力部600は、例えば、ボタン、レバー、キーパッド、および液晶ディスプレイに一体的に配置されたタッチパネルの少なくとも何れかを有する。入力部600におけるユーザ操作受け付けの具体的な実施方法は、家庭用ビデオカメラやパーソナルコンピュータ等、一般的な電子機器に広く採用されている公知のユーザインタフェース技術を参照すれば良い。   The input unit 600 is used by the user to operate the stereoscopic video camera 100, and is a user interface for accepting user operations such as pointing, determination, and cancellation. The input unit 600 includes, for example, at least one of a button, a lever, a keypad, and a touch panel arranged integrally with a liquid crystal display. A specific implementation method of accepting user operation in the input unit 600 may refer to a well-known user interface technology widely adopted in general electronic devices such as home video cameras and personal computers.

左カメラ部200、右カメラ部300、表示部500、および入力部600は、それぞれ、制御部400に一体的に設けられている。制御部400は、例えば、図示しないが、CPU(central processing unit)、制御プログラムを格納したROM(read only memory)などの記憶媒体、およびRAM(random access memory)などの作業用メモリ等を搭載し、CPUによる制御プログラムの実行によってその機能を実現する。   The left camera unit 200, the right camera unit 300, the display unit 500, and the input unit 600 are each integrally provided in the control unit 400. The control unit 400 includes, for example, a CPU (central processing unit), a storage medium such as a ROM (read only memory) storing a control program, and a working memory such as a RAM (random access memory), although not shown. The function is realized by execution of the control program by the CPU.

このような立体映像カメラ100は、主要被写体が立体映像の画角端部の近傍に位置するときのみ、主要被写体の輻輳角矛盾を低減させる事ができる。   Such a stereoscopic video camera 100 can reduce the convergence angle contradiction of the main subject only when the main subject is located in the vicinity of the end of the angle of view of the stereoscopic video.

次に、立体映像カメラ100の構成について、図2および図3を用いて説明する。図2および図3において、図1と同一部分には同一の符号を付し、これについての説明を一部省略する。   Next, the configuration of the stereoscopic video camera 100 will be described with reference to FIGS. 2 and 3, the same parts as those in FIG. 1 are denoted by the same reference numerals, and a part of the description thereof will be omitted.

図2は、立体映像カメラ100の構成の一例を示すブロック図である。   FIG. 2 is a block diagram illustrating an example of the configuration of the stereoscopic video camera 100.

立体映像カメラ100は、左カメラ部200および右カメラ部300に加えて、画角内位置取得部110、輻輳角制御部120、および記憶部130を有する。輻輳角制御部120と、画角内位置取得部110と、左カメラ部200および右カメラ部300とは、互いに接続している。記憶部130は、左カメラ部200および右カメラ部300に接続している。   In addition to the left camera unit 200 and the right camera unit 300, the stereoscopic video camera 100 includes an in-view angle position acquisition unit 110, a convergence angle control unit 120, and a storage unit 130. The convergence angle control unit 120, the in-view angle position acquisition unit 110, the left camera unit 200, and the right camera unit 300 are connected to each other. The storage unit 130 is connected to the left camera unit 200 and the right camera unit 300.

画角内位置取得部110は、主要被写体を特定し、画角被写体位置と、カメラから主要被写体までの距離(以下「被写体距離」という)とを取得する。そして、画角内位置取得部110は、取得した画角被写体位置および被写体距離を、輻輳角制御部120へ出力する。   The in-view angle position acquisition unit 110 identifies the main subject, and acquires the view angle subject position and the distance from the camera to the main subject (hereinafter referred to as “subject distance”). Then, the in-view angle position acquisition unit 110 outputs the acquired view angle subject position and subject distance to the convergence angle control unit 120.

輻輳角制御部120は、入力される画角被写体位置および被写体距離に基づいて、上述のパン制御を行う。具体的には、輻輳角制御部120は、画角被写体位置から、立体映像において主要被写体の輻輳角矛盾を低減させるか否か、および、低減させる場合にはどの程度低減させるのかを決定する。つまり、輻輳角制御部120は、主要被写体の輻輳角の目標値(以下「調整後映像輻輳角」という)を決定する。そして、輻輳角制御部120は、被写体距離から、決定した調整後映像輻輳角を実現するカメラ輻輳角(以下「調整後カメラ輻輳角」という)を算出する。そして、輻輳角制御部120は、算出した調整後カメラ輻輳角に一致するように、カメラのパン制御を行う。   The convergence angle control unit 120 performs the above-described pan control based on the input view angle subject position and subject distance. Specifically, the convergence angle control unit 120 determines whether or not to reduce the contradiction of the convergence angle of the main subject in the stereoscopic image from the angle of view subject position, and how much to reduce it. That is, the convergence angle control unit 120 determines a target value of the convergence angle of the main subject (hereinafter referred to as “adjusted video convergence angle”). Then, the convergence angle control unit 120 calculates a camera convergence angle (hereinafter referred to as “adjusted camera convergence angle”) that realizes the determined adjusted video convergence angle from the subject distance. Then, the convergence angle control unit 120 performs camera pan control so as to match the calculated adjusted camera convergence angle.

左カメラ部200および右カメラ部300は、左目映像と右目映像とをそれぞれ記憶部130へ出力する。   The left camera unit 200 and the right camera unit 300 output the left-eye video and the right-eye video to the storage unit 130, respectively.

記憶部130は、入力される左目映像および右目映像を、それぞれの時間軸を対応付けた状態で、複数の静止画フレームの時系列データとして、外部から読み取り可能な状態で記憶する。具体的には、記憶部130は、例えば、画質調整、静止画フレームの生成、および動画記録フォーマットへの変換等の所定の処理を映像データに施し、記録媒体(例えば、HDD、メモリカード、ディスク)への記録を行う。記憶部130は、例えば、ブルーレイ(Blu-ray)ディスクレコーダおよびこのレコーダに装着されたブルーレイディスクを有する。   The storage unit 130 stores the input left-eye video and right-eye video as time-series data of a plurality of still image frames in a state that can be read from the outside in a state where the time axes are associated with each other. Specifically, the storage unit 130 performs predetermined processing such as image quality adjustment, generation of a still image frame, and conversion to a moving image recording format on the video data, and a recording medium (for example, HDD, memory card, disk) ). The storage unit 130 includes, for example, a Blu-ray disc recorder and a Blu-ray disc attached to the recorder.

なお、立体映像カメラ100は、記憶部130に代えて、または記憶部130と共に、映像データを有線または無線により外部装置へ出力する通信部を備えても良い。   The stereoscopic video camera 100 may include a communication unit that outputs video data to an external device by wire or wireless instead of or together with the storage unit 130.

図3は、画角内位置取得部110の構成の一例を示すブロック図である。   FIG. 3 is a block diagram illustrating an example of the configuration of the in-view angle position acquisition unit 110.

図3に示すように、画角内位置取得部110は、画像認識部111、表示部500、および入力部600を有する。   As shown in FIG. 3, the in-view angle position acquisition unit 110 includes an image recognition unit 111, a display unit 500, and an input unit 600.

表示部500は、例えば、左カメラ部200から入力される左目映像の画像のみを表示する。なお、表示部500は、右目映像を表示するようにしても良い。但し、パン制御が、一方のカメラ部を固定して他方のカメラ部のみを動かす事によって行われる場合には、固定されたほうのカメラ部の映像が表示される事が望ましい。   For example, the display unit 500 displays only the image of the left-eye video input from the left camera unit 200. The display unit 500 may display a right eye image. However, when the pan control is performed by fixing one camera unit and moving only the other camera unit, it is desirable to display an image of the fixed camera unit.

画像認識部111は、例えば、表示部500に表示中の画像に対するユーザ操作を、入力部600を介して受け付け、表示中の画像から主要被写体を特定する。また、画像認識部111は、例えば、一旦特定された主要被写体を、映像において追尾する。そして、画像認識部111は、逐次、画角被写体位置を取得し、輻輳角制御部120へ出力する。画角被写体位置は、例えば、画角内において主要被写体の像が占める映像領域全体の位置でも良いし、主要被写体の像の中心や重心等の代表点の位置でも良い。但し、主要被写体の像の大きさによらずに適切な輻輳角制御を行うためには、画角被写体位置には、主要被写体の像の左端の位置と右端の位置の情報を持たせる事が望ましい。なぜなら、主要被写体の中心部が画角の中心付近にある場合でも、被写体が大きくアップで表示されるような場合には、その端部は画角端部に掛かる事が有り得るためである。なお、図3に示す画像認識部111と、図2に示す輻輳角制御部120および記憶部130とは、図1に示す制御部400に包含されている。   For example, the image recognition unit 111 accepts a user operation for an image displayed on the display unit 500 via the input unit 600, and identifies a main subject from the displayed image. In addition, the image recognition unit 111 tracks, for example, the main subject once identified in the video. Then, the image recognition unit 111 sequentially acquires the view angle subject position and outputs it to the convergence angle control unit 120. The angle of view subject position may be, for example, the position of the entire video area occupied by the image of the main subject within the angle of view, or the position of a representative point such as the center or the center of gravity of the image of the main subject. However, in order to perform appropriate convergence angle control regardless of the size of the main subject image, the angle of view subject position may have information on the left and right end positions of the main subject image. desirable. This is because, even when the center of the main subject is near the center of the angle of view, if the subject is displayed greatly up, the end of the main subject may hang over the end of the angle of view. Note that the image recognition unit 111 shown in FIG. 3 and the convergence angle control unit 120 and the storage unit 130 shown in FIG. 2 are included in the control unit 400 shown in FIG.

このような構成を有する事により、立体映像カメラ100は、主要被写体が立体映像の画角端部の近傍に位置するときに、これを検出する事ができる。そして、立体映像カメラ100は、主要被写体が画角端部に位置すると検出したときにのみ輻輳角矛盾を低減させるという効果を奏する事ができる。   By having such a configuration, the stereoscopic video camera 100 can detect when the main subject is located in the vicinity of the field angle end of the stereoscopic video. The stereoscopic video camera 100 can produce an effect of reducing the convergence angle contradiction only when it is detected that the main subject is located at the end of the angle of view.

次に、立体映像カメラ100の動作について説明する。   Next, the operation of the stereoscopic video camera 100 will be described.

図4は、立体映像カメラ100の全体動作の一例を示すフローチャートである。ここでは、大まかな処理の流れについてまず説明し、各処理の詳細については後述する。   FIG. 4 is a flowchart showing an example of the overall operation of the stereoscopic video camera 100. Here, a rough flow of processing will be described first, and details of each processing will be described later.

左カメラ部200および右カメラ部300は、立体映像カメラ100の動作中、左目映像および右目映像を、それぞれ画角内位置取得部110へフレーム単位で連続的に出力している。   The left camera unit 200 and the right camera unit 300 continuously output the left-eye image and the right-eye image to the in-view angle position acquisition unit 110 in units of frames during the operation of the stereoscopic camera 100.

まず、ステップS1000において、画像認識部111は、表示部500の表示映像に対するユーザ操作等に基づき、映像から主要被写体を認識する。   First, in step S1000, the image recognizing unit 111 recognizes a main subject from the video based on a user operation on the display video of the display unit 500 or the like.

そして、ステップS2000において、画像認識部111は、認識した主要被写体について、画角被写体位置を取得し、輻輳角制御部120へ出力する。また、画像認識部111は、認識した主要被写体について、左目映像および右目映像と左カメラ部200および右カメラ部300のパラメータとに基づいて被写体距離を取得し、輻輳角制御部120へ出力する。画角被写体位置の取得処理および被写体距離の取得処理については、後述する。   In step S <b> 2000, the image recognition unit 111 acquires the view angle subject position for the recognized main subject and outputs the acquired view angle subject position to the convergence angle control unit 120. Further, the image recognition unit 111 acquires the subject distance for the recognized main subject based on the left-eye video and the right-eye video and the parameters of the left camera unit 200 and the right camera unit 300, and outputs them to the convergence angle control unit 120. The process for obtaining the view angle subject position and the process for obtaining the subject distance will be described later.

そして、ステップS3000において、輻輳角制御部120は、画角被写体位置が、画角端部近傍であるか否かを判定する。輻輳角制御部120は、画角被写体位置が画角端部近傍である場合には(S3000:YES)、ステップS4000へ進み、画角被写体位置が画角端部近傍ではない場合には(S3000:NO)、ステップS5000へ進む。   In step S3000, the convergence angle control unit 120 determines whether or not the view angle subject position is near the end of the view angle. The convergence angle control unit 120 proceeds to step S4000 when the view angle subject position is near the view angle end (S3000: YES), and when the view angle subject position is not near the view angle end (S3000). : NO), the process proceeds to step S5000.

ステップS4000において、輻輳角制御部120は、主要被写体の輻輳角矛盾が低減するように、つまり、主要被写体の輻輳角が画角端部の輻輳角に近付くように、カメラ輻輳角を調整する。具体的には、輻輳角制御部120は、被写体距離から、カメラに対する主要被写体の本来の輻輳角(以下「被写体輻輳角」という)を算出する。そして、輻輳角制御部120は、被写体輻輳角に補正係数を適用した値を、調整後カメラ輻輳角として算出する。補正係数は、主要被写体が画角内を移動する際にその主要被写体の輻輳角を滑らかに変化させるためのパラメータである。被写体輻輳角の算出処理、補正係数、および調整後カメラ輻輳角の算出処理については、後述する。そして、輻輳角制御部120は、調整後カメラ輻輳角にカメラ輻輳角が一致するように、カメラのパン制御を行う。   In step S4000, the convergence angle control unit 120 adjusts the camera convergence angle so that the contradiction of the convergence angle of the main subject is reduced, that is, the convergence angle of the main subject approaches the convergence angle of the view angle end. Specifically, the convergence angle control unit 120 calculates the original convergence angle of the main subject with respect to the camera (hereinafter referred to as “subject convergence angle”) from the subject distance. Then, the convergence angle control unit 120 calculates a value obtained by applying the correction coefficient to the subject convergence angle as the adjusted camera convergence angle. The correction coefficient is a parameter for smoothly changing the convergence angle of the main subject when the main subject moves within the angle of view. The subject convergence angle calculation process, the correction coefficient, and the adjusted camera convergence angle calculation process will be described later. Then, the convergence angle control unit 120 performs camera pan control so that the camera convergence angle matches the adjusted camera convergence angle.

そして、ステップS5000において、立体映像カメラ100は、設定された調整後カメラ輻輳角で立体映像を撮影する。すなわち、左カメラ部200および右カメラ部300は、角被写体位置が画角端部近傍ではない場合には通常のカメラ輻輳角で、角被写体位置が画角端部近傍である場合には調整後カメラ輻輳角で、立体映像をそれぞれ撮影する。このとき、録画モードとなっている場合には、左カメラ部200および右カメラ部300は、左目映像および右目映像をそれぞれ記憶部130に出力し、立体映像のデータとして記録する。   In step S5000, the stereoscopic video camera 100 captures a stereoscopic video at the set post-adjustment camera convergence angle. That is, the left camera unit 200 and the right camera unit 300 have the normal camera convergence angle when the corner subject position is not near the view angle end, and after adjustment when the corner subject position is near the view angle end. Three-dimensional images are respectively shot at the camera convergence angle. At this time, in the recording mode, the left camera unit 200 and the right camera unit 300 output the left-eye video and the right-eye video to the storage unit 130, respectively, and record them as stereoscopic video data.

そして、ステップS6000において、立体映像カメラ100は、ユーザ操作等により処理の終了を指示されたか否かを判断する。立体映像カメラ100は、処理の終了を指示されていない場合には(S6000:NO)、ステップS1000へ戻り、処理の終了を指示された場合には(S6000:YES)、一連の処理を終了する。   In step S6000, the stereoscopic video camera 100 determines whether or not the end of the process is instructed by a user operation or the like. If the end of the process is not instructed (S6000: NO), the stereoscopic video camera 100 returns to step S1000, and if instructed to end the process (S6000: YES), the series of processes is ended. .

このような動作により、立体映像カメラ100は、主要被写体が画角端部の近傍に位置するときには輻輳角矛盾を低減し、主要被写体が画角端部の近傍に位置しないときには本来の輻輳角矛盾を維持して、立体映像の撮影を行う事ができる。   By such an operation, the stereoscopic video camera 100 reduces the convergence angle contradiction when the main subject is located in the vicinity of the view angle end, and the original convergence angle contradiction when the main subject is not located near the view angle end. 3D images can be taken while maintaining the above.

以下、上述の、画角被写体位置の取得処理、被写体距離の取得処理、被写体輻輳角の算出処理、補正係数、および調整後カメラ輻輳角の算出処理の詳細について、順に説明する。   The details of the above-described processing for obtaining the view angle subject position, the subject distance obtaining process, the subject convergence angle calculating process, the correction coefficient, and the adjusted camera convergence angle calculating process will be described in order below.

図5は、画角被写体位置の取得処理の一例を説明するための図である。この例では、主要被写体の特定は、画像に対するユーザ指定により行われる。   FIG. 5 is a diagram for explaining an example of the processing for obtaining the field angle subject position. In this example, the main subject is specified by user designation for the image.

表示部500は、例えば、図5に示すような被写体指定画面710を表示する。被写体指定画面710は、被写体711を含む画像712に重畳して、入力部600のポインティング操作によって移動可能なポインタ713を表示する。画像712は、例えば、左カメラ部200から入力された、最新の左目映像または過去の左目映像である。ポインタ713は、画像712に重ねて描画される仮想的な表示物であり、入力部600のポインティング操作により、任意の位置に移動し、任意の位置に対する指定操作を受け付ける事ができる。すなわち、ユーザは、表示部500の被写体指定画面710に映っている被写体711をポインタ713で指定することによって、主要被写体を指定することができる。なお、入力部600がタッチパネルを含む場合には、必ずしもポインタ713は必要ではない。   The display unit 500 displays, for example, a subject designation screen 710 as shown in FIG. The subject designation screen 710 displays a pointer 713 that can be moved by a pointing operation of the input unit 600 while being superimposed on an image 712 including the subject 711. The image 712 is, for example, the latest left-eye video or the past left-eye video input from the left camera unit 200. The pointer 713 is a virtual display object that is drawn over the image 712, and can be moved to an arbitrary position by a pointing operation of the input unit 600 and can accept a designation operation for the arbitrary position. That is, the user can designate the main subject by designating the subject 711 displayed on the subject designation screen 710 of the display unit 500 with the pointer 713. Note that the pointer 713 is not necessarily required when the input unit 600 includes a touch panel.

画像認識部111は、被写体指定画面710に映し出される映像712のうち、指定操作がされた位置周辺の領域に対して、画像認識処理を行う。これにより、画像認識部111は、ユーザが指定した被写体を特定する。そして、画像認識部111は、特定された被写体を主要被写体として扱い、以降、画像処理による追尾を行うと共に、主要被写体の画角内における位置(画角被写体位置)の取得を継続する。すなわち、画像認識部111は、まず、ポインティング時に決定された主要被写体の代表点を求める。そして、画像認識部111は、画像特徴を基準にして、以降の各時刻において、求めた代表点の移動先と推定される画像内位置を逐次計算し、画角被写体位置(X,Y)として取得する。これにより、画角内位置取得部110は、画角内を移動する主要被写体の位置を取得し続ける事ができる。 The image recognition unit 111 performs image recognition processing on an area around the position where the designation operation is performed in the video 712 displayed on the subject designation screen 710. As a result, the image recognition unit 111 identifies the subject specified by the user. Then, the image recognition unit 111 treats the identified subject as the main subject, performs tracking by image processing, and continues to acquire the position within the angle of view of the main subject (view angle subject position). That is, the image recognition unit 111 first obtains representative points of the main subject determined at the time of pointing. Then, the image recognizing unit 111 sequentially calculates the position in the image that is estimated as the movement destination of the obtained representative point at each subsequent time on the basis of the image feature, and the angle of view subject position (X s , Y s ) Get as. Thereby, the in-view angle position acquisition unit 110 can continue to acquire the position of the main subject moving within the view angle.

なお、ポインティングによる対象指定の具体的な手法や、画像処理による対象追尾の具体的な手法は、それぞれ、例えばデジタルスチルカメラやデジタルビデオカメラに広く採用されている公知の各種手法を適宜採用すれば良い。   In addition, as a specific method for specifying an object by pointing and a specific method for tracking an object by image processing, various known methods widely used in, for example, digital still cameras and digital video cameras may be appropriately employed. good.

図6は、画角被写体位置の取得処理の他の例を説明するための図である。この例では、主要被写体の特定は、主要被写体の特徴に対する画像認識処理により行われる。   FIG. 6 is a diagram for explaining another example of the process of acquiring the view angle subject position. In this example, identification of the main subject is performed by image recognition processing for the characteristics of the main subject.

この例では、撮影される被写体のうち、各主要被写体は、予め定められたマーカを発する装置を装着している。マーカは、例えば発光信号であり、波長、輝度、明滅周期、明滅パターン等において、光学的に識別可能な予め定められた特性を有する事により、固有性を確保するものである。この場合、表示部500は、例えば、図6に示すような被写体指定画面720を表示する。被写体指定画面720には、複数の被写体721が映し出された映像722が表示される。   In this example, each of the main subjects to be photographed is equipped with a device that emits a predetermined marker. The marker is, for example, a light emission signal and has a predetermined characteristic that can be optically identified in the wavelength, luminance, blinking cycle, blinking pattern, and the like, thereby ensuring the uniqueness. In this case, the display unit 500 displays, for example, a subject designation screen 720 as shown in FIG. On the subject designation screen 720, an image 722 in which a plurality of subjects 721 are projected is displayed.

画像認識部111は、被写体指定画面720に映し出される映像722から、マーカ723を探索し、探索されたマーカ723の位置周辺の領域に対して、画像認識処理を行う。これにより、画像認識部111は、マーカ723を装着した被写体の画像を認識する。これにより、画角内位置取得部110は、主要被写体が画角内を移動した場合でも、主要被写体の位置を取得し続ける事ができる。   The image recognition unit 111 searches for the marker 723 from the video 722 displayed on the subject designation screen 720, and performs image recognition processing on the area around the searched position of the marker 723. Thereby, the image recognition unit 111 recognizes the image of the subject on which the marker 723 is attached. Thereby, the in-view angle position acquisition unit 110 can continue to acquire the position of the main subject even when the main subject moves within the view angle.

なお、画像認識部111は、主要被写体のマーカとして取り扱うマーカの種類を切り換えても良い。この場合、例えば、画像認識部111は、黄色のマーカが付された被写体を主要被写体のマーカとする事が指定されているときには、黄色のマーカを探索する。そして、画像認識部111は、赤色のマーカが付された被写体を主要被写体のマーカとする事が指定されているときには、赤色のマーカを探索する。これにより、立体映像カメラ100は、主要被写体のマーカを切り換える事なく、主要被写体となる被写体を切り換える事ができる。   Note that the image recognition unit 111 may switch the type of marker to be handled as a marker for the main subject. In this case, for example, the image recognition unit 111 searches for the yellow marker when it is designated that the subject with the yellow marker is the marker of the main subject. Then, the image recognition unit 111 searches for the red marker when it is designated that the subject with the red marker is the marker of the main subject. Thereby, the stereoscopic video camera 100 can switch the subject as the main subject without switching the marker of the main subject.

また、マーカとして、被写体に取り付けた所定の光学パターンを持つマークや、被写体が予め有する視覚的特徴(例えば、服の色、服に描かれた模様、顔、または身体の個人的特徴等)等、他の各種画像特徴を採用しても良い。   In addition, as a marker, a mark having a predetermined optical pattern attached to the subject, a visual feature that the subject has in advance (for example, a clothing color, a pattern drawn on the clothing, a personal feature of the body, etc.) Various other image features may be employed.

また、画像認識による主要被写体特定の具体的手法は、公知の画像処理技術および信号処理技術等で採用されている各種手法を適宜採用すれば良い。   In addition, as a specific method for specifying a main subject by image recognition, various methods employed in a known image processing technique and signal processing technique may be appropriately employed.

次に、被写体距離の取得処理および被写体輻輳角の算出処理について、説明する。画像認識部111は、左目映像と右目映像と間の主要被写体の位置のずれ量の画角に対する比率と、映像の画角と、左カメラ部200および右カメラ部300との光軸が成す角から、被写体距離を求める。そして、画像認識部111は、被写体距離と左カメラ部200と右カメラ部300との距離から、三角測量法に基づいて、被写体輻輳角を算出する。   Next, subject distance acquisition processing and subject convergence angle calculation processing will be described. The image recognizing unit 111 includes a ratio of a shift amount of the position of the main subject between the left-eye image and the right-eye image to the angle of view, an angle of view of the image, and an angle formed by the optical axes of the left camera unit 200 and the right camera unit 300. From this, the subject distance is obtained. Then, the image recognition unit 111 calculates the subject convergence angle from the subject distance and the distance between the left camera unit 200 and the right camera unit 300 based on the triangulation method.

図7および図8は、被写体距離の取得処理および被写体輻輳角の算出処理を説明するための図である。   7 and 8 are diagrams for explaining subject distance acquisition processing and subject convergence angle calculation processing.

図7に示すように、立体映像カメラ100は、左カメラ部200の視点と右カメラ部300の視点が異なるため、同時に撮影した映像であっても、左目映像730と右目映像740とは同一の映像とはならない。通常、同一対象物の像であっても、左目映像730における対象物の像731の位置と、右目映像740における対象物の像741の位置との間には、差異が生じる。   As shown in FIG. 7, since the stereoscopic camera 100 has different viewpoints of the left camera unit 200 and the right camera unit 300, the left-eye image 730 and the right-eye image 740 are the same even if the images are captured simultaneously. It is not a video. In general, even if the images of the same object, a difference occurs between the position of the object image 731 in the left-eye image 730 and the position of the object image 741 in the right-eye image 740.

画像認識部111は、例えば、左目映像730にて像731を主要対象物として認識した場合、同一の対象物の像741を、右目映像740から探索する。この像741の探索手法は、例えば、輝度、色、形状およびこれら組み合わせを用いた、公知の特徴抽出、パターンマッチング等の画像処理技術を、適宜採用すれば良い。   For example, when the image recognizing unit 111 recognizes the image 731 as the main object in the left-eye video 730, the image recognition unit 111 searches the right-eye video 740 for the image 741 of the same object. For the search method of the image 741, for example, known image processing techniques such as feature extraction and pattern matching using luminance, color, shape, and combinations thereof may be appropriately employed.

そして、画像認識部111は、例えば以下の式(1)を用いて、像731、741の画角左右方向における位置の差分(視差)dの、画角の幅wに対する比を、視差量Dとして算出する。
D = d/w ・・・・・・(1)
Then, the image recognizing unit 111 uses, for example, the following expression (1) to calculate the ratio of the position difference (parallax) d of the images 731 and 741 in the horizontal direction of the view angle to the width w of the view angle as the parallax amount D. Calculate as
D = d / w (1)

ここで、図8に示すように、左カメラ部200および右カメラ部300から、左カメラ部200の光軸と右カメラ部300の光軸との交差点までのそれぞれの距離は、近似的に同一の距離vとする。カメラ輻輳角θ、左カメラ部200と右カメラ部300との間隔である基線長b、および光軸交差点までの距離vについて、以下の式(2)が成り立つ。
v = b/tanθ ・・・・・・(2)
Here, as shown in FIG. 8, the distances from the left camera unit 200 and the right camera unit 300 to the intersection of the optical axis of the left camera unit 200 and the optical axis of the right camera unit 300 are approximately the same. Is the distance v. The following formula (2) is established for the camera convergence angle θ c , the base line length b that is the distance between the left camera unit 200 and the right camera unit 300, and the distance v to the optical axis intersection.
v = b / tan θ c (2)

ここでは、図8に示すように、左カメラ部200の画角および右カメラ部300の画角を近似的に同一の画角θとする。カメラ輻輳角θは、輻輳角制御部120によって制御されるパラメータであるため、例えば、輻輳角制御部120から取得する事が可能である。 Here, as shown in FIG. 8, in approximately the angle of the view angle and the right camera unit 300 of the left camera 200 and the same angle theta f. Since the camera convergence angle θ c is a parameter controlled by the convergence angle control unit 120, it can be acquired from the convergence angle control unit 120, for example.

カメラ輻輳角θがゼロに近似するとき、以下の式(3)が成り立つ。
2dz・tan(θ/2) = b ・・・・・・(3)
When the camera convergence angle θ c approximates zero, the following equation (3) is established.
2dz · tan (θ f / 2) = b (3)

したがって、この場合、画角内位置取得部110は、被写体距離zを、例えば以下の式(4)を用いて算出する。
z = b/{2d・tan(θ/2)} ・・・・・・(4)
Accordingly, in this case, the in-view angle position acquisition unit 110 calculates the subject distance z using, for example, the following equation (4).
z = b / {2d · tan (θ f / 2)} (4)

一方、輻輳角矛盾がゼロのとき、つまり、左カメラ部200および右カメラ部300からそれぞれの光軸の交差点までのz軸方向の距離が、被写体距離zと一致しているとき、以下の式(5)および式(6)が成り立つ。   On the other hand, when the convergence angle contradiction is zero, that is, when the distance in the z-axis direction from the left camera unit 200 and the right camera unit 300 to the intersection of the respective optical axes coincides with the subject distance z, the following formula (5) and Formula (6) hold.

2v・tan(θ/2) = b ・・・・・・(5)
2(v−z)・tan(θ/2) = 2dz・tan(θ/2) ・・・(6)
2v · tan (θ c / 2) = b (5)
2 (v−z) · tan (θ c / 2) = 2dz · tan (θ f / 2) (6)

すなわち、この場合、以下の式(7)が成り立つ。
b−2z・tan(θ/2)=2dz・tan(θ/2) ・・・(7)
That is, in this case, the following expression (7) is established.
b-2z · tan (θ c / 2) = 2dz · tan (θ f / 2) (7)

したがって、この場合、画角内位置取得部110は、被写体距離zを、例えば以下の式(8)を用いて算出する。
z = b/{2・tan(θ/2)+2d・tan(θ/2)} ・・・(8)
Accordingly, in this case, the in-view angle position acquisition unit 110 calculates the subject distance z using, for example, the following equation (8).
z = b / {2 · tan (θ c / 2) + 2d · tan (θ f / 2)} (8)

このようにして、画角内位置取得部110は、被写体距離zを算出し、輻輳角制御部120へ出力する。   In this way, the in-view angle position acquisition unit 110 calculates the subject distance z and outputs it to the convergence angle control unit 120.

輻輳角制御部120は、被写体距離zおよび基線長bから、例えば、以下の式(9)が成り立つθ'を、被写体輻輳角として算出する。
tan(θ'/2)=b/2z ・・・・・・(9)
The convergence angle control unit 120 calculates, for example, θ c ′ satisfying the following expression (9) as the subject convergence angle from the subject distance z and the base line length b.
tan (θ c '/ 2) = b / 2z (9)

輻輳角制御部120は、上述の通り、画角被写体位置が、画角端部近傍であると判断した場合に、主要被写体の輻輳角矛盾が低減するように、カメラ輻輳角を調整する。   As described above, the convergence angle control unit 120 adjusts the camera convergence angle so that the convergence angle contradiction of the main subject is reduced when it is determined that the view angle subject position is near the end of the view angle.

画角端部近傍か否かの判断は、例えば、画面の中心から所定の範囲外にあるか否かによって判断する事ができる。最もシンプルな例としては、例えば、所定の範囲は、画角中心を0%、画角の左右端をそれぞれ100%としたときの、70%以下の範囲と定義される。この場合には、輻輳角制御部120は、主要被写体が70%を超える位置にあるとき、画角被写体位置が画角端部近傍であると判断し、主要被写体が70%以下の位置にあるとき、画角被写体位置が画角端部近傍ではないと判断する。例えば、画角被写体位置が上述のように主要被写体の像の左端の位置と右端の位置を含む場合には、輻輳角制御部120は、これら2点の少なくとも1つが70%を超える位置にあるとき、画角被写体位置が画角端部近傍であると判断する。   The determination as to whether or not it is near the angle of view can be made, for example, based on whether or not it is outside a predetermined range from the center of the screen. As a simplest example, for example, the predetermined range is defined as a range of 70% or less when the center of the angle of view is 0% and the left and right ends of the angle of view are 100%. In this case, when the main subject is at a position exceeding 70%, the convergence angle control unit 120 determines that the view angle subject position is near the end of the view angle, and the main subject is at a position equal to or less than 70%. At this time, it is determined that the view angle subject position is not near the end of the view angle. For example, when the view angle subject position includes the left end position and the right end position of the main subject image as described above, the convergence angle control unit 120 is at a position where at least one of these two points exceeds 70%. At this time, it is determined that the view angle subject position is near the end of the view angle.

そして、輻輳角制御部120は、予め定められた補正係数を被写体輻輳角に適用する事により、調整後カメラ輻輳角を算出する。   The convergence angle control unit 120 calculates the adjusted camera convergence angle by applying a predetermined correction coefficient to the subject convergence angle.

図9は、補正係数の第1の例を示す図である。図10は、補正係数の第2の例を示す図である。図9および図10において、横軸は、画角中心を0%とし画角の左右端をそれぞれ100%として、画角被写体位置をパーセントで示し、縦軸は補正係数をパーセントで示す。なお、画角被写体位置が上述のように主要被写体の像の左端の位置と右端の位置を含む場合、輻輳角制御部120は、画面の左側について、画角の左端を100%とし、主要被写体の像の左端の位置を画角被写体位置とする。そして、輻輳角制御部120は、補正係数を決定し、被写体輻輳角を算出する。一方、輻輳角制御部120は、画面の右側については、画角の右端を100%とし、主要被写体の像の右端の位置を画角被写体位置として、補正係数を決定し、被写体輻輳角を算出する。   FIG. 9 is a diagram illustrating a first example of the correction coefficient. FIG. 10 is a diagram illustrating a second example of the correction coefficient. 9 and 10, the horizontal axis indicates the view angle center as 0%, the left and right ends of the view angle as 100%, the view angle subject position as a percentage, and the vertical axis indicates the correction coefficient as a percentage. When the angle of view subject position includes the left end position and the right end position of the main subject image as described above, the convergence angle control unit 120 sets the left end of the angle of view as 100% on the left side of the screen, and sets the main subject. The position of the left end of the image is the field angle subject position. Then, the convergence angle control unit 120 determines a correction coefficient and calculates a subject convergence angle. On the other hand, for the right side of the screen, the convergence angle control unit 120 determines the correction coefficient by setting the right end of the angle of view as 100% and the right end position of the main subject image as the angle of view subject position, and calculates the subject convergence angle. To do.

輻輳角制御部120は、例えば、図9または図10にグラフ化して示すような、補正係数751、752を、予め格納する。図9および図10に示す補正係数751、752は、画角中心から上述の所定の距離以下の範囲の位置に対応してほぼゼロであり、上述の所定の距離を超えて画角中心からより離れた位置ほど100に近付く。その変化は、滑らかな増加となっている。図9に示す補正係数751は、二次関数的に100に向かって増加する。一方、図10に示す補正係数752は、画角端部において変化が緩やかになっている。   The convergence angle control unit 120 stores correction coefficients 751 and 752 in advance as shown in a graph in FIG. 9 or FIG. 10, for example. The correction coefficients 751 and 752 shown in FIG. 9 and FIG. 10 are substantially zero corresponding to the position in the range not more than the above-mentioned predetermined distance from the center of the view angle, and more than the above-mentioned predetermined distance from the view angle center. The farther away, the closer to 100. The change is a smooth increase. The correction coefficient 751 shown in FIG. 9 increases toward 100 as a quadratic function. On the other hand, the correction coefficient 752 shown in FIG.

輻輳角制御部120は、画角被写体位置に対応する補正係数p(i)を取得する。ここで、記号iは、画角被写体位置を示す。また、ここで、そのシーンで意図される主要被写体の飛出し量に対応する輻輳角は、基本輻輳角θc0と定義する。基本輻輳角θc0は、ユーザが任意に決める事ができる。例えば、調整後カメラ輻輳角θ”が基本輻輳角θc0よりも大きい場合、主要被写体は、画面よりも手前に位置するように見える。そして、逆に、調整後カメラ輻輳角θ”が基本輻輳角θc0よりも小さい場合、主要被写体は、画面よりも奥に位置するように見える。 The convergence angle control unit 120 acquires a correction coefficient p (i) corresponding to the view angle subject position. Here, the symbol i indicates the field angle subject position. Here, the convergence angle corresponding to the projected amount of the main subject intended in the scene is defined as the basic convergence angle θ c0 . The basic convergence angle θ c0 can be arbitrarily determined by the user. For example, when the adjusted camera convergence angle θ c ″ is larger than the basic convergence angle θ c0 , the main subject appears to be positioned in front of the screen. Conversely, the adjusted camera convergence angle θ c ″ is When it is smaller than the basic convergence angle θ c0 , the main subject appears to be located behind the screen.

輻輳角制御部120は、例えば、被写体輻輳角θ'、基本輻輳角θc0、および補正係数p(i)から、以下の式(10)を用いて調整後カメラ輻輳角θ”を算出する。
θ”=θc0+(θ'−θc0)p(i)/100 ・・・・・・(10)
For example, the convergence angle control unit 120 calculates the adjusted camera convergence angle θ c ″ from the subject convergence angle θ c ′, the basic convergence angle θ c0 , and the correction coefficient p (i) using the following equation (10). To do.
θ c ″ = θ c0 + (θ c ′ −θ c0 ) p (i) / 100 (10)

調整後カメラ輻輳角θ”が被写体輻輳角θ'に一致している状態は、被写体距離で光軸が交差している状態であり、左目映像と右目映像とで画角内において同じ位置に主要被写体が位置する状態である。すなわち、調整後カメラ輻輳角θ”が被写体輻輳角θ'に一致しているときとは、主要被写体の輻輳角矛盾が無い状態である。また、調整後カメラ輻輳角θ”に対する被写体輻輳角θ'の差分は、立体映像における画枠の輻輳角に対する主要被写体の輻輳角の差分となる。 The state where the post-adjustment camera convergence angle θ c ″ coincides with the subject convergence angle θ c ′ is a state in which the optical axes intersect at the subject distance, and the left eye image and the right eye image have the same position within the angle of view. In other words, when the adjusted camera convergence angle θ c ″ matches the subject convergence angle θ c ′, there is no contradiction in the convergence angle of the main subject. The difference of the subject convergence angle θ c ′ with respect to the adjusted camera convergence angle θ c ″ is the difference of the convergence angle of the main subject with respect to the convergence angle of the image frame in the stereoscopic video.

図9に示す補正係数751および図10に示す補正係数752を適用した場合、調整後カメラ輻輳角θ”は、主要被写体が画角中心部から端部へ移動するに従って、基本輻輳角θc0から被写体輻輳角θ'へと変化する。すなわち、このような調整後カメラ輻輳角θ”となるようにパン制御が行われて撮影された主要被写体は、画角中心部に位置するときには、そのシーンで意図される飛出し量で見え、画角端部に近付くにつれ、画枠の距離に近付いて見える。 When the correction coefficient 751 shown in FIG. 9 and the correction coefficient 752 shown in FIG. 10 are applied, the adjusted camera convergence angle θ c ″ is equal to the basic convergence angle θ c0 as the main subject moves from the center of the angle of view to the end. To the subject convergence angle θ c ′, that is, when the main subject photographed by performing pan control so that the adjusted camera convergence angle θ c ″ is located at the center of the angle of view. It looks like the projected amount of the scene, and approaches the distance of the image frame as it approaches the edge of the angle of view.

図9に示す補正係数751を適用した場合に比べて、図10に示す補正係数752を適用した場合の方が、画枠における主要被写体の飛び出し量の変化が滑らかとなるため、より違和感の少ない立体視を実現する事ができる。また、図10に示す補正係数752を適用した場合の方が、カメラ輻輳角の調整をより滑らかに行う事ができるので、立体映像の輻輳角の制御がより容易である。   Compared with the case where the correction coefficient 751 shown in FIG. 9 is applied, the case where the correction coefficient 752 shown in FIG. Stereoscopic vision can be realized. Further, when the correction coefficient 752 shown in FIG. 10 is applied, the convergence angle of the stereoscopic video can be controlled more easily because the camera convergence angle can be adjusted more smoothly.

なお、調整後カメラ輻輳角θ”は、必ずしも、基本輻輳角θc0に完全に一致するまで基本輻輳角θc0に近付けなくても良い。この場合、例えば、最大値が80%であるような補正係数p(i)を採用する。これにより、立体映像の効果を優先させつつ、視聴者に与える疲労感の軽減を図る事ができる。 Incidentally, adjusted camera convergence angle theta c "may not always close to the basic convergence angle theta c0 until exactly matches the base vergence angle theta c0. In this case, for example, as a maximum value of 80% The correction coefficient p (i) is adopted, so that the feeling of fatigue given to the viewer can be reduced while giving priority to the effect of the stereoscopic image.

以下、上記で説明した立体映像の輻輳角の制御によって得られる効果について説明する。   Hereinafter, an effect obtained by controlling the convergence angle of the stereoscopic image described above will be described.

図11は、立体映像カメラ100により生成された立体映像における、主要被写体の見え方のイメージを示す図である。   FIG. 11 is a diagram illustrating an image of how the main subject is seen in the stereoscopic video generated by the stereoscopic video camera 100.

図11に示すように、画枠761の右端部から左端部へと主要被写体762が移動する場合を想定する。主要被写体762が画枠761の端部近傍に位置するときは、視聴者763は、画枠761を強めに認識する。一方、主要被写体762が画枠761の中心部に位置するときは、視聴者763は、画枠761をほとんど認識しない。立体映像カメラ100により生成された立体映像では、主要被写体762は、画枠761の右端部近傍の区間および左端部近傍の区間では、画枠とほぼ同じ距離に見え、その間の区間では、意図される飛出し量に対応する距離に見える。   As shown in FIG. 11, it is assumed that the main subject 762 moves from the right end portion to the left end portion of the image frame 761. When the main subject 762 is positioned in the vicinity of the end of the image frame 761, the viewer 763 recognizes the image frame 761 stronger. On the other hand, when the main subject 762 is located at the center of the image frame 761, the viewer 763 hardly recognizes the image frame 761. In the stereoscopic video generated by the stereoscopic video camera 100, the main subject 762 appears to be approximately the same distance as the image frame in the section near the right end and the section near the left end of the image frame 761, and is intended in the section in between. It appears at a distance corresponding to the amount of popping out.

立体視における主要被写体762の距離は、画枠761の位置に応じて、変化する事になる。しかし、主要被写体762の立体視による仮想空間上での位置は、主要被写体の絶対的な距離によってではなく、主に、背景等、他の被写体との間の相対的な位置関係によって得られる。したがって、輻輳角が上述のように調整され、主要被写体762の距離が変化しても、主要被写体762の仮想空間上での位置はほとんど変化せず、視聴者に与える違和感は少ないといえる。   The distance of the main subject 762 in stereoscopic view changes according to the position of the image frame 761. However, the position of the main subject 762 in the virtual space in stereoscopic view is obtained not by the absolute distance of the main subject but mainly by the relative positional relationship with other subjects such as the background. Therefore, even if the convergence angle is adjusted as described above and the distance of the main subject 762 changes, the position of the main subject 762 in the virtual space hardly changes and it can be said that there is little discomfort given to the viewer.

図12は、主要被写体の像の欠けに対する効果を説明するための図である。   FIG. 12 is a diagram for explaining the effect on the missing image of the main subject.

主要被写体が画枠の端部に位置し、カメラ輻輳角が被写体輻輳角に一致していないとき、図12に示すように、像の欠けにより、左目映像における像771と右目映像における像772とが大きく異なる場合がある。像771、772がこのように大きく異なると、主要被写体の立体視が得難くなる。   When the main subject is located at the end of the image frame and the camera convergence angle does not coincide with the subject convergence angle, as shown in FIG. 12, due to the lack of image, an image 771 in the left eye image and an image 772 in the right eye image May vary greatly. If the images 771 and 772 are so different from each other, it is difficult to obtain a stereoscopic view of the main subject.

この点、立体映像カメラ100により生成された立体映像では、主要被写体は、画枠の端部に位置するときには左目映像と右目映像とで画角内において同じ位置となるため、欠けが生じたとしても像771、772はほぼ同一となる。   In this regard, in the stereoscopic video generated by the stereoscopic video camera 100, when the main subject is located at the end of the image frame, the left-eye video and the right-eye video are in the same position within the angle of view, so that a lack has occurred. The images 771 and 772 are almost the same.

したがって、立体映像カメラ100により生成された立体映像は、立体視をできるだけ損なわずに、画面を最大限に使って映像表示を行う事ができる。   Therefore, the stereoscopic video generated by the stereoscopic video camera 100 can be displayed using the screen to the maximum without impairing stereoscopic vision as much as possible.

以上説明したように、本実施の形態に係る立体映像カメラ100は、画角被写体位置が画角端部の近傍のとき、主要被写体の輻輳角が画角端部の輻輳角に近付くように、撮影される立体映像の輻輳角を制御する。すなわち、立体映像カメラ100は、特に主要被写体が画枠の近くに位置するときには、被写体距離と画角被写体位置に応じて輻輳角を制御し、主要被写体の輻輳角矛盾が低減するように、立体映像を形成する。   As described above, in the stereoscopic video camera 100 according to the present embodiment, when the view angle subject position is close to the view angle end, the convergence angle of the main subject approaches the convergence angle of the view angle end. Controls the convergence angle of the stereoscopic image to be shot. That is, particularly when the main subject is located near the image frame, the stereoscopic video camera 100 controls the convergence angle according to the subject distance and the angle of view subject position so that the contradiction of the convergence angle of the main subject is reduced. Form a video.

これにより、立体映像カメラ100は、主要被写体が立体映像の画角端部の近傍に位置するとき、つまり輻輳角矛盾が認識され易い場合にのみ、輻輳角矛盾を低減し、その他の場合には、元の輻輳角矛盾を維持する事ができる。すなわち、映像作成者(ここでは撮影者)が本来狙った立体感をできるだけ損なう事なく、画面を最大限に使って立体映像を表示する事ができる。すなわち、立体映像カメラ100は、視聴者に与える疲労感や違和感が少なく、かつ、立体視による飛出しや奥行きといった立体映像ならではの演出効果ができるだけ保持された映像を形成する事ができる。   Thereby, the stereoscopic video camera 100 reduces the convergence angle contradiction only when the main subject is located in the vicinity of the end of the angle of view of the stereoscopic video, that is, when the convergence angle contradiction is easily recognized. The original convergence angle contradiction can be maintained. That is, it is possible to display a stereoscopic image by using the screen to the maximum without impairing the stereoscopic effect originally aimed by the image creator (here, the photographer) as much as possible. That is, the stereoscopic video camera 100 can form an image that has less feeling of fatigue and discomfort to the viewer, and that retains as much as possible the presentation effects unique to stereoscopic video, such as popping out and depth in stereoscopic viewing.

また、立体映像カメラ100は、主要被写体が立体映像の画角端部の近傍に位置するか否かを判断し、判断結果に応じて、輻輳角を適切に制御する。これにより、例えば、撮影者もしくは映像編集者は、主要被写体の位置に応じて逐一輻輳角を手動で調整する必要が無い。   In addition, the stereoscopic video camera 100 determines whether or not the main subject is located in the vicinity of the end of the angle of view of the stereoscopic video, and appropriately controls the convergence angle according to the determination result. Thereby, for example, the photographer or the video editor does not need to manually adjust the convergence angle according to the position of the main subject.

なお、立体映像の輻輳角の制御手法は、カメラのパン制御に限定されない。例えば、立体映像カメラ100は、カメラ輻輳角を物理的に固定とし(この場合、カメラの光軸が並行、つまりカメラ輻輳角がゼロである事が望ましい)、撮影された映像に対するトリミングを行う事により、輻輳角の制御を行っても良い。   Note that the method of controlling the convergence angle of a stereoscopic image is not limited to camera pan control. For example, in the stereoscopic video camera 100, the camera convergence angle is physically fixed (in this case, it is desirable that the optical axis of the camera is parallel, that is, the camera convergence angle is zero), and the captured video is trimmed. Thus, the angle of convergence may be controlled.

この場合、立体映像カメラ100は、例えば、左カメラ部200および右カメラ部300から出力される左目映像および右目映像に対して、指定範囲の切り出し(トリミング)を行う映像形成部を備えれば良い。   In this case, the stereoscopic video camera 100 may include, for example, a video forming unit that cuts out (trims) a specified range for the left-eye video and the right-eye video output from the left camera unit 200 and the right camera unit 300. .

映像形成部は、例えば、カメラ輻輳角とトリミング範囲との対応関係を予め格納しておき、輻輳角制御部120が算出した調整後カメラ輻輳角θ”に基づいて、対応するトリミング範囲でトリミングを行う。または、映像形成部は、例えば、右目映像における主要被写体の位置と右目映像における主要被写体の位置とが一致するように、トリミング範囲を決定しても良い。具体的には、例えば、映像形成部は、カメラ輻輳角がゼロのとき、左目映像のトリミング範囲と右目映像のトリミング範囲とのずれ量が視差量Dに一致するように、トリミング範囲を決定する。 For example, the video forming unit stores in advance a correspondence relationship between the camera convergence angle and the trimming range, and performs trimming in the corresponding trimming range based on the adjusted camera convergence angle θ c ″ calculated by the convergence angle control unit 120. Alternatively, the video forming unit may determine the trimming range so that, for example, the position of the main subject in the right-eye image matches the position of the main subject in the right-eye image. The video forming unit determines the trimming range so that the deviation amount between the trimming range of the left-eye video and the trimming range of the right-eye video matches the parallax amount D when the camera convergence angle is zero.

また、上記説明では、通常、画角の上端および下端は水平な直線であり、かつ画面の周囲には視認され易いものが配置される事が少ない事から、主要被写体が画角の上端部および下端部の近傍に位置する場合についての説明を省いた。しかし、立体映像カメラ100は、主要被写体が上下端部の近傍に位置する場合においても、輻輳角矛盾を低減させるように、本願発明を適用することができる。これにより、立体映像カメラ100は、画角の上端/下端が水平な直線ではない場合や、画面の周囲に視認され易いものが配置される場合でも、視聴者に与える疲労感を軽減しつつ立体映像の効果を保持した立体映像を生成する事ができる。   In the above description, the upper and lower ends of the angle of view are usually horizontal straight lines, and it is rare that objects that are easily visible are arranged around the screen. The description about the case where it is located near the lower end is omitted. However, the stereoscopic video camera 100 can apply the present invention so as to reduce the convergence angle contradiction even when the main subject is located in the vicinity of the upper and lower ends. As a result, the stereoscopic video camera 100 can reduce the feeling of fatigue given to the viewer even when the top / bottom of the angle of view is not a horizontal straight line or when an object that is easily visible is arranged around the screen. It is possible to generate a stereoscopic image that retains the effect of the image.

(実施の形態2)
本発明の実施の形態2は、主要被写体および画角被写体位置の特定を、実世界における主要被写体の位置に基づいて行う例である。
(Embodiment 2)
The second embodiment of the present invention is an example in which the main subject and the view angle subject position are specified based on the position of the main subject in the real world.

図13は、本実施の形態に係る立体映像制御装置を含む立体映像カメラの使用の様子を示す図であり、実施の形態1の図1に対応するものである。図1と同一部分には同一符号を付し、これについての説明を省略する。   FIG. 13 is a diagram showing how the stereoscopic video camera including the stereoscopic video control apparatus according to the present embodiment is used, and corresponds to FIG. 1 of the first embodiment. The same parts as those in FIG. 1 are denoted by the same reference numerals, and description thereof will be omitted.

図13に示すように、本実施の形態に係る立体映像カメラ100aは、実施の形態1の制御部400とは異なる制御部400aと、更に、被写体位置取得部800aを備える。   As shown in FIG. 13, the stereoscopic video camera 100a according to the present embodiment includes a control unit 400a different from the control unit 400 of the first embodiment and a subject position acquisition unit 800a.

被写体位置取得部800aは、例えば、主要被写体が身に付ける無線通信装置900aから発せされる無線信号に基づいて、無線通信装置900aの位置、つまり主要被写体の実世界における位置を取得する。例えば、無線通信装置900aは無線タグを含み、被写体位置取得部800aはタグリーダを含む。   For example, the subject position acquisition unit 800a acquires the position of the wireless communication device 900a, that is, the position of the main subject in the real world, based on a wireless signal emitted from the wireless communication device 900a worn by the main subject. For example, the wireless communication device 900a includes a wireless tag, and the subject position acquisition unit 800a includes a tag reader.

図14は、本実施の形態に係る立体映像カメラ100aの構成の一例を示すブロック図であり、実施の形態1の図2に対応するものである。図2と同一部分には同一符号を付し、これについての説明を省略する。   FIG. 14 is a block diagram showing an example of the configuration of the stereoscopic video camera 100a according to the present embodiment, and corresponds to FIG. 2 of the first embodiment. The same parts as those in FIG. 2 are denoted by the same reference numerals, and description thereof will be omitted.

立体映像カメラ100aは、実施の形態1の画角内位置取得部110とは異なる画角内位置取得部110aを有する。画角内位置取得部110aは、主要被写体が身に付けている無線通信装置900aに備えられた被写体位置発信部910aから、所定の無線信号を受信する。   The stereoscopic video camera 100a includes an in-view angle position acquisition unit 110a different from the in-view angle position acquisition unit 110 of the first embodiment. The in-view angle position acquisition unit 110a receives a predetermined wireless signal from the subject position transmission unit 910a provided in the wireless communication device 900a worn by the main subject.

図15は、本実施の形態に係る画角内位置取得部110aの構成の一例を示すブロック図である。   FIG. 15 is a block diagram illustrating an example of the configuration of the in-view angle position acquisition unit 110a according to the present embodiment.

図15に示すように、画角内位置取得部110aは、被写体位置取得部800a、画角取得部112a、および画角内位置計算部113aを有する。   As illustrated in FIG. 15, the in-view angle position acquisition unit 110a includes a subject position acquisition unit 800a, an view angle acquisition unit 112a, and an in-view angle position calculation unit 113a.

被写体位置取得部800aは、受信した被写体位置発信部910aからの無線信号に基づいて、立体映像カメラ100aに対する被写体位置発信部910aの相対的な位置および姿勢(以下「空間被写体位置」という)を取得する。そして、被写体位置取得部800aは、取得した空間被写体位置を、画角内位置計算部113aへ出力する。   The subject position acquisition unit 800a acquires the relative position and orientation of the subject position transmission unit 910a with respect to the stereoscopic video camera 100a (hereinafter referred to as “spatial subject position”) based on the received wireless signal from the subject position transmission unit 910a. To do. Then, the subject position acquisition unit 800a outputs the acquired spatial subject position to the in-view angle position calculation unit 113a.

無線信号による空間被写体位置の計測手法は、例えば、GPS(global positioning system)情報を用いる手法を採用する事ができる。この場合、被写体位置発信部910aは、GPS受信機を有し、GPS受信機の機能により自己の位置情報(緯度、経度、および高度等)を取得し、この位置情報を含む無線信号を送信する。そして、被写体位置取得部800aは、GPS受信機と、更に、地磁気の向きから自己の方位を取得する方位計(コンパス)と、重力加速度の向きから自身の仰角を得る仰角計(傾きセンサ)とを有する。そして、被写体位置取得部800aは、自身の位置、方位、および仰角と、被写体位置発信部910aから受信した主要被写体の位置情報とを用いて、空間被写体位置を算出する。   For example, a method using GPS (global positioning system) information can be employed as a method for measuring the position of a spatial subject using a wireless signal. In this case, the subject position transmitter 910a has a GPS receiver, acquires its own position information (latitude, longitude, altitude, etc.) by the function of the GPS receiver, and transmits a radio signal including this position information. . The subject position acquisition unit 800a includes a GPS receiver, an azimuth meter (compass) that acquires its azimuth from the direction of geomagnetism, and an elevation meter (tilt sensor) that obtains its elevation angle from the direction of gravitational acceleration. Have Then, the subject position acquisition unit 800a calculates the spatial subject position using its own position, azimuth, and elevation angle, and the position information of the main subject received from the subject position transmission unit 910a.

または、無線信号による空間被写体位置の計測手法は、例えば、UWB(ultra wide band)通信による距離計測を用いる手法を採用する事ができる。この場合、被写体位置発信部910aは、UWBアンテナを有し、被写体位置取得部800aは、立体映像カメラ100aに固定された複数のUWBアンテナを有する。そして、被写体位置取得部800aは、被写体位置発信部910aと被写体位置取得部800aとの間の無線信号の往復時間と三角測量法とに基づいて、空間被写体位置を算出する。   Alternatively, for example, a method using distance measurement by UWB (ultra wide band) communication can be adopted as a method for measuring the position of the space subject using a wireless signal. In this case, the subject position transmission unit 910a has a UWB antenna, and the subject position acquisition unit 800a has a plurality of UWB antennas fixed to the stereoscopic video camera 100a. Then, the subject position acquisition unit 800a calculates the spatial subject position based on the round trip time of the wireless signal between the subject position transmission unit 910a and the subject position acquisition unit 800a and the triangulation method.

なお、空間被写体位置の計測手法は、上述の例に限定されるものではないが、電波(電磁波)による無線接続等、間に遮蔽物がある場合でも計測が可能な手法である事が望ましい。   Note that the method of measuring the spatial subject position is not limited to the above-described example, but it is desirable that the method can measure even when there is a shielding object such as a wireless connection using radio waves (electromagnetic waves).

画角取得部112aは、カメラが撮影する映像の画角(以下「撮影画角」という)を取得し、取得した撮影画角を、画角内位置計算部113aへ出力する。取得される撮影画角は、左カメラ部200の撮影画角でも良いし、右カメラ部300の撮影画角でも良い。但し、パン制御が、一方のカメラ部を固定して他方のカメラ部のみを動かす事によって行われ、かつ、左カメラ部200と右カメラ部300とで撮影画角が異なる場合には、固定された方のカメラ部の撮影画角が取得される事が望ましい。   The angle-of-view acquisition unit 112a acquires the angle of view of the video imaged by the camera (hereinafter referred to as “shooting angle of view”), and outputs the acquired shooting angle of view to the in-view angle position calculation unit 113a. The acquired shooting angle of view may be the shooting angle of view of the left camera unit 200 or the shooting angle of view of the right camera unit 300. However, the pan control is performed by fixing one camera unit and moving only the other camera unit, and is fixed when the left camera unit 200 and the right camera unit 300 have different shooting angles of view. It is desirable to obtain the shooting angle of view of the other camera unit.

撮影画角は、レンズの設定およびズーム度合いに関係する。したがって、画角取得部112aは、例えば、レンズのズーム機構(図示せず)から焦点距離を取得し、取得した焦点距離を撮影画角に換算する。焦点距離の取得は、市販のビデオカメラ等で用いられている、ズーム機構の回転部の回転量をロータリーエンコーダで読み取る方法などを用いて行えば良い。また焦点距離から撮影画角への換算は、カメラ固有の固定値を用いた単純な乗除演算を用いて行えば良い。   The shooting angle of view is related to the lens setting and the zoom level. Therefore, the angle-of-view acquisition unit 112a acquires a focal length from, for example, a lens zoom mechanism (not shown), and converts the acquired focal length into a shooting angle of view. The focal length may be acquired using a method of reading the amount of rotation of the rotating portion of the zoom mechanism with a rotary encoder, which is used in a commercially available video camera or the like. The conversion from the focal length to the shooting angle of view may be performed using a simple multiplication / division operation using a fixed value unique to the camera.

画角内位置計算部113aは、空間被写体位置および撮影画角から、画角被写体位置を算出する。また、画角内位置計算部113aは、例えば、空間被写体位置から、被写体距離を取得する。   The in-view angle position calculation unit 113a calculates the view angle subject position from the space subject position and the shooting view angle. Further, the in-view angle position calculation unit 113a acquires the subject distance from the spatial subject position, for example.

図16は、立体映像カメラ100aの全体動作の一例を示すフローチャートであり、実施の形態1の図4に対応するものである。図4と同一部分には同一ステップ番号を付し、これについての説明を省略する。   FIG. 16 is a flowchart showing an example of the overall operation of the stereoscopic video camera 100a, and corresponds to FIG. 4 of the first embodiment. The same parts as those in FIG. 4 are denoted by the same step numbers, and description thereof will be omitted.

まず、ステップS1100aにおいて、被写体位置取得部800aは、被写体位置発信部910aが発する無線信号を読み取り、被写体位置発信部910aの存在位置(空間被写体位置)を取得する。そして、被写体位置取得部800aは、取得した空間被写体位置を、画角内位置計算部113aへ出力する。被写体位置の取得処理については、後述する。   First, in step S1100a, the subject position acquisition unit 800a reads a wireless signal emitted from the subject position transmission unit 910a, and acquires the presence position (spatial subject position) of the subject position transmission unit 910a. Then, the subject position acquisition unit 800a outputs the acquired spatial subject position to the in-view angle position calculation unit 113a. The subject position acquisition process will be described later.

なお、被写体位置取得部800aは、被写体位置発信部910aが複数存在する場合には、その中の1つを選択し、画角内位置計算部113aへ出力する事が望ましい。例えば、被写体位置取得部800aは、被写体位置発信部910aが複数存在する場合には、本来の輻輳角が最も大きい被写体、つまり、最も距離が近い被写体を、主要被写体として取り扱う。   In addition, when there are a plurality of subject position transmission units 910a, the subject position acquisition unit 800a preferably selects one of them and outputs it to the in-view angle position calculation unit 113a. For example, when there are a plurality of subject position transmission units 910a, the subject position acquisition unit 800a handles the subject having the largest natural convergence angle, that is, the subject having the shortest distance, as the main subject.

そして、ステップS1200aにおいて、画角取得部112aは、撮影画角を取得し、画角内位置計算部113aへ出力する。   In step S1200a, the angle-of-view acquisition unit 112a acquires the shooting angle of view and outputs the acquired angle of view to the in-view angle position calculation unit 113a.

そして、ステップS2100aにおいて、画角内位置計算部113aは、空間被写体位置および撮影画角から、画角被写体位置を算出すると共に、被写体距離を取得する。そして、画角内位置計算部113aは、画角被写体位置および被写体距離を、輻輳角制御部120へ出力する。以降の動作(S3000〜S6000)は、実施の形態1と同様である。   In step S2100a, the in-view angle position calculation unit 113a calculates the view angle subject position from the spatial subject position and the shooting view angle, and acquires the subject distance. Then, the in-view angle position calculation unit 113a outputs the view angle subject position and the subject distance to the convergence angle control unit 120. Subsequent operations (S3000 to S6000) are the same as those in the first embodiment.

このような立体映像カメラ100aは、主要被写体および画角被写体位置の特定を、画像認識処理を行う事なく、実世界における主要被写体の位置に基づいて行う事ができる。   Such a stereoscopic video camera 100a can specify the main subject and the view angle subject position based on the position of the main subject in the real world without performing image recognition processing.

以下、上述の、空間被写体位置の取得処理、被写体距離の取得処理、および画角被写体位置の取得処理の詳細について、順に説明する。   Details of the space subject position acquisition processing, subject distance acquisition processing, and field angle subject position acquisition processing described above will be sequentially described below.

図17は、空間被写体位置を定義する座標系の一例を示す図である。   FIG. 17 is a diagram illustrating an example of a coordinate system that defines a spatial subject position.

図17に示すように、被写体位置取得部800aは、立体映像カメラ100aの位置および姿勢を基準とするxyz軸から成る座標系を設定する。例えば、z軸の正の方向は、左カメラ部200の光軸方向である。x軸の正の方向は、左カメラ部200のレンズ中心から右カメラ部300のレンズ中心へ向かう方向である。y軸の正の方向は、x軸およびz軸に直交する方向のうち、通常の撮影状態において下側に向かう方向である。各軸の単位は、メートル等、一般的な距離単位を採用する事ができる。   As shown in FIG. 17, the subject position acquisition unit 800a sets a coordinate system including xyz axes with reference to the position and orientation of the stereoscopic video camera 100a. For example, the positive direction of the z axis is the optical axis direction of the left camera unit 200. The positive direction of the x axis is a direction from the lens center of the left camera unit 200 toward the lens center of the right camera unit 300. The positive direction of the y-axis is a direction toward the lower side in the normal photographing state among the directions orthogonal to the x-axis and the z-axis. The unit of each axis can adopt a general distance unit such as a meter.

ここで、被写体位置発信部910aが図17に示す位置にある時、被写体位置取得部800aは、座標値から成る空間被写体位置(x,y,z)を取得する。空間被写体位置(x,y,z)は、例えば、主要被写体に取り付けられた無線通信装置900aの被写体位置発信部910aの代表点の位置である。   Here, when the subject position transmission unit 910a is at the position shown in FIG. 17, the subject position acquisition unit 800a acquires a spatial subject position (x, y, z) composed of coordinate values. The space subject position (x, y, z) is, for example, the position of the representative point of the subject position transmission unit 910a of the wireless communication device 900a attached to the main subject.

そして、被写体位置取得部800aは、この空間被写体位置(x,y,z)のうち、例えば、z軸の値を、被写体距離として取得する。   Then, the subject position acquisition unit 800a acquires, for example, a z-axis value as the subject distance among the spatial subject positions (x, y, z).

図18〜図20は、画角被写体位置の取得処理を説明するための図である。   18 to 20 are diagrams for explaining the process of obtaining the field angle subject position.

図18および図19に示すように、被写体位置取得部800aは、水平画角θfh、垂直画角θfv、および空間被写体位置(x,y,z)を取得する。水平画角θfhは、カメラの水平方向の撮影画角である。垂直画角θfvは、カメラの垂直方向の撮影画角である。 As shown in FIGS. 18 and 19, the subject position acquisition unit 800a acquires a horizontal field angle θ fh , a vertical field angle θ fv , and a spatial subject position (x, y, z). The horizontal angle of view θ fh is a horizontal shooting angle of view of the camera. The vertical field angle θ fv is a shooting field angle in the vertical direction of the camera.

そして、被写体位置取得部800aは、例えば、以下の式(11)および式(12)を用いて、主要被写体781の画角被写体位置(X,Y)を算出する。画角被写体位置(X,Y)は、図20に示すように、左目映像782の中心783を基準とした座標系における主要被写体の像782の位置を示す値である。具体的には、画角被写体位置(X,Y)は、座標系の原点(画角中心)を0%とし画角の左右端および上下端をそれぞれ100%として、主要被写体782の位置をパーセントで示す値である。 Then, the subject position acquisition unit 800a calculates the field angle subject position (X s , Y s ) of the main subject 781 using, for example, the following formulas (11) and (12). The field angle subject position (X s , Y s ) is a value indicating the position of the main subject image 782 in the coordinate system with reference to the center 783 of the left-eye image 782, as shown in FIG. Specifically, the view angle subject position (X s , Y s ) is the position of the main subject 782 with the origin (view angle center) of the coordinate system being 0% and the left and right ends and upper and lower ends of the view angle being 100%. Is a value indicating the percentage.

=x/{z・tan(θfh/2)} ・・・・・・(11)
=y/{z・tan(θfv/2)} ・・・・・・(12)
X s = x / {z · tan (θ fh / 2)} (11)
Y s = y / {z · tan (θ fv / 2)} (12)

なお、立体映像カメラ100aが画角被写体位置の取得に用いる座標系は、上述の例に限定されない。例えば、かかる座標系は、左カメラ部200の輻輳角がゼロの際の左カメラ部200の光軸をz軸としても良い。このようにしても、画角被写体位置の演算結果はほぼ同一の値が得られる。   Note that the coordinate system used by the stereoscopic video camera 100a to acquire the view angle subject position is not limited to the above example. For example, in this coordinate system, the optical axis of the left camera unit 200 when the convergence angle of the left camera unit 200 is zero may be the z axis. Even in this case, almost the same value can be obtained as the calculation result of the field angle subject position.

また、立体映像カメラ100は、画枠の上端部近傍および下端部近傍については、実施の形態1と同様に、輻輳角矛盾を少なくする制御を行わなくても良い。この場合、立体映像カメラ100は、画角被写体位置として、左右方向の位置のみを算出し、画枠の左端部近傍および右端部近傍のみについて輻輳角矛盾を少なくする制御を行う。   In addition, the stereoscopic video camera 100 does not have to perform control to reduce the convergence angle contradiction in the vicinity of the upper end portion and the lower end portion of the image frame, as in the first embodiment. In this case, the stereoscopic video camera 100 calculates only the position in the left-right direction as the field angle subject position, and performs control to reduce the convergence angle contradiction only in the vicinity of the left end and the right end of the image frame.

このように、本実施の形態に係る立体映像カメラ100aは、画像認識によらずに画角被写体位置を取得するので、主要被写体に対する画像認識を行う事ができない場合でも、適切な輻輳角制御を行う事ができる。これにより、例えば、主要被写体の像に障害物や画枠によって欠けが生じている場合にも、適正な輻輳角を得て立体映像を形成する事ができる。   As described above, the stereoscopic video camera 100a according to the present embodiment acquires the field angle subject position without performing image recognition. Therefore, even when image recognition cannot be performed on the main subject, appropriate convergence angle control is performed. Can be done. Thereby, for example, even when an image of a main subject is missing due to an obstacle or an image frame, a stereoscopic image can be formed with an appropriate convergence angle.

なお、主要被写体の像の一部は画角内に位置するにも関わらず、画角被写体位置は画角外となっている場合が起こり得る。そこで、立体映像カメラ100aは、画角被写体位置が画角外の範囲(つまり100%を超える範囲)についても、被写体輻輳角に適用する補正係数を格納している事が望ましい。   Note that there may be a case where the view angle subject position is outside the view angle even though a part of the image of the main subject is located within the view angle. Therefore, it is desirable that the stereoscopic video camera 100a stores a correction coefficient to be applied to the subject convergence angle even in a range where the field angle subject position is outside the field angle (that is, a range exceeding 100%).

図21は、補正係数の一例を示す図であり、実施の形態1の図9および図10に対応するものである。図21に示すように、補正係数791は、例えば、画角被写体位置が100%を超える範囲において、画角被写体位置100%に対応する値(ここでは100%)とする。これにより、主要被写体の像の一部は画角内に位置するにも関わらず、画角被写体位置は画角外となっている場合でも、主要被写体の像の輻輳角矛盾を低減する事ができる。特に、主要被写体が画枠から出るときや入るときに、主要被写体の輻輳角が滑らかに変化し、視聴者への負担をより軽減する事ができる。   FIG. 21 is a diagram showing an example of the correction coefficient, and corresponds to FIG. 9 and FIG. 10 of the first embodiment. As shown in FIG. 21, the correction coefficient 791 is set to a value (here, 100%) corresponding to the field angle subject position 100% in a range where the field angle subject position exceeds 100%. As a result, even if a part of the image of the main subject is located within the angle of view, but the angle of view of the subject is outside the angle of view, it is possible to reduce the contradiction of the convergence angle of the image of the main subject. it can. In particular, when the main subject leaves or enters the image frame, the convergence angle of the main subject changes smoothly, and the burden on the viewer can be further reduced.

また、以上説明した各実施の形態では、輻輳角制御部は、被写体輻輳角の変化に対して、対応する調整後カメラ輻輳角への輻輳角の調整をほぼリアルタイムに行うものとしたが、これに制限されない。例えば、輻輳角制御部は、輻輳角の調整に、画角被写体位置に応じた遅延時間を持たせても良い。すなわち、立体映像制御装置は、被写体距離の変化に対する輻輳角変換の追従速度(以下、単に「追従速度」という)を、画角被写体位置に応じて変化させても良い。   Further, in each of the embodiments described above, the convergence angle control unit adjusts the convergence angle to the corresponding adjusted camera convergence angle in response to a change in the subject convergence angle. Not limited to. For example, the convergence angle control unit may provide a delay time corresponding to the view angle subject position in the adjustment of the convergence angle. In other words, the stereoscopic video control apparatus may change the follow-up speed of the convergence angle conversion with respect to the change in the subject distance (hereinafter simply referred to as “follow-up speed”) according to the view angle subject position.

例えば、輻輳角制御部は、画角被写体位置が画角中心部にあるときには、追従速度を遅くする。これにより、例えば、被写体距離の急激な変化が、時刻t=0から時刻t=1に掛けて発生した場合、図22に示すように、後続の時刻t=2〜5において、緩やかに輻輳角矛盾をなくす方向に変化する動きとなる。   For example, the convergence angle control unit slows the tracking speed when the view angle subject position is at the center of the view angle. Thereby, for example, when a sudden change in the subject distance occurs from time t = 0 to time t = 1, as shown in FIG. 22, at a subsequent time t = 2 to 5, the convergence angle is moderated. The movement changes in a direction that eliminates contradictions.

そして、輻輳角制御部は、画角被写体位置が画角端部近傍にあるときには、追従速度を速くする。これにより、被写体距離の変化が、図23に示すように、後続の時刻t=2〜5において、急速に輻輳角矛盾をなくす方向に変化する動きとなる。また、特に、追従速度が最大(つまり遅延時間がほぼゼロ)の場合には、図24に示すように、後続の時刻t=2〜5において、瞬時に輻輳角矛盾をなくす方向に変化する動きとなる。   The convergence angle control unit increases the follow-up speed when the view angle subject position is in the vicinity of the view angle end. As a result, as shown in FIG. 23, the change in the subject distance is a movement that rapidly changes in the direction of eliminating the convergence angle contradiction at subsequent times t = 2 to 5. In particular, when the follow-up speed is maximum (that is, the delay time is almost zero), as shown in FIG. 24, the movement that changes instantaneously in the direction of eliminating the convergence angle contradiction at time t = 2 to 5 as shown in FIG. It becomes.

このように、立体映像制御装置は、輻輳角制御の追従速度を画角被写体位置に応じて変化させる事により、視聴者への負担をより軽減するという効果を得る事ができる。具体的には、立体映像制御装置は、画角中心部、画角端部近傍それぞれに適した様態で、短時間的、瞬間的には立体演出効果(例えば画面から飛び出たり、奥に引っ込んだりという見せ方)を得つつも、長時間的には輻輳角矛盾を減少させることができる。   In this way, the stereoscopic video control apparatus can obtain an effect of further reducing the burden on the viewer by changing the tracking speed of the convergence angle control according to the view angle subject position. Specifically, the stereoscopic video control device is suitable for the center of the angle of view and the vicinity of the edge of the angle of view, and in a short time and instantaneously, a stereoscopic effect (for example, popping out of the screen or retracting in the back) In the long term, the convergence angle contradiction can be reduced.

また、以上説明した各実施の形態では、本発明を、立体映像を撮影可能な家庭用ビデオカメラに適用した例について説明したが、本発明の適用はこれに制限されない。本発明は、例えば、映画を撮影するためのビデオカメラ等、立体映像を制御または生成する各種装置に適用する事ができる。立体映像が映画である場合には、主要被写体は、例えば、主人公等の主要な役割を持つ登場人物や、各シーンにおいて視聴者の着目を集めたい登場人物あるいは物体である。   In each of the embodiments described above, an example in which the present invention is applied to a home video camera capable of shooting a stereoscopic video has been described, but the application of the present invention is not limited thereto. The present invention can be applied to various devices that control or generate stereoscopic images, such as video cameras for shooting movies. When the stereoscopic video is a movie, the main subject is, for example, a character who has a main role such as a hero or a character or an object that wants to attract viewers' attention in each scene.

また、立体映像制御装置の各装置部は、必ずしも1つの装置に一体的に設ける必要はない。例えば、立体映像制御装置は、制御部を、他の各装置部と有線または無線により接続された別体装置としても良い。   Further, each device unit of the stereoscopic video control device is not necessarily provided integrally in one device. For example, in the stereoscopic video control device, the control unit may be a separate device connected to other device units by wire or wirelessly.

本発明に係る立体映像制御装置および立体映像制御方法は、視聴者に与える疲労感を軽減しつつ、立体映像の効果をより良く得る事ができる立体映像制御装置および立体映像制御方法として有用である。具体的には、本発明に係る立体映像制御装置および立体映像制御方法は、例えば、業務用または家庭用ビデオカメラ、映像編集機、映像編集ソフトウェア等、立体映像を制御または生成する装置に有用である。   INDUSTRIAL APPLICABILITY The stereoscopic video control device and the stereoscopic video control method according to the present invention are useful as a stereoscopic video control device and a stereoscopic video control method capable of obtaining a better stereoscopic video effect while reducing the feeling of fatigue given to the viewer. . Specifically, the stereoscopic video control device and the stereoscopic video control method according to the present invention are useful for an apparatus that controls or generates a stereoscopic video, such as a business or home video camera, a video editing machine, and video editing software. is there.

100、100a 立体映像カメラ
110、110a 画角内位置取得部
111 画像認識部
112a 画角取得部
113a 画角内位置計算部
120 輻輳角制御部
130 記憶部
200 左カメラ部
300 右カメラ部
400、400a 制御部
500 表示部
600 入力部
800a 被写体位置取得部
900a 無線通信装置
910a 被写体位置発信部
100, 100a Stereoscopic camera 110, 110a In-view angle position acquisition unit 111 Image recognition unit 112a View angle acquisition unit 113a In-view angle position calculation unit 120 Convergence angle control unit 130 Storage unit 200 Left camera unit 300 Right camera unit 400, 400a Control unit 500 Display unit 600 Input unit 800a Subject position acquisition unit 900a Wireless communication device 910a Subject position transmission unit

Claims (12)

左目映像および右目映像により構成される立体映像の輻輳角を制御する立体映像制御装置であって、
前記立体映像の画角内における主要被写体の位置を取得する画角内位置取得部と、
前記画角内における前記主要被写体の位置に応じて前記立体映像の輻輳角を制御する輻輳角制御部と、
を有する立体映像制御装置。
A stereoscopic video control device for controlling a convergence angle of a stereoscopic video composed of a left-eye video and a right-eye video,
An in-view angle position acquisition unit for acquiring the position of the main subject within the view angle of the stereoscopic image;
A convergence angle control unit that controls a convergence angle of the stereoscopic image according to the position of the main subject within the angle of view;
3D image control apparatus.
前記輻輳角制御部は、
前記主要被写体が前記画角の端部の近傍に位置するか否かを判定し、前記主要被写体が前記端部の近傍に位置するときに前記主要被写体の輻輳角矛盾が低減するように、前記立体映像の輻輳角を制御する、
請求項1記載の立体映像制御装置。
The convergence angle control unit
It is determined whether or not the main subject is located near the end of the angle of view, and the convergence angle contradiction of the main subject is reduced when the main subject is located near the end. Control the convergence angle of stereoscopic images,
The stereoscopic image control apparatus according to claim 1.
前記輻輳角制御部は、
前記主要被写体の位置が前記端部近傍のとき、前記端部に対する前記主要被写体の位置が、前記左目映像と前記右目映像との間で近付くように、前記立体映像の輻輳角を制御する、
請求項2記載の立体映像制御装置。
The convergence angle control unit
When the position of the main subject is near the end, the convergence angle of the stereoscopic image is controlled so that the position of the main subject relative to the end approaches between the left-eye image and the right-eye image.
The stereoscopic video control apparatus according to claim 2.
前記輻輳角制御部は、
前記主要被写体の位置の前記端部までの距離に応じて、段階的に、前記立体映像の輻輳角を制御する、
請求項1記載の立体映像制御装置。
The convergence angle control unit
In accordance with the distance to the end of the position of the main subject, the convergence angle of the stereoscopic video is controlled step by step.
The stereoscopic image control apparatus according to claim 1.
前記輻輳角制御部は、
前記主要被写体の位置が画角の左端部および右端部の少なくとも一方の近傍のとき、前記主要被写体の輻輳角矛盾が低減するように前記立体映像の輻輳角を制御する、
請求項2記載の立体映像制御装置。
The convergence angle control unit
When the position of the main subject is in the vicinity of at least one of the left end and the right end of the angle of view, the convergence angle of the stereoscopic image is controlled so as to reduce the contradiction of the convergence angle of the main subject.
The stereoscopic video control apparatus according to claim 2.
前記輻輳角制御部は、
前記主要被写体の位置が画角の上端部および下端部の少なくとも一方の近傍のとき、前記主要被写体の輻輳角矛盾が低減するように前記立体映像の輻輳角を制御する、
請求項2記載の立体映像制御装置。
The convergence angle control unit
When the position of the main subject is in the vicinity of at least one of the upper end and the lower end of the angle of view, the convergence angle of the stereoscopic image is controlled so as to reduce the contradiction of the convergence angle of the main subject.
The stereoscopic video control apparatus according to claim 2.
前記左目映像を撮影するカメラの光軸と前記右目映像を撮影するカメラの光軸とが成す角としてのカメラ輻輳角を制御する事により、前記立体映像の輻輳角を制御する、
請求項1記載の立体映像制御装置。
Controlling the convergence angle of the stereoscopic image by controlling the camera convergence angle as the angle formed by the optical axis of the camera that captures the left-eye image and the optical axis of the camera that captures the right-eye image,
The stereoscopic image control apparatus according to claim 1.
前記左目映像および前記右目映像のそれぞれに対してトリミングを行う映像形成部、を更に有し、
前記輻輳角制御部は、
前記トリミングの位置を制御する事により、前記立体映像の輻輳角を制御する、
請求項1記載の立体映像制御装置。
An image forming unit that performs trimming on each of the left-eye image and the right-eye image;
The convergence angle control unit
By controlling the trimming position, the angle of convergence of the stereoscopic image is controlled.
The stereoscopic image control apparatus according to claim 1.
前記主要被写体の実世界における位置を取得する被写体位置取得部、を更に有し、
前記画角内位置取得部は、
前記主要被写体の実世界における位置から、前記主要被写体の画角内における位置を取得する、
請求項1記載の立体映像制御装置。
A subject position obtaining unit for obtaining a position of the main subject in the real world,
The in-view angle position acquisition unit
Obtaining a position within the angle of view of the main subject from the position of the main subject in the real world;
The stereoscopic image control apparatus according to claim 1.
前記被写体位置取得部は、
前記主要被写体から発せられる無線信号に基づいて、前記主要被写体の実世界における位置を取得する、
請求項9記載の立体映像制御装置。
The subject position acquisition unit
Acquiring a position of the main subject in the real world based on a radio signal emitted from the main subject;
The stereoscopic video control apparatus according to claim 9.
前記輻輳角制御部は、
前記主要被写体の位置に応じて、異なる追従速度で、前記主要被写体の輻輳角の変化に対して前記立体映像の輻輳角の変化を追従させる、
請求項1記載の立体映像制御装置。
The convergence angle control unit
Depending on the position of the main subject, the change in the convergence angle of the stereoscopic image is made to follow the change in the convergence angle of the main subject at a different following speed.
The stereoscopic image control apparatus according to claim 1.
左目映像および右目映像により構成される立体映像の輻輳角を制御する立体映像制御方法であって、
前記立体映像の画角内における主要被写体の位置を取得するステップと、
前記画角内における前記主要被写体の位置に応じて前記立体映像の輻輳角を制御するステップと、
を有する立体映像制御方法。
A stereoscopic video control method for controlling a convergence angle of a stereoscopic video composed of a left-eye video and a right-eye video,
Obtaining a position of a main subject within an angle of view of the stereoscopic image;
Controlling a convergence angle of the stereoscopic video according to a position of the main subject within the angle of view;
3D video control method.
JP2010070443A 2010-03-25 2010-03-25 Three-dimensional video control device, and three-dimensional video control method Pending JP2011205385A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010070443A JP2011205385A (en) 2010-03-25 2010-03-25 Three-dimensional video control device, and three-dimensional video control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010070443A JP2011205385A (en) 2010-03-25 2010-03-25 Three-dimensional video control device, and three-dimensional video control method

Publications (1)

Publication Number Publication Date
JP2011205385A true JP2011205385A (en) 2011-10-13

Family

ID=44881547

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010070443A Pending JP2011205385A (en) 2010-03-25 2010-03-25 Three-dimensional video control device, and three-dimensional video control method

Country Status (1)

Country Link
JP (1) JP2011205385A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9621873B2 (en) 2012-05-31 2017-04-11 Casio Computer Co., Ltd. Apparatus including function to generate stereoscopic image, and method and storage medium for the same
WO2019230115A1 (en) * 2018-05-30 2019-12-05 ソニー・オリンパスメディカルソリューションズ株式会社 Medical image processing apparatus
JPWO2020059472A1 (en) * 2018-09-21 2021-08-30 本田技研工業株式会社 Vehicle inspection system
WO2025100026A1 (en) * 2023-11-08 2025-05-15 キヤノン株式会社 Image processing device, head-mounted display device, image processing method, and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9621873B2 (en) 2012-05-31 2017-04-11 Casio Computer Co., Ltd. Apparatus including function to generate stereoscopic image, and method and storage medium for the same
WO2019230115A1 (en) * 2018-05-30 2019-12-05 ソニー・オリンパスメディカルソリューションズ株式会社 Medical image processing apparatus
JPWO2020059472A1 (en) * 2018-09-21 2021-08-30 本田技研工業株式会社 Vehicle inspection system
JP7054739B2 (en) 2018-09-21 2022-04-14 本田技研工業株式会社 Vehicle inspection system
WO2025100026A1 (en) * 2023-11-08 2025-05-15 キヤノン株式会社 Image processing device, head-mounted display device, image processing method, and program

Similar Documents

Publication Publication Date Title
US10116922B2 (en) Method and system for automatic 3-D image creation
US10491886B2 (en) Virtual reality display
JP5260705B2 (en) 3D augmented reality provider
KR20210154814A (en) Head-mounted display with pass-through imaging
CN110377148B (en) Computer readable medium, method of training object detection algorithm and training device
US20130113701A1 (en) Image generation device
US9338426B2 (en) Three-dimensional image processing apparatus, three-dimensional imaging apparatus, and three-dimensional image processing method
US20190045125A1 (en) Virtual reality video processing
WO2017213070A1 (en) Information processing device and method, and recording medium
JP6768933B2 (en) Information processing equipment, information processing system, and image processing method
KR101270025B1 (en) Stereo Camera Appratus and Vergence Control Method thereof
CN108876840A (en) A method of vertical or forward projection 3-D image is generated using virtual 3d model
JP2011205385A (en) Three-dimensional video control device, and three-dimensional video control method
JP6649010B2 (en) Information processing device
KR20200128661A (en) Apparatus and method for generating a view image
KR102001255B1 (en) Coordinated stereo image acquisition and viewing system
CN119865594A (en) Image rendering method and device, display device and naked eye 3D display system
WO2018173207A1 (en) Information processing device
US11310472B2 (en) Information processing device and image generation method for projecting a subject image onto a virtual screen
JP7593334B2 (en) Display device, image generating method and program
KR101421442B1 (en) Method and system tracking position of stereo camera
JP2022015647A (en) Information processing apparatus and image display method
JP7465133B2 (en) Information processing device and information processing method
JP2023178093A (en) Display unit, control method, and program
KR20240114578A (en) technique edit and location camera