JP2005142765A - Apparatus and method for imaging - Google Patents
Apparatus and method for imaging Download PDFInfo
- Publication number
- JP2005142765A JP2005142765A JP2003376115A JP2003376115A JP2005142765A JP 2005142765 A JP2005142765 A JP 2005142765A JP 2003376115 A JP2003376115 A JP 2003376115A JP 2003376115 A JP2003376115 A JP 2003376115A JP 2005142765 A JP2005142765 A JP 2005142765A
- Authority
- JP
- Japan
- Prior art keywords
- image
- camera
- cameras
- normal direction
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000003384 imaging method Methods 0.000 title claims description 39
- 238000000034 method Methods 0.000 title description 20
- 238000012545 processing Methods 0.000 claims abstract description 22
- 238000012937 correction Methods 0.000 claims abstract description 14
- 239000011159 matrix material Substances 0.000 claims description 20
- 230000009466 transformation Effects 0.000 claims description 20
- 238000003702 image correction Methods 0.000 claims description 16
- 230000003993 interaction Effects 0.000 abstract 1
- 230000003287 optical effect Effects 0.000 description 28
- 238000010606 normalization Methods 0.000 description 18
- 230000006854 communication Effects 0.000 description 17
- 238000004891 communication Methods 0.000 description 17
- 238000013459 approach Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 6
- 239000013598 vector Substances 0.000 description 5
- 239000004973 liquid crystal related substance Substances 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000000149 argon plasma sintering Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、例えばテレビ会議システム或いはテレビ電話システム等に適用され、ネットワークを介して画像を双方向で送受信する通信システム、送受信する画像を撮像して、ユーザの視線方向に応じてこれを再構成する撮像装置及び方法に関する。 The present invention is applied to, for example, a video conference system or a video phone system, and is a communication system that transmits and receives images bidirectionally via a network. The image to be transmitted and received is captured and reconfigured according to the user's line-of-sight direction. The present invention relates to an imaging apparatus and method.
テレビ電話システムやテレビ会議システム等に代表されるように、複数のユーザが互いに離れた場所から相手の表示像を視認しながら遠隔対話するシステムが提案されている。このようなシステムでは、相手の表示像をディスプレイ上に表示するとともに、当該ディスプレイを視認するユーザを撮影対象として撮像し、得られた画像信号を公衆回線、専用回線等のネットワークを介して相手側の端末装置へ送信することにより、双方のユーザに対し臨場感を持たせることが可能となる。 As represented by a videophone system, a video conference system, and the like, a system has been proposed in which a plurality of users can remotely interact with each other while viewing a display image of the other party from a location apart from each other. In such a system, a display image of the other party is displayed on the display, and a user who visually recognizes the display is imaged as a subject to be photographed, and the obtained image signal is transmitted through a network such as a public line or a dedicated line. By transmitting to the terminal device, it is possible to give both users a sense of reality.
従来におけるテレビ会議システムでは、ディスプレイの中心付近に写し出される相手の表示像を視認するユーザを、ディスプレイ上部にあるカメラにより撮像するため、ユーザが下を向いた状態の画像が相手側のディスプレイ上に表示されることになる。このため、実際にディスプレイを視認するユーザ間において視線が不一致の状態で対話がなされることになり、互いに違和感を与えてしまうという問題がある。 In a conventional video conference system, a user who visually recognizes the display image of the other party displayed near the center of the display is captured by the camera at the top of the display, so that the image of the user facing down is displayed on the other party's display. Will be displayed. For this reason, there is a problem in that the users who actually view the display are interacted with each other in a state where their lines of sight are inconsistent, giving a sense of discomfort to each other.
理想的には、相手の表示像が写し出されるディスプレイの中心付近にカメラを設置すれば、双方のユーザの視線を一致させた状態で対話を実現することができる。しかしながら、かかるディスプレイの中心付近にカメラを設置することは物理的に困難である。 Ideally, if a camera is installed in the vicinity of the center of the display where the display image of the other party is projected, it is possible to realize a conversation in a state in which the lines of sight of both users are matched. However, it is physically difficult to install a camera near the center of such a display.
このような視線不一致に関する問題点を解決すべく、例えばハーフミラーを用いてカメラの向きと表示画面を合わせるテレビ電話装置(例えば、特許文献1参照。)、光透過状態と光散乱状態を制御できるスクリーンとプロジェクタを用いて時系列で表示と撮像を行う画像表示/制御装置(例えば、特許文献2参照。)、ホログラムスクリーンとプロジェクタを用いることにより、表示と撮像の双方を同時に実現できる撮像機能付き表示装置(例えば、特許文献3参照。)が提案されている。 In order to solve such a problem related to the line-of-sight mismatch, for example, a videophone device (for example, refer to Patent Document 1) that uses a half mirror to match the camera direction and the display screen, the light transmission state and the light scattering state can be controlled. An image display / control device that performs display and imaging in time series using a screen and a projector (see, for example, Patent Document 2), with an imaging function that can realize both display and imaging simultaneously by using a hologram screen and a projector. A display device (see, for example, Patent Document 3) has been proposed.
また、視線と顔の位置に応じて相手側のカメラの光軸を制御することにより、表示画面と視線を一致させる双方向通信システム、端末装置及び制御方法が提案されている(例えば、特許文献4参照。)。 In addition, a bidirectional communication system, a terminal device, and a control method have been proposed that match the line of sight with the display screen by controlling the optical axis of the camera on the other side according to the line of sight and the position of the face (for example, Patent Documents). 4).
また、ディスプレイの両側に配置された複数のカメラにより撮影された入力画像に基づいて被写体の3次元情報を抽出し、抽出した3次元情報と受信者の視点位置に関する情報に応じて被写体の出力画像を再構成し、これを相手側のディスプレイへ表示させる画像処理装置が提案されている(例えば、特許文献5参照。)。この画像処理装置では、一直線上に配置された複数のカメラ映像から生成されたエピポーラ平面画像を用いて画面中心の仮想視点カメラ映像を合成することにより、利用者の視線を一致させて臨場感の高いコミュニケーションを実現することができる。 Also, three-dimensional information of the subject is extracted based on input images taken by a plurality of cameras arranged on both sides of the display, and an output image of the subject is determined according to the extracted three-dimensional information and information on the viewpoint position of the receiver. Has been proposed (see Patent Document 5, for example). In this image processing apparatus, by synthesizing a virtual viewpoint camera image centered on the screen using an epipolar plane image generated from a plurality of camera images arranged on a straight line, the user's line of sight is made coincident and a sense of presence is realized. High communication can be realized.
また、観察者の視点位置に合わせた画像を入力された画像群より切り替えて表示し、観察者の視点位置に応じた画像を表示する画像処理方法及びその装置(例えば、特許文献6参照。)も提案されている。この画像処理方法等においても、対応点の探索を容易化すべく、同様にエピポーラ平面画像を用いることができる。 In addition, an image processing method and apparatus for displaying an image according to the viewpoint position of the observer by switching and displaying an image according to the viewpoint position of the observer from the input image group (see, for example, Patent Document 6). Has also been proposed. In this image processing method or the like, an epipolar plane image can be similarly used to facilitate the search for corresponding points.
また、TV会議で互いの視線を一致させるべく、画面の左右に設置された2台のカメラで撮影した画像に基づいて3次元位置情報を生成する画像通信装置(例えば、特許文献7参照。)も提案されている。 In addition, in order to match each other's line of sight in a video conference, an image communication apparatus that generates three-dimensional position information based on images taken by two cameras installed on the left and right of the screen (see, for example, Patent Document 7). Has also been proposed.
しかしながら、上述した従来のシステムでは、実際にディスプレイを視認するユーザ間において視線を一致させた状態で対話を実現することができるが、ハーフミラーやホログラムスクリーン、更にはプロジェクタ等のような特殊装置を使用する必要があり、簡易で安価なシステムを構成することができないという問題点があった。 However, in the above-described conventional system, it is possible to realize a conversation with the line of sight matched between users who actually view the display. However, a special device such as a half mirror, a hologram screen, or a projector is used. There is a problem that a simple and inexpensive system cannot be configured.
特に近年において、ブロードバンドネットワーク技術の進歩に伴い、このテレビ電話システムやテレビ会議システムに対するニーズがますます高くなる中、ディスプレイを視認するユーザの視線方向を常時抽出することにより、細かい動きや表情までを正確に捉えた、よりリアルで臨場感のある遠隔対話を実現する必要がある。 In recent years, with the advancement of broadband network technology, the needs for this videophone system and videoconferencing system are increasing. By constantly extracting the direction of the line of sight of the user viewing the display, it is possible to obtain detailed movements and expressions. It is necessary to realize a more realistic and realistic remote dialogue that is accurately captured.
そこで本発明は上述した問題点を解決すべく案出されたものであり、その目的とするところは、システム全体を複雑化させることなく、よりリアルで臨場感のある遠隔対話を実現することができる通信システム、撮像装置及び方法を提供することにある。 Accordingly, the present invention has been devised to solve the above-described problems, and the object of the present invention is to realize a more realistic and realistic remote conversation without complicating the entire system. An object of the present invention is to provide a communication system, an imaging apparatus and a method that can be used.
上述した問題点を解決するために、本発明では、撮影対象を少なくとも3台のカメラにより互いに異なる角度から撮像し、各カメラにより撮像された各画像の法線方向を仮想的に設定された仮想平面の法線方向に合わせることにより補正処理を施し、この補正処理を施した各画像間において撮影対象と関連させつつ画素位置毎に対応付けを行い、各カメラに対する上記撮影対象の相対的な位置関係を示す相対位置情報を生成し、互いに対応付けた画素位置並びにその輝度成分から、上記生成された相対位置情報に応じて、新たに生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める。 In order to solve the above-described problems, in the present invention, an imaging target is imaged by at least three cameras from different angles, and the normal direction of each image captured by each camera is virtually set. A correction process is performed by matching with the normal direction of the plane, and each image position subjected to the correction process is associated with each imaging position while being associated with each imaging object, and the relative position of the imaging object with respect to each camera Relative position information indicating the relationship is generated, and from the pixel position and its luminance component associated with each other, the pixel position and its luminance component constituting the virtual viewpoint image to be newly generated according to the generated relative position information Ask for.
即ち、本発明を適用した撮像装置は、撮影対象を互いに異なる角度から撮像する少なくとも3台のカメラを含む撮像手段と、少なくとも各カメラにより撮像された各画像の法線方向を合わせる画像補正手段と、画像補正手段により補正された各画像間において、撮影対象と関連させつつ画素位置毎に対応付けを行うマッチング手段と、各カメラに対する撮影対象の相対的な位置関係を示す相対位置情報を生成する情報生成手段と、マッチング手段により互いに対応付けされた画素位置並びにその輝度成分から、生成された相対位置情報に応じて、新たに生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める画像生成手段とを備える。 That is, an imaging apparatus to which the present invention is applied includes an imaging unit that includes at least three cameras that capture an image of an imaging target from different angles, and an image correction unit that aligns the normal direction of each image captured by at least each camera. In addition, between each image corrected by the image correction unit, a matching unit that associates each pixel position with each other while associating with the shooting target, and generates relative position information indicating a relative positional relationship of the shooting target with respect to each camera. Based on the generated relative position information, the pixel position constituting the virtual viewpoint image to be newly generated and the luminance component thereof are obtained from the pixel position and the luminance component associated with each other by the information generating means and the matching means. Image generating means.
また、本発明を適用した撮像方法は、撮影対象を少なくとも3台のカメラにより互いに異なる角度から撮像し、各カメラにより撮像された各画像の法線方向を一方向に合わせる補正処理を施し、補正処理を施した各画像間において撮影対象と関連させつつ画素位置毎に対応付けを行い、各カメラに対する上記撮影対象の相対的な位置関係を示す相対位置情報を生成し、互いに対応付けた画素位置並びにその輝度成分から、生成した相対位置情報に応じて、新たに生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める。 In addition, the imaging method to which the present invention is applied captures a subject to be photographed from at least three cameras at different angles, and performs a correction process for aligning the normal direction of each image captured by each camera in one direction. The image processing unit associates each image position with each other while associating each image with the image capturing target, generates relative position information indicating the relative positional relationship of the image capturing target with respect to each camera, and associates the pixel positions with each other. In addition, from the luminance component, the pixel position constituting the virtual viewpoint image to be newly generated and the luminance component thereof are obtained according to the generated relative position information.
本発明を適用した撮像装置及び方法では、撮影対象を少なくとも3台のカメラにより互いに異なる角度から撮像し、各カメラにより撮像された各画像の法線方向を仮想的に設定された仮想平面の法線方向に合わせることにより補正処理を施し、この補正処理を施した各画像間において撮影対象と関連させつつ画素位置毎に対応付けを行い、各カメラに対する撮影対象の相対的な位置関係を示す相対位置情報を生成し、互いに対応付けた画素位置並びにその輝度成分から、上記生成された相対位置情報に応じて、新たに生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める。 In the imaging apparatus and method to which the present invention is applied, a method of a virtual plane in which a subject to be imaged is imaged by at least three cameras from different angles and the normal direction of each image captured by each camera is virtually set. Relative processing indicating the relative positional relationship of the imaging target with respect to each camera by performing correction processing according to the line direction, associating each image position subjected to this correction processing with each imaging position in association with the imaging target Position information is generated, and a pixel position and its luminance component constituting a virtual viewpoint image to be newly generated are obtained from the pixel position and its luminance component associated with each other according to the generated relative position information.
これにより、本発明を適用した撮像装置及び方法では、システム全体を複雑化させることなく対話するユーザ間において常時視線を一致させたビジュアルコミュニケーションを実現することができ、よりリアルで臨場感のある遠隔対話を実現することができる。また、撮像した画像につき法線ベクトルを一方向に合わせることによる幾何学的正規化を施し、エピポーラ線を平行化させることによって、画像間の対応付け、並びに画像内挿を利用した仮想視点画像の生成を効果的に行うことができる。 As a result, in the imaging apparatus and method to which the present invention is applied, visual communication in which the line of sight is always matched between users who interact with each other without complicating the entire system can be realized, and a more realistic and realistic remote can be realized. Dialogue can be realized. In addition, by performing geometric normalization by aligning the normal vector in one direction with respect to the captured image and parallelizing the epipolar lines, the virtual viewpoint image using the correspondence between the images and the image interpolation is used. Generation can be performed effectively.
以下、本発明を実施するための最良の形態について図面を参照しながら詳細に説明する。 Hereinafter, the best mode for carrying out the present invention will be described in detail with reference to the drawings.
本発明を適用した通信システム1は、例えば図1に示すように、A地点のユーザaと、B地点のユーザbとの間で、互いに離れた場所から相手の表示像を視認しながら遠隔対話するシステムである。
In the
A地点には、撮影対象としてのユーザaを互いに異なる角度から撮像するカメラ11a、カメラ12a,カメラ13aと、B地点側で撮像されたユーザbの画像をユーザaに対して表示するためのディスプレイ5aと、カメラ11a,12a,13aより撮像された各画像Pa1,Pa2,Pa3に基づいて仮想視点画像Imaを生成し、これをネットワーク7を介してB地点へ送信する端末装置2aが配設されている。
At point A, a
B地点には、撮影対象としてのユーザbを互いに異なる角度から撮像するカメラ11b、カメラ12bと、カメラ13bと、A地点側で撮像されたユーザaの画像をユーザbに対して表示するためのディスプレイ5bと、カメラ11b,12b,13bより撮像された各画像Pb1,Pb2,Pb3に基づいて仮想視点画像Imbを生成し、これをネットワーク7を介してA地点へ送信する端末装置2bが配設されている。
At the point B, the camera 11b, the camera 12b, the camera 13b, and the image of the user a captured at the point A are displayed for the user b. A
なお、この端末装置2a,2bにより生成される上記仮想視点画像Ima,Imbは、相手の表示像が写し出されるディスプレイ5a,5bの中心付近において仮想的に設置された仮想カメラにより撮像される画像に相当する。
The virtual viewpoint images Ima and Imb generated by the
カメラ11a,11bは、それぞれユーザa,b側から見てディスプレイ5a,5bの左側面に設置されてなり、カメラ12a,12bは、それぞれユーザa,b側から見てディスプレイの右側面に設置されてなる。更にカメラ13a,13bは、それぞれユーザa,b側から見てディスプレイの上側面に設置されてなる。
The
このカメラ11、12、13は、撮影方向、撮影画角が固定された状態で設置されるが、各ユーザa,bからの入力される情報に基づき、これらを自在に変更するようにしてもよい。ちなみに、以下の通信システム1の説明においては、カメラ11、12、13の各々のカメラの焦点で構成される三角形領域が、ユーザの視線の高さに合わせて設置される場合を例に挙げて説明をする。
The cameras 11, 12, and 13 are installed with the shooting direction and the shooting angle of view fixed. However, the cameras 11, 12, and 13 can be freely changed based on information input from the users a and b. Good. Incidentally, in the description of the
ディスプレイ5a,5bは、それぞれネットワーク7を介して相手側地点から供給される仮想視点画像Imb,Imaに基づく画像を、例えば液晶表示面を介して表示する。このディスプレイ5a,5bにおける液晶表示面は、多数の液晶表示素子等からなり、各仮想視点画像Imb,Imaに基づく出力信号に応じて液晶表示素子を光変調させてユーザに表示する画像を作り出す。 The displays 5a and 5b display images based on the virtual viewpoint images Imb and Ima supplied from the counterpart point via the network 7 via a liquid crystal display surface, for example. The liquid crystal display surfaces of the displays 5a and 5b are composed of a large number of liquid crystal display elements and the like, and the liquid crystal display elements are optically modulated in accordance with output signals based on the virtual viewpoint images Imb and Ima to create an image to be displayed to the user.
端末装置2a,2bは、通常、パーソナルコンピュータ(PC)等の電子機器で構成される。これらの端末装置2a,2bは、ネットワーク7を介して互いに通信するための機能を備え、相手側からの要求に応じて画像や音声を送信する。なお、端末装置2a,2bの構成については後述する。
The
ネットワーク7は、例えば端末装置2と電話回線を介して接続されるインターネット網を始め、TA/モデムと接続されるISDN(Integrated Services Digital Network)/B(broadband)−ISDN等のように、情報の双方向送受信を可能とした公衆通信網である。ちなみにこの通信システム1を、一定の狭いエリア内で運用する場合には、このネットワーク7を、LAN(Local Area Network)で構成してもよい。さらにこのネットワーク7は、動画像を送信する場合には、インターネットプロトコル(IP)に基づき、例えばMPEG(Moving Picture Experts Group)データを始めとする動画像がある一つのチャネルから継続的に送信される。また静止画像を送信する場合には、動画像を送信するチャネルとは別のチャネルから一定時間毎に送信されることになる。なお、このネットワーク7には、さらに図示しないネットワークサーバを接続してもよい。この図示しないネットワークサーバは、例えばインターネット情報を管理し、端末装置2による要求を受けて、自身に格納してある所定の情報を送信する。
The network 7 includes, for example, an Internet network connected to the terminal device 2 via a telephone line, ISDN (Integrated Services Digital Network) / B (broadband) -ISDN connected to a TA / modem, and the like. It is a public communication network that enables bidirectional transmission and reception. Incidentally, when the
次に、端末装置2の構成について、端末装置2aを例にとり図2を用いて説明をする。
Next, the configuration of the terminal device 2 will be described with reference to FIG. 2 taking the
端末装置2aは、接続されたカメラ11a,12a,13aより画像Pa1,Pa2,Pa3が供給される補正部20と、この補正部20に接続されるマッチング部29と、さらにこのマッチング部29に接続される仮想視点画像生成部30と、仮想視点画像生成部30により生成された仮想視点画像Imaを相手側の端末装置2bへ送信するための出力制御部31と、各カメラ11a,12a,13aに対するユーザaの相対的な位置関係を示す相対位置情報を生成する情報生成部33とを備えている。
The
補正部20は、カメラ11a,12a,13aから送信される各画像Pa1,Pa2,Pa3につき幾何学的な画像補正を施すための幾何学的画像補正部21,22,23と、これら幾何学的画像補正部21,22,23により画像補正が施された画像を正規化するための正規化処理部24とを備えている。
The
幾何学的画像補正部21,22,23は、カメラキャリブレーション部26から送信される、上記カメラ11a,12a,13aの幾何学的な位置関係を含む制御情報に基づいて、各画像Pa1,Pa2,Pa3を補正する。このカメラ11a,12a,13aの幾何学的な位置関係は、上述したカメラキャリブレーション部26から送信される制御情報においてパラメータ化されていてもよい。また、各カメラ11a,12a,13aの撮影方向及び/又は撮影画角を変更しつつ撮像を実行する場合には、カメラキャリブレーション部26においてこれらをパラメータ化し、画像を補正する際にこれらのパラメータを制御情報に含めるようにしてもよい。これにより、幾何学的画像補正部21,22,23は、各カメラ11a,12a,13aの撮影方向及び/又は撮影画角に応じてリアルタイムに画像補正することができる。
Based on the control information including the geometric positional relationship of the
なお、このカメラキャリブレーション部26は、同様にカメラ11a,12a,13aの各レンズにおける色収差や歪み、光軸のずれをパラメータ化し、これらを各補正部20へ送信するようにしてもよい。
Similarly, the
正規化処理部24は、各幾何学的画像補正部21,22,23において補正された画像がそれぞれ供給され、これらにつき幾何学的正規化処理を施す。この正規化処理部24は、各カメラにより撮像された各画像Pa1,Pa2,Pa3の法線方向を合わせる。即ち、この正規化処理部24は、各画像Pa1,Pa2,Pa3の法線方向を仮想的に設定された仮想平面πの法線方向に合わせることによりこれを正規化し、それぞれ正規化画像Pm1,Pm2,Pm3を生成する。かかる場合において、正規化処理部24は、各カメラ11a,12a,13aにより撮像された各画像Pa1,Pa2,Pa3を上記仮想平面πへ射影するための射影変換行列を求め、求めた射影変換行列に基づいて上記各画像の法線方向を上記仮想平面πの法線方向に合わせる。
The
ちなみに、カメラキャリブレーション部26は、カメラ11a,12a,13aとしていわゆる固定視点カメラを適用する場合には、予めカメラキャリブレーション部26により画像Pa1,Pa2,Pa3の法線方向を取得するようにしてもよい。また、各カメラ11a,12a,13aの撮影方向及び/又は撮影画角を変更しつつ撮像を実行する場合には、カメラキャリブレーション部26においてこれらをパラメータ化し、画像を正規化する際にこれらのパラメータを制御情報に含めるようにしてもよい。これにより、ユーザa,bの位置に応じて撮影方向等を順次変更しつつ撮像を行う場合においても柔軟に対応することができる。
Incidentally, when applying a so-called fixed viewpoint camera as the
また、このカメラキャリブレーション部26において、これらのパラメータを図示しないROMやRAMへ格納しておくことにより、補正部20は、状況に応じて随時これらを参照することができ、高速な補正処理を実現することができる。またカメラキャリブレーション部26は、上記カメラ11a,12a,13aから画像Pa1,Pa2,Pa3が供給される度にこれらのパラメータを求めることにより、幾何学的画像補正部21,22,23において精度の高い補正処理を実現することができる。
In addition, by storing these parameters in a ROM or RAM (not shown) in the
マッチング部29は、正規化処理部24において生成された正規化画像Pm1,Pm2,Pm3がそれぞれ供給される。このマッチング部29は、これら正規化画像Pm1,Pm2,Pm3につき、互いに対応付けを行う。
The matching
この対応付けは、ユーザaの顔を構成する同一の箇所にある画素位置と輝度成分を正規化画像Pm1,Pm2,Pm3間で抽出して対応をとるようにする。例えば図3に示すように、正規化画像Pm1上にある画素位置P11に対して、正規化画像Pm2上において同一の箇所に存在する画素位置P11’をその対応点として特定し、更に正規化画像Pm3上において同一の箇所に存在する画素位置P11’’をその対応点として特定する。かかる場合において、正規化画像Pm1上にある画素位置P11と、正規化画像Pm2上にある画素位置P11’とを対応付けする際に、正規化画像Pm3上の画素情報を参照する形で実行するようにしてもよい。同様の方法に基づき、正規化画像Pm1上にある画素位置P12に対して、正規化画像Pm2上において同一の箇所に存在する画素位置P12’をその対応点として特定し、更に正規化画像Pm3上において同一の箇所に存在する画素位置P12’’をその対応点として特定する。 This association is performed by extracting pixel positions and luminance components at the same location constituting the face of the user a between the normalized images Pm1, Pm2, and Pm3. For example, as shown in FIG. 3, with respect to the pixel position P11 on the normalized image Pm1, the pixel position P11 ′ existing at the same location on the normalized image Pm2 is specified as the corresponding point, and further the normalized image A pixel position P11 ″ existing at the same location on Pm3 is specified as the corresponding point. In such a case, when associating the pixel position P11 on the normalized image Pm1 with the pixel position P11 ′ on the normalized image Pm2, the pixel information on the normalized image Pm3 is referred to. You may do it. Based on the same method, for the pixel position P12 on the normalized image Pm1, the pixel position P12 ′ existing at the same location on the normalized image Pm2 is specified as the corresponding point, and further on the normalized image Pm3. The pixel position P12 '' existing at the same location is specified as the corresponding point.
即ち、このマッチング部29では、正規化処理部24において正規化された正規化画像Pm1,Pm2,Pm3において、撮影対象と関連させつつ、画素位置毎に対応付けを行う。ちなみにマッチング部29は、この対応付けにつき特徴抽出した箇所のみについて実行してもよいし、正規化画像Pm1,Pm2,Pm3を構成する全ての画素に対して実行してもよい。
That is, the matching
情報生成部33は、生成すべき相対位置情報をユーザaのディスプレイ5aに対する視線方向に基づいて生成してもよい。かかる場合において情報生成部30は、カメラ11a,12a,13aから供給される画像Pa1,Pa2,Pa3からユーザaの視線方向を取得し、これに基づいて相対位置情報を生成する。これにより、いわば仮想カメラの撮影方向をユーザaの視線方向に合わせ込むことと同様の処理を実現することができる。また、情報生成部33は、各カメラ11a,12a,13aにより生成された画像情報からDepth情報を取得し、当該取得したDepth情報に基づいて相対位置情報を生成するようにしてもよい。また情報生成部33は、図示しないキーボードやマウス等の操作部を介して入力された情報に基づき、相対位置情報を生成するようにしてもよい。
The
仮想視点画像生成部30は、マッチング部29により互いに対応付けされた画素位置並びにその輝度成分がそれぞれ入力される。また、仮想視点画像生成部30は、互いに対応付けされた画素位置並びにその輝度成分から、情報生成部33より生成された相対位置情報に応じて、新たに生成すべき仮想視点画像Imaを構成する画素位置並びにその輝度成分を求める。仮想視点画像生成部30は、求めた画素位置並びにその輝度成分により構成される仮想視点画像Imaを出力制御部31へ供給する。
The virtual viewpoint image generation unit 30 is input with the pixel positions and the luminance components associated with each other by the matching
出力制御部31は、仮想視点画像生成部30において生成された仮想視点画像Imaを、ネットワーク7を介して端末装置2bへ送信するように制御する。かかる場合において、この出力制御部31は、カメラ11a,12a,13aにより生成された画像Pa1,Pa2,Pa3を単独で端末装置2bへ送信するように制御してもよい。
The
次に、この端末装置2における具体的な動作につき説明をする。 Next, a specific operation in the terminal device 2 will be described.
撮影対象としてのユーザaは、カメラ11a,12a,13aにより互いに異なる角度から撮影される。その結果、カメラ11a,12a,13aにより生成される画像Pa1,Pa2,Pa3上のユーザaの視線方向、顔の向き等は、互いに異なる状態となる。このような画像Pa1,Pa2,Pa3がそれぞれ補正部20における正規化処理部24へ供給されると、これらは、以下に示される方法に基づいて正規化されることになる。
A user a as a subject to be photographed is photographed from different angles by the
例えば図4に示すように、各カメラ11a,12a,13aの光学中心C1,C2,C3により互いに異なる角度から撮影対象のM点へ光軸を合わせて撮像を行うと、これにより生成される画像Pa1,Pa2,Pa3は、各カメラ11a,12a,13aの撮像面に対して平行となる。ここで各カメラ11a,12a,13aと、M点を結ぶ直線の方向は、各カメラにより撮像された各画像Pa1,Pa2,Pa3の法線方向に一致するが、これらは互いに異なる方向を指している。これら各画像Pa1,Pa2,Pa3の法線方向が同一方向となるように正規化を行うことにより、画像面が互いに平行な正規化画像Pm1,Pm2,Pm3を作り出す。
For example, as shown in FIG. 4, when the optical centers C <b> 1, C <b> 2, and C <b> 3 of the
具体的には、図4に示すように光学中心C1,C2,C3により囲まれる仮想平面πを設定しておき、この仮想平面πの法線方向に対してこれら各画像Pa1,Pa2,Pa3の法線方向が同一方向となるように、射影変換行列Pを用いて正規化する。このため、仮想平面πの設定は、各画像Pa1,Pa2,Pa3の画像面を如何なる方向において平行化させるかを決定付けることとなる。 Specifically, as shown in FIG. 4, a virtual plane π surrounded by the optical centers C1, C2, and C3 is set, and these images Pa1, Pa2, and Pa3 are set with respect to the normal direction of the virtual plane π. Normalization is performed using the projective transformation matrix P so that the normal direction is the same direction. For this reason, the setting of the virtual plane π determines in which direction the image planes of the images Pa1, Pa2, and Pa3 are parallelized.
ちなみに、この射影変換行列と画像面との関係を説明する前提として、以下では、画像上の点をm=[m0,m1]Tとし、また空間中の点をw=[w0,w1,w1]Tとする。ここで、図5に示すように、M点を世界座標系で表したものを上記wで表示し、また各カメラ11a,12a,13aの光学中心C(C1,C2,C3)とM点とを結ぶ直線と各画像Pa1,Pa2,Pa3との交点の座標を上記mにより表示する。即ち、各画像Pa1,Pa2,Pa3における像平面内の位置をm=[m0,m1]Tにより定義する。かかる場合において、各点における斎次座標系での記述をそれぞれ以下のようにおく。
Incidentally, as a premise for explaining the relationship between the projective transformation matrix and the image plane, in the following, a point on the image is m = [m 0 , m 1 ] T, and a point in space is w = [w 0 , w 1 , w 1 ] T. Here, as shown in FIG. 5, a representation of the M point in the world coordinate system is indicated by w, and the optical centers C (C1, C2, C3) and M points of the
また、空間中の点wiと画像上の点miの関係は以下に示す式で与えられる。 The relationship between the point wi in the space and the point mi on the image is given by the following equation.
ここで、sは任意の変数であり、Pは上述した射影変換行列である。この射影変換行列は、P=A[R|t]で表される。Rは、画像の回転行列を表し、以下に示す式で与えられる。 Here, s is an arbitrary variable, and P is the projective transformation matrix described above. This projective transformation matrix is represented by P = A [R | t]. R represents an image rotation matrix and is given by the following equation.
またtは、画像の並進行列を表し、以下の式で与えられる。 Further, t represents a parallel progression of images and is given by the following equation.
また、行列Aは、カメラの内部パラメータと呼ばれるものであり、以下の示す式で与えられる。 The matrix A is called a camera internal parameter and is given by the following equation.
ここで(u0,v0)は、それぞれ画像中心を表し、α(=−f・ku)、β(=−f・kv/sinθ)は、それぞれm0軸、m1軸のスケール因子を表し、γ(=f・ku・cotθ)は、2つの軸のねじれを表す。 Here, (u 0 , v 0 ) represents the center of the image, and α (= −f · ku) and β (= −f · kv / sin θ) represent the scale factors of the m 0 axis and the m 1 axis, respectively. Γ (= f · ku · cot θ) represents the twist of two axes.
即ち、上記各式に基づいて、画像Pa1,Pa2,Pa3毎に射影変換行列Po1,Po2,Po3を求めることにより、図6(a)に示すように、各画像Pa1,Pa2,Pa3につき、3次元空間から2次元画像平面へ射影変換することができる。換言すれば世界座標系で定義されるmからカメラ座標系で定義されるwへ射影変換することができる。 That is, by obtaining the projective transformation matrices Po1, Po2, Po3 for each of the images Pa1, Pa2, Pa3 based on the above equations, as shown in FIG. 6 (a), for each image Pa1, Pa2, Pa3, 3 Projective transformation from a dimensional space to a two-dimensional image plane can be performed. In other words, projective transformation can be performed from m defined in the world coordinate system to w defined in the camera coordinate system.
図6(b)は、この求めた射影変換行列Pox(Po1,Po2,Po3)と像平面との関係を示している。これらカメラ座標系に射影変換された各画像Pa(Pa1,Pa2,Pa3)につき正規化を施すことにより、上記正規化画像Pm(Pm1,Pm2,Pm3)を作り出すことができる。 FIG. 6B shows the relationship between the obtained projective transformation matrix Pox (Po1, Po2, Po3) and the image plane. The normalized image Pm (Pm1, Pm2, Pm3) can be created by normalizing each image Pa (Pa1, Pa2, Pa3) that has been projectively transformed into the camera coordinate system.
本発明を適用した通信システム1では、更にこの世界座標系として表される3次元空間から正規化画像Pm1,Pm2,Pm3へ射影変換するための射影変換行列Pnx(Pn1,Pn2,Pn3)を求める。この射影変換行列Pnx(Pn1,Pn2,Pn3)は、上述した画像の回転行列Rを再定義することで実現する。
In the
図7は、この回転行列Rを再定義する手順を示している。ステップS11において、回転行列R=[r0t,r1t,r2t]につき、光学中心C(C1,C2,C3)を通る平面に対して垂直となるようにr2tを調整する。次にステップS12へ移行し、r0tにつき任意の値となるように調整する。更に、ステップS13へ移行し、r0tとr2tの外積からr1tを求める。最後にステップS14へ移行し、上記ステップS11〜S13において各パラメータを調整したR=[r0t,r1t,r2t]に基づき、射影変換行列Pn1,Pn2,Pn3を求める。 FIG. 7 shows a procedure for redefining the rotation matrix R. In step S11, r2t is adjusted so that the rotation matrix R = [r0t, r1t, r2t] is perpendicular to a plane passing through the optical center C (C1, C2, C3). Next, the process proceeds to step S12, and the r0t is adjusted to an arbitrary value. In step S13, r1t is obtained from the outer product of r0t and r2t. Finally, the process proceeds to step S14, and the projective transformation matrices Pn1, Pn2, and Pn3 are obtained based on R = [r0t, r1t, r2t] in which each parameter is adjusted in steps S11 to S13.
ちなみに、この正規化処理部24において射影変換された正規化画像Pm1,Pm2,Pm3は、マッチング部29において上述の如く撮影対象と関連させつつ、画素位置毎に対応付けされる。本発明においては、マッチング部29の前段にある正規化処理部24において予め正規化され、エピポーラ線が平行化されている。これと相俟って、本発明では、正規化画像Pm1〜Pm3のうち任意の2枚の正規化画像の対応付けを実行する。マッチング方法は、例えば下記文献「"A Maximum Likelihood Stereo Algorithm",Ingemar J. Cox, Sunita L. Hingorani, Satish B. Rao, and Bruce M. Maggs, CVIM vol.63, (1996).」に示される方法を用いるようにしてもよい。
Incidentally, the normalized images Pm1, Pm2, and Pm3 subjected to the projective transformation in the
上述の如く対応付けされた画素位置は、その輝度成分と共に、仮想視点画像生成部30へ出力される。この仮想視点画像生成部30には、情報生成部33により生成された相対位置情報も送信される。
The pixel position associated as described above is output to the virtual viewpoint image generation unit 30 together with the luminance component. The relative position information generated by the
仮想視点画像生成部30は、上述したマッチング部29における対応付けの結果に基づき仮想視点画像Imaを生成する。ここで、この仮想視点画像生成部30において、光学中心Cqを有する仮想カメラにより撮像される仮想視点画像Imaを生成する場合を考える。かかる場合において光学中心Cqの位置を、図8に示すように光学中心C1,C2,C3との関係で定義するとき、かかる光学中心Cqと、各カメラ11a,12a,13aの光学中心C1,C2,C3の関係は、以下の式(1)により表すことができる。
Cq=(1−α)(1−β)・C1+α(1−β)・C2+β・C3・・・・・(1)
この式(1)においてα、βは、情報生成部33において生成される相対位置情報である。この相対位置情報α、βは、各カメラ11a,12a,13aの光学中心C1,C2,C3に対する仮想カメラの光学中心Cqの位置との関係において決定される。ここでαは、仮想カメラにおける仮想視点がカメラ11aの光学中心C1に近くなるにつれて小さくなり、また仮想視点がカメラ12aの光学中心C2に近くなるにつれて大きくなる。また、βは、仮想カメラにおける仮想視点がカメラ13aの光学中心C3に近くなるにつれて大きくなる。即ち、上述した情報生成部33において、ユーザaのディスプレイ5aに対する視線方向に基づいて相対位置情報α、βを生成することにより、ユーザaの視線に合わせた仮想カメラの光学中心Cqを設定することも可能となる。
The virtual viewpoint image generation unit 30 generates a virtual viewpoint image Ima based on the result of association in the
Cq = (1-α) (1-β) · C1 + α (1-β) · C2 + β · C3 (1)
In this equation (1), α and β are relative position information generated by the
また、仮想カメラにより撮像される仮想視点画像Imaを構成する各画素位置は、以下の式(2)に基づいて決定することができる。なお、この(2)式において、仮想視点画像Imaにおける画素位置をwqとし、仮想視点画像Imaの射影変換行列をPnqとする。また、かかる画素位置wqに対応する各正規化画像Pm1,Pm2,Pm3の画像位置をそれぞれw1,w2,w3とする。なお、これらの画素位置は、全て世界座標で表されているものとし、それぞれ射影変換行列を乗算することにより、像平面内の位置として表されるものとする。
Pnq・wq=(1−α)(1−β)・Pn1・w1+α(1−β)・Pn2・w2+β・Pn3・w3・・・・・(2)
この式(2)に基づいて決定される画素位置wqは、仮想カメラの光学中心Cqがカメラ11aの光学中心C1に近づくにつれてw1へ近づき、カメラ12aの光学中心C2に近づくにつれてw2へ近づき、更にカメラ13aの光学中心C3に近づくにつれてw3へ近づくことになる。即ち、画素位置wqを、仮想カメラの位置に応じて自在に決定することができるため、仮想視点画像Ima上に表示させるユーザaの位置を自在に変化させることができる。
Moreover, each pixel position which comprises the virtual viewpoint image Ima imaged with a virtual camera can be determined based on the following formula | equation (2). In Equation (2), the pixel position in the virtual viewpoint image Ima is wq, and the projective transformation matrix of the virtual viewpoint image Ima is Pnq. In addition, the image positions of the normalized images Pm1, Pm2, and Pm3 corresponding to the pixel position wq are w1, w2, and w3, respectively. These pixel positions are all expressed in world coordinates, and are each expressed as a position in the image plane by multiplying by a projective transformation matrix.
Pnq · wq = (1-α) (1-β) · Pn1 · w1 + α (1-β) · Pn2 · w2 + β · Pn3 · w3 (2)
The pixel position wq determined based on this equation (2) approaches w1 as the optical center Cq of the virtual camera approaches the optical center C1 of the
また、画像位置をそれぞれw1,w2,w3における輝度成分をそれぞれJ11, J11',J11''としたとき、仮想視点画像Ima上の画素位置wqにおける輝度成分Ptを以下の式(3)に基づき決定することができる。
Pt=(1−α)(1−β)・J11+α(1−β)・J11'+β・J11''・・・(3)
この式(3)に基づいて決定される輝度成分Ptは、仮想カメラの光学中心Cqがカメラ11aの光学中心C1に近づくにつれてJ11へ近づき、カメラ12aの光学中心C2に近づくにつれてJ11'へ近づき、更にカメラ13aの光学中心C3に近づくにつれてJ11''へ近づくことになる。即ち、輝度成分Ptを、仮想カメラの位置に応じて自在に決定することができるため、仮想視点画像Ima上に表示させるユーザaを構成する画素の輝度を自在に変化させることができる。
Also, assuming that the luminance components at w1, w2, and w3 are J11, J11 ′, and J11 ″, respectively, the luminance component Pt at the pixel position wq on the virtual viewpoint image Ima is based on the following equation (3). Can be determined.
Pt = (1-α) (1-β) · J11 + α (1-β) · J11 ′ + β · J11 ″ (3)
The luminance component Pt determined based on the equation (3) approaches J11 as the optical center Cq of the virtual camera approaches the optical center C1 of the
このように仮想視点画像生成部30は、仮想視点画像Imaを構成する各画素の座標並びにその輝度成分につき、相対位置情報としてのα、βに基づいて決定することができる。 As described above, the virtual viewpoint image generation unit 30 can determine the coordinates of each pixel constituting the virtual viewpoint image Ima and its luminance component based on α and β as relative position information.
また、本発明では、上述の如き幾何学的正規化を施しエピポーラ線を平行化させてあるため、このような画像内挿をより効果的に実行することが可能となる。 In the present invention, since the geometric normalization as described above is performed and the epipolar lines are parallelized, it is possible to execute such image interpolation more effectively.
特に、各カメラ11a,12a,13aは互いに撮影方向が異なるため、同一の画像を示す画像位置w1,w2,w3の輝度成分が互いに異なる。この互いに異なる輝度成分の何れか一方を最小値とし、他方が最大値となるようにして、相対位置情報としてのα、βに応じて輝度成分Ptを線形に増減させることにより、仮想カメラの位置に応じて仮想視点画像Ima上に表示させるユーザaを構成する画素の輝度成分を決定することが可能となる。
Particularly, since the
例えば、画像位置w1,w2,w3とが、互いにユーザaが着用している眼鏡の縁の部分を捉えている場合に、これらは互いに異なる撮影方向で撮像されているため、その輝度成分は異なる。これらの輝度成分をそれぞれ最小値又は最大値として割り当て、相対位置情報としてのα、βに応じて輝度成分を線形に増減させることにより、輝度成分Ptを決定する。この決定した輝度成分Ptが、新たに生成すべき仮想視点画像Imaにおける眼鏡の縁を示す輝度成分に相当することになる。 For example, when the image positions w1, w2, and w3 capture the edge portions of the glasses worn by the user a, the luminance components are different because they are captured in different shooting directions. . These luminance components are assigned as minimum values or maximum values, respectively, and the luminance components Pt are determined by linearly increasing / decreasing the luminance components according to α and β as relative position information. This determined luminance component Pt corresponds to a luminance component indicating the edge of the glasses in the virtual viewpoint image Ima to be newly generated.
また図9は、仮想視点画像Ima並びに各カメラ11a,12a,13aにより生成される画像Pa1,Pa2,Pa3の法線ベクトルを示している。この仮想視点画像生成部33において得られる仮想視点画像Imaの法線ベクトルnxは、画像Pa1,Pa2,Pa3の法線ベクトルn1,n2,n3を用いて以下の式(4)に基づき表すこともできる。
nx=(1−α)(1−β)・n1+α(1−β)・n2+β・n3・・・・・(4)
上述のようにして画素位置wqにおける座標並びにその輝度成分Ptを順次決定することにより、表示されるユーザaの視線方向、顔の向き等は互いに異なっていた画像Pa1,Pa2,Pa3に対して、ユーザaの顔、視線方向が常時正面を向いている状態にある仮想視点画像Imaを作り出すことが可能となる。
FIG. 9 shows the virtual viewpoint image Ima and the normal vectors of the images Pa1, Pa2, Pa3 generated by the
nx = (1-α) (1-β) · n 1 + α (1-β) · n 2 + β · n 3 (4)
By sequentially determining the coordinates at the pixel position wq and the luminance component Pt as described above, the images Pa1, Pa2, Pa3 in which the line of sight of the user a to be displayed, the orientation of the face, etc. are different from each other, It is possible to create a virtual viewpoint image Ima in which the face and line-of-sight direction of the user a are always facing the front.
生成された仮想視点画像Imaは、出力制御部31を介して、ネットワーク7へ送出される。そして相手側の端末装置2bへ送信された仮想視点画像Imaは、端末装置2bにおける制御の下、ディスプレイ5b上へ表示されることになる。ユーザbは、ディスプレイ5bに表示される仮想視点画像Ima上のユーザaを視認しつつ対話をすることになるが、ユーザaの顔、視線方向は常時正面を向いている状態にあるため、あたかも画面中央付近に設置された仮想カメラで撮像されたような画像を視認しているような感覚を味わうことができる。ユーザaについても同様にディスプレイ5aに表示される仮想視点画像Ima上のユーザbを視認しつつ対話をすることになるが、常時正面を向いているユーザbを視認することができる。即ち、この通信システム1では、いわば対話するユーザ間において常時視線を一致させたビジュアルコミュニケーションを実現することができ、よりリアルで臨場感のある遠隔対話を実現することができる。
The generated virtual viewpoint image Ima is sent to the network 7 via the
特にこの通信システム1では、少なくとも3台のカメラ11,12,13をディスプレイ5の両側に配設すれば足り、また被写体の3次元情報をその都度抽出する必要もなくなるため、システム全体が複雑化することがなくなるという利点もある。
In particular, in this
また、この通信システム1では、ハーフミラーやホログラムスクリーン、更にはプロジェクタ等のような特殊装置を用いる必要もなく、簡易で安価なシステムを構成することができる。
Further, in the
なお、上述した実施の形態では、3台のカメラにより撮影対象を撮像する場合を例に挙げて説明をしたが、かかる場合に限定されるものではなく、4台以上のカメラをディスプレイの側面に設置して撮像を行うようにしてもよい。図10は、n台(nは4以上)のカメラ11a〜カメラ100が配設される端末装置2aの構成図である。カメラ11a〜カメラ100により撮像された画像は、カメラ選択部101へ送信される。カメラ選択部101は、情報生成部33から送信される相対位置情報に基づき、仮想カメラの光学中心Cqに最も近い光学中心を持つカメラを3台選択し、上述の如く仮想視点画像Imaを生成する。互いに異なる4方向以上からユーザaを撮像することにより、仮にユーザの視線の高さが微妙に変化する場合であっても、細かい視線の動きを捉えた上位3方向から撮像した画像を取得することにより、常時視線を一致させた状態で対話を実現することが可能となる。
In the above-described embodiment, the case where the imaging target is imaged by three cameras has been described as an example. However, the present invention is not limited to this case, and four or more cameras are provided on the side of the display. It may be installed and imaged. FIG. 10 is a configuration diagram of a
なお、本発明を適用した端末装置2とカメラ11,12とを一体化させた撮像装置として適用してもよいことは勿論である。また、これら端末装置2や通信システム1をテレビ会議システム以外の仮想視点画像を生成を必要とする各種映像コンテンツ制作に適用してもよいことは勿論である。
Needless to say, the present invention may be applied as an imaging device in which the terminal device 2 to which the present invention is applied and the cameras 11 and 12 are integrated. Of course, the terminal device 2 and the
1 通信システム、2 端末装置、5 ディスプレイ、7 ネットワーク、11,12,13 カメラ、21〜24 幾何学的画像補正部、24 正規化処理部、26 カメラキャリブレーション部、29 マッチング部、30 仮想視点画像生成部、31 出力生成部、33 情報生成部
DESCRIPTION OF
Claims (7)
少なくとも上記各カメラにより撮像された各画像の法線方向を一方向に合わせる画像補正手段と、
上記画像補正手段により補正された各画像間において、上記撮影対象と関連させつつ画素位置毎に対応付けを行うマッチング手段と、
上記各カメラに対する上記撮影対象の相対的な位置関係を示す相対位置情報を生成する情報生成手段と、
上記マッチング手段により互いに対応付けされた画素位置並びにその輝度成分から、上記生成された相対位置情報に応じて、新たに生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める画像生成手段とを備えること
を特徴とする撮像装置。 Imaging means including at least three cameras for imaging a subject to be photographed from different angles;
Image correcting means for aligning at least one normal direction of each image captured by each camera with one direction;
Matching means for associating each image position with each other between the images corrected by the image correction means, in association with the photographing object;
Information generating means for generating relative position information indicating a relative positional relationship of the photographing object with respect to each camera;
Image generating means for obtaining a pixel position and its luminance component constituting a virtual viewpoint image to be newly generated according to the generated relative position information from the pixel position and its luminance component associated with each other by the matching means. An imaging apparatus comprising:
を特徴とする請求項1記載の撮像装置。 The imaging apparatus according to claim 1, wherein the image correction unit matches a normal direction of each image captured by each camera with a normal direction of a virtually set virtual plane.
を特徴とする請求項2記載の撮像装置。 The imaging apparatus according to claim 2, further comprising a virtual plane setting unit that sets the virtual plane according to the relative position information generated by the information generation unit.
を特徴とする請求項2記載の撮像装置。 The image correction means obtains a projective transformation matrix for projecting each image captured by each camera onto the virtual plane, and based on the obtained projective transformation matrix, determines the normal direction of each image on the virtual plane. The imaging apparatus according to claim 2, wherein the imaging apparatus is aligned with a normal direction.
を特徴とする請求項1記載の撮像装置。 The image correction means selects three cameras based on the relative position information generated by the information generation means when four or more cameras in the imaging means are included, and selects the selected three cameras The imaging apparatus according to claim 1, wherein a normal direction of each image captured by the camera is matched with a normal direction of the virtual plane.
上記画像補正手段は、上記撮影手段により制御された各カメラの撮影方向及び/又は撮影画角に基づいて、上記各カメラにより撮像された各画像の法線方向を上記仮想平面の法線方向に合わせること
を特徴とする請求項1記載の撮像装置。 The imaging means controls the shooting direction and / or shooting angle of view of each camera,
The image correction means sets the normal direction of each image captured by each camera to the normal direction of the virtual plane based on the shooting direction and / or the shooting angle of view of each camera controlled by the shooting means. The imaging device according to claim 1, wherein
上記各カメラにより撮像された各画像の法線方向を一方向に合わせる補正処理を施し、
上記補正処理を施した各画像間において、上記撮影対象と関連させつつ画素位置毎に対応付けを行い、
上記各カメラに対する上記撮影対象の相対的な位置関係を示す相対位置情報を生成し、
上記互いに対応付けた画素位置並びにその輝度成分から、上記生成した相対位置情報に応じて、新たに生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求めること
を特徴とする撮像方法。 Capture the subject to be photographed from different angles with at least three cameras,
Apply correction processing to align the normal direction of each image captured by each camera in one direction,
Between each image that has undergone the above correction processing, it is associated with each of the pixel positions while being associated with the subject to be imaged,
Generating relative position information indicating a relative positional relationship of the photographing object with respect to each of the cameras;
An imaging method comprising: obtaining a pixel position and a luminance component of a virtual viewpoint image to be newly generated from the pixel position and the luminance component associated with each other according to the generated relative position information.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2003376115A JP2005142765A (en) | 2003-11-05 | 2003-11-05 | Apparatus and method for imaging |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2003376115A JP2005142765A (en) | 2003-11-05 | 2003-11-05 | Apparatus and method for imaging |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2005142765A true JP2005142765A (en) | 2005-06-02 |
Family
ID=34687286
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2003376115A Withdrawn JP2005142765A (en) | 2003-11-05 | 2003-11-05 | Apparatus and method for imaging |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2005142765A (en) |
Cited By (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011113206A (en) * | 2009-11-25 | 2011-06-09 | Nippon Telegr & Teleph Corp <Ntt> | System and method for video image communication |
| JP2011165081A (en) * | 2010-02-12 | 2011-08-25 | Nippon Telegr & Teleph Corp <Ntt> | Method and apparatus for generating image, and program |
| JP2013531309A (en) * | 2010-06-29 | 2013-08-01 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Method and system for creating a virtual output image from data obtained by an array of image capture devices |
| JP2014138306A (en) * | 2013-01-17 | 2014-07-28 | Nippon Telegr & Teleph Corp <Ntt> | Image generation method, image generation device, and image generation program |
| JP2015125493A (en) * | 2013-12-25 | 2015-07-06 | 日本電信電話株式会社 | Image generation method, image generation apparatus, and image generation program |
| CN106813595A (en) * | 2017-03-20 | 2017-06-09 | 北京清影机器视觉技术有限公司 | Three-phase unit characteristic point matching method, measuring method and three-dimensional detection device |
| JP2019071650A (en) * | 2018-12-27 | 2019-05-09 | キヤノン株式会社 | Control device, control method, and program |
| KR20200060451A (en) * | 2017-09-26 | 2020-05-29 | 아우디 아게 | Method and system for conducting a virtual meeting between at least a first person and a second person |
| JPWO2019050038A1 (en) * | 2017-09-11 | 2020-10-15 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Image generation method and image generation device |
-
2003
- 2003-11-05 JP JP2003376115A patent/JP2005142765A/en not_active Withdrawn
Cited By (15)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011113206A (en) * | 2009-11-25 | 2011-06-09 | Nippon Telegr & Teleph Corp <Ntt> | System and method for video image communication |
| JP2011165081A (en) * | 2010-02-12 | 2011-08-25 | Nippon Telegr & Teleph Corp <Ntt> | Method and apparatus for generating image, and program |
| JP2013531309A (en) * | 2010-06-29 | 2013-08-01 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Method and system for creating a virtual output image from data obtained by an array of image capture devices |
| JP2014138306A (en) * | 2013-01-17 | 2014-07-28 | Nippon Telegr & Teleph Corp <Ntt> | Image generation method, image generation device, and image generation program |
| JP2015125493A (en) * | 2013-12-25 | 2015-07-06 | 日本電信電話株式会社 | Image generation method, image generation apparatus, and image generation program |
| WO2018171031A1 (en) * | 2017-03-20 | 2018-09-27 | 北京清影机器视觉技术有限公司 | Method for matching feature points of three-camera group, measurement method and three-dimensional detection apparatus |
| CN106813595A (en) * | 2017-03-20 | 2017-06-09 | 北京清影机器视觉技术有限公司 | Three-phase unit characteristic point matching method, measuring method and three-dimensional detection device |
| JPWO2019050038A1 (en) * | 2017-09-11 | 2020-10-15 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Image generation method and image generation device |
| JP7387434B2 (en) | 2017-09-11 | 2023-11-28 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | Image generation method and image generation device |
| KR20200060451A (en) * | 2017-09-26 | 2020-05-29 | 아우디 아게 | Method and system for conducting a virtual meeting between at least a first person and a second person |
| JP2020535489A (en) * | 2017-09-26 | 2020-12-03 | アウディ アクチェンゲゼルシャフトAudi Ag | Methods and systems for virtual conferences between at least the first person and the second person |
| US11277584B2 (en) | 2017-09-26 | 2022-03-15 | Audi Ag | Method and system for carrying out a virtual meeting between at least a first person and a second person |
| JP7038217B2 (en) | 2017-09-26 | 2022-03-17 | アウディ アクチェンゲゼルシャフト | Methods and systems for virtual conferencing between at least the first person and the second person |
| KR102445595B1 (en) * | 2017-09-26 | 2022-09-20 | 아우디 아게 | Method and system for conducting a virtual meeting between at least a first person and a second person |
| JP2019071650A (en) * | 2018-12-27 | 2019-05-09 | キヤノン株式会社 | Control device, control method, and program |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4069855B2 (en) | Image processing apparatus and method | |
| US7330584B2 (en) | Image processing apparatus and method | |
| CN104885125B (en) | Information processing device, information processing system and information processing method | |
| JP4057241B2 (en) | Improved imaging system with virtual camera | |
| JP4461739B2 (en) | Imaging device | |
| WO2017141584A1 (en) | Information processing apparatus, information processing system, information processing method, and program | |
| JP2009246408A (en) | Interaction device, image processing module, image processing method, and program | |
| JP6157077B2 (en) | Display device with camera | |
| JP2004193962A (en) | Image communication equipment, image communication method, and computer program | |
| JP2005142765A (en) | Apparatus and method for imaging | |
| JP4595313B2 (en) | Imaging display apparatus and method, and image transmission / reception system | |
| CN111246224A (en) | Video live broadcast method and video live broadcast system | |
| US20240015264A1 (en) | System for broadcasting volumetric videoconferences in 3d animated virtual environment with audio information, and procedure for operating said device | |
| JP2005117285A (en) | Information input device, communication terminal and communication method | |
| JP6004978B2 (en) | Subject image extraction device and subject image extraction / synthesis device | |
| CN119011796A (en) | Processing method of environment image data in camera perspective VST, head display device and storage medium | |
| US20240119676A1 (en) | Image generation method, apparatus, and system, and computer-readable storage medium | |
| KR20100134288A (en) | Stereoscopic image system and stereoscopic image processing method | |
| JPH11298872A (en) | Video communication system | |
| CN114531560B (en) | Video calling method and device | |
| JP4586447B2 (en) | Image processing apparatus and method, and program | |
| WO2017092369A1 (en) | Head-mounted device, three-dimensional video call system and three-dimensional video call implementation method | |
| CN113301321A (en) | Imaging method, system, device, electronic equipment and readable storage medium | |
| JP2006024141A (en) | Image processor and image processing method and program | |
| CN110602480A (en) | Method, device and system for sharing scene by adopting augmented reality |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20070109 |