[go: up one dir, main page]

JP2005142765A - Apparatus and method for imaging - Google Patents

Apparatus and method for imaging Download PDF

Info

Publication number
JP2005142765A
JP2005142765A JP2003376115A JP2003376115A JP2005142765A JP 2005142765 A JP2005142765 A JP 2005142765A JP 2003376115 A JP2003376115 A JP 2003376115A JP 2003376115 A JP2003376115 A JP 2003376115A JP 2005142765 A JP2005142765 A JP 2005142765A
Authority
JP
Japan
Prior art keywords
image
camera
cameras
normal direction
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003376115A
Other languages
Japanese (ja)
Inventor
Kenichiro Oi
堅一郎 多井
Ikoku Go
偉国 呉
Akira Nakamura
章 中村
Yoshiaki Iwai
嘉昭 岩井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003376115A priority Critical patent/JP2005142765A/en
Publication of JP2005142765A publication Critical patent/JP2005142765A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To realize more real remote interaction with presence without making the whole system complicated. <P>SOLUTION: An object to be imaged is imaged by at least three cameras at mutually different angles, and correction processing is carried out by setting normal directions of the images picked up by the respective cameras to a normal direction of a virtually set plane; and pixel positions of the images having been corrected are made to correspond to one another while related to the imaged object to generate relative position information showing relative position relations of the imaged object to the cameras, and an arrangement of pixel positions constituting a virtual viewpoint image to newly be generated and their luminance components are found from the arrangement of pixel positions made to correspond to one another and their luminance components according to the generated relative position information. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、例えばテレビ会議システム或いはテレビ電話システム等に適用され、ネットワークを介して画像を双方向で送受信する通信システム、送受信する画像を撮像して、ユーザの視線方向に応じてこれを再構成する撮像装置及び方法に関する。   The present invention is applied to, for example, a video conference system or a video phone system, and is a communication system that transmits and receives images bidirectionally via a network. The image to be transmitted and received is captured and reconfigured according to the user's line-of-sight direction. The present invention relates to an imaging apparatus and method.

テレビ電話システムやテレビ会議システム等に代表されるように、複数のユーザが互いに離れた場所から相手の表示像を視認しながら遠隔対話するシステムが提案されている。このようなシステムでは、相手の表示像をディスプレイ上に表示するとともに、当該ディスプレイを視認するユーザを撮影対象として撮像し、得られた画像信号を公衆回線、専用回線等のネットワークを介して相手側の端末装置へ送信することにより、双方のユーザに対し臨場感を持たせることが可能となる。   As represented by a videophone system, a video conference system, and the like, a system has been proposed in which a plurality of users can remotely interact with each other while viewing a display image of the other party from a location apart from each other. In such a system, a display image of the other party is displayed on the display, and a user who visually recognizes the display is imaged as a subject to be photographed, and the obtained image signal is transmitted through a network such as a public line or a dedicated line. By transmitting to the terminal device, it is possible to give both users a sense of reality.

従来におけるテレビ会議システムでは、ディスプレイの中心付近に写し出される相手の表示像を視認するユーザを、ディスプレイ上部にあるカメラにより撮像するため、ユーザが下を向いた状態の画像が相手側のディスプレイ上に表示されることになる。このため、実際にディスプレイを視認するユーザ間において視線が不一致の状態で対話がなされることになり、互いに違和感を与えてしまうという問題がある。   In a conventional video conference system, a user who visually recognizes the display image of the other party displayed near the center of the display is captured by the camera at the top of the display, so that the image of the user facing down is displayed on the other party's display. Will be displayed. For this reason, there is a problem in that the users who actually view the display are interacted with each other in a state where their lines of sight are inconsistent, giving a sense of discomfort to each other.

理想的には、相手の表示像が写し出されるディスプレイの中心付近にカメラを設置すれば、双方のユーザの視線を一致させた状態で対話を実現することができる。しかしながら、かかるディスプレイの中心付近にカメラを設置することは物理的に困難である。   Ideally, if a camera is installed in the vicinity of the center of the display where the display image of the other party is projected, it is possible to realize a conversation in a state in which the lines of sight of both users are matched. However, it is physically difficult to install a camera near the center of such a display.

このような視線不一致に関する問題点を解決すべく、例えばハーフミラーを用いてカメラの向きと表示画面を合わせるテレビ電話装置(例えば、特許文献1参照。)、光透過状態と光散乱状態を制御できるスクリーンとプロジェクタを用いて時系列で表示と撮像を行う画像表示/制御装置(例えば、特許文献2参照。)、ホログラムスクリーンとプロジェクタを用いることにより、表示と撮像の双方を同時に実現できる撮像機能付き表示装置(例えば、特許文献3参照。)が提案されている。   In order to solve such a problem related to the line-of-sight mismatch, for example, a videophone device (for example, refer to Patent Document 1) that uses a half mirror to match the camera direction and the display screen, the light transmission state and the light scattering state can be controlled. An image display / control device that performs display and imaging in time series using a screen and a projector (see, for example, Patent Document 2), with an imaging function that can realize both display and imaging simultaneously by using a hologram screen and a projector. A display device (see, for example, Patent Document 3) has been proposed.

また、視線と顔の位置に応じて相手側のカメラの光軸を制御することにより、表示画面と視線を一致させる双方向通信システム、端末装置及び制御方法が提案されている(例えば、特許文献4参照。)。   In addition, a bidirectional communication system, a terminal device, and a control method have been proposed that match the line of sight with the display screen by controlling the optical axis of the camera on the other side according to the line of sight and the position of the face (for example, Patent Documents). 4).

また、ディスプレイの両側に配置された複数のカメラにより撮影された入力画像に基づいて被写体の3次元情報を抽出し、抽出した3次元情報と受信者の視点位置に関する情報に応じて被写体の出力画像を再構成し、これを相手側のディスプレイへ表示させる画像処理装置が提案されている(例えば、特許文献5参照。)。この画像処理装置では、一直線上に配置された複数のカメラ映像から生成されたエピポーラ平面画像を用いて画面中心の仮想視点カメラ映像を合成することにより、利用者の視線を一致させて臨場感の高いコミュニケーションを実現することができる。   Also, three-dimensional information of the subject is extracted based on input images taken by a plurality of cameras arranged on both sides of the display, and an output image of the subject is determined according to the extracted three-dimensional information and information on the viewpoint position of the receiver. Has been proposed (see Patent Document 5, for example). In this image processing apparatus, by synthesizing a virtual viewpoint camera image centered on the screen using an epipolar plane image generated from a plurality of camera images arranged on a straight line, the user's line of sight is made coincident and a sense of presence is realized. High communication can be realized.

また、観察者の視点位置に合わせた画像を入力された画像群より切り替えて表示し、観察者の視点位置に応じた画像を表示する画像処理方法及びその装置(例えば、特許文献6参照。)も提案されている。この画像処理方法等においても、対応点の探索を容易化すべく、同様にエピポーラ平面画像を用いることができる。   In addition, an image processing method and apparatus for displaying an image according to the viewpoint position of the observer by switching and displaying an image according to the viewpoint position of the observer from the input image group (see, for example, Patent Document 6). Has also been proposed. In this image processing method or the like, an epipolar plane image can be similarly used to facilitate the search for corresponding points.

また、TV会議で互いの視線を一致させるべく、画面の左右に設置された2台のカメラで撮影した画像に基づいて3次元位置情報を生成する画像通信装置(例えば、特許文献7参照。)も提案されている。   In addition, in order to match each other's line of sight in a video conference, an image communication apparatus that generates three-dimensional position information based on images taken by two cameras installed on the left and right of the screen (see, for example, Patent Document 7). Has also been proposed.

特開昭61−65683号公報Japanese Patent Laid-Open No. 61-65683 特開平4−11485号公報JP-A-4-11485 特開平9−168141号公報JP-A-9-168141 特開2000−83228号公報JP 2000-83228 A 特開2001−52177号公報JP 2001-52177 A 特開平7−296139号公報JP 7-296139 A 特開平7−99644号公報JP-A-7-99644

しかしながら、上述した従来のシステムでは、実際にディスプレイを視認するユーザ間において視線を一致させた状態で対話を実現することができるが、ハーフミラーやホログラムスクリーン、更にはプロジェクタ等のような特殊装置を使用する必要があり、簡易で安価なシステムを構成することができないという問題点があった。   However, in the above-described conventional system, it is possible to realize a conversation with the line of sight matched between users who actually view the display. However, a special device such as a half mirror, a hologram screen, or a projector is used. There is a problem that a simple and inexpensive system cannot be configured.

特に近年において、ブロードバンドネットワーク技術の進歩に伴い、このテレビ電話システムやテレビ会議システムに対するニーズがますます高くなる中、ディスプレイを視認するユーザの視線方向を常時抽出することにより、細かい動きや表情までを正確に捉えた、よりリアルで臨場感のある遠隔対話を実現する必要がある。   In recent years, with the advancement of broadband network technology, the needs for this videophone system and videoconferencing system are increasing. By constantly extracting the direction of the line of sight of the user viewing the display, it is possible to obtain detailed movements and expressions. It is necessary to realize a more realistic and realistic remote dialogue that is accurately captured.

そこで本発明は上述した問題点を解決すべく案出されたものであり、その目的とするところは、システム全体を複雑化させることなく、よりリアルで臨場感のある遠隔対話を実現することができる通信システム、撮像装置及び方法を提供することにある。   Accordingly, the present invention has been devised to solve the above-described problems, and the object of the present invention is to realize a more realistic and realistic remote conversation without complicating the entire system. An object of the present invention is to provide a communication system, an imaging apparatus and a method that can be used.

上述した問題点を解決するために、本発明では、撮影対象を少なくとも3台のカメラにより互いに異なる角度から撮像し、各カメラにより撮像された各画像の法線方向を仮想的に設定された仮想平面の法線方向に合わせることにより補正処理を施し、この補正処理を施した各画像間において撮影対象と関連させつつ画素位置毎に対応付けを行い、各カメラに対する上記撮影対象の相対的な位置関係を示す相対位置情報を生成し、互いに対応付けた画素位置並びにその輝度成分から、上記生成された相対位置情報に応じて、新たに生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める。   In order to solve the above-described problems, in the present invention, an imaging target is imaged by at least three cameras from different angles, and the normal direction of each image captured by each camera is virtually set. A correction process is performed by matching with the normal direction of the plane, and each image position subjected to the correction process is associated with each imaging position while being associated with each imaging object, and the relative position of the imaging object with respect to each camera Relative position information indicating the relationship is generated, and from the pixel position and its luminance component associated with each other, the pixel position and its luminance component constituting the virtual viewpoint image to be newly generated according to the generated relative position information Ask for.

即ち、本発明を適用した撮像装置は、撮影対象を互いに異なる角度から撮像する少なくとも3台のカメラを含む撮像手段と、少なくとも各カメラにより撮像された各画像の法線方向を合わせる画像補正手段と、画像補正手段により補正された各画像間において、撮影対象と関連させつつ画素位置毎に対応付けを行うマッチング手段と、各カメラに対する撮影対象の相対的な位置関係を示す相対位置情報を生成する情報生成手段と、マッチング手段により互いに対応付けされた画素位置並びにその輝度成分から、生成された相対位置情報に応じて、新たに生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める画像生成手段とを備える。   That is, an imaging apparatus to which the present invention is applied includes an imaging unit that includes at least three cameras that capture an image of an imaging target from different angles, and an image correction unit that aligns the normal direction of each image captured by at least each camera. In addition, between each image corrected by the image correction unit, a matching unit that associates each pixel position with each other while associating with the shooting target, and generates relative position information indicating a relative positional relationship of the shooting target with respect to each camera. Based on the generated relative position information, the pixel position constituting the virtual viewpoint image to be newly generated and the luminance component thereof are obtained from the pixel position and the luminance component associated with each other by the information generating means and the matching means. Image generating means.

また、本発明を適用した撮像方法は、撮影対象を少なくとも3台のカメラにより互いに異なる角度から撮像し、各カメラにより撮像された各画像の法線方向を一方向に合わせる補正処理を施し、補正処理を施した各画像間において撮影対象と関連させつつ画素位置毎に対応付けを行い、各カメラに対する上記撮影対象の相対的な位置関係を示す相対位置情報を生成し、互いに対応付けた画素位置並びにその輝度成分から、生成した相対位置情報に応じて、新たに生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める。   In addition, the imaging method to which the present invention is applied captures a subject to be photographed from at least three cameras at different angles, and performs a correction process for aligning the normal direction of each image captured by each camera in one direction. The image processing unit associates each image position with each other while associating each image with the image capturing target, generates relative position information indicating the relative positional relationship of the image capturing target with respect to each camera, and associates the pixel positions with each other. In addition, from the luminance component, the pixel position constituting the virtual viewpoint image to be newly generated and the luminance component thereof are obtained according to the generated relative position information.

本発明を適用した撮像装置及び方法では、撮影対象を少なくとも3台のカメラにより互いに異なる角度から撮像し、各カメラにより撮像された各画像の法線方向を仮想的に設定された仮想平面の法線方向に合わせることにより補正処理を施し、この補正処理を施した各画像間において撮影対象と関連させつつ画素位置毎に対応付けを行い、各カメラに対する撮影対象の相対的な位置関係を示す相対位置情報を生成し、互いに対応付けた画素位置並びにその輝度成分から、上記生成された相対位置情報に応じて、新たに生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める。   In the imaging apparatus and method to which the present invention is applied, a method of a virtual plane in which a subject to be imaged is imaged by at least three cameras from different angles and the normal direction of each image captured by each camera is virtually set. Relative processing indicating the relative positional relationship of the imaging target with respect to each camera by performing correction processing according to the line direction, associating each image position subjected to this correction processing with each imaging position in association with the imaging target Position information is generated, and a pixel position and its luminance component constituting a virtual viewpoint image to be newly generated are obtained from the pixel position and its luminance component associated with each other according to the generated relative position information.

これにより、本発明を適用した撮像装置及び方法では、システム全体を複雑化させることなく対話するユーザ間において常時視線を一致させたビジュアルコミュニケーションを実現することができ、よりリアルで臨場感のある遠隔対話を実現することができる。また、撮像した画像につき法線ベクトルを一方向に合わせることによる幾何学的正規化を施し、エピポーラ線を平行化させることによって、画像間の対応付け、並びに画像内挿を利用した仮想視点画像の生成を効果的に行うことができる。   As a result, in the imaging apparatus and method to which the present invention is applied, visual communication in which the line of sight is always matched between users who interact with each other without complicating the entire system can be realized, and a more realistic and realistic remote can be realized. Dialogue can be realized. In addition, by performing geometric normalization by aligning the normal vector in one direction with respect to the captured image and parallelizing the epipolar lines, the virtual viewpoint image using the correspondence between the images and the image interpolation is used. Generation can be performed effectively.

以下、本発明を実施するための最良の形態について図面を参照しながら詳細に説明する。   Hereinafter, the best mode for carrying out the present invention will be described in detail with reference to the drawings.

本発明を適用した通信システム1は、例えば図1に示すように、A地点のユーザaと、B地点のユーザbとの間で、互いに離れた場所から相手の表示像を視認しながら遠隔対話するシステムである。   In the communication system 1 to which the present invention is applied, for example, as shown in FIG. 1, a user a at a point A and a user b at a point B are remotely interacting with each other while viewing a display image of the other party from a distant place. System.

A地点には、撮影対象としてのユーザaを互いに異なる角度から撮像するカメラ11a、カメラ12a,カメラ13aと、B地点側で撮像されたユーザbの画像をユーザaに対して表示するためのディスプレイ5aと、カメラ11a,12a,13aより撮像された各画像Pa1,Pa2,Pa3に基づいて仮想視点画像Imaを生成し、これをネットワーク7を介してB地点へ送信する端末装置2aが配設されている。   At point A, a camera 11a, a camera 12a, and a camera 13a that capture images of the user a as a subject to be photographed from different angles, and a display for displaying the image of the user b captured at the point B side to the user a 5a and a terminal device 2a that generates a virtual viewpoint image Ima based on the images Pa1, Pa2, and Pa3 captured by the cameras 11a, 12a, and 13a, and transmits the virtual viewpoint image Ima to the point B via the network 7. ing.

B地点には、撮影対象としてのユーザbを互いに異なる角度から撮像するカメラ11b、カメラ12bと、カメラ13bと、A地点側で撮像されたユーザaの画像をユーザbに対して表示するためのディスプレイ5bと、カメラ11b,12b,13bより撮像された各画像Pb1,Pb2,Pb3に基づいて仮想視点画像Imbを生成し、これをネットワーク7を介してA地点へ送信する端末装置2bが配設されている。   At the point B, the camera 11b, the camera 12b, the camera 13b, and the image of the user a captured at the point A are displayed for the user b. A terminal device 2b that generates a virtual viewpoint image Imb based on the display 5b and the images Pb1, Pb2, and Pb3 captured by the cameras 11b, 12b, and 13b and transmits the virtual viewpoint image Imb to the point A via the network 7 is provided. Has been.

なお、この端末装置2a,2bにより生成される上記仮想視点画像Ima,Imbは、相手の表示像が写し出されるディスプレイ5a,5bの中心付近において仮想的に設置された仮想カメラにより撮像される画像に相当する。   The virtual viewpoint images Ima and Imb generated by the terminal devices 2a and 2b are images captured by a virtual camera virtually installed near the center of the displays 5a and 5b on which the other party's display image is projected. Equivalent to.

カメラ11a,11bは、それぞれユーザa,b側から見てディスプレイ5a,5bの左側面に設置されてなり、カメラ12a,12bは、それぞれユーザa,b側から見てディスプレイの右側面に設置されてなる。更にカメラ13a,13bは、それぞれユーザa,b側から見てディスプレイの上側面に設置されてなる。   The cameras 11a and 11b are respectively installed on the left side of the displays 5a and 5b when viewed from the users a and b, and the cameras 12a and 12b are respectively installed on the right side of the display when viewed from the users a and b. It becomes. Furthermore, the cameras 13a and 13b are installed on the upper side of the display as viewed from the users a and b, respectively.

このカメラ11、12、13は、撮影方向、撮影画角が固定された状態で設置されるが、各ユーザa,bからの入力される情報に基づき、これらを自在に変更するようにしてもよい。ちなみに、以下の通信システム1の説明においては、カメラ11、12、13の各々のカメラの焦点で構成される三角形領域が、ユーザの視線の高さに合わせて設置される場合を例に挙げて説明をする。   The cameras 11, 12, and 13 are installed with the shooting direction and the shooting angle of view fixed. However, the cameras 11, 12, and 13 can be freely changed based on information input from the users a and b. Good. Incidentally, in the description of the communication system 1 below, an example is given in which a triangular region composed of the focal points of the cameras 11, 12, and 13 is installed according to the height of the user's line of sight. Explain.

ディスプレイ5a,5bは、それぞれネットワーク7を介して相手側地点から供給される仮想視点画像Imb,Imaに基づく画像を、例えば液晶表示面を介して表示する。このディスプレイ5a,5bにおける液晶表示面は、多数の液晶表示素子等からなり、各仮想視点画像Imb,Imaに基づく出力信号に応じて液晶表示素子を光変調させてユーザに表示する画像を作り出す。   The displays 5a and 5b display images based on the virtual viewpoint images Imb and Ima supplied from the counterpart point via the network 7 via a liquid crystal display surface, for example. The liquid crystal display surfaces of the displays 5a and 5b are composed of a large number of liquid crystal display elements and the like, and the liquid crystal display elements are optically modulated in accordance with output signals based on the virtual viewpoint images Imb and Ima to create an image to be displayed to the user.

端末装置2a,2bは、通常、パーソナルコンピュータ(PC)等の電子機器で構成される。これらの端末装置2a,2bは、ネットワーク7を介して互いに通信するための機能を備え、相手側からの要求に応じて画像や音声を送信する。なお、端末装置2a,2bの構成については後述する。   The terminal devices 2a and 2b are usually configured by electronic devices such as a personal computer (PC). These terminal devices 2a and 2b have a function for communicating with each other via the network 7, and transmit images and sounds in response to requests from the other party. The configuration of the terminal devices 2a and 2b will be described later.

ネットワーク7は、例えば端末装置2と電話回線を介して接続されるインターネット網を始め、TA/モデムと接続されるISDN(Integrated Services Digital Network)/B(broadband)−ISDN等のように、情報の双方向送受信を可能とした公衆通信網である。ちなみにこの通信システム1を、一定の狭いエリア内で運用する場合には、このネットワーク7を、LAN(Local Area Network)で構成してもよい。さらにこのネットワーク7は、動画像を送信する場合には、インターネットプロトコル(IP)に基づき、例えばMPEG(Moving Picture Experts Group)データを始めとする動画像がある一つのチャネルから継続的に送信される。また静止画像を送信する場合には、動画像を送信するチャネルとは別のチャネルから一定時間毎に送信されることになる。なお、このネットワーク7には、さらに図示しないネットワークサーバを接続してもよい。この図示しないネットワークサーバは、例えばインターネット情報を管理し、端末装置2による要求を受けて、自身に格納してある所定の情報を送信する。   The network 7 includes, for example, an Internet network connected to the terminal device 2 via a telephone line, ISDN (Integrated Services Digital Network) / B (broadband) -ISDN connected to a TA / modem, and the like. It is a public communication network that enables bidirectional transmission and reception. Incidentally, when the communication system 1 is operated in a certain narrow area, the network 7 may be configured by a LAN (Local Area Network). Further, when transmitting moving images, the network 7 is continuously transmitted from one channel having moving images including, for example, MPEG (Moving Picture Experts Group) data, based on the Internet protocol (IP). . In addition, when transmitting a still image, the image is transmitted at regular intervals from a channel different from the channel for transmitting a moving image. Note that a network server (not shown) may be connected to the network 7. This network server (not shown) manages, for example, Internet information, receives predetermined requests from the terminal device 2, and transmits predetermined information stored in itself.

次に、端末装置2の構成について、端末装置2aを例にとり図2を用いて説明をする。   Next, the configuration of the terminal device 2 will be described with reference to FIG. 2 taking the terminal device 2a as an example.

端末装置2aは、接続されたカメラ11a,12a,13aより画像Pa1,Pa2,Pa3が供給される補正部20と、この補正部20に接続されるマッチング部29と、さらにこのマッチング部29に接続される仮想視点画像生成部30と、仮想視点画像生成部30により生成された仮想視点画像Imaを相手側の端末装置2bへ送信するための出力制御部31と、各カメラ11a,12a,13aに対するユーザaの相対的な位置関係を示す相対位置情報を生成する情報生成部33とを備えている。   The terminal device 2a is connected to the correcting unit 20 to which the images Pa1, Pa2, and Pa3 are supplied from the connected cameras 11a, 12a, and 13a, the matching unit 29 connected to the correcting unit 20, and the matching unit 29. The virtual viewpoint image generation unit 30, the output control unit 31 for transmitting the virtual viewpoint image Ima generated by the virtual viewpoint image generation unit 30 to the other terminal device 2 b, and the respective cameras 11 a, 12 a, 13 a And an information generation unit 33 that generates relative position information indicating the relative positional relationship of the user a.

補正部20は、カメラ11a,12a,13aから送信される各画像Pa1,Pa2,Pa3につき幾何学的な画像補正を施すための幾何学的画像補正部21,22,23と、これら幾何学的画像補正部21,22,23により画像補正が施された画像を正規化するための正規化処理部24とを備えている。   The correction unit 20 includes geometric image correction units 21, 22, and 23 for performing geometric image correction on the images Pa1, Pa2, and Pa3 transmitted from the cameras 11a, 12a, and 13a. And a normalization processing unit 24 for normalizing the images that have been subjected to image correction by the image correction units 21, 22, and 23.

幾何学的画像補正部21,22,23は、カメラキャリブレーション部26から送信される、上記カメラ11a,12a,13aの幾何学的な位置関係を含む制御情報に基づいて、各画像Pa1,Pa2,Pa3を補正する。このカメラ11a,12a,13aの幾何学的な位置関係は、上述したカメラキャリブレーション部26から送信される制御情報においてパラメータ化されていてもよい。また、各カメラ11a,12a,13aの撮影方向及び/又は撮影画角を変更しつつ撮像を実行する場合には、カメラキャリブレーション部26においてこれらをパラメータ化し、画像を補正する際にこれらのパラメータを制御情報に含めるようにしてもよい。これにより、幾何学的画像補正部21,22,23は、各カメラ11a,12a,13aの撮影方向及び/又は撮影画角に応じてリアルタイムに画像補正することができる。   Based on the control information including the geometric positional relationship of the cameras 11a, 12a, and 13a transmitted from the camera calibration unit 26, the geometric image correction units 21, 22, and 23 are used for the images Pa1 and Pa2. , Pa3 is corrected. The geometric positional relationship between the cameras 11a, 12a, and 13a may be parameterized in the control information transmitted from the camera calibration unit 26 described above. Further, when imaging is performed while changing the shooting direction and / or the shooting angle of view of each camera 11a, 12a, 13a, these are parameterized by the camera calibration unit 26, and these parameters are used when correcting the image. May be included in the control information. Thereby, the geometrical image correction units 21, 22, and 23 can perform image correction in real time according to the shooting direction and / or the shooting angle of view of each camera 11a, 12a, and 13a.

なお、このカメラキャリブレーション部26は、同様にカメラ11a,12a,13aの各レンズにおける色収差や歪み、光軸のずれをパラメータ化し、これらを各補正部20へ送信するようにしてもよい。   Similarly, the camera calibration unit 26 may parameterize the chromatic aberration and distortion of each lens of the cameras 11 a, 12 a, and 13 a, and shift the optical axis, and transmit these parameters to the correction units 20.

正規化処理部24は、各幾何学的画像補正部21,22,23において補正された画像がそれぞれ供給され、これらにつき幾何学的正規化処理を施す。この正規化処理部24は、各カメラにより撮像された各画像Pa1,Pa2,Pa3の法線方向を合わせる。即ち、この正規化処理部24は、各画像Pa1,Pa2,Pa3の法線方向を仮想的に設定された仮想平面πの法線方向に合わせることによりこれを正規化し、それぞれ正規化画像Pm1,Pm2,Pm3を生成する。かかる場合において、正規化処理部24は、各カメラ11a,12a,13aにより撮像された各画像Pa1,Pa2,Pa3を上記仮想平面πへ射影するための射影変換行列を求め、求めた射影変換行列に基づいて上記各画像の法線方向を上記仮想平面πの法線方向に合わせる。   The normalization processing unit 24 is supplied with images corrected by the geometric image correction units 21, 22, and 23, and performs geometric normalization processing on these images. The normalization processing unit 24 matches the normal directions of the images Pa1, Pa2, and Pa3 captured by the cameras. That is, the normalization processing unit 24 normalizes the normal direction of each image Pa1, Pa2, Pa3 by matching it with the normal direction of the virtually set virtual plane π, and respectively normalizes the normalized images Pm1, Pm2 and Pm3 are generated. In such a case, the normalization processing unit 24 obtains a projective transformation matrix for projecting the images Pa1, Pa2, Pa3 captured by the cameras 11a, 12a, and 13a onto the virtual plane π, and obtains the obtained projective transformation matrix. Based on the above, the normal direction of each image is matched with the normal direction of the virtual plane π.

ちなみに、カメラキャリブレーション部26は、カメラ11a,12a,13aとしていわゆる固定視点カメラを適用する場合には、予めカメラキャリブレーション部26により画像Pa1,Pa2,Pa3の法線方向を取得するようにしてもよい。また、各カメラ11a,12a,13aの撮影方向及び/又は撮影画角を変更しつつ撮像を実行する場合には、カメラキャリブレーション部26においてこれらをパラメータ化し、画像を正規化する際にこれらのパラメータを制御情報に含めるようにしてもよい。これにより、ユーザa,bの位置に応じて撮影方向等を順次変更しつつ撮像を行う場合においても柔軟に対応することができる。   Incidentally, when applying a so-called fixed viewpoint camera as the cameras 11a, 12a, and 13a, the camera calibration unit 26 obtains the normal directions of the images Pa1, Pa2, and Pa3 in advance by the camera calibration unit 26. Also good. Further, when imaging is performed while changing the shooting direction and / or shooting angle of view of each camera 11a, 12a, 13a, these are parameterized by the camera calibration unit 26, and these are used when normalizing the image. The parameter may be included in the control information. Accordingly, it is possible to flexibly cope with the case where imaging is performed while sequentially changing the shooting direction according to the positions of the users a and b.

また、このカメラキャリブレーション部26において、これらのパラメータを図示しないROMやRAMへ格納しておくことにより、補正部20は、状況に応じて随時これらを参照することができ、高速な補正処理を実現することができる。またカメラキャリブレーション部26は、上記カメラ11a,12a,13aから画像Pa1,Pa2,Pa3が供給される度にこれらのパラメータを求めることにより、幾何学的画像補正部21,22,23において精度の高い補正処理を実現することができる。   In addition, by storing these parameters in a ROM or RAM (not shown) in the camera calibration unit 26, the correction unit 20 can refer to them at any time according to the situation, and can perform high-speed correction processing. Can be realized. The camera calibration unit 26 obtains these parameters each time the images Pa1, Pa2, and Pa3 are supplied from the cameras 11a, 12a, and 13a. High correction processing can be realized.

マッチング部29は、正規化処理部24において生成された正規化画像Pm1,Pm2,Pm3がそれぞれ供給される。このマッチング部29は、これら正規化画像Pm1,Pm2,Pm3につき、互いに対応付けを行う。   The matching unit 29 is supplied with the normalized images Pm1, Pm2, and Pm3 generated by the normalization processing unit 24, respectively. The matching unit 29 associates the normalized images Pm1, Pm2, and Pm3 with each other.

この対応付けは、ユーザaの顔を構成する同一の箇所にある画素位置と輝度成分を正規化画像Pm1,Pm2,Pm3間で抽出して対応をとるようにする。例えば図3に示すように、正規化画像Pm1上にある画素位置P11に対して、正規化画像Pm2上において同一の箇所に存在する画素位置P11’をその対応点として特定し、更に正規化画像Pm3上において同一の箇所に存在する画素位置P11’’をその対応点として特定する。かかる場合において、正規化画像Pm1上にある画素位置P11と、正規化画像Pm2上にある画素位置P11’とを対応付けする際に、正規化画像Pm3上の画素情報を参照する形で実行するようにしてもよい。同様の方法に基づき、正規化画像Pm1上にある画素位置P12に対して、正規化画像Pm2上において同一の箇所に存在する画素位置P12’をその対応点として特定し、更に正規化画像Pm3上において同一の箇所に存在する画素位置P12’’をその対応点として特定する。   This association is performed by extracting pixel positions and luminance components at the same location constituting the face of the user a between the normalized images Pm1, Pm2, and Pm3. For example, as shown in FIG. 3, with respect to the pixel position P11 on the normalized image Pm1, the pixel position P11 ′ existing at the same location on the normalized image Pm2 is specified as the corresponding point, and further the normalized image A pixel position P11 ″ existing at the same location on Pm3 is specified as the corresponding point. In such a case, when associating the pixel position P11 on the normalized image Pm1 with the pixel position P11 ′ on the normalized image Pm2, the pixel information on the normalized image Pm3 is referred to. You may do it. Based on the same method, for the pixel position P12 on the normalized image Pm1, the pixel position P12 ′ existing at the same location on the normalized image Pm2 is specified as the corresponding point, and further on the normalized image Pm3. The pixel position P12 '' existing at the same location is specified as the corresponding point.

即ち、このマッチング部29では、正規化処理部24において正規化された正規化画像Pm1,Pm2,Pm3において、撮影対象と関連させつつ、画素位置毎に対応付けを行う。ちなみにマッチング部29は、この対応付けにつき特徴抽出した箇所のみについて実行してもよいし、正規化画像Pm1,Pm2,Pm3を構成する全ての画素に対して実行してもよい。   That is, the matching unit 29 associates the normalized images Pm1, Pm2, and Pm3 normalized by the normalization processing unit 24 for each pixel position while associating them with the imaging target. Incidentally, the matching unit 29 may be executed only for the part where the feature is extracted for this association, or may be executed for all the pixels constituting the normalized images Pm1, Pm2, and Pm3.

情報生成部33は、生成すべき相対位置情報をユーザaのディスプレイ5aに対する視線方向に基づいて生成してもよい。かかる場合において情報生成部30は、カメラ11a,12a,13aから供給される画像Pa1,Pa2,Pa3からユーザaの視線方向を取得し、これに基づいて相対位置情報を生成する。これにより、いわば仮想カメラの撮影方向をユーザaの視線方向に合わせ込むことと同様の処理を実現することができる。また、情報生成部33は、各カメラ11a,12a,13aにより生成された画像情報からDepth情報を取得し、当該取得したDepth情報に基づいて相対位置情報を生成するようにしてもよい。また情報生成部33は、図示しないキーボードやマウス等の操作部を介して入力された情報に基づき、相対位置情報を生成するようにしてもよい。   The information generation unit 33 may generate the relative position information to be generated based on the line-of-sight direction of the user a with respect to the display 5a. In such a case, the information generation unit 30 acquires the line-of-sight direction of the user a from the images Pa1, Pa2, and Pa3 supplied from the cameras 11a, 12a, and 13a, and generates relative position information based on the acquired direction. Accordingly, it is possible to realize the same processing as that of adjusting the shooting direction of the virtual camera to the line of sight of the user a. In addition, the information generation unit 33 may acquire depth information from image information generated by each camera 11a, 12a, 13a, and generate relative position information based on the acquired depth information. The information generation unit 33 may generate relative position information based on information input via an operation unit such as a keyboard or a mouse (not shown).

仮想視点画像生成部30は、マッチング部29により互いに対応付けされた画素位置並びにその輝度成分がそれぞれ入力される。また、仮想視点画像生成部30は、互いに対応付けされた画素位置並びにその輝度成分から、情報生成部33より生成された相対位置情報に応じて、新たに生成すべき仮想視点画像Imaを構成する画素位置並びにその輝度成分を求める。仮想視点画像生成部30は、求めた画素位置並びにその輝度成分により構成される仮想視点画像Imaを出力制御部31へ供給する。   The virtual viewpoint image generation unit 30 is input with the pixel positions and the luminance components associated with each other by the matching unit 29. Further, the virtual viewpoint image generation unit 30 configures a virtual viewpoint image Ima to be newly generated according to the relative position information generated by the information generation unit 33 from the pixel positions associated with each other and their luminance components. The pixel position and its luminance component are obtained. The virtual viewpoint image generation unit 30 supplies a virtual viewpoint image Ima configured by the obtained pixel position and its luminance component to the output control unit 31.

出力制御部31は、仮想視点画像生成部30において生成された仮想視点画像Imaを、ネットワーク7を介して端末装置2bへ送信するように制御する。かかる場合において、この出力制御部31は、カメラ11a,12a,13aにより生成された画像Pa1,Pa2,Pa3を単独で端末装置2bへ送信するように制御してもよい。   The output control unit 31 controls to transmit the virtual viewpoint image Ima generated by the virtual viewpoint image generation unit 30 to the terminal device 2b via the network 7. In such a case, the output control unit 31 may perform control so that the images Pa1, Pa2, and Pa3 generated by the cameras 11a, 12a, and 13a are independently transmitted to the terminal device 2b.

次に、この端末装置2における具体的な動作につき説明をする。   Next, a specific operation in the terminal device 2 will be described.

撮影対象としてのユーザaは、カメラ11a,12a,13aにより互いに異なる角度から撮影される。その結果、カメラ11a,12a,13aにより生成される画像Pa1,Pa2,Pa3上のユーザaの視線方向、顔の向き等は、互いに異なる状態となる。このような画像Pa1,Pa2,Pa3がそれぞれ補正部20における正規化処理部24へ供給されると、これらは、以下に示される方法に基づいて正規化されることになる。   A user a as a subject to be photographed is photographed from different angles by the cameras 11a, 12a, and 13a. As a result, the line of sight of the user a on the images Pa1, Pa2, and Pa3 generated by the cameras 11a, 12a, and 13a, the face orientation, and the like are different from each other. When such images Pa1, Pa2, and Pa3 are respectively supplied to the normalization processing unit 24 in the correction unit 20, they are normalized based on the following method.

例えば図4に示すように、各カメラ11a,12a,13aの光学中心C1,C2,C3により互いに異なる角度から撮影対象のM点へ光軸を合わせて撮像を行うと、これにより生成される画像Pa1,Pa2,Pa3は、各カメラ11a,12a,13aの撮像面に対して平行となる。ここで各カメラ11a,12a,13aと、M点を結ぶ直線の方向は、各カメラにより撮像された各画像Pa1,Pa2,Pa3の法線方向に一致するが、これらは互いに異なる方向を指している。これら各画像Pa1,Pa2,Pa3の法線方向が同一方向となるように正規化を行うことにより、画像面が互いに平行な正規化画像Pm1,Pm2,Pm3を作り出す。   For example, as shown in FIG. 4, when the optical centers C <b> 1, C <b> 2, and C <b> 3 of the cameras 11 a, 12 a, and 13 a are aligned at different optical angles from the mutually different angles to the M points to be imaged, images generated thereby Pa1, Pa2, and Pa3 are parallel to the imaging surfaces of the cameras 11a, 12a, and 13a. Here, the direction of the straight line connecting each camera 11a, 12a, 13a and point M coincides with the normal direction of each image Pa1, Pa2, Pa3 imaged by each camera, but these indicate different directions. Yes. Normalization images Pm1, Pm2, and Pm3 whose image planes are parallel to each other are generated by performing normalization so that the normal directions of these images Pa1, Pa2, and Pa3 are the same.

具体的には、図4に示すように光学中心C1,C2,C3により囲まれる仮想平面πを設定しておき、この仮想平面πの法線方向に対してこれら各画像Pa1,Pa2,Pa3の法線方向が同一方向となるように、射影変換行列Pを用いて正規化する。このため、仮想平面πの設定は、各画像Pa1,Pa2,Pa3の画像面を如何なる方向において平行化させるかを決定付けることとなる。   Specifically, as shown in FIG. 4, a virtual plane π surrounded by the optical centers C1, C2, and C3 is set, and these images Pa1, Pa2, and Pa3 are set with respect to the normal direction of the virtual plane π. Normalization is performed using the projective transformation matrix P so that the normal direction is the same direction. For this reason, the setting of the virtual plane π determines in which direction the image planes of the images Pa1, Pa2, and Pa3 are parallelized.

ちなみに、この射影変換行列と画像面との関係を説明する前提として、以下では、画像上の点をm=[m,mとし、また空間中の点をw=[w,w,wとする。ここで、図5に示すように、M点を世界座標系で表したものを上記wで表示し、また各カメラ11a,12a,13aの光学中心C(C1,C2,C3)とM点とを結ぶ直線と各画像Pa1,Pa2,Pa3との交点の座標を上記mにより表示する。即ち、各画像Pa1,Pa2,Pa3における像平面内の位置をm=[m,mにより定義する。かかる場合において、各点における斎次座標系での記述をそれぞれ以下のようにおく。 Incidentally, as a premise for explaining the relationship between the projective transformation matrix and the image plane, in the following, a point on the image is m = [m 0 , m 1 ] T, and a point in space is w = [w 0 , w 1 , w 1 ] T. Here, as shown in FIG. 5, a representation of the M point in the world coordinate system is indicated by w, and the optical centers C (C1, C2, C3) and M points of the cameras 11a, 12a, 13a The coordinates of the intersections of the straight line connecting the images Pa1, Pa2, and Pa3 are displayed by m. That is, the position in the image plane in each image Pa1, Pa2, Pa3 is defined by m = [m 0 , m 1 ] T. In such a case, the description in the Saisei coordinate system at each point is as follows.

Figure 2005142765
Figure 2005142765

また、空間中の点wiと画像上の点miの関係は以下に示す式で与えられる。   The relationship between the point wi in the space and the point mi on the image is given by the following equation.

Figure 2005142765
Figure 2005142765

ここで、sは任意の変数であり、Pは上述した射影変換行列である。この射影変換行列は、P=A[R|t]で表される。Rは、画像の回転行列を表し、以下に示す式で与えられる。   Here, s is an arbitrary variable, and P is the projective transformation matrix described above. This projective transformation matrix is represented by P = A [R | t]. R represents an image rotation matrix and is given by the following equation.

Figure 2005142765
Figure 2005142765

またtは、画像の並進行列を表し、以下の式で与えられる。   Further, t represents a parallel progression of images and is given by the following equation.

Figure 2005142765
Figure 2005142765

また、行列Aは、カメラの内部パラメータと呼ばれるものであり、以下の示す式で与えられる。   The matrix A is called a camera internal parameter and is given by the following equation.

Figure 2005142765
Figure 2005142765

ここで(u,v)は、それぞれ画像中心を表し、α(=−f・ku)、β(=−f・kv/sinθ)は、それぞれm軸、m軸のスケール因子を表し、γ(=f・ku・cotθ)は、2つの軸のねじれを表す。 Here, (u 0 , v 0 ) represents the center of the image, and α (= −f · ku) and β (= −f · kv / sin θ) represent the scale factors of the m 0 axis and the m 1 axis, respectively. Γ (= f · ku · cot θ) represents the twist of two axes.

即ち、上記各式に基づいて、画像Pa1,Pa2,Pa3毎に射影変換行列Po1,Po2,Po3を求めることにより、図6(a)に示すように、各画像Pa1,Pa2,Pa3につき、3次元空間から2次元画像平面へ射影変換することができる。換言すれば世界座標系で定義されるmからカメラ座標系で定義されるwへ射影変換することができる。   That is, by obtaining the projective transformation matrices Po1, Po2, Po3 for each of the images Pa1, Pa2, Pa3 based on the above equations, as shown in FIG. 6 (a), for each image Pa1, Pa2, Pa3, 3 Projective transformation from a dimensional space to a two-dimensional image plane can be performed. In other words, projective transformation can be performed from m defined in the world coordinate system to w defined in the camera coordinate system.

図6(b)は、この求めた射影変換行列Pox(Po1,Po2,Po3)と像平面との関係を示している。これらカメラ座標系に射影変換された各画像Pa(Pa1,Pa2,Pa3)につき正規化を施すことにより、上記正規化画像Pm(Pm1,Pm2,Pm3)を作り出すことができる。   FIG. 6B shows the relationship between the obtained projective transformation matrix Pox (Po1, Po2, Po3) and the image plane. The normalized image Pm (Pm1, Pm2, Pm3) can be created by normalizing each image Pa (Pa1, Pa2, Pa3) that has been projectively transformed into the camera coordinate system.

本発明を適用した通信システム1では、更にこの世界座標系として表される3次元空間から正規化画像Pm1,Pm2,Pm3へ射影変換するための射影変換行列Pnx(Pn1,Pn2,Pn3)を求める。この射影変換行列Pnx(Pn1,Pn2,Pn3)は、上述した画像の回転行列Rを再定義することで実現する。   In the communication system 1 to which the present invention is applied, a projective transformation matrix Pnx (Pn1, Pn2, Pn3) for performing projective transformation from the three-dimensional space represented as the world coordinate system to the normalized images Pm1, Pm2, and Pm3 is obtained. . This projective transformation matrix Pnx (Pn1, Pn2, Pn3) is realized by redefining the image rotation matrix R described above.

図7は、この回転行列Rを再定義する手順を示している。ステップS11において、回転行列R=[r0t,r1t,r2t]につき、光学中心C(C1,C2,C3)を通る平面に対して垂直となるようにr2tを調整する。次にステップS12へ移行し、r0tにつき任意の値となるように調整する。更に、ステップS13へ移行し、r0tとr2tの外積からr1tを求める。最後にステップS14へ移行し、上記ステップS11〜S13において各パラメータを調整したR=[r0t,r1t,r2t]に基づき、射影変換行列Pn1,Pn2,Pn3を求める。   FIG. 7 shows a procedure for redefining the rotation matrix R. In step S11, r2t is adjusted so that the rotation matrix R = [r0t, r1t, r2t] is perpendicular to a plane passing through the optical center C (C1, C2, C3). Next, the process proceeds to step S12, and the r0t is adjusted to an arbitrary value. In step S13, r1t is obtained from the outer product of r0t and r2t. Finally, the process proceeds to step S14, and the projective transformation matrices Pn1, Pn2, and Pn3 are obtained based on R = [r0t, r1t, r2t] in which each parameter is adjusted in steps S11 to S13.

ちなみに、この正規化処理部24において射影変換された正規化画像Pm1,Pm2,Pm3は、マッチング部29において上述の如く撮影対象と関連させつつ、画素位置毎に対応付けされる。本発明においては、マッチング部29の前段にある正規化処理部24において予め正規化され、エピポーラ線が平行化されている。これと相俟って、本発明では、正規化画像Pm1〜Pm3のうち任意の2枚の正規化画像の対応付けを実行する。マッチング方法は、例えば下記文献「"A Maximum Likelihood Stereo Algorithm",Ingemar J. Cox, Sunita L. Hingorani, Satish B. Rao, and Bruce M. Maggs, CVIM vol.63, (1996).」に示される方法を用いるようにしてもよい。   Incidentally, the normalized images Pm1, Pm2, and Pm3 subjected to the projective transformation in the normalization processing unit 24 are associated with each pixel position while being associated with the imaging target in the matching unit 29 as described above. In the present invention, the normalization processing unit 24 in the previous stage of the matching unit 29 is normalized in advance and the epipolar lines are parallelized. In combination with this, in the present invention, any two normalized images among the normalized images Pm1 to Pm3 are associated. The matching method is shown, for example, in the following document “A Maximum Likelihood Stereo Algorithm”, Ingemar J. Cox, Sunita L. Hingorani, Satish B. Rao, and Bruce M. Maggs, CVIM vol. 63, (1996). A method may be used.

上述の如く対応付けされた画素位置は、その輝度成分と共に、仮想視点画像生成部30へ出力される。この仮想視点画像生成部30には、情報生成部33により生成された相対位置情報も送信される。   The pixel position associated as described above is output to the virtual viewpoint image generation unit 30 together with the luminance component. The relative position information generated by the information generation unit 33 is also transmitted to the virtual viewpoint image generation unit 30.

仮想視点画像生成部30は、上述したマッチング部29における対応付けの結果に基づき仮想視点画像Imaを生成する。ここで、この仮想視点画像生成部30において、光学中心Cqを有する仮想カメラにより撮像される仮想視点画像Imaを生成する場合を考える。かかる場合において光学中心Cqの位置を、図8に示すように光学中心C1,C2,C3との関係で定義するとき、かかる光学中心Cqと、各カメラ11a,12a,13aの光学中心C1,C2,C3の関係は、以下の式(1)により表すことができる。
Cq=(1−α)(1−β)・C1+α(1−β)・C2+β・C3・・・・・(1)
この式(1)においてα、βは、情報生成部33において生成される相対位置情報である。この相対位置情報α、βは、各カメラ11a,12a,13aの光学中心C1,C2,C3に対する仮想カメラの光学中心Cqの位置との関係において決定される。ここでαは、仮想カメラにおける仮想視点がカメラ11aの光学中心C1に近くなるにつれて小さくなり、また仮想視点がカメラ12aの光学中心C2に近くなるにつれて大きくなる。また、βは、仮想カメラにおける仮想視点がカメラ13aの光学中心C3に近くなるにつれて大きくなる。即ち、上述した情報生成部33において、ユーザaのディスプレイ5aに対する視線方向に基づいて相対位置情報α、βを生成することにより、ユーザaの視線に合わせた仮想カメラの光学中心Cqを設定することも可能となる。
The virtual viewpoint image generation unit 30 generates a virtual viewpoint image Ima based on the result of association in the matching unit 29 described above. Here, consider a case where the virtual viewpoint image generation unit 30 generates a virtual viewpoint image Ima captured by a virtual camera having the optical center Cq. In this case, when the position of the optical center Cq is defined in relation to the optical centers C1, C2, C3 as shown in FIG. 8, the optical center Cq and the optical centers C1, C2 of the cameras 11a, 12a, 13a are defined. , C3 can be expressed by the following equation (1).
Cq = (1-α) (1-β) · C1 + α (1-β) · C2 + β · C3 (1)
In this equation (1), α and β are relative position information generated by the information generation unit 33. The relative position information α, β is determined in relation to the position of the optical center Cq of the virtual camera with respect to the optical centers C1, C2, C3 of the cameras 11a, 12a, 13a. Here, α decreases as the virtual viewpoint in the virtual camera approaches the optical center C1 of the camera 11a, and increases as the virtual viewpoint approaches the optical center C2 of the camera 12a. Also, β increases as the virtual viewpoint in the virtual camera becomes closer to the optical center C3 of the camera 13a. That is, the information generation unit 33 described above generates the relative position information α and β based on the direction of the line of sight of the user a with respect to the display 5a, thereby setting the optical center Cq of the virtual camera that matches the line of sight of the user a. Is also possible.

また、仮想カメラにより撮像される仮想視点画像Imaを構成する各画素位置は、以下の式(2)に基づいて決定することができる。なお、この(2)式において、仮想視点画像Imaにおける画素位置をwqとし、仮想視点画像Imaの射影変換行列をPnqとする。また、かかる画素位置wqに対応する各正規化画像Pm1,Pm2,Pm3の画像位置をそれぞれw1,w2,w3とする。なお、これらの画素位置は、全て世界座標で表されているものとし、それぞれ射影変換行列を乗算することにより、像平面内の位置として表されるものとする。
Pnq・wq=(1−α)(1−β)・Pn1・w1+α(1−β)・Pn2・w2+β・Pn3・w3・・・・・(2)
この式(2)に基づいて決定される画素位置wqは、仮想カメラの光学中心Cqがカメラ11aの光学中心C1に近づくにつれてw1へ近づき、カメラ12aの光学中心C2に近づくにつれてw2へ近づき、更にカメラ13aの光学中心C3に近づくにつれてw3へ近づくことになる。即ち、画素位置wqを、仮想カメラの位置に応じて自在に決定することができるため、仮想視点画像Ima上に表示させるユーザaの位置を自在に変化させることができる。
Moreover, each pixel position which comprises the virtual viewpoint image Ima imaged with a virtual camera can be determined based on the following formula | equation (2). In Equation (2), the pixel position in the virtual viewpoint image Ima is wq, and the projective transformation matrix of the virtual viewpoint image Ima is Pnq. In addition, the image positions of the normalized images Pm1, Pm2, and Pm3 corresponding to the pixel position wq are w1, w2, and w3, respectively. These pixel positions are all expressed in world coordinates, and are each expressed as a position in the image plane by multiplying by a projective transformation matrix.
Pnq · wq = (1-α) (1-β) · Pn1 · w1 + α (1-β) · Pn2 · w2 + β · Pn3 · w3 (2)
The pixel position wq determined based on this equation (2) approaches w1 as the optical center Cq of the virtual camera approaches the optical center C1 of the camera 11a, approaches w2 as it approaches the optical center C2 of the camera 12a, and further As it approaches the optical center C3 of the camera 13a, it approaches w3. That is, since the pixel position wq can be freely determined according to the position of the virtual camera, the position of the user a displayed on the virtual viewpoint image Ima can be freely changed.

また、画像位置をそれぞれw1,w2,w3における輝度成分をそれぞれJ11, J11',J11''としたとき、仮想視点画像Ima上の画素位置wqにおける輝度成分Ptを以下の式(3)に基づき決定することができる。
Pt=(1−α)(1−β)・J11+α(1−β)・J11'+β・J11''・・・(3)
この式(3)に基づいて決定される輝度成分Ptは、仮想カメラの光学中心Cqがカメラ11aの光学中心C1に近づくにつれてJ11へ近づき、カメラ12aの光学中心C2に近づくにつれてJ11'へ近づき、更にカメラ13aの光学中心C3に近づくにつれてJ11''へ近づくことになる。即ち、輝度成分Ptを、仮想カメラの位置に応じて自在に決定することができるため、仮想視点画像Ima上に表示させるユーザaを構成する画素の輝度を自在に変化させることができる。
Also, assuming that the luminance components at w1, w2, and w3 are J11, J11 ′, and J11 ″, respectively, the luminance component Pt at the pixel position wq on the virtual viewpoint image Ima is based on the following equation (3). Can be determined.
Pt = (1-α) (1-β) · J11 + α (1-β) · J11 ′ + β · J11 ″ (3)
The luminance component Pt determined based on the equation (3) approaches J11 as the optical center Cq of the virtual camera approaches the optical center C1 of the camera 11a, and approaches J11 ′ as it approaches the optical center C2 of the camera 12a. Furthermore, it approaches J11 ″ as it approaches the optical center C3 of the camera 13a. That is, since the luminance component Pt can be freely determined according to the position of the virtual camera, the luminance of the pixels constituting the user a displayed on the virtual viewpoint image Ima can be freely changed.

このように仮想視点画像生成部30は、仮想視点画像Imaを構成する各画素の座標並びにその輝度成分につき、相対位置情報としてのα、βに基づいて決定することができる。   As described above, the virtual viewpoint image generation unit 30 can determine the coordinates of each pixel constituting the virtual viewpoint image Ima and its luminance component based on α and β as relative position information.

また、本発明では、上述の如き幾何学的正規化を施しエピポーラ線を平行化させてあるため、このような画像内挿をより効果的に実行することが可能となる。   In the present invention, since the geometric normalization as described above is performed and the epipolar lines are parallelized, it is possible to execute such image interpolation more effectively.

特に、各カメラ11a,12a,13aは互いに撮影方向が異なるため、同一の画像を示す画像位置w1,w2,w3の輝度成分が互いに異なる。この互いに異なる輝度成分の何れか一方を最小値とし、他方が最大値となるようにして、相対位置情報としてのα、βに応じて輝度成分Ptを線形に増減させることにより、仮想カメラの位置に応じて仮想視点画像Ima上に表示させるユーザaを構成する画素の輝度成分を決定することが可能となる。   Particularly, since the cameras 11a, 12a, and 13a have different shooting directions, the luminance components at the image positions w1, w2, and w3 indicating the same image are different from each other. The position of the virtual camera is determined by linearly increasing / decreasing the luminance component Pt according to α and β as relative position information so that either one of the different luminance components is the minimum value and the other is the maximum value. Accordingly, it is possible to determine the luminance component of the pixels constituting the user a displayed on the virtual viewpoint image Ima.

例えば、画像位置w1,w2,w3とが、互いにユーザaが着用している眼鏡の縁の部分を捉えている場合に、これらは互いに異なる撮影方向で撮像されているため、その輝度成分は異なる。これらの輝度成分をそれぞれ最小値又は最大値として割り当て、相対位置情報としてのα、βに応じて輝度成分を線形に増減させることにより、輝度成分Ptを決定する。この決定した輝度成分Ptが、新たに生成すべき仮想視点画像Imaにおける眼鏡の縁を示す輝度成分に相当することになる。   For example, when the image positions w1, w2, and w3 capture the edge portions of the glasses worn by the user a, the luminance components are different because they are captured in different shooting directions. . These luminance components are assigned as minimum values or maximum values, respectively, and the luminance components Pt are determined by linearly increasing / decreasing the luminance components according to α and β as relative position information. This determined luminance component Pt corresponds to a luminance component indicating the edge of the glasses in the virtual viewpoint image Ima to be newly generated.

また図9は、仮想視点画像Ima並びに各カメラ11a,12a,13aにより生成される画像Pa1,Pa2,Pa3の法線ベクトルを示している。この仮想視点画像生成部33において得られる仮想視点画像Imaの法線ベクトルnは、画像Pa1,Pa2,Pa3の法線ベクトルn,n,nを用いて以下の式(4)に基づき表すこともできる。
=(1−α)(1−β)・n+α(1−β)・n+β・n・・・・・(4)
上述のようにして画素位置wqにおける座標並びにその輝度成分Ptを順次決定することにより、表示されるユーザaの視線方向、顔の向き等は互いに異なっていた画像Pa1,Pa2,Pa3に対して、ユーザaの顔、視線方向が常時正面を向いている状態にある仮想視点画像Imaを作り出すことが可能となる。
FIG. 9 shows the virtual viewpoint image Ima and the normal vectors of the images Pa1, Pa2, Pa3 generated by the cameras 11a, 12a, 13a. Normal vector n x of the virtual viewpoint image Ima obtained in this virtual viewpoint image generator 33, image Pa1, Pa2, the equation (4) below by using the normal vectors n 1, n 2, n 3 of Pa3 It can also be expressed based on.
nx = (1-α) (1-β) · n 1 + α (1-β) · n 2 + β · n 3 (4)
By sequentially determining the coordinates at the pixel position wq and the luminance component Pt as described above, the images Pa1, Pa2, Pa3 in which the line of sight of the user a to be displayed, the orientation of the face, etc. are different from each other, It is possible to create a virtual viewpoint image Ima in which the face and line-of-sight direction of the user a are always facing the front.

生成された仮想視点画像Imaは、出力制御部31を介して、ネットワーク7へ送出される。そして相手側の端末装置2bへ送信された仮想視点画像Imaは、端末装置2bにおける制御の下、ディスプレイ5b上へ表示されることになる。ユーザbは、ディスプレイ5bに表示される仮想視点画像Ima上のユーザaを視認しつつ対話をすることになるが、ユーザaの顔、視線方向は常時正面を向いている状態にあるため、あたかも画面中央付近に設置された仮想カメラで撮像されたような画像を視認しているような感覚を味わうことができる。ユーザaについても同様にディスプレイ5aに表示される仮想視点画像Ima上のユーザbを視認しつつ対話をすることになるが、常時正面を向いているユーザbを視認することができる。即ち、この通信システム1では、いわば対話するユーザ間において常時視線を一致させたビジュアルコミュニケーションを実現することができ、よりリアルで臨場感のある遠隔対話を実現することができる。   The generated virtual viewpoint image Ima is sent to the network 7 via the output control unit 31. Then, the virtual viewpoint image Ima transmitted to the counterpart terminal device 2b is displayed on the display 5b under the control of the terminal device 2b. The user b interacts while visually recognizing the user a on the virtual viewpoint image Ima displayed on the display 5b. However, since the user a's face and line-of-sight direction are always facing the front, It is possible to enjoy the feeling of visually recognizing an image taken by a virtual camera installed near the center of the screen. Similarly, the user a interacts while visually recognizing the user b on the virtual viewpoint image Ima displayed on the display 5a. However, the user b always facing the front can be visually recognized. That is, in this communication system 1, visual communication in which the line of sight is always matched between users who are interacting can be realized, and a more realistic and realistic remote conversation can be realized.

特にこの通信システム1では、少なくとも3台のカメラ11,12,13をディスプレイ5の両側に配設すれば足り、また被写体の3次元情報をその都度抽出する必要もなくなるため、システム全体が複雑化することがなくなるという利点もある。   In particular, in this communication system 1, it is sufficient to arrange at least three cameras 11, 12, and 13 on both sides of the display 5, and it is not necessary to extract the three-dimensional information of the subject each time, so that the entire system becomes complicated. There is also an advantage of not having to do.

また、この通信システム1では、ハーフミラーやホログラムスクリーン、更にはプロジェクタ等のような特殊装置を用いる必要もなく、簡易で安価なシステムを構成することができる。   Further, in the communication system 1, it is not necessary to use a special device such as a half mirror, a hologram screen, or a projector, and a simple and inexpensive system can be configured.

なお、上述した実施の形態では、3台のカメラにより撮影対象を撮像する場合を例に挙げて説明をしたが、かかる場合に限定されるものではなく、4台以上のカメラをディスプレイの側面に設置して撮像を行うようにしてもよい。図10は、n台(nは4以上)のカメラ11a〜カメラ100が配設される端末装置2aの構成図である。カメラ11a〜カメラ100により撮像された画像は、カメラ選択部101へ送信される。カメラ選択部101は、情報生成部33から送信される相対位置情報に基づき、仮想カメラの光学中心Cqに最も近い光学中心を持つカメラを3台選択し、上述の如く仮想視点画像Imaを生成する。互いに異なる4方向以上からユーザaを撮像することにより、仮にユーザの視線の高さが微妙に変化する場合であっても、細かい視線の動きを捉えた上位3方向から撮像した画像を取得することにより、常時視線を一致させた状態で対話を実現することが可能となる。   In the above-described embodiment, the case where the imaging target is imaged by three cameras has been described as an example. However, the present invention is not limited to this case, and four or more cameras are provided on the side of the display. It may be installed and imaged. FIG. 10 is a configuration diagram of a terminal device 2a in which n (n is 4 or more) cameras 11a to 100 are arranged. Images captured by the cameras 11 a to 100 are transmitted to the camera selection unit 101. The camera selection unit 101 selects three cameras having the optical center closest to the optical center Cq of the virtual camera based on the relative position information transmitted from the information generation unit 33, and generates the virtual viewpoint image Ima as described above. . By capturing the user a from four or more different directions, even if the height of the user's line of sight slightly changes, an image captured from the upper three directions that captures the movement of the fine line of sight is acquired. Thus, it is possible to realize a conversation while keeping the line of sight consistent.

なお、本発明を適用した端末装置2とカメラ11,12とを一体化させた撮像装置として適用してもよいことは勿論である。また、これら端末装置2や通信システム1をテレビ会議システム以外の仮想視点画像を生成を必要とする各種映像コンテンツ制作に適用してもよいことは勿論である。   Needless to say, the present invention may be applied as an imaging device in which the terminal device 2 to which the present invention is applied and the cameras 11 and 12 are integrated. Of course, the terminal device 2 and the communication system 1 may be applied to various video content productions that require generation of virtual viewpoint images other than the video conference system.

本発明を適用した通信システムの概略を示す図である。It is a figure which shows the outline of the communication system to which this invention is applied. 端末装置の構成につき説明するための図である。It is a figure for demonstrating per structure of a terminal device. マッチング部における対応付けにつき説明するための図である。It is a figure for demonstrating about the matching in a matching part. 各画像Pa1,Pa2,Pa3の法線方向を合わせる正規化につき説明するための図である。It is a figure for demonstrating about the normalization which matches the normal line direction of each image Pa1, Pa2, Pa3. 3次元空間の点と像平面の点との位置関係につき説明するための図である。It is a figure for demonstrating about the positional relationship of the point of a three-dimensional space, and the point of an image plane. 求めた射影変換行列と像平面との関係につき説明するための図である。It is a figure for demonstrating about the relationship between the calculated | required projective transformation matrix and an image plane. 回転行列Rを再定義する手順を示すフローチャートである。It is a flowchart which shows the procedure which redefines the rotation matrix R. 仮想視点画像を作成する方法につき説明するための図である。It is a figure for demonstrating about the method of producing a virtual viewpoint image. 仮想視点画像並びに各カメラより生成される画像の法線ベクトルの関係につき示す図である。It is a figure shown about the relationship of the normal vector of the virtual viewpoint image and the image produced | generated from each camera. 4台以上のカメラをディスプレイの側面に設置して撮像を行う場合につき説明するための図である。It is a figure for demonstrating about the case where four or more cameras are installed in the side surface of a display, and it images.

符号の説明Explanation of symbols

1 通信システム、2 端末装置、5 ディスプレイ、7 ネットワーク、11,12,13 カメラ、21〜24 幾何学的画像補正部、24 正規化処理部、26 カメラキャリブレーション部、29 マッチング部、30 仮想視点画像生成部、31 出力生成部、33 情報生成部   DESCRIPTION OF SYMBOLS 1 Communication system, 2 Terminal device, 5 Display, 7 Network, 11, 12, 13 Camera, 21-24 Geometric image correction part, 24 Normalization process part, 26 Camera calibration part, 29 Matching part, 30 Virtual viewpoint Image generator, 31 output generator, 33 information generator

Claims (7)

撮影対象を互いに異なる角度から撮像する少なくとも3台のカメラを含む撮像手段と、
少なくとも上記各カメラにより撮像された各画像の法線方向を一方向に合わせる画像補正手段と、
上記画像補正手段により補正された各画像間において、上記撮影対象と関連させつつ画素位置毎に対応付けを行うマッチング手段と、
上記各カメラに対する上記撮影対象の相対的な位置関係を示す相対位置情報を生成する情報生成手段と、
上記マッチング手段により互いに対応付けされた画素位置並びにその輝度成分から、上記生成された相対位置情報に応じて、新たに生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める画像生成手段とを備えること
を特徴とする撮像装置。
Imaging means including at least three cameras for imaging a subject to be photographed from different angles;
Image correcting means for aligning at least one normal direction of each image captured by each camera with one direction;
Matching means for associating each image position with each other between the images corrected by the image correction means, in association with the photographing object;
Information generating means for generating relative position information indicating a relative positional relationship of the photographing object with respect to each camera;
Image generating means for obtaining a pixel position and its luminance component constituting a virtual viewpoint image to be newly generated according to the generated relative position information from the pixel position and its luminance component associated with each other by the matching means. An imaging apparatus comprising:
上記画像補正手段は、上記各カメラにより撮像された各画像の法線方向を仮想的に設定された仮想平面の法線方向に合わせること
を特徴とする請求項1記載の撮像装置。
The imaging apparatus according to claim 1, wherein the image correction unit matches a normal direction of each image captured by each camera with a normal direction of a virtually set virtual plane.
上記情報生成手段により生成された相対位置情報に応じて上記仮想平面を設定する仮想平面設定手段をさらに備えること
を特徴とする請求項2記載の撮像装置。
The imaging apparatus according to claim 2, further comprising a virtual plane setting unit that sets the virtual plane according to the relative position information generated by the information generation unit.
上記画像補正手段は、上記各カメラにより撮像された各画像を上記仮想平面へ射影するための射影変換行列を求め、求めた射影変換行列に基づいて上記各画像の法線方向を上記仮想平面の法線方向に合わせること
を特徴とする請求項2記載の撮像装置。
The image correction means obtains a projective transformation matrix for projecting each image captured by each camera onto the virtual plane, and based on the obtained projective transformation matrix, determines the normal direction of each image on the virtual plane. The imaging apparatus according to claim 2, wherein the imaging apparatus is aligned with a normal direction.
上記画像補正手段は、上記撮像手段におけるカメラが4台以上含まれている場合には、上記情報生成手段により生成された相対位置情報に基づいて3台のカメラを選択し、選択した3台のカメラにより撮像された各画像の法線方向を上記仮想平面の法線方向に合わせること
を特徴とする請求項1記載の撮像装置。
The image correction means selects three cameras based on the relative position information generated by the information generation means when four or more cameras in the imaging means are included, and selects the selected three cameras The imaging apparatus according to claim 1, wherein a normal direction of each image captured by the camera is matched with a normal direction of the virtual plane.
上記撮像手段は、上記各カメラの撮影方向及び/又は撮影画角を制御し、
上記画像補正手段は、上記撮影手段により制御された各カメラの撮影方向及び/又は撮影画角に基づいて、上記各カメラにより撮像された各画像の法線方向を上記仮想平面の法線方向に合わせること
を特徴とする請求項1記載の撮像装置。
The imaging means controls the shooting direction and / or shooting angle of view of each camera,
The image correction means sets the normal direction of each image captured by each camera to the normal direction of the virtual plane based on the shooting direction and / or the shooting angle of view of each camera controlled by the shooting means. The imaging device according to claim 1, wherein
撮影対象を少なくとも3台のカメラにより互いに異なる角度から撮像し、
上記各カメラにより撮像された各画像の法線方向を一方向に合わせる補正処理を施し、
上記補正処理を施した各画像間において、上記撮影対象と関連させつつ画素位置毎に対応付けを行い、
上記各カメラに対する上記撮影対象の相対的な位置関係を示す相対位置情報を生成し、
上記互いに対応付けた画素位置並びにその輝度成分から、上記生成した相対位置情報に応じて、新たに生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求めること
を特徴とする撮像方法。
Capture the subject to be photographed from different angles with at least three cameras,
Apply correction processing to align the normal direction of each image captured by each camera in one direction,
Between each image that has undergone the above correction processing, it is associated with each of the pixel positions while being associated with the subject to be imaged,
Generating relative position information indicating a relative positional relationship of the photographing object with respect to each of the cameras;
An imaging method comprising: obtaining a pixel position and a luminance component of a virtual viewpoint image to be newly generated from the pixel position and the luminance component associated with each other according to the generated relative position information.
JP2003376115A 2003-11-05 2003-11-05 Apparatus and method for imaging Withdrawn JP2005142765A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003376115A JP2005142765A (en) 2003-11-05 2003-11-05 Apparatus and method for imaging

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003376115A JP2005142765A (en) 2003-11-05 2003-11-05 Apparatus and method for imaging

Publications (1)

Publication Number Publication Date
JP2005142765A true JP2005142765A (en) 2005-06-02

Family

ID=34687286

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003376115A Withdrawn JP2005142765A (en) 2003-11-05 2003-11-05 Apparatus and method for imaging

Country Status (1)

Country Link
JP (1) JP2005142765A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011113206A (en) * 2009-11-25 2011-06-09 Nippon Telegr & Teleph Corp <Ntt> System and method for video image communication
JP2011165081A (en) * 2010-02-12 2011-08-25 Nippon Telegr & Teleph Corp <Ntt> Method and apparatus for generating image, and program
JP2013531309A (en) * 2010-06-29 2013-08-01 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and system for creating a virtual output image from data obtained by an array of image capture devices
JP2014138306A (en) * 2013-01-17 2014-07-28 Nippon Telegr & Teleph Corp <Ntt> Image generation method, image generation device, and image generation program
JP2015125493A (en) * 2013-12-25 2015-07-06 日本電信電話株式会社 Image generation method, image generation apparatus, and image generation program
CN106813595A (en) * 2017-03-20 2017-06-09 北京清影机器视觉技术有限公司 Three-phase unit characteristic point matching method, measuring method and three-dimensional detection device
JP2019071650A (en) * 2018-12-27 2019-05-09 キヤノン株式会社 Control device, control method, and program
KR20200060451A (en) * 2017-09-26 2020-05-29 아우디 아게 Method and system for conducting a virtual meeting between at least a first person and a second person
JPWO2019050038A1 (en) * 2017-09-11 2020-10-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Image generation method and image generation device

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011113206A (en) * 2009-11-25 2011-06-09 Nippon Telegr & Teleph Corp <Ntt> System and method for video image communication
JP2011165081A (en) * 2010-02-12 2011-08-25 Nippon Telegr & Teleph Corp <Ntt> Method and apparatus for generating image, and program
JP2013531309A (en) * 2010-06-29 2013-08-01 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and system for creating a virtual output image from data obtained by an array of image capture devices
JP2014138306A (en) * 2013-01-17 2014-07-28 Nippon Telegr & Teleph Corp <Ntt> Image generation method, image generation device, and image generation program
JP2015125493A (en) * 2013-12-25 2015-07-06 日本電信電話株式会社 Image generation method, image generation apparatus, and image generation program
WO2018171031A1 (en) * 2017-03-20 2018-09-27 北京清影机器视觉技术有限公司 Method for matching feature points of three-camera group, measurement method and three-dimensional detection apparatus
CN106813595A (en) * 2017-03-20 2017-06-09 北京清影机器视觉技术有限公司 Three-phase unit characteristic point matching method, measuring method and three-dimensional detection device
JPWO2019050038A1 (en) * 2017-09-11 2020-10-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Image generation method and image generation device
JP7387434B2 (en) 2017-09-11 2023-11-28 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Image generation method and image generation device
KR20200060451A (en) * 2017-09-26 2020-05-29 아우디 아게 Method and system for conducting a virtual meeting between at least a first person and a second person
JP2020535489A (en) * 2017-09-26 2020-12-03 アウディ アクチェンゲゼルシャフトAudi Ag Methods and systems for virtual conferences between at least the first person and the second person
US11277584B2 (en) 2017-09-26 2022-03-15 Audi Ag Method and system for carrying out a virtual meeting between at least a first person and a second person
JP7038217B2 (en) 2017-09-26 2022-03-17 アウディ アクチェンゲゼルシャフト Methods and systems for virtual conferencing between at least the first person and the second person
KR102445595B1 (en) * 2017-09-26 2022-09-20 아우디 아게 Method and system for conducting a virtual meeting between at least a first person and a second person
JP2019071650A (en) * 2018-12-27 2019-05-09 キヤノン株式会社 Control device, control method, and program

Similar Documents

Publication Publication Date Title
JP4069855B2 (en) Image processing apparatus and method
US7330584B2 (en) Image processing apparatus and method
CN104885125B (en) Information processing device, information processing system and information processing method
JP4057241B2 (en) Improved imaging system with virtual camera
JP4461739B2 (en) Imaging device
WO2017141584A1 (en) Information processing apparatus, information processing system, information processing method, and program
JP2009246408A (en) Interaction device, image processing module, image processing method, and program
JP6157077B2 (en) Display device with camera
JP2004193962A (en) Image communication equipment, image communication method, and computer program
JP2005142765A (en) Apparatus and method for imaging
JP4595313B2 (en) Imaging display apparatus and method, and image transmission / reception system
CN111246224A (en) Video live broadcast method and video live broadcast system
US20240015264A1 (en) System for broadcasting volumetric videoconferences in 3d animated virtual environment with audio information, and procedure for operating said device
JP2005117285A (en) Information input device, communication terminal and communication method
JP6004978B2 (en) Subject image extraction device and subject image extraction / synthesis device
CN119011796A (en) Processing method of environment image data in camera perspective VST, head display device and storage medium
US20240119676A1 (en) Image generation method, apparatus, and system, and computer-readable storage medium
KR20100134288A (en) Stereoscopic image system and stereoscopic image processing method
JPH11298872A (en) Video communication system
CN114531560B (en) Video calling method and device
JP4586447B2 (en) Image processing apparatus and method, and program
WO2017092369A1 (en) Head-mounted device, three-dimensional video call system and three-dimensional video call implementation method
CN113301321A (en) Imaging method, system, device, electronic equipment and readable storage medium
JP2006024141A (en) Image processor and image processing method and program
CN110602480A (en) Method, device and system for sharing scene by adopting augmented reality

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070109