JP2000348213A - Three-dimensional image generating device, three- dimensional image generating and display device, and method thereof and recording medium - Google Patents
Three-dimensional image generating device, three- dimensional image generating and display device, and method thereof and recording mediumInfo
- Publication number
- JP2000348213A JP2000348213A JP11159884A JP15988499A JP2000348213A JP 2000348213 A JP2000348213 A JP 2000348213A JP 11159884 A JP11159884 A JP 11159884A JP 15988499 A JP15988499 A JP 15988499A JP 2000348213 A JP2000348213 A JP 2000348213A
- Authority
- JP
- Japan
- Prior art keywords
- data
- color
- elements
- color data
- dimensional image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 128
- 230000008569 process Effects 0.000 claims description 11
- 230000010365 information processing Effects 0.000 claims description 8
- 239000000284 extract Substances 0.000 claims description 2
- 230000010354 integration Effects 0.000 claims description 2
- 230000008707 rearrangement Effects 0.000 claims 3
- 238000013500 data storage Methods 0.000 abstract description 7
- 238000006243 chemical reaction Methods 0.000 abstract description 5
- 239000007787 solid Substances 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 16
- 230000009466 transformation Effects 0.000 description 9
- 238000012545 processing Methods 0.000 description 8
- 230000015654 memory Effects 0.000 description 7
- 230000009467 reduction Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 5
- 230000001678 irradiating effect Effects 0.000 description 4
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 101100321669 Fagopyrum esculentum FA02 gene Proteins 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
Landscapes
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】対象物についての複数枚の画
像データから対象物の三次元データを生成する三次元画
像生成技術に関し、特に三次元画像生成装置、三次元画
像生成表示装置、及びその方法並びに記録媒体に関す
る。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional image generating technique for generating three-dimensional data of an object from a plurality of pieces of image data of the object, and more particularly to a three-dimensional image generating apparatus, a three-dimensional image generating and displaying apparatus, and a method thereof. And a recording medium.
【0002】[0002]
【従来の技術】従来より、各種の三次元画像の生成方法
として(1)〜(3)のようなものが知られている。 (1)QuickTime VRなど、多視点画像をそのまま利用す
るもの S.E.Chen: Quick Time VR - An Imaged-based Approach
to Virtual Environment Navigation, Proc. SIGGRAPH
95, pp.29-38で紹介されたQuickTimeVRとよばれる方法
では、一つの対象物について、非常に多くの視点から対
象を撮影しておき、そして、再生時には、ユーザの視点
の指定に応じて、対応する撮影視点の画像を表示する。
この方法は、対象物の形状を求めることなく、種々の視
点からの映像を再表示できるというメリットがある一
方、撮影視点以外の視点からの映像を再表示できないと
いう欠点がある。2. Description of the Related Art Conventionally, various methods for generating three-dimensional images have been known as (1) to (3). (1) Using multiple viewpoint images as they are, such as QuickTime VR SEChen: Quick Time VR-An Imaged-based Approach
to Virtual Environment Navigation, Proc.SIGGRAPH
In the method called QuickTimeVR introduced in 95, pp. 29-38, one object is photographed from a very large number of viewpoints, and during playback, according to the user's viewpoint specification , The corresponding image of the viewpoint is displayed.
This method has the advantage that images from various viewpoints can be redisplayed without obtaining the shape of the object, but has the disadvantage that images from viewpoints other than the imaging viewpoint cannot be redisplayed.
【0003】したがって、非常に細かい視点ステップで
の映像再表示が必要な場合、非常に多くの視点からの撮
影が必要であり、その結果、データ量が極めて大きくな
るという問題点がある。 (2)多視点画像を光線空間に変換するもの 藤井、原島:構造抽出に基づく三次元画像符号化, 画像
符号化シンポジウム(PCSJ94), pp.23-24、M.Levoy, P H
anrahan: Light Field Rendering, Proc. SIGGRAPH 96,
pp.31-42,及びS.J.Gortler et al. : The Lumigraph,
Proc. SIGGRAPH 96, pp.43-54などにより紹介された光
線空間法は、多くの視点から対象物を撮影しておく。そ
して対象に対し、離れた任意の場所にある基準面を設定
し、その基準面の各画素に対し、視野角のθφ空間を設
定し、この空間を前記各視点のθφに応じた色で埋め
る。再生時にはユーザの指定した視点に対し、前記基準
面から視点に応じてθφ空間データを良みだし、画像を
生成・表示する。この方法は、視点情報が極めて正確で
ある必要がある。Therefore, when it is necessary to redisplay an image at a very fine viewpoint step, it is necessary to shoot from a very large number of viewpoints, and as a result, the amount of data becomes extremely large. (2) Transform multi-view images into ray space Fujii, Harashima: 3D image coding based on structure extraction, Image coding symposium (PCSJ94), pp.23-24, M.Levoy, PH
anrahan: Light Field Rendering, Proc.SIGGRAPH 96,
pp. 31-42, and SJGortler et al .: The Lumigraph,
The ray space method introduced by Proc. SIGGRAPH 96, pp. 43-54, etc. captures an object from many viewpoints. Then, for the target, a reference plane at an arbitrary arbitrary position is set, and for each pixel on the reference plane, a θφ space of the viewing angle is set, and this space is filled with a color corresponding to the θφ of each viewpoint. . At the time of reproduction, for the viewpoint designated by the user, the θφ space data is retrieved from the reference plane according to the viewpoint, and an image is generated and displayed. This method requires that the viewpoint information be extremely accurate.
【0004】また、QuickTime VRと同様、非常に細かい
視点ステップでの映像再表示が必要な場合、保持すべき
画像データ量が非常に大きくなるという問題がある。ま
た、前記画像データは、高度に圧縮することで、ハード
ディスクなどメディアに記録する際の大きさをある程度
小さくすることは可能であるが、このデータを表示する
際に、例えばコンピュータのメモリに非圧縮状態で展開
する必要があり、この際のデータ量が非常に大きくなる
ことが避けられない。また、コンピュータのメモリに圧
縮状態で保持する場合、表示時に展開処理を行なう必要
があり、高速表示が困難となる。 (3)多視点画像から対象物の三次元モデルを一旦生成
し、各部分の色情報をテクスチャ画像として持たせるも
の この方法は、形状の各部分を例えばポリゴンなどで表現
し、三次元形状データを持つ。そして、これを現画像に
投影するなどして、そのテクスチャ(色彩)情報を取り
出す。再生時には、ユーザの指定した視点に対し、各ポ
リゴンの投影像を作り、かつ、そこにそれぞれポリゴン
の持つテクスチャ情報をマップすることで、画像を生成
・呈示する。この三次元モデリングによればデータ量が
かなり少なくて良く、任意の視点からの画像を再生する
ことができるというメリットがある。[0004] Further, similarly to QuickTime VR, when it is necessary to redisplay an image at a very fine viewpoint step, there is a problem that the amount of image data to be held becomes very large. The image data can be compressed to a high degree so that the size of the image data when recorded on a medium such as a hard disk can be reduced to some extent. It is necessary to develop in a state, and it is inevitable that the data amount at this time becomes very large. Further, when the compressed data is stored in the memory of the computer, it is necessary to perform a decompression process at the time of display, which makes high-speed display difficult. (3) A method in which a three-dimensional model of an object is once generated from a multi-view image and color information of each part is held as a texture image. have. Then, the texture (color) information is extracted by, for example, projecting this on the current image. At the time of reproduction, an image is generated and presented by creating a projection image of each polygon for a viewpoint designated by the user and mapping texture information of each polygon to the projection image. According to the three-dimensional modeling, there is an advantage that the data amount can be considerably small and an image can be reproduced from an arbitrary viewpoint.
【0005】そこで、対象物の周囲からカメラで複数の
画像を得、この画像から三次元モデリングを行なう手法
が各種提案されている。たとえば、ステレオ法やシルエ
ット法による形状推定などが代表的である。また、レー
ザ光などを対象物に照射し、これをカメラで観測して三
角測量原理によって対象物の形状を得る方法も広く使わ
れている。[0005] Therefore, various techniques have been proposed for obtaining a plurality of images from around the object with a camera and performing three-dimensional modeling from the images. For example, a shape estimation by a stereo method or a silhouette method is typical. In addition, a method of irradiating a target with a laser beam or the like, observing the target with a camera, and obtaining the shape of the target by the principle of triangulation is also widely used.
【0006】[0006]
【発明が解決しようとする課題】しかし、ステレオ法に
よる三次元モデリングは、対象物の表面に特徴がない場
合などに、三次元形状モデルが必ずしも正確に生成でき
ず、形状精度が十分高くできない場合がある。また、シ
ルエット法では、輪郭に現れない凹形状がモデリングで
きないという問題がある。更に、レーザ光を照射する方
法でも、自己隠蔽の問題などから、形状精度が不十分な
場合が存在する。However, in the three-dimensional modeling by the stereo method, when the surface of the object has no feature, the three-dimensional shape model cannot always be generated accurately and the shape accuracy cannot be sufficiently high. There is. Further, the silhouette method has a problem that a concave shape that does not appear in the contour cannot be modeled. Further, even with the method of irradiating a laser beam, there are cases where the shape accuracy is insufficient due to the problem of self-concealment and the like.
【0007】また、テクスチャ情報は、対象物の形状を
表現するポリゴンを撮影画像に投影して得るため、そも
そも対象物の形状が不正確な場合、テクスチャ情報は甚
だ不正確なものになってしまう。Further, since the texture information is obtained by projecting a polygon representing the shape of the object onto the photographed image, if the shape of the object is incorrect in the first place, the texture information becomes extremely inaccurate. .
【0008】更には、テクスチャ情報は対象物を撮像し
て得た画像から獲得することから、照明に依存して、各
部分の色情報が不正確になる場合も存在する。これらの
理由から、前記(3)の方法でも、対象物を各種視点か
ら表示した場合に、好適な形状/色彩再現ができない場
合がしばしば存在するという問題があった。Further, since the texture information is obtained from an image obtained by imaging the object, the color information of each portion may be inaccurate depending on the illumination. For these reasons, even in the method (3), when the object is displayed from various viewpoints, there is often a problem that a suitable shape / color cannot be reproduced.
【0009】従って、本発明は、三次元モデリングを行
なう手法において、表示画像の見た目を改善することが
できる画像生成、表示、データ保持を提供することを目
的とする。SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide an image generation, display, and data holding method capable of improving the appearance of a display image in a method of performing three-dimensional modeling.
【0010】また、表示時において、表示機器内でのメ
モリ使用量を小さく抑えつつ、高品質な表示を高速に行
なうことを目的とする。It is another object of the present invention to perform high-quality display at high speed while suppressing the amount of memory used in a display device during display.
【0011】[0011]
【課題を解決するための手段】本発明の三次元画像生成
装置は、対象物の複数枚の画像データから前記対象物の
三次元画像データを生成する三次元画像生成装置におい
て、前記対象物の三次元形状モデルデータを読み込むモ
デルデータ読み込み手段と、前記三次元形状モデルデー
タ及び対象物についての複数枚の画像データを用いて、
前記三次元モデルの表面についての色彩データを、複数
の方向から見たデータとして生成する色彩データ生成手
段と、を有することを特徴とする。According to the present invention, there is provided a three-dimensional image generating apparatus for generating three-dimensional image data of an object from a plurality of pieces of image data of the object. Model data reading means for reading the three-dimensional shape model data, using a plurality of image data for the three-dimensional shape model data and the object,
A color data generating unit configured to generate color data on the surface of the three-dimensional model as data viewed from a plurality of directions.
【0012】前記装置において、前記色彩データ生成手
段は、前記三次元モデルの表面を複数の要素に分割し、
これらの少なくとも一つの要素についての色彩情報を、
原画像である前記対象物についての複数枚の画像データ
から取り込むことで複数の方向から見たデータとして獲
得し、更にこれらの色彩情報を前記原画像とは別の領域
に再配置することで前記三次元画像データを生成するこ
とを特徴とする。In the apparatus, the color data generating means divides a surface of the three-dimensional model into a plurality of elements,
Color information about at least one of these elements
By acquiring from a plurality of pieces of image data of the object that is the original image, it is obtained as data viewed from a plurality of directions, and further, by re-arranging these color information in a region different from the original image, It is characterized by generating three-dimensional image data.
【0013】前記装置において、前記複数の要素は三角
形ポリゴンであり、前記別の領域に再配置する際に、直
角三角形に変換して前記色彩情報を再配置することを特
徴とする。In the above-mentioned apparatus, the plurality of elements are triangular polygons, and when rearranging the color information in the another area, the elements are converted into right triangles and the color information is rearranged.
【0014】前記装置において、前記複数の要素は三角
形ポリゴンであり、前記別の領域に再配置する際に、二
つの短辺長が2の冪(べき)であるような直角三角形に
変換して前記色彩情報を再配置することを特徴とする。In the above apparatus, the plurality of elements are triangular polygons, and when rearranged in the another area, the elements are converted into right-angled triangles whose two short side lengths are powers of two. The color information is rearranged.
【0015】前記装置において、前記複数の要素は四角
形ポリゴンであり、前記別の領域に再配置する際に、長
方形に変換して前記色彩情報を再配置することを特徴と
する。In the above-mentioned apparatus, the plurality of elements are quadrangular polygons, and when rearranging in the another area, the plurality of elements are converted into rectangles and the color information is rearranged.
【0016】前記装置において、前記色彩情報を前記別
の領域に再配置する際に、前記要素の辺の長さに基づい
た並べ替え処理して再配置することを特徴とする。In the above apparatus, when the color information is rearranged in the another area, the color information is rearranged by rearranging the elements based on the length of a side of the element.
【0017】前記装置において、前記複数の要素の大き
さに一定の制限を持たせることを特徴とする。In the above-mentioned device, the size of the plurality of elements may have a certain limit.
【0018】前記装置において、前記複数の要素の大き
さに一定の制限を持たせ、制限を越える要素に関しては
制限を満たすよう再分割することを特徴とする。In the above apparatus, the size of the plurality of elements may be given a certain limit, and elements exceeding the limit may be subdivided so as to satisfy the limit.
【0019】前記装置において、前記複数の要素の大き
さに一定の制限を持たせ、制限を越える要素に関しては
制限を満たすよう縮小することを特徴とする。In the above-mentioned apparatus, the size of the plurality of elements is given a certain limit, and an element exceeding the limit is reduced to satisfy the limit.
【0020】前記装置において、前記色彩データ生成手
段は、前記三次元モデルの表面を複数の要素に分割し、
全ての要素について、三次元モデルの表面についての色
彩データを単一の方向から見たデータととして生成する
とともに、分割された複数の要素から、更にこれら要素
の一部分を選択し、この一部分の要素については、三次
元モデルの表面についての色彩データを複数の方向から
見たデータとしても生成することを特徴とする。In the apparatus, the color data generating means divides a surface of the three-dimensional model into a plurality of elements,
For all the elements, the color data on the surface of the three-dimensional model is generated as data viewed from a single direction, and a part of these elements is further selected from a plurality of divided elements, and the elements of this part are selected. Is characterized in that color data on the surface of the three-dimensional model is also generated as data viewed from a plurality of directions.
【0021】前記装置において、前記一部分の要素の選
択は、前記要素を複数の方向から見た際の色彩情報相互
の類似性に基づいて行なうことを特徴とする。In the above apparatus, the selection of the part of the element is performed based on the similarity of the color information when the element is viewed from a plurality of directions.
【0022】前記装置において、前記類似性は、前記要
素を複数の方向から見た際の色彩情報を、一定の範囲内
で並行移動させて評価することを特徴とする。In the above apparatus, the similarity is characterized in that color information when the element is viewed from a plurality of directions is evaluated by moving the color information in parallel within a certain range.
【0023】前記装置において、前記類似性は、前記要
素を複数の方向から見た際の色彩情報の明るさを補正し
て評価することを特徴とする。In the apparatus, the similarity is evaluated by correcting the brightness of color information when the element is viewed from a plurality of directions.
【0024】前記装置において、前記複数の方向から見
たデータとして生成する色彩データは、見る方向、即ち
視線情報に関連づけられていることを特徴とする。In the above apparatus, the color data generated as the data viewed from the plurality of directions is associated with a viewing direction, that is, eye-gaze information.
【0025】前記装置は、更に、前記複数の方向から見
たデータとして生成する色彩データのうち、相互に類似
性の高いものを抽出する、類似色彩データ抽出手段と、
これら類似色彩データから代表を決定する、代表色彩デ
ータ決定手段と、代表以外の色彩データには、代表色彩
データを参照するための参照関係情報を持たせる参照関
係情報付与手段と、を備えることを特徴とする。The apparatus further comprises a similar color data extracting means for extracting color data having high similarity among color data generated as the data viewed from the plurality of directions,
A representative color data determining means for determining a representative from these similar color data, and a reference relation information providing means for giving reference relation information for referencing the representative color data to the color data other than the representative, comprising: Features.
【0026】前記装置において、前記視線情報に関連づ
けられて生成された色彩データは、同一視線毎にグルー
プ化して生成することを特徴とする。In the above-mentioned apparatus, the color data generated in association with the line-of-sight information is generated by grouping for each same line of sight.
【0027】前記装置において、前記同一視線毎にグル
ープ化して生成された色彩データは、グループ毎に圧縮
されることを特徴とする。In the above apparatus, the color data generated by grouping the same line of sight is compressed for each group.
【0028】前記装置において、前記複数の方向から見
たデータとして生成された色彩データは、前記単一の方
向から見たデータとして生成された色彩データに対する
類似性に基づいて階層化されて生成されることを特徴と
する。In the above-mentioned apparatus, the color data generated as the data viewed from the plurality of directions is hierarchically generated based on the similarity to the color data generated as the data viewed from the single direction. It is characterized by that.
【0029】更に、本発明の三次元画像生成表示装置
は、対象物についての三次元画像データを生成表示する
三次元画像生成表示装置において、表示のための仮想視
点位置を得る手段と、前記位置に応じて、異なる色彩デ
ータを選択する色彩データ選択手段と、を備えることを
特徴とする。Further, the three-dimensional image generating and displaying apparatus according to the present invention is a three-dimensional image generating and displaying apparatus for generating and displaying three-dimensional image data on an object, wherein: a means for obtaining a virtual viewpoint position for display; And color data selection means for selecting different color data according to
【0030】前記装置において、前記色彩データは、対
象三次元モデルの表面を複数の方向から見たデータとし
て生成されていることを特徴とする。In the apparatus, the color data is generated as data obtained by viewing the surface of the target three-dimensional model from a plurality of directions.
【0031】前記装置において、表示対象となる三次元
モデルの表面は複数の要素に分割され、これらの少なく
ともひとつに対して、前記色彩データは、対象三次元モ
デルの表面を複数の方向から見たデータとして生成され
ていることを特徴とする。In the above apparatus, the surface of the three-dimensional model to be displayed is divided into a plurality of elements, and for at least one of the elements, the color data is obtained by viewing the surface of the three-dimensional model from a plurality of directions. It is characterized by being generated as data.
【0032】前記装置において、前記分割された複数の
要素は全て、単一の方向から見たデータととして生成さ
れた色彩データを割り当てられていると共に、一部の要
素については、複数の方向から見たデータととして生成
された色彩データをも割り当てられており、前記色彩デ
ータ選択手段は、前記分割された複数の要素毎に、前記
表示のための仮想視点の移動量、或いは、前記表示対象
物の移動量が一定値以上の場合は、全ての要素について
単一の方向から見たデータととして生成されている色彩
データを選択し、前記移動量が一定値以下の場合は、前
記一部の要素については、複数の方向から見たデータと
して生成されている色彩データから適宜選択することを
特徴とする。In the above-mentioned apparatus, the plurality of divided elements are all assigned color data generated as data viewed from a single direction, and some of the elements are divided from a plurality of directions. The color data generated as the viewed data is also assigned, and the color data selection means is configured to move the virtual viewpoint for display or the display object for each of the plurality of divided elements. If the movement amount of the object is equal to or more than a certain value, select the color data generated as data viewed from a single direction for all the elements, and if the movement amount is equal to or less than a certain value, select the part. Is characterized by being appropriately selected from color data generated as data viewed from a plurality of directions.
【0033】前記装置において、前記色彩データ選択手
段は、各要素に対して複数の色彩データを選択し、これ
らを統合処理して前記要素に対する色彩データを生成す
ることを特徴とする。In the above apparatus, the color data selecting means may select a plurality of pieces of color data for each element, and integrate them to generate color data for the element.
【0034】前記装置において、前記色彩データは、見
る方向、即ち視線情報に関連づけられて生成され、更
に、同一視線毎にグループ化され圧縮されており、前記
表示のための仮想視点に応じて、適切な視線情報に対応
した少なくともひとつのグループの色彩データを展開し
て表示することを特徴とする。In the apparatus, the color data is generated in association with a viewing direction, that is, line-of-sight information, is further grouped and compressed for each line-of-sight, and according to a virtual viewpoint for the display, The color data of at least one group corresponding to appropriate line-of-sight information is developed and displayed.
【0035】本発明の三次元画像生成方法は、対象物の
複数枚の画像データから前記対象物の三次元画像データ
を生成する三次元画像生成方法において、前記対象物の
三次元形状モデルデータを読み込むモデルデータ読み込
み工程と、前記三次元形状モデルデータ及び対象物につ
いての複数枚の画像データを用いて、前記三次元モデル
の表面についての色彩データを、複数の方向から見たデ
ータとして色彩データを生成する工程と、を有すること
を特徴とする。The three-dimensional image generating method of the present invention is a three-dimensional image generating method for generating three-dimensional image data of an object from a plurality of pieces of image data of the object. Using the read model data reading step and the three-dimensional shape model data and a plurality of pieces of image data on the object, color data on the surface of the three-dimensional model is converted into color data as data viewed from a plurality of directions. And a generating step.
【0036】前記方法において、前記色彩データを生成
する工程は、前記三次元モデルの表面を複数の要素に分
割し、これらの少なくとも一つの要素についての色彩情
報を、原画像である前記対象物についての複数枚の画像
データから取り込むことで複数の方向から見たデータと
して獲得し、更にこれらの色彩情報を前記原画像とは別
の領域に再配置することで前記三次元画像データを生成
することを特徴とする。In the method, the step of generating the color data may include dividing the surface of the three-dimensional model into a plurality of elements, and converting the color information of at least one of these elements into an original image of the object. The three-dimensional image data is obtained by acquiring as data viewed from a plurality of directions by taking in from a plurality of pieces of image data, and further relocating these color information to an area different from the original image. It is characterized by.
【0037】前記方法において、前記複数の要素は三角
形ポリゴンであり、前記別の領域に再配置する際に、直
角三角形に変換して前記色彩情報を再配置することを特
徴とする。[0037] In the above method, the plurality of elements are triangular polygons, and when rearranging in the another area, the color information is converted to a right triangle and the color information is rearranged.
【0038】前記方法において、前記複数の要素は三角
形ポリゴンであり、前記別の領域に再配置する際に、二
つの短辺長が2の冪(べき)であるような直角三角形に
変換して前記色彩情報を再配置することを特徴とする。In the above method, the plurality of elements are triangular polygons, and when rearranged in the another area, are converted into right-angled triangles whose two short side lengths are powers of two. The color information is rearranged.
【0039】前記方法において、前記複数の要素は四角
形ポリゴンであり、前記別の領域に再配置する際に、長
方形に変換して前記色彩情報を再配置することを特徴と
する。In the above method, the plurality of elements are quadrangular polygons, and when relocating to the another area, the elements are converted into rectangles and the color information is relocated.
【0040】前記方法において、前記色彩情報を前記別
の領域に再配置する際に、前記要素の辺の長さに基づい
た並べ替え処理して再配置することを特徴とする。In the above method, when the color information is rearranged in the another area, the color information is rearranged by rearranging the elements based on the length of a side of the element.
【0041】前記方法において、前記複数の要素の大き
さに一定の制限を持たせることを特徴とする。In the above method, the size of the plurality of elements may have a certain limit.
【0042】前記方法において、前記複数の要素の大き
さに一定の制限を持たせ、制限を越える要素に関しては
制限を満たすよう再分割することを特徴とする。The above method is characterized in that a certain limit is imposed on the size of the plurality of elements, and an element exceeding the limit is re-divided so as to satisfy the limit.
【0043】前記方法において、前記複数の要素の大き
さに一定の制限を持たせ、制限を越える要素に関しては
制限を満たすよう縮小することを特徴とする。The method is characterized in that a certain limit is imposed on the size of the plurality of elements, and an element exceeding the limit is reduced to satisfy the limit.
【0044】前記方法において、前記色彩データを生成
する工程は、前記三次元モデルの表面を複数の要素に分
割し、全ての要素について、三次元モデルの表面につい
ての色彩データを単一の方向から見たデータととして生
成するとともに、分割された複数の要素から、更にこれ
ら要素の一部分を選択し、この一部分の要素について
は、三次元モデルの表面についての色彩データを複数の
方向から見たデータとしても生成することを特徴とす
る。In the above method, the step of generating the color data includes dividing the surface of the three-dimensional model into a plurality of elements, and converting the color data of the surface of the three-dimensional model from all directions into a single direction. In addition to the data generated as viewed data, a part of these elements is further selected from the plurality of divided elements, and the color data on the surface of the three-dimensional model is viewed from a plurality of directions for some of these elements. Is also generated.
【0045】前記方法において、前記一部分の要素の選
択は、前記要素を複数の方向から見た際の色彩情報相互
の類似性に基づいて行なうことを特徴とする。[0045] In the above method, the selection of the element of the part is performed based on the similarity of the color information when the element is viewed from a plurality of directions.
【0046】前記方法において、前記類似性は、前記要
素を複数の方向から見た際の色彩情報を、一定の範囲内
で並行移動させて評価することを特徴とする。In the above method, the similarity is characterized in that color information when the element is viewed from a plurality of directions is evaluated by moving the color information in parallel within a certain range.
【0047】前記方法において、前記類似性は、前記要
素を複数の方向から見た際の色彩情報の明るさを補正し
て評価することを特徴とする。In the above method, the similarity is evaluated by correcting the brightness of the color information when the element is viewed from a plurality of directions.
【0048】前記方法において、前記複数の方向から見
たデータとして生成する色彩データは、見る方向、即ち
視線情報に関連づけられていることを特徴とする。In the above method, the color data generated as the data viewed from the plurality of directions is characterized in that it is associated with the viewing direction, that is, the line-of-sight information.
【0049】前記方法は、更に、前記複数の方向から見
たデータとして生成する色彩データのうち、相互に類似
性の高いものを抽出する、類似色彩データを抽出する工
程と、これら類似色彩データから代表色彩データを決定
する工程と、代表以外の色彩データには、代表色彩デー
タを参照するための参照関係情報を持たせる参照関係情
報を付与する工程と、を備えることを特徴とする。The method further comprises the step of extracting similar color data from among the color data generated as the data viewed from the plurality of directions and extracting similar color data. It is characterized by comprising a step of determining representative color data and a step of giving reference relationship information to color data other than the representative to have reference relationship information for referring to the representative color data.
【0050】前記方法において、前記視線情報に関連づ
けられて生成された色彩データは、同一視線毎にグルー
プ化して生成することを特徴とする。In the above method, the color data generated in association with the line-of-sight information is generated by grouping for each same line of sight.
【0051】前記方法において、前記同一視線毎にグル
ープ化して生成された色彩データは、グループ毎に圧縮
されることを特徴とする。[0051] In the above method, the color data generated by grouping for the same line of sight is compressed for each group.
【0052】前記方法において、前記複数の方向から見
たデータとして生成された色彩データは、前記単一の方
向から見たデータとして生成された色彩データに対する
類似性に基づいて階層化されて生成されることを特徴と
する。In the above method, the color data generated as the data viewed from the plurality of directions is hierarchically generated based on the similarity to the color data generated as the data viewed from the single direction. It is characterized by that.
【0053】本発明の三次元画像生成表示方法は、対象
物についての三次元画像データを生成表示する三次元画
像生成表示方法において、表示のための仮想視点位置を
得る工程と、前記位置に応じて、異なる色彩データを選
択する工程と、を備えることを特徴とする。A three-dimensional image generation and display method according to the present invention is a three-dimensional image generation and display method for generating and displaying three-dimensional image data of an object, wherein a step of obtaining a virtual viewpoint position for display is provided. And selecting different color data.
【0054】前記表示方法において、前記色彩データ
は、対象三次元モデルの表面を複数の方向から見たデー
タとして生成されていることを特徴とする。In the display method, the color data is generated as data obtained by viewing the surface of the target three-dimensional model from a plurality of directions.
【0055】前記表示方法において、表示対象となる三
次元モデルの表面は複数の要素に分割され、これらの少
なくともひとつに対して、前記色彩データは、対象三次
元モデルの表面を複数の方向から見たデータとして生成
されていることを特徴とする。In the display method, the surface of the three-dimensional model to be displayed is divided into a plurality of elements, and for at least one of the elements, the color data is obtained by viewing the surface of the three-dimensional model from a plurality of directions. Characterized by being generated as data.
【0056】前記表示方法において、前記分割された複
数の要素は全て、単一の方向から見たデータととして生
成された色彩データを割り当てられていると共に、一部
の要素については、複数の方向から見たデータととして
生成された色彩データをも割り当てられており、前記色
彩データを選択する工程は、前記分割された複数の要素
毎に、前記表示のための仮想視点の移動量、或いは、前
記表示対象物の移動量が一定値以上の場合は、全ての要
素について単一の方向から見たデータととして生成され
ている色彩データを選択し、前記移動量が一定値以下の
場合は、前記一部の要素については、複数の方向から見
たデータとして生成されている色彩データから適宜選択
することを特徴とする。In the display method, the plurality of divided elements are all assigned color data generated as data viewed from a single direction. The color data generated as data viewed from is also assigned, and the step of selecting the color data includes, for each of the plurality of divided elements, a moving amount of the virtual viewpoint for the display, or When the moving amount of the display object is equal to or more than a certain value, color data generated as data viewed from a single direction for all elements is selected, and when the moving amount is equal to or less than a certain value, The above-mentioned some elements are appropriately selected from color data generated as data viewed from a plurality of directions.
【0057】前記表示方法において、前記色彩データを
選択する工程は、各要素に対して複数の色彩データを選
択し、これらを統合処理して前記要素に対する色彩デー
タを生成することを特徴とする。In the display method, the step of selecting the color data is characterized in that a plurality of color data are selected for each element, and these are integrated to generate color data for the element.
【0058】前記表示方法において、前記色彩データ
は、見る方向、即ち視線情報に関連づけられて生成さ
れ、更に、同一視線毎にグループ化され圧縮されてお
り、前記表示のための仮想視点に応じて、適切な視線情
報に対応した少なくともひとつのグループの色彩データ
を展開して表示することを特徴とする。In the display method, the color data is generated in association with a viewing direction, that is, line-of-sight information, is further grouped for each same line-of-sight, and is compressed, according to a virtual viewpoint for the display. The color data of at least one group corresponding to appropriate line-of-sight information is developed and displayed.
【0059】本発明の記録媒体は、対象物の複数枚の画
像データから前記対象物の三次元画像データを生成する
プログラムを記憶する情報処理装置が読み取り可能な記
録媒体であって、前記プログラムは前記情報処理装置に
対して、前記対象物の三次元形状モデルデータを読み込
み、前記三次元形状モデルデータ及び対象物についての
複数枚の画像データを用いて、前記三次元モデルの表面
についての色彩データを、複数の方向から見たデータと
して色彩データを生成する、ことを特徴とする。A recording medium according to the present invention is a recording medium readable by an information processing apparatus for storing a program for generating three-dimensional image data of an object from a plurality of pieces of image data of the object. For the information processing device, read the three-dimensional shape model data of the object, using the three-dimensional shape model data and a plurality of image data of the object, color data on the surface of the three-dimensional model Is generated as data viewed from a plurality of directions.
【0060】前記記録媒体において、前記三次元モデル
の表面を複数の要素に分割し、これらの少なくとも一つ
の要素についての色彩情報を、原画像である前記対象物
についての複数枚の画像データから取り込むことで複数
の方向から見たデータとして獲得し、更にこれらの色彩
情報を前記原画像とは別の領域に再配置することで前記
三次元画像データを生成することを特徴とする。In the recording medium, the surface of the three-dimensional model is divided into a plurality of elements, and color information on at least one of these elements is fetched from a plurality of pieces of image data on the object as an original image. Thus, the three-dimensional image data is obtained by acquiring the data as data viewed from a plurality of directions, and relocating the color information to a region different from the original image.
【0061】前記記録媒体において、前記複数の要素は
三角形ポリゴンであり、前記別の領域に再配置する際
に、直角三角形に変換して前記色彩情報を再配置するこ
とを特徴とする。[0061] In the above-mentioned recording medium, the plurality of elements are triangular polygons, and when rearranging in the another area, the color information is converted to a right triangle and rearranged.
【0062】前記記録媒体において、前記複数の要素は
三角形ポリゴンであり、前記別の領域に再配置する際
に、二つの短辺長が2の冪(べき)であるような直角三
角形に変換して前記色彩情報を再配置することを特徴と
する。In the recording medium, the plurality of elements are triangular polygons, and when rearranging in the another area, the elements are converted into a right-angled triangle whose short side length is a power of two. And rearranging the color information.
【0063】前記記録媒体において、前記複数の要素は
四角形ポリゴンであり、前記別の領域に再配置する際
に、長方形に変換して前記色彩情報を再配置することを
特徴とする。[0063] In the above-mentioned recording medium, the plurality of elements are quadrangular polygons, and when relocating to the another area, the elements are converted into rectangles and the color information is relocated.
【0064】前記記録媒体において、前記色彩情報を前
記別の領域に再配置する際に、前記要素の辺の長さに基
づいた並べ替え処理して再配置することを特徴とする。In the recording medium, when the color information is rearranged in the another area, the color information is rearranged by rearranging the elements based on the length of a side of the element.
【0065】前記記録媒体において、前記複数の要素の
大きさに一定の制限を持たせることを特徴とする。In the above-mentioned recording medium, it is characterized in that the size of the plurality of elements has a certain limit.
【0066】前記記録媒体において、前記複数の要素の
大きさに一定の制限を持たせ、制限を越える要素に関し
ては制限を満たすよう再分割することを特徴とする。The recording medium is characterized in that the size of the plurality of elements is given a certain limit, and elements exceeding the limit are subdivided so as to satisfy the limit.
【0067】前記記録媒体において、前記複数の要素の
大きさに一定の制限を持たせ、制限を越える要素に関し
ては制限を満たすよう縮小することを特徴とする。The recording medium is characterized in that the size of the plurality of elements is given a certain limit, and elements exceeding the limit are reduced to satisfy the limit.
【0068】前記記録媒体において、前記三次元モデル
の表面を複数の要素に分割し、全ての要素について、三
次元モデルの表面についての色彩データを単一の方向か
ら見たデータととして生成するとともに、分割された複
数の要素から、更にこれら要素の一部分を選択し、この
一部分の要素については、三次元モデルの表面について
の色彩データを複数の方向から見たデータとしても生成
することを特徴とする。In the recording medium, the surface of the three-dimensional model is divided into a plurality of elements, and for all the elements, color data on the surface of the three-dimensional model is generated as data viewed from a single direction. And selecting a part of these elements from the plurality of divided elements, and generating color data on the surface of the three-dimensional model as data viewed from a plurality of directions with respect to some of these elements. I do.
【0069】前記記録媒体において、前記一部分の要素
の選択は、前記要素を複数の方向から見た際の色彩情報
相互の類似性に基づいて行なうことを特徴とする。[0069] In the above-mentioned recording medium, the selection of the element of the part is performed based on the similarity of color information when the element is viewed from a plurality of directions.
【0070】前記記録媒体において、前記類似性は、前
記要素を複数の方向から見た際の色彩情報を、一定の範
囲内で並行移動させて評価することを特徴とする。In the above-mentioned recording medium, the similarity is characterized in that color information when the element is viewed from a plurality of directions is evaluated by moving the color information in parallel within a certain range.
【0071】前記記録媒体において、前記類似性は、前
記要素を複数の方向から見た際の色彩情報の明るさを補
正して評価することを特徴とする。In the above-mentioned recording medium, the similarity is evaluated by correcting the brightness of the color information when the element is viewed from a plurality of directions.
【0072】前記記録媒体において、前記複数の方向か
ら見たデータとして生成する色彩データは、見る方向、
即ち視線情報に関連づけられていることを特徴とする。In the recording medium, the color data generated as the data viewed from the plurality of directions includes a viewing direction,
That is, it is characterized by being associated with the line-of-sight information.
【0073】前記記録媒体は、更に、前記複数の方向か
ら見たデータとして生成する色彩データのうち、相互に
類似性の高いものを抽出し、これら類似色彩データから
代表を決定し、代表以外の色彩データには、代表色彩デ
ータを参照するための参照関係情報を持たせることを特
徴とする。The recording medium further extracts color data having a high similarity among the color data generated as the data viewed from the plurality of directions, determines a representative from the similar color data, and determines a representative other than the representative. The color data is characterized by having reference relation information for referring to the representative color data.
【0074】前記記録媒体において、前記視線情報に関
連づけられて生成された色彩データは、同一視線毎にグ
ループ化して生成することを特徴とする。In the recording medium, the color data generated in association with the line-of-sight information is generated by grouping for each same line of sight.
【0075】前記記録媒体において、前記同一視線毎に
グループ化して生成された色彩データは、グループ毎に
圧縮されることを特徴とする。In the above-mentioned recording medium, the color data generated by grouping for each line of sight is compressed for each group.
【0076】前記記録媒体において、前記複数の方向か
ら見たデータとして生成された色彩データは、前記単一
の方向から見たデータとして生成された色彩データに対
する類似性に基づいて階層化されて生成されることを特
徴とする。[0076] In the recording medium, the color data generated as the data viewed from the plurality of directions is hierarchized based on the similarity to the color data generated as the data viewed from the single direction. It is characterized by being performed.
【0077】更に、本発明の記録媒体は、対象物につい
ての三次元画像データを生成表示する三次元画像生成表
示プログラムを記憶する、情報処理装置が読みとり可能
な記録媒体であって、前記プログラムは、前記情報処理
装置に対して、指示された表示のための仮想視点位置に
応じて、異なる色彩データを選択することを特徴とす
る。Further, a recording medium of the present invention is a recording medium readable by an information processing apparatus for storing a three-dimensional image generation and display program for generating and displaying three-dimensional image data of an object. According to another aspect of the present invention, different color data is selected for the information processing apparatus in accordance with a designated virtual viewpoint position for display.
【0078】前記記録媒体において、前記色彩データ
は、対象三次元モデルの表面を複数の方向から見たデー
タとして生成されていることを特徴とする。In the above-mentioned recording medium, the color data is generated as data obtained by viewing the surface of the target three-dimensional model from a plurality of directions.
【0079】前記記録媒体において、表示対象となる三
次元モデルの表面は複数の要素に分割され、これらの少
なくともひとつに対して、前記色彩データは、対象三次
元モデルの表面を複数の方向から見たデータとして生成
されていることを特徴とする。In the recording medium, the surface of the three-dimensional model to be displayed is divided into a plurality of elements, and for at least one of these, the color data is obtained by viewing the surface of the three-dimensional model from a plurality of directions. Characterized by being generated as data.
【0080】前記記録媒体において、前記分割された複
数の要素は全て、単一の方向から見たデータとして生成
された色彩データを割り当てられていると共に、一部の
要素については、複数の方向から見たデータとして生成
された色彩データをも割り当てられており、前記色彩デ
ータの選択は、前記分割された複数の要素毎に、前記表
示のための仮想視点の移動量、或いは、前記表示対象物
の移動量が一定値以上の場合は、全ての要素について単
一の方向から見たデータとして生成されている色彩デー
タを選択し、前記移動量が一定値以下の場合は、前記一
部の要素については、複数の方向から見たデータとして
生成されている色彩データから適宜選択することを特徴
とする。In the recording medium, color data generated as data viewed from a single direction is assigned to all of the plurality of divided elements, and some of the elements are viewed from a plurality of directions. The color data generated as the viewed data is also assigned, and the selection of the color data is based on the moving amount of the virtual viewpoint for the display or the display object for each of the plurality of divided elements. If the amount of movement is equal to or more than a certain value, color data generated as data viewed from a single direction for all elements is selected. Is characterized by appropriately selecting from color data generated as data viewed from a plurality of directions.
【0081】前記記録媒体において、前記色彩データの
選択は、各要素に対して複数の色彩データを選択し、こ
れらを統合処理して前記要素に対する色彩データを生成
することを特徴とする。In the recording medium, the selection of the color data is characterized in that a plurality of color data is selected for each element, and these are integrated to generate color data for the element.
【0082】前記記録媒体において、前記色彩データ
は、見る方向、即ち視線情報に関連づけられて生成さ
れ、更に、同一視線毎にグループ化され圧縮されてお
り、前記表示のための仮想視点に応じて、適切な視線情
報に対応した少なくともひとつのグループの色彩データ
を展開して表示することを特徴とする。In the recording medium, the color data is generated in association with a viewing direction, that is, line-of-sight information, is further grouped for each same line-of-sight, and is compressed, according to the virtual viewpoint for the display. The color data of at least one group corresponding to appropriate line-of-sight information is developed and displayed.
【0083】[0083]
【発明の実施の形態】以下、本発明の実施の形態(以下
「実施形態」という。)について、図面に基づいて説明
する。Embodiments of the present invention (hereinafter referred to as "embodiments") will be described below with reference to the drawings.
【0084】図1、2、及び3は、一実施形態に係る画
像データ生成装置、及び再生装置の構成を示すブロック
図である。FIGS. 1, 2 and 3 are block diagrams showing the configurations of an image data generating apparatus and a reproducing apparatus according to one embodiment.
【0085】まず、データ生成部について説明する。図
1を参照して、画像入力部10は、対象物を撮影し、こ
の画像データを生成する。この画像入力部10は複数の
カラーCCDカメラ(以下「カメラ44」という。)など
からなり、複数方向からの対象物のカラー画像データを
得る。First, the data generator will be described. Referring to FIG. 1, image input unit 10 captures an image of an object and generates image data. The image input unit 10 includes a plurality of color CCD cameras (hereinafter, referred to as “cameras 44”) and the like, and obtains color image data of an object from a plurality of directions.
【0086】また、図4に示すようにカメラ44、又は
対象物46を移動(例えば回転台40に載せて回転)さ
せて、カメラ44を一つとして複数の方向から対象物4
6の画像データを得ても良い。Further, as shown in FIG. 4, the camera 44 or the object 46 is moved (for example, put on the turntable 40 and rotated), so that the camera 44 or the object
6 may be obtained.
【0087】更に、カメラ44を縦方向に移動させる手
段42を持ち、対象物46を任意の俯瞰角度から撮影で
きるようにしておくことも好適である。以下、このよう
にして入力された画像を「物体画像」、或いは「入力画
像」と呼ぶ。Further, it is also preferable to have means 42 for moving the camera 44 in the vertical direction so that the object 46 can be photographed from an arbitrary bird's-eye view angle. Hereinafter, the image input in this manner is referred to as an “object image” or an “input image”.
【0088】もちろん、画像入力部10は、別の装置で
撮影され、なんらかの媒体に記録された物体画像を読み
込むことで、本装置に画像を入力するものであっても良
い。Of course, the image input unit 10 may input an image to the apparatus by reading an object image captured by another apparatus and recorded on some medium.
【0089】画像入力部10により得られた画像データ
は、立体形状入力部12に入力される。The image data obtained by the image input unit 10 is input to the three-dimensional shape input unit 12.
【0090】この立体形状入力部12は、複数の位置か
ら撮影した対象物についての複数画像データに基づい
て、三次元モデリングを行ない、対象物の三次元形状デ
ータを得る。この三次元モデリングには、例えば特開平
10−124704号公報に記載されている手法が用い
られる。The three-dimensional shape input unit 12 performs three-dimensional modeling based on a plurality of image data of the object photographed from a plurality of positions to obtain three-dimensional shape data of the object. For the three-dimensional modeling, for example, a method described in Japanese Patent Application Laid-Open No. H10-124704 is used.
【0091】もちろん、立体形状入力部12は、別の機
器によって得られた対象物の立体形状データを入力する
ものであっても良いし、なんらかの媒体に記録された形
状データを読み込むことで、本装置に立体形状データを
入力するものであっても良い。このような場合の装置の
構成を示すブロック図が図2である。The three-dimensional shape input unit 12 may of course input the three-dimensional shape data of the object obtained by another device, or may read the shape data recorded on some medium to read the three-dimensional shape data. The three-dimensional shape data may be input to the device. FIG. 2 is a block diagram showing the configuration of the device in such a case.
【0092】また、画像データは色彩情報変換部14に
も供給される。この色彩情報変換部14は三次元形状デ
ータの各位置に関連づけて色彩情報を生成する。The image data is also supplied to the color information converter 14. The color information conversion unit 14 generates color information in association with each position of the three-dimensional shape data.
【0093】そして、三次元形状データと、これに関連
づけられた色彩情報が、データ記憶部16に供給され、
ここに記憶される。このデータ記憶部16には、各種の
メモリが利用される。このようにして、画像入力部10
において得た対象物についての複数の画像データに基づ
き、三次元形状データと色彩情報を得ることができる。Then, the three-dimensional shape data and the color information associated therewith are supplied to the data storage unit 16,
It is stored here. Various memories are used for the data storage unit 16. Thus, the image input unit 10
It is possible to obtain three-dimensional shape data and color information based on a plurality of pieces of image data on the object obtained in.
【0094】次に、データ再生部について説明する。図
3を参照して、データ記憶部16から読み出された画像
データは、映像生成部30に供給され、ここでユーザの
指定などに応じた各種視点における対象物の映像データ
が生成される。そして、この映像データに基づき映像表
示部32が対象物の映像を表示する。映像表示部32に
はCRT、LCDなどの各種ディスプレイ装置が利用される。Next, the data reproducing section will be described. Referring to FIG. 3, the image data read from data storage unit 16 is supplied to video generation unit 30, where video data of an object at various viewpoints according to a user's designation or the like is generated. Then, the video display unit 32 displays the video of the target based on the video data. Various display devices such as a CRT and an LCD are used for the video display unit 32.
【0095】尚、立体形状入力部12、色情報変換部1
4、データ記憶部16、及び映像生成部30はパーソナ
ルコンピュータなどで構成される。The three-dimensional shape input unit 12 and the color information conversion unit 1
4. The data storage unit 16 and the video generation unit 30 are configured by a personal computer or the like.
【0096】ここで、立体形状入力部12の動作の具体
例について説明する。なお、ここでは、立体形状入力部
12において対象物の三次元形状を求める場合について
説明する。Here, a specific example of the operation of the three-dimensional shape input unit 12 will be described. Here, a case in which the three-dimensional shape input unit 12 obtains the three-dimensional shape of the object will be described.
【0097】まず、画像入力部10からの複数の画像デ
ータを入力する。そして、この複数の画像データから三
次元形状を推定する。First, a plurality of image data are input from the image input unit 10. Then, a three-dimensional shape is estimated from the plurality of image data.
【0098】以下に、一例としてシルエット法を用いた
三次元形状推定法を説明する。Hereinafter, a three-dimensional shape estimation method using the silhouette method will be described as an example.
【0099】ここでは、図4で示したように、回転台4
0の上に対象物46を載せて、回転台40を回転させつ
つ撮影することを前提にする。また、回転台40に対す
るカメラ位置は予め求めておく。Here, as shown in FIG.
It is assumed that the object 46 is placed on the camera 0 and the image is taken while rotating the turntable 40. The camera position with respect to the turntable 40 is obtained in advance.
【0100】次に、図5では、シルエット法を用い、画
像入力部10から入力された複数の物体画像に対し、対
象物のシルエットを抽出する処理を行なう(S50)。Next, in FIG. 5, a process of extracting a silhouette of a target object from a plurality of object images input from the image input unit 10 is performed using the silhouette method (S50).
【0101】シルエット抽出には、例えば、ブルーバッ
クを用いたクロマキー法や、予め背景画像データを入力
しておき、前記物体画像データと背景画像データとの差
分処理から得る背景差分法などが用いられる。For the silhouette extraction, for example, a chroma key method using a blue background or a background difference method obtained by inputting background image data in advance and performing a difference process between the object image data and the background image data is used. .
【0102】続いて、複数のシルエット画像から、対象
物の三次元形状を再構成する形状再構成処理を行なう
(S52)。ここでは、まず、対象物が存在すると予測
される三次元空間を、ボクセル空間として表現する。ボ
クセル空間とは、非常に小さな立体素(ボクセル)の集
まりで三次元空間を表現するものである。Subsequently, a shape reconstruction process for reconstructing a three-dimensional shape of the object from a plurality of silhouette images is performed (S52). Here, first, a three-dimensional space where an object is predicted to be present is expressed as a voxel space. The voxel space expresses a three-dimensional space by a collection of very small solid elements (voxels).
【0103】また、対象物が存在する空間は、回転台4
0の上方で、かつ、カメラの視野に収まる領域として予
測することができる。そして、各ボクセルをそれぞれの
シルエット画像に投影し、全ての物体シルエット画像上
に(或いは一定枚数以上のシルエット画像上に)投影さ
れたもののみを抽出する。The space in which the object exists is located on the turntable 4.
It can be predicted as an area above zero and within the field of view of the camera. Then, each voxel is projected on each silhouette image, and only those projected on all object silhouette images (or on a certain number or more of silhouette images) are extracted.
【0104】こうして抽出されたボクセルの集合が物体
の三次元形状を表現するものとなる。The set of voxels thus extracted represents the three-dimensional shape of the object.
【0105】また、必要に応じて、このボクセル集合か
ら表面ボクセルを抽出し、これを統合することでポリゴ
ン表現に変換する(S54)。これによって、三次元ポ
リゴンデータが得られる。If necessary, surface voxels are extracted from the set of voxels, and the voxels are converted into a polygon representation by integrating them (S54). Thereby, three-dimensional polygon data is obtained.
【0106】なお、ここでは、三次元形状モデリングは
対象物を撮影した複数の画像から行なう方法の中で、特
にシルエット法を用いることを前提に説明したが、その
他のあらゆる手法、例えば、ステレオ法、レーザ光を照
射する方法、スリット光を照射する方法、モアレ法など
を利用しても良いことは当然である。Although the three-dimensional shape modeling has been described assuming that the silhouette method is used among the methods performed from a plurality of images of the object, any other method, for example, the stereo method It goes without saying that a method of irradiating a laser beam, a method of irradiating a slit light, a moire method, or the like may be used.
【0107】つぎに、色彩情報変換部14で行なわれる
処理について説明する。Next, the processing performed by the color information converter 14 will be described.
【0108】ここでは、三次元形状の表面情報が複数の
要素で表現されるとし、それらに対する色彩データ生成
方法を説明する。以下、三次元形状の表面情報がポリゴ
ンの集合であらわされる場合を例に説明する。もちろ
ん、三次元形状の表面情報がボクセルの集合で表現され
ても良いし、NURBSなどパラメトリックな自由曲面表現
であっても良い。Here, it is assumed that surface information of a three-dimensional shape is represented by a plurality of elements, and a method of generating color data for these will be described. Hereinafter, a case where the surface information of the three-dimensional shape is represented by a set of polygons will be described as an example. Of course, the surface information of the three-dimensional shape may be represented by a set of voxels, or may be represented by a parametric free-form surface such as NURBS.
【0109】尚、以下では「色彩情報」と「テクスチ
ャ」とを同義で用いる。In the following, "color information" and "texture" are used interchangeably.
【0110】ここでは、各ポリゴンは、単一テクスチャ
を持つポリゴン(固定テクスチャポリゴン)と複数テク
スチャを持つポリゴン(可変テクスチャポリゴン)に分
類される。可変テクスチャポリゴンがもつ複数のテクス
チャのうち一つをそのポリゴンの代表テクスチャとみな
し、これを「メインテクスチャ」と呼ぶ。これ以外のテ
クスチャを「サブテクスチャ」と呼ぶ。In this case, each polygon is classified into a polygon having a single texture (fixed texture polygon) and a polygon having a plurality of textures (variable texture polygon). One of a plurality of textures of the variable texture polygon is regarded as a representative texture of the polygon, and this is called a “main texture”. Other textures are called "sub-textures".
【0111】一方、固定テクスチャポリゴンは一つのみ
テクスチャをもつが、これもメインテクスチャとなる。
即ち、すべてのポリゴンはメインテクスチャを一つ持
ち、いくつかのポリゴンはサブテクスチャも持つ。On the other hand, the fixed texture polygon has only one texture, which is also the main texture.
That is, all polygons have one main texture, and some polygons also have sub-textures.
【0112】図6は色彩情報の生成を示すフローチャー
トであり、図6を参照して、各ポリゴンの基準視点を決
定する(S60)。FIG. 6 is a flowchart showing the generation of color information. Referring to FIG. 6, a reference viewpoint of each polygon is determined (S60).
【0113】これは、例えば、各ポリゴンをそれぞれの
物体画像データに投影し、その投影面積が最も大きくな
るような物体画像の撮影視点を求め、これを基準視点と
する。図7に基準視点の決定の概念図を示す。In this method, for example, each polygon is projected on its own object image data, and the photographing viewpoint of the object image having the largest projected area is obtained, and this is set as a reference viewpoint. FIG. 7 shows a conceptual diagram of the determination of the reference viewpoint.
【0114】図7では、複数のカメラ視点の画像72
(a)、(b)、(c)に対し、72(b)の画像において投影面積
が最大となっている。したがって、72(b)を撮影した
カメラ視点が基準視点となることを示している。In FIG. 7, images 72 from a plurality of camera viewpoints are shown.
In contrast to (a), (b), and (c), the projected area is the largest in the image of 72 (b). Therefore, it indicates that the camera viewpoint capturing 72 (b) is the reference viewpoint.
【0115】別の方法として、各ポリゴンの法線78を
求め、これをそれぞれの物体画像データを撮影したカメ
ラ視線ベクトル79と比較し、内積が最小となる(即ち
最も正対している)撮影視点を基準視点としても良い。As another method, a normal line 78 of each polygon is obtained, and this is compared with a camera line-of-sight vector 79 that has taken each object image data. May be used as the reference viewpoint.
【0116】次に、基準視点の物体画像から、各ポリゴ
ンのメインテクスチャ情報を求める(S61)。Next, main texture information of each polygon is obtained from the object image at the reference viewpoint (S61).
【0117】これは、各ポリゴンをそれぞれの基準視点
からの物体画像データに投影し、その投影部分のテクス
チャ情報を取り込むことで得られる。This can be obtained by projecting each polygon onto the object image data from each reference viewpoint, and taking in texture information of the projected portion.
【0118】続いて、ステップS63において、全ての
視点に対して、各ポリゴンが可視かどうかを調べる。そ
して、可視である場合、ステップS64において、この
視点の物体画像データにポリゴンを投影し、その投影部
分のテクスチャ情報と、前記メインテクスチャ情報との
類似性を求める(S65)。Subsequently, in step S63, it is checked whether or not each polygon is visible from all viewpoints. If it is visible, in step S64, a polygon is projected on the object image data at this viewpoint, and the similarity between the texture information of the projected portion and the main texture information is obtained (S65).
【0119】そして、ステップS66において、類似性
が不十分と判定(予め与えられた閾値より小さいと判
定)されたポリゴンについては、この投影部のテクスチ
ャ情報をサブテクスチャ情報として取り込む(S6
7)。この時、当然ながら、視点情報、つまりポリゴン
への撮影カメラ視点情報も合わせて記録する。この視線
情報を「テクスチャ視線ベクトル」と呼ぶことにする。
ここでテクスチャ視線ベクトルは、図16に示すよう
に、各ポリゴン160に対するカメラ視線の方向情報
(θφ)として記述するのが好適である。Then, in step S66, for polygons determined to have insufficient similarity (determined to be smaller than a predetermined threshold), the texture information of the projection unit is fetched as sub-texture information (S6).
7). At this time, naturally, viewpoint information, that is, photographing camera viewpoint information for the polygon is also recorded. This line-of-sight information will be referred to as a “texture line-of-sight vector”.
Here, the texture line-of-sight vector is preferably described as camera line-of-sight direction information (θφ) for each polygon 160 as shown in FIG.
【0120】以上の処理を全てのポリゴンについて行な
う。The above processing is performed for all polygons.
【0121】したがって、前記処理が終了した際に、サ
ブテクスチャ情報を全く持っていないポリゴン(メイン
テクスチャ情報のみをもつもの)が、固定テクスチャポ
リゴンとなり、メインテクスチャ情報に加えて、少なく
とも一つのサブテクスチャ情報を持つものが可変テクス
チャポリゴンとなる。Therefore, when the above processing is completed, polygons having no sub-texture information (those having only main texture information) become fixed texture polygons, and at least one sub-texture is added to the main texture information. Those having information become variable texture polygons.
【0122】尚、前記の類似性の評価は、テクスチャ情
報の大きさ合わせをアフィン変換、或いは射影変換など
で行なった後、全ての対応画素について、相互相関を求
める、或いは、自乗誤差和を求める、又は差の絶対値の
和を求めるなどによって行なうことができる。相互相関
の場合、その値が大きいほど類似性が高いと評価され
る。一方、自乗誤差和や差の絶対値の和は小さいほど類
似性が高いと評価される。そして類似性の評価値に閾値
を適用して類似性が十分か不十分かの判定を行なう。In the evaluation of the similarity, the size of the texture information is adjusted by affine transformation or projection transformation, and then the cross-correlation or the sum of squared errors is determined for all corresponding pixels. Or by calculating the sum of the absolute values of the differences. In the case of cross-correlation, the larger the value is, the higher the similarity is evaluated. On the other hand, the smaller the sum of the square errors and the sum of the absolute values of the differences, the higher the similarity is evaluated. Then, a threshold is applied to the similarity evaluation value to determine whether the similarity is sufficient or insufficient.
【0123】ここで、もし、得られている三次元形状モ
デルが極めて正確であり、また、対象物の表面が十分な
拡散面であり、かつ、照明の影響が全くないような環境
で物体画像の撮影が行なわれた場合、全てのポリゴンは
固定テクスチャポリゴンに分類されることになる。Here, if the obtained three-dimensional shape model is extremely accurate, and the object image is in an environment where the surface of the object is a sufficiently diffuse surface and there is no influence of illumination at all, In this case, all the polygons are classified as fixed texture polygons.
【0124】しかし、一般的には、かなりのポリゴンは
固定テクスチャポリゴンに分類されるものの、一部のポ
リゴンは可変テクスチャポリゴンに分類されることにな
る。However, in general, although a considerable number of polygons are classified as fixed texture polygons, some polygons are classified as variable texture polygons.
【0125】続いて、データ保持の方法について説明す
る。ここでは、複数の要素で表現される三次元形状の表
面情報がポリゴンの集合で表される場合を例に説明す
る。Next, a data holding method will be described. Here, an example in which surface information of a three-dimensional shape represented by a plurality of elements is represented by a set of polygons will be described.
【0126】三次元表面モデルデータは、一般的に形状
データとテクスチャデータから成る。The three-dimensional surface model data generally includes shape data and texture data.
【0127】図8に示すように、形状データはポリゴン
80の3次元位置情報をあらわすものである。一方、テ
クスチャ情報は、頂点とテクスチャ画像座標の対応情報
とテクスチャ画像情報とから成る。As shown in FIG. 8, the shape data represents three-dimensional position information of the polygon 80. On the other hand, the texture information includes correspondence information between vertices and texture image coordinates and texture image information.
【0128】具体的には、図9に示すように、各頂点9
2の、テクスチャ画像座標における二次元位置と、これ
らで囲まれた領域94に対応する画像情報となる。More specifically, as shown in FIG.
2, the image information corresponding to the two-dimensional position in the texture image coordinates and the area 94 surrounded by the two-dimensional position.
【0129】いま、物体画像をθ方向全周について2度
刻み,及びφ方向1/4周について2度刻みの8,100個の視
点から入力し、これを前記の手法で三次元モデリングす
る場合を考える。ここで、対象モデルは10,000個のポリ
ゴン(三角形)で表現され、このうち、各視点におい
て、平均的には固定テクスチャポリゴンは8,000個、可
変テクスチャポリゴンは2,000個と仮定する。Now, consider a case where an object image is input from 8,100 viewpoints in increments of 2 for the entire circumference in the θ direction and in increments of 2 for 1/4 circumference in the φ direction, and three-dimensionally modeled by the above-described method. . Here, it is assumed that the target model is represented by 10,000 polygons (triangles), of which 8,000 fixed texture polygons and 2,000 variable texture polygons are averaged at each viewpoint.
【0130】まず、テクスチャデータのうち、テクスチ
ャ画像データについて、そのデータ保持方法とデータ量
の見積りを行なう。First, for the texture image data of the texture data, the data holding method and the data amount are estimated.
【0131】いま、ポリゴン1個あたりの平均的なテク
スチャ画像情報量が500byte(非圧縮の場合)と仮定す
る。Now, it is assumed that the average texture image information amount per polygon is 500 bytes (uncompressed).
【0132】この場合、8,000個の固定テクスチャポリ
ゴンに関して、テクスチャ画像情報が4MBとなる。一
方、2,000個の可変テクスチャポリゴンに関しては、8.1
GBと巨大になる。以下、可変テクスチャポリゴンについ
て、更にデータ量を削減する方法について述べる。 1:サブテクスチャ間の相互参照によるデータ量削減 可変テクスチャポリゴンは、メインテクスチャとサブテ
クスチャとの類似性が不十分となった場合に保持する必
要があるものである。In this case, for 8,000 fixed texture polygons, the texture image information is 4 MB. On the other hand, for 2,000 variable texture polygons, 8.1
It will be huge with GB. Hereinafter, a method for further reducing the data amount of the variable texture polygon will be described. 1: Data amount reduction by cross-reference between sub-textures A variable texture polygon needs to be held when the similarity between the main texture and the sub-texture becomes insufficient.
【0133】しかし、サブテクスチャ同士の類似性につ
いては十分に高い場合もあり得る。このような場合に
は、すべてのサブテクスチャを持つのではなく、類似性
の高いサブテクスチャ同士は、代表を一つ持たせ、残り
については代表への参照関係情報(リンク情報)のみを
与えることで、大幅なデータ量削減が可能になる。図1
0にこの方法によるデータ構造を示す。ここでは、カメ
ラ視線ベクトルθ=20、φ=6に対応するサブテクス
チャ情報において、id11のポリゴンは、テクスチャ情
報の実態を持っていない。その代わりに、カメラ視線ベ
クトルθ=20、φ=10に対応するサブテクスチャ情
報へのリンク情報を持つ。However, the similarity between the sub-textures may be sufficiently high. In such a case, instead of having all the sub-textures, the sub-textures having a high similarity should have one representative, and only the reference relation information (link information) to the representative should be given to the rest. Thus, it is possible to significantly reduce the amount of data. FIG.
0 shows a data structure according to this method. Here, in the sub-texture information corresponding to the camera line-of-sight vector θ = 20, φ = 6, the polygon of id11 does not have the actual state of the texture information. Instead, it has link information to sub-texture information corresponding to the camera line-of-sight vector θ = 20, φ = 10.
【0134】したがって、id11のポリゴンについて、
カメラ視線ベクトルθ=20、φ=6に対応するサブテ
クスチャ情報にアクセスする場合、実際にはカメラ視線
ベクトルθ=20、φ=10に対応するサブテクスチャ
情報のid11のポリゴン対応分にアクセスされる。 2:位置シフト補償によるデータ量削減 ポリゴンの三次元情報が誤っている場合、カメラ視点の
変化に伴い、物体画像へのポリゴンの投影位置がずれて
くる。これが、メインテクスチャとサブテクスチャとの
類似性が低くなる一つの原因である。しかし、このずれ
は、物体画像上での投影位置を並行移動させることで補
正することが可能である。Therefore, for the polygon of id11,
When accessing the sub-texture information corresponding to the camera line-of-sight vector θ = 20, φ = 6, the sub-texture information corresponding to the camera line-of-sight vector θ = 20, φ = 10 is actually accessed for the polygon corresponding to id11. . 2: Data amount reduction by position shift compensation When the three-dimensional information of the polygon is incorrect, the projection position of the polygon on the object image shifts with the change of the camera viewpoint. This is one of the causes of the low similarity between the main texture and the sub-texture. However, this shift can be corrected by moving the projection position on the object image in parallel.
【0135】したがって、メインテクスチャとサブテク
スチャとの類似性が低い場合、サブテクスチャの投影位
置を上下左右に±数ピクセルの範囲でずらし、再度類似
性を調べる。この再チェックにおいて、一つでも類似性
が高いものが検出されれば、サブテクスチャを持つ代わ
りに、位置シフト情報のみをもてばよい。Therefore, when the similarity between the main texture and the sub-texture is low, the projection position of the sub-texture is shifted up, down, left and right within a range of ± several pixels, and the similarity is checked again. In this recheck, if even one having a high similarity is detected, it is sufficient to have only the position shift information instead of having the sub-texture.
【0136】再表示時には、メインテクスチャ画像に、
前記位置シフト分の補正を行なった上でテクスチャをマ
ップすれば良い。At the time of redisplay, the main texture image
The texture may be mapped after correcting the position shift.
【0137】図11にその一例を示す。ここではメイン
テクスチャ110とサブテクスチャ112の類似度が低
いと判定されるが、これらは、物体画像114上におい
て、左右上下にわずかにずれた位置関係にある。ここで
は実線で囲まれた領域がサブテクスチャ、破線で囲まれ
た領域がメインテクスチャに対応する。FIG. 11 shows an example. Here, it is determined that the similarity between the main texture 110 and the sub-texture 112 is low, but they are slightly shifted left, right, up, and down on the object image 114. Here, the area surrounded by the solid line corresponds to the sub-texture, and the area surrounded by the broken line corresponds to the main texture.
【0138】したがって、このような場合、サブテクス
チャを上下左右にシフトし、その中で最良の類似度を求
めることで、類似性が高いと判定されるようになる。Therefore, in such a case, the sub-texture is shifted up, down, left, and right, and the best similarity is calculated therein, whereby the similarity is determined to be high.
【0139】尚、この位置シフト補償はメインテクスチ
ャとサブテクスチャとの間のみならず、サブテクスチャ
同士の間でも行なう。この場合は、位置シフト量ととも
に参照先のid情報を持たせれば良い。This position shift compensation is performed not only between the main texture and the sub-texture but also between the sub-textures. In this case, the reference destination id information may be provided together with the position shift amount.
【0140】また、このように位置シフト補償を行なう
場合、参照先テクスチャ画像は、ポリゴンの周囲にシフ
ト分を加えた領域とする必要があり、参照されない場合
よりもわずかにデータ量が増える。しかし、参照元のテ
クスチャ画像が不要となるメリットの方がはるかに大き
く、全体としては大幅なデータ量削減が可能になる。 3:明度シフト補償によるデータ量削減 撮影視点が代わると共に照明条件が変化する場合、ポリ
ゴンの色彩情報が変化してゆく。この際には、メインテ
クスチャとサブテクスチャの類似性が低いと判定されて
しまう。When the position shift compensation is performed as described above, the reference destination texture image needs to be an area obtained by adding a shift amount around the polygon, and the data amount slightly increases as compared with the case where the reference is not referred. However, the merit of not requiring the texture image of the reference source is much greater, and the data amount can be greatly reduced as a whole. 3: Data amount reduction by lightness shift compensation When the photographing viewpoint changes and the lighting condition changes, the color information of the polygon changes. In this case, it is determined that the similarity between the main texture and the sub-texture is low.
【0141】この場合、サブテクスチャをもつ代わり
に、メインテクスチャとの明度シフト差のみを持たせれ
ば良い。再表示時には、メインテクスチャ画像に、前記
明度シフト分の補正を書けてテクスチャをマップすれば
良い。In this case, instead of having the sub-texture, only the brightness shift difference from the main texture may be provided. At the time of redisplay, the texture may be mapped by writing the correction for the lightness shift in the main texture image.
【0142】以上、各々の削減により1/2ずつデータ
量が削減できたとすると全体で1/8となる。したがっ
て、8.1GBが約1GBに削減できる。As described above, if the data amount can be reduced by half by each reduction, the data amount becomes 1/8 in total. Therefore, 8.1 GB can be reduced to about 1 GB.
【0143】また、これらの画像はJPEGなどの圧縮技術
により、一般に1/20程度に圧縮することができる。した
がって、50MB程度で全てのテクスチャが表現できると予
測される。These images can generally be compressed to about 1/20 by a compression technique such as JPEG. Therefore, it is predicted that all the textures can be expressed in about 50 MB.
【0144】なお、以上はポリゴンが三角形の場合につ
いて説明したが、四角形の場合には、前記の説明におい
て、直角三角形を長方形に置き換えれば良い。In the above description, the case where the polygon is a triangle has been described. In the case where the polygon is a quadrangle, the right triangle may be replaced with a rectangle in the above description.
【0145】次に、形状データ及びテクスチャデータの
うちテクスチャ座標座標の対応情報について、そのデー
タ量について見積もる。テクスチャ画像情報と同様、サ
ブテクスチャに関する情報量が圧倒的に優勢である。Next, the data amount of the corresponding information of the texture coordinate coordinates of the shape data and the texture data is estimated. Like the texture image information, the information amount regarding the sub-texture is overwhelmingly dominant.
【0146】また、ポリゴン頂点の三次元座標情報は撮
影視点数とは無関係であり、ポリゴン頂点毎に一つのみ
持てば良いので、今は無視する。Also, the three-dimensional coordinate information of the polygon vertices is irrelevant to the number of photographing viewpoints, and it is only necessary to have one for each polygon vertex.
【0147】したがって、ここでは可変テクスチャポリ
ゴンのテクスチャ画像座標に焦点を当てて説明する。Therefore, the following description focuses on the texture image coordinates of the variable texture polygon.
【0148】テクスチャ座標情報は、一つのX座標或い
はY座標あたり2byteとすると、三角形ポリゴンであるこ
とから、ポリゴンあたり12byteとなる。Assuming that the texture coordinate information is 2 bytes per one X coordinate or Y coordinate, it is 12 bytes per polygon because it is a triangular polygon.
【0149】また、どのメインテクスチャに対応するも
のであるかを区別できるよう、それぞれのポリゴンにid
を持たせる必要がある。ポリゴン数の上限を65,535とす
ると、2byteでid表現できる。例えば、図10のθ=2
0、φ=6のカメラ視線ベクトルに対応したサブテクス
チャ情報において、id =10のポリゴンの情報は、14byte
となる。In order to distinguish which main texture corresponds to each of the polygons, an id is assigned to each polygon.
It is necessary to have If the upper limit of the number of polygons is 65,535, id can be expressed in 2 bytes. For example, θ = 2 in FIG.
In the sub-texture information corresponding to the camera line-of-sight vector of 0 and φ = 6, the information of the polygon with id = 10 is 14 bytes.
Becomes
【0150】したがって、視点数が8,100であり、2,000
個の可変テクスチャポリゴンに関しては、226MB必要と
なる。Therefore, the number of viewpoints is 8,100 and 2,000
For each variable texture polygon, 226 MB is required.
【0151】また、既に述べたように、テクスチャ画像
のデータ量削減を行なうと、それぞれ新たな情報が必要
となる。サブテクスチャ間の相互参照によるデータ量削
減の場合、参照相手視点のidが必要となる。位置シフト
補償によるデータ量削減の場合、位置シフト量及び参照
相手視点のidが必要となる。明度シフト補償によるデー
タ量削減の場合、位置シフト量が必要となる。As described above, when the data amount of the texture image is reduced, new information is required. In the case of data amount reduction by cross-reference between sub-textures, the id of the reference partner viewpoint is required. In the case of data amount reduction by position shift compensation, the position shift amount and the id of the reference partner viewpoint are required. In the case of data amount reduction by brightness shift compensation, a position shift amount is required.
【0152】これらは平均的に2byteとみつもると、結
局ポリゴンあたり16byte必要であるから、8,100個の視
点、2,000個の可変テクスチャポリゴンに関しては、259
MB必要となる。If these are considered to be 2 bytes on average, 16 bytes are required for each polygon after all. Therefore, for 8,100 viewpoints and 2,000 variable texture polygons, 259
MB is required.
【0153】次に、このデータ量を削減する方法につい
て説明する。Next, a method for reducing the data amount will be described.
【0154】各ポリゴンのサブテクスチャ情報を表現す
る際に、もっとも素朴なものとして、各ポリゴンをそれ
ぞれの視点に投影した形をそのまま保存して、これをテ
クスチャ画像に配置する方法が考えられる。When expressing the sub-texture information of each polygon, the simplest method is to store the shape of each polygon projected onto each viewpoint as it is, and arrange this in a texture image.
【0155】この場合、各ポリゴンの形状はばらばらで
あり、そのため、全てのポリゴンに関してテクスチャ画
像中での頂点座標情報を持たせる必要がある。In this case, the shapes of the respective polygons are different, and therefore, it is necessary to have vertex coordinate information in the texture image for all the polygons.
【0156】ここで、図12に示すように、全てのポリ
ゴンを直角三角形に変形(アフィン変換)し、長辺でソ
ートしてテクスチャ画像に配置することを考える。ここ
で、二つの三角形120で一つの長方形を構成するよう
にする。横辺の長さが不一致の場合は、短い方を長い方
に合わせるよう変形(アフィン変換)させればよい。Here, as shown in FIG. 12, it is considered that all polygons are transformed into right triangles (affine transformation), sorted by long sides, and arranged in a texture image. Here, two rectangles 120 constitute one rectangle. If the lengths of the horizontal sides do not match, the shorter side may be deformed (affine transformation) so as to match the longer side.
【0157】この場合、更に図13に示すように、縦(Y
方向)の辺が同じもので一つのグループを構成させ、横
(X方向)の辺の長さ情報134のみ、長方形ごとに持た
せることを考える。そして、縦辺の長さが変化するとこ
ろ(グループの変わり目)に、変わり目を示す情報(セ
パレータ)130と新しい縦辺長情報132を挿入す
る。In this case, as shown in FIG.
Side), make up one group with the same side
Consider that only the side length information 134 in the (X direction) is provided for each rectangle. Then, at the place where the length of the vertical side changes (change of group), information (separator) 130 indicating the change and new vertical length information 132 are inserted.
【0158】尚、セパレータの出現する頻度は低いので
ここでは無視する。Since the frequency of occurrence of the separator is low, it is ignored here.
【0159】ここで、辺の長さの最大を256画素と仮定
すれば、ポリゴンあたりの座標に関する情報は前記の座
標記述分の12byteが0.5byteに削減される。したがっ
て、結局ポリゴンあたり4.5byteのデータ量となり、8,1
00個の視点、2,000個の可変テクスチャポリゴンに関し
ては、72.9MBで表現できることになる。Here, assuming that the maximum length of the side is 256 pixels, the information on the coordinates per polygon is reduced from 12 bytes for the coordinate description to 0.5 bytes. Therefore, the data amount is 4.5 bytes per polygon after all,
For 00 viewpoints and 2,000 variable texture polygons, it can be expressed in 72.9 MB.
【0160】尚、前記セパレータとしては1byteのゼロ
が好適である。なぜなら、この場所にセパレータが来な
い場合には、縦辺の長さ、或いは横辺の長さのいずれか
になる。しかし、これらは決してゼロとはならない。し
たがって、この値がゼロの場合は即座にセパレータであ
ると判断できる。[0160] It is preferable that 1 byte of zero is used as the separator. This is because if the separator does not come to this location, it will be either the length of the vertical side or the length of the horizontal side. But these are never zero. Therefore, when this value is zero, it can be immediately determined that the separator is used.
【0161】このデータ量については、座標データより
id情報が優勢となる。可変テクスチャポリゴンのidはカ
メラ視線ベクトルが近い場合、ほぼ同じとなると考えら
れる。This data amount is calculated from the coordinate data.
id information predominates. It is considered that the id of the variable texture polygon is almost the same when the camera line-of-sight vector is close.
【0162】したがって、このデータに、更にハフマン
コーディングを適用することで、更なる圧縮が可能であ
ると考えられる。Therefore, it is considered that further compression is possible by further applying Huffman coding to this data.
【0163】なお、前記では、ポリゴンの形状は変形さ
せ、辺の長さは可変を許すという前提で説明した。この
代わりに、辺の長さは全て2の冪(べき)に規格化する
方法でもよい。The above description has been made on the assumption that the shape of the polygon is deformed and the length of the side is variable. Instead, all the lengths of the sides may be normalized to a power of two.
【0164】また、以上の説明では、物体画像をθ方向
全周について2度刻み,及びφ方向1/4周について2度
刻みの8,100個の視点から入力した場合について説明し
たが、本手法は当然これ以外の入力視点にも対応するこ
とは明らかである。In the above description, the case where the object image is input from 8,100 viewpoints at intervals of 2 degrees for the entire circumference in the θ direction and at intervals of 2 degrees for 1/4 circumference in the φ direction has been described. Obviously, other input viewpoints are also supported.
【0165】とくに、極に近い箇所においてはθ方向全
周についての角度刻みを粗くするなどして、効率的な撮
影をすることも有効である。In particular, it is effective to perform efficient photographing at a position close to the pole, for example, by coarsening the angle increments over the entire circumference in the θ direction.
【0166】また、テクスチャ画像の圧縮についてはJP
EG以外の手法、例えばKL変換とハフマンコーディングを
組み合わせた方法などを使っても良い。For compression of texture images, see JP
A method other than EG, for example, a method combining KL transformation and Huffman coding may be used.
【0167】次に、固定テクスチャポリゴンと可変テク
スチャポリゴンが混在する三次元モデルデータの再生表
示処理について説明する。この再生表示は、仮想カメラ
のスクリーンに相当する領域に画像データを書き込むこ
とに相当する。Next, a description will be given of a process of reproducing and displaying three-dimensional model data in which fixed texture polygons and variable texture polygons coexist. This reproduction display corresponds to writing image data in an area corresponding to the screen of the virtual camera.
【0168】三次元データの再生表示は、例えばマウス
などによるユーザの仮想カメラ視点指示に基づいて行わ
れる。今、対象物に対し、仮想カメラ位置、及び姿勢が
指定されたとする。The reproduction and display of the three-dimensional data is performed based on a user's virtual camera viewpoint instruction using, for example, a mouse. Now, it is assumed that a virtual camera position and a posture are specified for the target.
【0169】固定テクスチャポリゴンの場合、指定され
た仮想カメラ位置のスクリーンにポリゴンを投影し、こ
れにアフィン変換、或いは射影変換を施すことでメイン
テクスチャを書き込めばよい。In the case of a fixed texture polygon, the main texture may be written by projecting the polygon on the screen at the designated virtual camera position and performing affine transformation or projection transformation on the polygon.
【0170】一方、可変テクスチャポリゴンの場合、複
数のテクスチャ情報の中から、仮想カメラ視点に最適な
テクスチャ情報を抽出して、これをマップする必要があ
る。このために、まず、カメラ視点とポリゴンを結ぶベ
クトルと、ポリゴンとがなす位置関係(θφ情報)を得
る。On the other hand, in the case of a variable texture polygon, it is necessary to extract texture information optimal for the viewpoint of the virtual camera from a plurality of pieces of texture information and map this. For this purpose, first, a positional relationship (θφ information) between the polygon and the vector connecting the camera viewpoint and the polygon is obtained.
【0171】そして、サブテクスチャ情報と関連づけら
れて保持しているテクスチャ視線ベクトルと、このθφ
情報とを比較し、最も近いものを最適テクスチャ情報と
する。また、テクスチャ視線ベクトルに適合するθφ情
報が存在しない場合もあるが、この際にはメインテクス
チャを最適テクスチャ情報として利用する。Then, the texture line-of-sight vector held in association with the sub-texture information and this θφ
The information is compared with the information, and the closest one is set as the optimal texture information. In some cases, there is no θφ information that matches the texture line-of-sight vector. In this case, the main texture is used as optimal texture information.
【0172】その後は、固定テクスチャポリゴンの場合
と同様、指定された仮想カメラ位置のスクリーンにポリ
ゴンを投影し、これにアフィン変換、或いは射影変換を
施すことで最適テクスチャを書き込めばよい。After that, as in the case of the fixed texture polygon, the polygon is projected on the screen at the designated virtual camera position, and affine transformation or projection transformation is performed on the polygon to write the optimum texture.
【0173】なお、前記スクリーンへのテクスチャ書き
込みにおいては、視点に対する各ポリゴンの前後関係を
考慮した隠れ面処理をする必要がある。たとえば、良く
知られたZバッファ法などの利用が好適である。In writing texture on the screen, it is necessary to perform hidden surface processing in consideration of the context of each polygon with respect to the viewpoint. For example, use of the well-known Z buffer method or the like is preferable.
【0174】以上の処理を、図14を参照して再度説明
する。The above processing will be described again with reference to FIG.
【0175】最初に、画像生成視点を決定する(S14
0)。続いて、以下に述べる処理を全ての表面要素(例
えばポリゴン)について行なう。First, the image generation viewpoint is determined (S14).
0). Subsequently, the processing described below is performed for all surface elements (for example, polygons).
【0176】まず、ポリゴンと画像生成視点のなす視線
情報(表示用θφ情報)を求める(S142)。First, line-of-sight information (display θφ information) formed by the polygon and the image generation viewpoint is obtained (S142).
【0177】次に、この表示用θφ情報に対して、最も
近いカメラ視線ベクトルを持つサブテクスチャ情報を決
定する(S143)。続いて、このサブテクスチャ情報
の中に、該表面要素のサブテクスチャ情報があるかどう
かを調べる(S144)。Next, the sub-texture information having the closest camera line-of-sight vector is determined for the display θφ information (S143). Subsequently, it is checked whether or not the sub-texture information includes the sub-texture information of the surface element (S144).
【0178】サブテクスチャ情報があれば、このサブテ
クスチャ情報を、該表面要素の適切なテクスチャ情報と
して表示する(S145)。一方、ない場合、メインテ
クスチャ情報の中から該表面要素のテクスチャ情報をと
りだし表示する(S146)。これを全ての表面要素に
ついて行う。If there is sub-texture information, this sub-texture information is displayed as appropriate texture information of the surface element (S145). On the other hand, if there is no texture information, the texture information of the surface element is extracted from the main texture information and displayed (S146). This is done for all surface elements.
【0179】また、最適テクスチャを決める別の方法と
して、サブテクスチャから表示用θφ情報に最も近いテ
クスチャ視線ベクトルをもつものを一つのみ選択するの
ではなく、表示用θφ情報に近いテクスチャ視線ベクト
ルを複数選択し、これらを平均化するなどの統合処理を
行なって、最適テクスチャ情報を生成しても良い。As another method of determining the optimum texture, instead of selecting only one having the texture line-of-sight vector closest to the display θφ information from the sub-textures, a texture line-of-sight vector close to the display θφ information is selected. A plurality of selections may be made, and an integration process such as averaging them may be performed to generate optimal texture information.
【0180】ここで、前記で説明した過程を経て生成さ
れ、圧縮された三次元モデルデータは通常、一旦ファイ
ルとして、ハードディスク、MO、CD、DVDなど何らかの
媒体に記録されることが多い。再生表示時にはこれらの
媒体から読み出され、一旦コンピュータなど表示機器の
メモリにおかれたのち、指定された視点の画像を生成す
る。ここで、三次元モデルデータがコンピュータなど表
示機器のメモリに一旦おかれる際に、上述のテクスチャ
画像データをすべて展開(非圧縮状態)にすると、1GB
程度のメモリ空間が必要となってしまう。Here, the three-dimensional model data generated and compressed through the process described above is usually once recorded as a file on some medium such as a hard disk, MO, CD, or DVD. At the time of reproduction display, the image is read from these media, temporarily stored in a memory of a display device such as a computer, and then generates an image of a specified viewpoint. Here, when the three-dimensional model data is temporarily stored in the memory of a display device such as a computer, if all of the above texture image data is expanded (uncompressed), 1 GB
This requires a certain amount of memory space.
【0181】そこで、これらのテクスチャ画像のうち、
メインテクスチャのみ展開し、サブテクスチャ情報は圧
縮状態のまま、メモリ上に持たせることが好適である。
そして、仮想視点が指定された時点で、必要なサブテク
スチャのみ展開し、テクスチャマップすれば良い。これ
はコンピュータCPUの負荷を増大させることになるが、
例えばJPEGデコードハードウェアなどが利用できる環境
では、リアルタイム処理が可能となる。Therefore, of these texture images,
It is preferable that only the main texture is expanded and the sub-texture information is stored in a memory in a compressed state.
Then, at the point in time when the virtual viewpoint is designated, only the necessary sub-textures need to be developed and texture mapped. This will increase the load on the computer CPU,
For example, in an environment where JPEG decoding hardware can be used, real-time processing becomes possible.
【0182】一方、表示に利用するコンピュータの性能
が不十分な場合、ユーザの高速な仮想カメラ視点変更
(或いは対象物の回転/移動指示)に高速に追従した表
示が難しいことがある。On the other hand, if the performance of the computer used for display is insufficient, it may be difficult to quickly follow the change of the viewpoint of the virtual camera (or the instruction to rotate / move the object) by the user at high speed.
【0183】この場合は、高速視点変更時にはすべての
ポリゴンについて、メインテクスチャのみを用いた表示
を行ない、視点変更が低速、或いは停止したタイミング
で、サブテクスチャの利用を再開することが好適であ
る。このように適応的に参照テクスチャを変更すること
で、表示機器の性能が低い場合でもストレスが少なく表
示処理することが可能になる。In this case, it is preferable to perform display using only the main texture for all polygons at the time of high-speed viewpoint change, and to resume use of the sub-texture at a time when the viewpoint change is slow or stopped. By adaptively changing the reference texture in this way, it is possible to perform display processing with less stress even when the performance of the display device is low.
【0184】また、対象物を一定回転させるなど、視点
の動きが予測される場合には、以下のようにすること
で、メインテクスチャのみを用いるよりも、品質の良い
テクスチャ表示をすることが可能になる。When the movement of the viewpoint is predicted, for example, when the object is rotated at a constant speed, a texture display with higher quality than using only the main texture can be performed by performing the following. become.
【0185】まず、参照テクスチャ更新頻度を決定す
る。これは表示機器の性能に応じて決定され、例えば、
1/3秒毎などとする。First, the reference texture update frequency is determined. This is determined according to the performance of the display device, for example,
For example, every 1/3 second.
【0186】次に、テクスチャ更新時の視点を予測す
る。図15は、ある角速度で視点が物体のまわりを回転
する場合を示している。この場合には、視線が実線矢印
で示した地点に来た時、テクスチャ更新を行ない、この
時、破線矢印で示した視点のサブテクスチャを用いる。Next, the viewpoint at the time of updating the texture is predicted. FIG. 15 shows a case where the viewpoint rotates around the object at a certain angular velocity. In this case, when the line of sight comes to the point indicated by the solid arrow, the texture is updated, and at this time, the sub-texture of the viewpoint indicated by the dashed arrow is used.
【0187】即ち、時刻t0〜t1の間は、可変テクスチャ
ポリゴンについては視点u0に応じたサブテクスチャを参
照した表示を行なう。また、同時に、時刻t1〜t2の間に
参照すべき視点u1に応じたサブテクスチャを利用するた
めの前処理を行なう。That is, during the period from time t0 to time t1, the variable texture polygon is displayed with reference to the sub-texture corresponding to the viewpoint u0. At the same time, preprocessing for using a sub-texture corresponding to the viewpoint u1 to be referred to between times t1 and t2 is performed.
【0188】そして、時刻t1の時点で、参照するサブテ
クスチャを視点u1に応じたものに置き換える。これを繰
り返すことで、メインテクスチャのみを用いるよりも、
品質の良いテクスチャ表示をすることが可能になる。Then, at time t1, the referenced sub-texture is replaced with the one corresponding to the viewpoint u1. By repeating this, rather than using only the main texture,
High quality texture display can be performed.
【0189】尚、本発明のプログラムを記憶する記録媒
体としては、ROM、RAM、ハードディスク、CD-ROM、DV
D、フロッピーディスクなど各種の媒体が利用でき、ま
たそのプログラムは通信により提供することも可能であ
る。[0189] Recording media for storing the program of the present invention include ROM, RAM, hard disk, CD-ROM, and DV.
Various media such as D and floppy disk can be used, and the program can be provided by communication.
【0190】[0190]
【発明の効果】以上説明したように、本発明によれば、
一つの表面について複数の色データを生成することがで
き、したがって、三次元形状データに不正確な部分があ
っても、その部分の表示を視覚的に好適なものにできる
効果を奏する。As described above, according to the present invention,
A plurality of color data can be generated for one surface, so that even if there is an inaccurate part in the three-dimensional shape data, there is an effect that the display of that part can be made visually suitable.
【0191】更に、画像再生時に使用する記憶領域を比
較的少なく抑えつつ、高速に再生表示することが可能で
ある。Furthermore, high-speed reproduction and display can be performed while the storage area used for image reproduction is kept relatively small.
【図1】三次元画像生成装置のシステム全体構成を示す
ブロック図である。FIG. 1 is a block diagram showing the overall system configuration of a three-dimensional image generation device.
【図2】三次元画像生成装置の別の形態のシステム全体
構成を示すブロック図である。FIG. 2 is a block diagram illustrating an overall configuration of a system according to another embodiment of the three-dimensional image generation apparatus.
【図3】三次元画像生成表示装置のシステム全体構成を
示すブロック図である。FIG. 3 is a block diagram showing an overall system configuration of the three-dimensional image generation and display device.
【図4】画像入力手段の一例を示す説明図である。FIG. 4 is an explanatory diagram illustrating an example of an image input unit.
【図5】三次元形状モデリングのフローチャートであ
る。FIG. 5 is a flowchart of three-dimensional shape modeling.
【図6】色彩情報の生成を示すフローチャートである。FIG. 6 is a flowchart illustrating generation of color information.
【図7】基準視点決定の説明図である。FIG. 7 is an explanatory diagram of reference viewpoint determination.
【図8】三次元形状データの説明図である。FIG. 8 is an explanatory diagram of three-dimensional shape data.
【図9】テクスチャデータの説明図である。FIG. 9 is an explanatory diagram of texture data.
【図10】参照情報を持ったサブテクスチャデータの説
明図である。FIG. 10 is an explanatory diagram of sub-texture data having reference information.
【図11】テクスチャデータの再配置の説明図である。FIG. 11 is an explanatory diagram of relocation of texture data.
【図12】テクスチャの類似度を位置シフトすることで
改善する説明図である。FIG. 12 is an explanatory diagram for improving the similarity of the texture by shifting the position;
【図13】テクスチャデータの効率的配置の説明図であ
る。FIG. 13 is an explanatory diagram of efficient arrangement of texture data.
【図14】画像再生表示処理のフローチャートである。FIG. 14 is a flowchart of an image reproduction and display process.
【図15】画像再生表示時の視点移動の説明図である。FIG. 15 is an explanatory diagram of viewpoint movement during image reproduction and display.
【図16】カメラ視線ベクトル情報の説明図である。FIG. 16 is an explanatory diagram of camera line-of-sight vector information.
10画像入力部 12立体形状入力部 14色彩情報変換部 16データ記憶部 30映像生成部 32映像表示部 40回転台 42カメラ移動機構 44カメラ 46対象物 70ポリゴン 72カメラ視点画像 78ポリゴン法線 79カメラ視線 80三次元形状データ 90テクスチャ情報領域 92テクスチャ画像におけるポリゴン頂点 94テクスチャ画像情報 110メインテクスチャ 112サブテクスチャ 114物体画像 116位置シフト 120テクスチャ画像における三角形ポリゴン 130セパレータ 132縦辺長情報 134横辺長情報 150カメラ視点 10 image input unit 12 three-dimensional shape input unit 14 color information conversion unit 16 data storage unit 30 image generation unit 32 image display unit 40 turntable 42 camera moving mechanism 44 camera 46 object 70 polygon 72 camera viewpoint image 78 polygon normal 79 camera Line of sight 80 3D shape data 90 Texture information area 92 Polygon vertices in texture image 94 Texture image information 110 Main texture 112 Subtexture 114 Object image 116 Position shift 120 Triangle polygon in texture image 130 Separator 132 Vertical length information 134 Horizontal length information 150 camera viewpoint
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B050 BA09 DA07 EA04 EA06 EA09 EA10 EA27 EA28 EA30 FA02 FA05 5B080 AA14 AA17 BA07 FA02 GA22 ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 5B050 BA09 DA07 EA04 EA06 EA09 EA10 EA27 EA28 EA30 FA02 FA05 5B080 AA14 AA17 BA07 FA02 GA22
Claims (72)
対象物の三次元画像データを生成する三次元画像生成装
置において、 前記対象物の三次元形状モデルデータを読み込むモデル
データ読み込み手段と、前記三次元形状モデルデータ及
び対象物についての複数枚の画像データを用いて、前記
三次元モデルの表面についての色彩データを、複数の方
向から見たデータとして生成する色彩データ生成手段
と、を有することを特徴とする三次元画像生成装置。1. A three-dimensional image generating apparatus for generating three-dimensional image data of an object from a plurality of pieces of image data of the object, comprising: a model data reading unit that reads three-dimensional shape model data of the object; Color data generation means for generating color data on the surface of the three-dimensional model as data viewed from a plurality of directions using three-dimensional shape model data and a plurality of pieces of image data on the object. A three-dimensional image generation device characterized by the above-mentioned.
色彩データ生成手段は、前記三次元モデルの表面を複数
の要素に分割し、これらの少なくとも一つの要素につい
ての色彩情報を、原画像である前記対象物についての複
数枚の画像データから取り込むことで複数の方向から見
たデータとして獲得し、更にこれらの色彩情報を前記原
画像とは別の領域に再配置することで前記三次元画像デ
ータを生成することを特徴とする三次元画像生成装置。2. The apparatus according to claim 1, wherein said color data generating means divides a surface of said three-dimensional model into a plurality of elements, and converts color information on at least one of these elements into an original image. The three-dimensional image is obtained by capturing data from a plurality of pieces of image data on the object, obtaining data as viewed from a plurality of directions, and further relocating these color information in a region different from the original image. A three-dimensional image generation device for generating data.
複数の要素は三角形ポリゴンであり、前記別の領域に再
配置する際に、直角三角形に変換して前記色彩情報を再
配置することを特徴とする三次元画像生成装置。3. The apparatus according to claim 2, wherein the plurality of elements are triangular polygons, and when relocating to the another area, converting the color information into a right triangle and relocating the color information. Characteristic three-dimensional image generation device.
複数の要素は三角形ポリゴンであり、前記別の領域に再
配置する際に、二つの短辺長が2の冪(べき)であるよ
うな直角三角形に変換して前記色彩情報を再配置するこ
とを特徴とする三次元画像生成装置。4. The apparatus according to claim 3, wherein the plurality of elements are triangular polygons, and when rearranged in the another area, two short side lengths are powers of two. A three-dimensional image generating apparatus that converts the color information into a right triangle and rearranges the color information.
複数の要素は四角形ポリゴンであり、前記別の領域に再
配置する際に、長方形に変換して前記色彩情報を再配置
することを特徴とする三次元画像生成装置。5. The apparatus according to claim 4, wherein the plurality of elements are quadrangular polygons, and when relocating to the another area, converting the color information into a rectangle and relocating the color information. Three-dimensional image generation device.
装置において、前記色彩情報を前記別の領域に再配置す
る際に、前記要素の辺の長さに基づいた並べ替え処理し
て再配置することを特徴とする三次元画像生成装置。6. The apparatus according to claim 2, wherein when the color information is rearranged in the another area, a rearrangement process is performed based on a length of a side of the element. A three-dimensional image generation apparatus, wherein the three-dimensional image generation apparatus performs rearrangement.
装置において、前記複数の要素の大きさに一定の制限を
持たせることを特徴とする三次元画像生成装置。7. The three-dimensional image generating apparatus according to claim 2, wherein a size of the plurality of elements is limited.
装置において、前記複数の要素の大きさに一定の制限を
持たせ、制限を越える要素に関しては制限を満たすよう
再分割することを特徴とする三次元画像生成装置。8. The apparatus according to claim 2, wherein a size of the plurality of elements has a fixed limit, and an element exceeding the limit is subdivided so as to satisfy the limit. A three-dimensional image generation device characterized by the above-mentioned.
装置において、前記複数の要素の大きさに一定の制限を
持たせ、制限を越える要素に関しては制限を満たすよう
縮小することを特徴とする三次元画像生成装置。9. The apparatus according to claim 2, wherein a size of the plurality of elements is limited, and the size of the plurality of elements is reduced to satisfy the limit. Characteristic three-dimensional image generation device.
色彩データ生成手段は、前記三次元モデルの表面を複数
の要素に分割し、全ての要素について、三次元モデルの
表面についての色彩データを単一の方向から見たデータ
ととして生成するとともに、分割された複数の要素か
ら、更にこれら要素の一部分を選択し、この一部分の要
素については、三次元モデルの表面についての色彩デー
タを複数の方向から見たデータとしても生成することを
特徴とする三次元画像生成装置。10. The apparatus according to claim 9, wherein the color data generating means divides the surface of the three-dimensional model into a plurality of elements, and converts the color data of the surface of the three-dimensional model for all the elements. In addition to generating as data viewed from a single direction, a part of these elements is further selected from a plurality of divided elements, and for this part of the elements, color data about the surface of the three-dimensional model is converted into a plurality of pieces. A three-dimensional image generating apparatus, which also generates data as viewed from a direction.
記一部分の要素の選択は、前記要素を複数の方向から見
た際の色彩情報相互の類似性に基づいて行なうことを特
徴とする三次元画像生成装置。11. The three-dimensional apparatus according to claim 10, wherein the selection of the element of the part is performed based on a similarity of color information when the element is viewed from a plurality of directions. Image generation device.
記類似性は、前記要素を複数の方向から見た際の色彩情
報を、一定の範囲内で並行移動させて評価することを特
徴とする三次元画像生成装置。12. The apparatus according to claim 11, wherein the similarity is evaluated by moving color information when the element is viewed from a plurality of directions in parallel within a certain range. 3D image generation device.
記類似性は、前記要素を複数の方向から見た際の色彩情
報の明るさを補正して評価することを特徴とする三次元
画像生成装置。13. The three-dimensional image generation apparatus according to claim 12, wherein the similarity is evaluated by correcting the brightness of color information when the element is viewed from a plurality of directions. apparatus.
の装置において、前記複数の方向から見たデータとして
生成する色彩データは、見る方向、即ち視線情報に関連
づけられていることを特徴とする三次元画像生成装置。14. The apparatus according to claim 1, wherein the color data generated as the data viewed from the plurality of directions is associated with a viewing direction, that is, eye-gaze information. Three-dimensional image generation device.
の装置は、更に、前記複数の方向から見たデータとして
生成する色彩データのうち、相互に類似性の高いものを
抽出する、類似色彩データ抽出手段と、これら類似色彩
データから代表を決定する、代表色彩データ決定手段
と、代表以外の色彩データには、代表色彩データを参照
するための参照関係情報を持たせる参照関係情報付与手
段と、を備えることを特徴とする三次元画像生成装置。15. The apparatus according to claim 1, further comprising: extracting color data having high similarity among color data generated as the data viewed from the plurality of directions. Similar color data extracting means, representative color data determining means for determining a representative from the similar color data, and reference relation information adding to the color data other than the representative to have reference relation information for referring to the representative color data Means for generating a three-dimensional image.
記視線情報に関連づけられて生成された色彩データは、
同一視線毎にグループ化して生成することを特徴とする
三次元画像生成装置。16. The apparatus according to claim 14, wherein the color data generated in association with the line-of-sight information is
A three-dimensional image generation apparatus characterized in that the three-dimensional image generation apparatus is generated by grouping each line of sight.
置において、前記同一視線毎にグループ化して生成され
た色彩データは、グループ毎に圧縮されることを特徴と
する三次元画像生成装置。17. The three-dimensional image generating apparatus according to claim 16, wherein the color data generated by grouping the same line of sight is compressed for each group. .
て、前記複数の方向から見たデータとして生成された色
彩データは、前記単一の方向から見たデータとして生成
された色彩データに対する類似性に基づいて階層化され
て生成されることを特徴とする三次元画像生成装置。18. The apparatus according to claim 10, wherein the color data generated as the data viewed from the plurality of directions is similar to the color data generated as the data viewed from the single direction. A three-dimensional image generating apparatus characterized in that the three-dimensional image generating apparatus is generated by being hierarchized on the basis of the information.
生成表示する三次元画像生成表示装置において、表示の
ための仮想視点位置を得る手段と、前記位置に応じて、
異なる色彩データを選択する色彩データ選択手段と、を
備えることを特徴とする三次元画像生成表示装置。19. A three-dimensional image generation and display device for generating and displaying three-dimensional image data of an object, comprising: means for obtaining a virtual viewpoint position for display;
A three-dimensional image generation and display device, comprising: color data selection means for selecting different color data.
記色彩データは、対象三次元モデルの表面を複数の方向
から見たデータとして生成されていることを特徴とする
三次元画像生成表示装置。20. The apparatus according to claim 19, wherein the color data is generated as data obtained by viewing the surface of the target three-dimensional model from a plurality of directions.
示対象となる三次元モデルの表面は複数の要素に分割さ
れ、これらの少なくともひとつに対して、前記色彩デー
タは、対象三次元モデルの表面を複数の方向から見たデ
ータとして生成されていることを特徴とする三次元画像
生成表示装置。21. The apparatus according to claim 20, wherein the surface of the three-dimensional model to be displayed is divided into a plurality of elements, and for at least one of the elements, the color data is the surface of the target three-dimensional model. A three-dimensional image generation and display device, wherein the three-dimensional image generation and display device is generated as data viewed from a plurality of directions.
記分割された複数の要素は全て、単一の方向から見たデ
ータととして生成された色彩データを割り当てられてい
ると共に、一部の要素については、複数の方向から見た
データととして生成された色彩データをも割り当てられ
ており、前記色彩データ選択手段は、前記分割された複
数の要素毎に、前記表示のための仮想視点の移動量、或
いは、前記表示対象物の移動量が一定値以上の場合は、
全ての要素について単一の方向から見たデータととして
生成されている色彩データを選択し、前記移動量が一定
値以下の場合は、前記一部の要素については、複数の方
向から見たデータとして生成されている色彩データから
適宜選択することを特徴とする三次元画像生成表示装
置。22. The apparatus according to claim 21, wherein the plurality of divided elements are all assigned color data generated as data viewed from a single direction, and some of the elements are divided. Is also assigned color data generated as data viewed from a plurality of directions, and the color data selection means moves the virtual viewpoint for display for each of the plurality of divided elements. If the amount, or the amount of movement of the display object is a certain value or more,
Select color data generated as data viewed from a single direction for all elements, and if the movement amount is equal to or less than a certain value, for some of the elements, data viewed from multiple directions A three-dimensional image generation and display device, wherein the three-dimensional image generation and display device is appropriately selected from the color data generated as the image data.
て、前記色彩データ選択手段は、各要素に対して複数の
色彩データを選択し、これらを統合処理して前記要素に
対する色彩データを生成することを特徴とする三次元画
像生成表示装置。23. The apparatus according to claim 19, wherein said color data selection means selects a plurality of color data for each element, and performs an integration process on these to generate color data for said element. A three-dimensional image generation and display device, characterized in that:
て、前記色彩データは、見る方向、即ち視線情報に関連
づけられて生成され、更に、同一視線毎にグループ化さ
れ圧縮されており、前記表示のための仮想視点に応じ
て、適切な視線情報に対応した少なくともひとつのグル
ープの色彩データを展開して表示することを特徴とする
三次元画像生成表示装置。24. The apparatus according to claim 19, wherein the color data is generated in association with a viewing direction, that is, line-of-sight information, and is further grouped and compressed for each same line-of-sight, and the color data is displayed. A three-dimensional image generation and display device, which expands and displays at least one group of color data corresponding to appropriate line-of-sight information according to a virtual viewpoint for the display.
記対象物の三次元画像データを生成する三次元画像生成
方法において、 前記対象物の三次元形状モデルデータを読み込むモデル
データ読み込み工程と、前記三次元形状モデルデータ及
び対象物についての複数枚の画像データを用いて、前記
三次元モデルの表面についての色彩データを、複数の方
向から見たデータとして色彩データを生成する工程と、
を有することを特徴とする三次元画像生成方法。25. A three-dimensional image generating method for generating three-dimensional image data of the object from a plurality of pieces of image data of the object, wherein: a model data reading step of reading three-dimensional shape model data of the object; Using three-dimensional shape model data and a plurality of pieces of image data about the object, color data about the surface of the three-dimensional model, generating color data as data viewed from a plurality of directions,
A three-dimensional image generation method.
前記色彩データを生成する工程は、前記三次元モデルの
表面を複数の要素に分割し、これらの少なくとも一つの
要素についての色彩情報を、原画像である前記対象物に
ついての複数枚の画像データから取り込むことで複数の
方向から見たデータとして獲得し、更にこれらの色彩情
報を前記原画像とは別の領域に再配置することで前記三
次元画像データを生成することを特徴とする三次元画像
生成方法。26. The method according to claim 25, wherein
The step of generating the color data, the surface of the three-dimensional model is divided into a plurality of elements, color information on at least one of these elements, from a plurality of image data of the target object is an original image The three-dimensional image is obtained by acquiring as data viewed from a plurality of directions by taking in, and by further rearranging these color information in a region different from the original image. Generation method.
前記複数の要素は三角形ポリゴンであり、前記別の領域
に再配置する際に、直角三角形に変換して前記色彩情報
を再配置することを特徴とする三次元画像生成方法。27. The method according to claim 26, wherein
The three-dimensional image generation method according to claim 3, wherein the plurality of elements are triangular polygons, and when relocating to the another area, converting the color information into a right triangle and relocating the color information.
前記複数の要素は三角形ポリゴンであり、前記別の領域
に再配置する際に、二つの短辺長が2の冪(べき)であ
るような直角三角形に変換して前記色彩情報を再配置す
ることを特徴とする三次元画像生成方法。28. The method according to claim 27, wherein
The plurality of elements are triangular polygons, and when rearranging in the another area, the color information is rearranged by converting into a right-angled triangle whose two short side lengths are powers of two. A three-dimensional image generation method, characterized in that:
前記複数の要素は四角形ポリゴンであり、前記別の領域
に再配置する際に、長方形に変換して前記色彩情報を再
配置することを特徴とする三次元画像生成方法。29. The method according to claim 28, wherein
The three-dimensional image generation method according to claim 1, wherein the plurality of elements are quadrangular polygons, and when relocating to the another area, converting the color information into a rectangle and relocating the color information.
記載の方法において、前記色彩情報を前記別の領域に再
配置する際に、前記要素の辺の長さに基づいた並べ替え
処理して再配置することを特徴とする三次元画像生成方
法。30. The method according to claim 26, wherein when the color information is rearranged in the another area, the color information is rearranged based on the length of a side of the element. A three-dimensional image generating method, wherein the three-dimensional image is rearranged.
記載の方法において、前記複数の要素の大きさに一定の
制限を持たせることを特徴とする三次元画像生成方法。31. The method according to claim 26, wherein the size of the plurality of elements has a certain limit.
記載の方法において、前記複数の要素の大きさに一定の
制限を持たせ、制限を越える要素に関しては制限を満た
すよう再分割することを特徴とする三次元画像生成方
法。32. The method according to any one of claims 26 to 31, wherein a size of the plurality of elements has a fixed limit, and an element exceeding the limit is subdivided so as to satisfy the limit. A three-dimensional image generation method characterized by the following.
記載の方法において、前記複数の要素の大きさに一定の
制限を持たせ、制限を越える要素に関しては制限を満た
すよう縮小することを特徴とする三次元画像生成方法。33. The method according to claim 26, wherein the size of the plurality of elements has a fixed limit, and the size of the plurality of elements is reduced to satisfy the limit. Characteristic three-dimensional image generation method.
記色彩データを生成する工程は、前記三次元モデルの表
面を複数の要素に分割し、全ての要素について、三次元
モデルの表面についての色彩データを単一の方向から見
たデータととして生成するとともに、分割された複数の
要素から、更にこれら要素の一部分を選択し、この一部
分の要素については、三次元モデルの表面についての色
彩データを複数の方向から見たデータとしても生成する
ことを特徴とする三次元画像生成方法。34. The method according to claim 33, wherein the step of generating color data divides the surface of the three-dimensional model into a plurality of elements, and for all elements, the color of the surface of the three-dimensional model. Data is generated as data viewed from a single direction, and a part of these elements is further selected from a plurality of divided elements, and the color data about the surface of the three-dimensional model is selected for the elements of this part. A three-dimensional image generation method, wherein the three-dimensional image generation method is also generated as data viewed from a plurality of directions.
記一部分の要素の選択は、前記要素を複数の方向から見
た際の色彩情報相互の類似性に基づいて行なうことを特
徴とする三次元画像生成方法。35. The method according to claim 34, wherein the selection of the element of the part is performed based on a similarity between color information when the element is viewed from a plurality of directions. Image generation method.
記類似性は、前記要素を複数の方向から見た際の色彩情
報を、一定の範囲内で並行移動させて評価することを特
徴とする三次元画像生成方法。36. The method according to claim 35, wherein the similarity is evaluated by moving color information when the element is viewed from a plurality of directions in parallel within a certain range. 3D image generation method.
記類似性は、前記要素を複数の方向から見た際の色彩情
報の明るさを補正して評価することを特徴とする三次元
画像生成方法。37. The method according to claim 36, wherein the similarity is evaluated by correcting brightness of color information when the element is viewed from a plurality of directions. Method.
載の方法において、前記複数の方向から見たデータとし
て生成する色彩データは、見る方向、即ち視線情報に関
連づけられていることを特徴とする三次元画像生成方
法。38. The method according to any one of claims 25 to 37, wherein the color data generated as the data viewed from the plurality of directions is associated with a viewing direction, that is, gaze information. Three-dimensional image generation method.
載の方法は、更に、前記複数の方向から見たデータとし
て生成する色彩データのうち、相互に類似性の高いもの
を抽出する、類似色彩データを抽出する工程と、これら
類似色彩データから代表色彩データを決定する工程と、
代表以外の色彩データには、代表色彩データを参照する
ための参照関係情報を持たせる参照関係情報を付与する
工程と、を備えることを特徴とする三次元画像生成方
法。39. The method according to any one of claims 25 to 38, further comprising extracting color data having high similarity among color data generated as the data viewed from the plurality of directions. A step of extracting similar color data, a step of determining representative color data from these similar color data,
Providing reference relationship information for giving reference relationship information for referencing the representative color data to the color data other than the representative color data.
記視線情報に関連づけられて生成された色彩データは、
同一視線毎にグループ化して生成することを特徴とする
三次元画像生成方法。40. The method according to claim 38, wherein the color data generated in association with the line-of-sight information is:
A three-dimensional image generation method, wherein the three-dimensional image is generated by grouping for each same line of sight.
法において、前記同一視線毎にグループ化して生成され
た色彩データは、グループ毎に圧縮されることを特徴と
する三次元画像生成方法。41. A three-dimensional image generation method according to claim 40, wherein the color data generated by grouping for each same line of sight is compressed for each group. .
て、前記複数の方向から見たデータとして生成された色
彩データは、前記単一の方向から見たデータとして生成
された色彩データに対する類似性に基づいて階層化され
て生成されることを特徴とする三次元画像生成方法。42. The method according to claim 34, wherein the color data generated as the data viewed from the plurality of directions is similar to the color data generated as the data viewed from the single direction. A three-dimensional image generation method characterized in that the three-dimensional image is generated by being hierarchized on the basis of the image.
生成表示する三次元画像生成表示方法において、表示の
ための仮想視点位置を得る工程と、前記位置に応じて、
異なる色彩データを選択する工程と、を備えることを特
徴とする三次元画像生成表示方法。43. In a three-dimensional image generation and display method for generating and displaying three-dimensional image data of an object, a step of obtaining a virtual viewpoint position for display,
A step of selecting different color data.
記色彩データは、対象三次元モデルの表面を複数の方向
から見たデータとして生成されていることを特徴とする
三次元画像生成表示方法。44. The method according to claim 43, wherein the color data is generated as data obtained by viewing the surface of the target three-dimensional model from a plurality of directions.
示対象となる三次元モデルの表面は複数の要素に分割さ
れ、これらの少なくともひとつに対して、前記色彩デー
タは、対象三次元モデルの表面を複数の方向から見たデ
ータとして生成されていることを特徴とする三次元画像
生成表示方法。45. The method according to claim 44, wherein the surface of the three-dimensional model to be displayed is divided into a plurality of elements, and for at least one of these, the color data is the surface of the target three-dimensional model. A three-dimensional image generation and display method, wherein data is generated as data viewed from a plurality of directions.
記分割された複数の要素は全て、単一の方向から見たデ
ータととして生成された色彩データを割り当てられてい
ると共に、一部の要素については、複数の方向から見た
データととして生成された色彩データをも割り当てられ
ており、前記色彩データを選択する工程は、前記分割さ
れた複数の要素毎に、前記表示のための仮想視点の移動
量、或いは、前記表示対象物の移動量が一定値以上の場
合は、全ての要素について単一の方向から見たデータと
として生成されている色彩データを選択し、前記移動量
が一定値以下の場合は、前記一部の要素については、複
数の方向から見たデータとして生成されている色彩デー
タから適宜選択することを特徴とする三次元画像生成表
示方法。46. The method according to claim 45, wherein the plurality of divided elements are all assigned color data generated as data viewed from a single direction, and some of the elements are divided. Are also assigned color data generated as data viewed from a plurality of directions, and the step of selecting the color data includes, for each of the plurality of divided elements, a virtual viewpoint for display. When the moving amount of the display object is equal to or more than a predetermined value, color data generated as data viewed from a single direction for all elements is selected, and the moving amount is constant. When the value is equal to or less than the value, the three-dimensional image generation and display method is characterized in that the partial elements are appropriately selected from color data generated as data viewed from a plurality of directions.
て、前記色彩データを選択する工程は、各要素に対して
複数の色彩データを選択し、これらを統合処理して前記
要素に対する色彩データを生成することを特徴とする三
次元画像生成表示方法。47. The method according to claim 43, wherein the step of selecting color data comprises selecting a plurality of color data for each element, and integrating them to obtain color data for the element. A three-dimensional image generation and display method characterized by generating.
て、前記色彩データは、見る方向、即ち視線情報に関連
づけられて生成され、更に、同一視線毎にグループ化さ
れ圧縮されており、前記表示のための仮想視点に応じ
て、適切な視線情報に対応した少なくともひとつのグル
ープの色彩データを展開して表示することを特徴とする
三次元画像生成表示方法。48. The method according to claim 43, wherein the color data is generated in association with a viewing direction, that is, line-of-sight information. A three-dimensional image generation and display method, wherein color data of at least one group corresponding to appropriate line-of-sight information is developed and displayed according to a virtual viewpoint.
記対象物の三次元画像データを生成するプログラムを記
憶する情報処理装置が読み取り可能な記録媒体であっ
て、前記プログラムは前記情報処理装置に対して、 前記対象物の三次元形状モデルデータを読み込み、前記
三次元形状モデルデータ及び対象物についての複数枚の
画像データを用いて、前記三次元モデルの表面について
の色彩データを、複数の方向から見たデータとして色彩
データを生成する、ことを特徴とする記録媒体。49. A recording medium readable by an information processing device for storing a program for generating three-dimensional image data of the object from a plurality of pieces of image data of the object, wherein the program is stored in the information processing device. On the other hand, the three-dimensional shape model data of the object is read, and using the three-dimensional shape model data and a plurality of pieces of image data about the object, color data about the surface of the three-dimensional model is read in a plurality of directions. A recording medium for generating color data as data viewed from a computer.
て、前記三次元モデルの表面を複数の要素に分割し、こ
れらの少なくとも一つの要素についての色彩情報を、原
画像である前記対象物についての複数枚の画像データか
ら取り込むことで複数の方向から見たデータとして獲得
し、更にこれらの色彩情報を前記原画像とは別の領域に
再配置することで前記三次元画像データを生成すること
を特徴とする記録媒体。50. The recording medium according to claim 49, wherein the surface of the three-dimensional model is divided into a plurality of elements, and color information on at least one of these elements is converted into a color information on the object which is an original image. Acquiring as data viewed from a plurality of directions by taking in from a plurality of pieces of image data, and further generating the three-dimensional image data by relocating these color information to a region different from the original image. Characteristic recording medium.
て、前記複数の要素は三角形ポリゴンであり、前記別の
領域に再配置する際に、直角三角形に変換して前記色彩
情報を再配置することを特徴とする記録媒体。51. The recording medium according to claim 50, wherein the plurality of elements are triangular polygons, and when relocating to the another area, converting the color information into a right triangle and relocating the color information. Recording medium characterized by the above-mentioned.
て、前記複数の要素は三角形ポリゴンであり、前記別の
領域に再配置する際に、二つの短辺長が2の冪(べき)
であるような直角三角形に変換して前記色彩情報を再配
置することを特徴とする記録媒体。52. The recording medium according to claim 51, wherein said plurality of elements are triangular polygons, and when rearranging in said another area, two short side lengths are powers of two.
A recording medium, wherein the color information is rearranged by converting the color information into a right-angled triangle.
て、前記複数の要素は四角形ポリゴンであり、前記別の
領域に再配置する際に、長方形に変換して前記色彩情報
を再配置することを特徴とする記録媒体。53. The recording medium according to claim 52, wherein the plurality of elements are quadrangular polygons, and when relocating to the another area, converting the color information into a rectangle and relocating the color information. Characteristic recording medium.
記載の記録媒体において、前記色彩情報を前記別の領域
に再配置する際に、前記要素の辺の長さに基づいた並べ
替え処理して再配置することを特徴とする記録媒体。54. The recording medium according to claim 50, wherein when the color information is rearranged in the another area, a rearrangement process is performed based on a length of a side of the element. A recording medium characterized in that the recording medium is rearranged.
記載の記録媒体において、前記複数の要素の大きさに一
定の制限を持たせることを特徴とする記録媒体。55. The recording medium according to claim 50, wherein the size of the plurality of elements has a certain limit.
記載の記録媒体において、前記複数の要素の大きさに一
定の制限を持たせ、制限を越える要素に関しては制限を
満たすよう再分割することを特徴とする記録媒体。56. The recording medium according to claim 50, wherein the size of the plurality of elements is given a certain limit, and an element exceeding the limit is re-divided so as to satisfy the limit. A recording medium characterized by the above-mentioned.
記載の記録媒体において、前記複数の要素の大きさに一
定の制限を持たせ、制限を越える要素に関しては制限を
満たすよう縮小することを特徴とする記録媒体。57. The recording medium according to claim 50, wherein the size of the plurality of elements is given a certain limit, and the size of the elements exceeding the limit is reduced to satisfy the limit. Recording medium characterized by the above-mentioned.
て、前記三次元モデルの表面を複数の要素に分割し、全
ての要素について、三次元モデルの表面についての色彩
データを単一の方向から見たデータととして生成すると
ともに、分割された複数の要素から、更にこれら要素の
一部分を選択し、この一部分の要素については、三次元
モデルの表面についての色彩データを複数の方向から見
たデータとしても生成することを特徴とする記録媒体。58. The recording medium according to claim 57, wherein the surface of the three-dimensional model is divided into a plurality of elements, and color data on the surface of the three-dimensional model is viewed from a single direction for all elements. In addition to generating the data as the data, a part of these elements is further selected from the plurality of divided elements, and the color data on the surface of the three-dimensional model is obtained as data viewed from a plurality of directions. A recording medium characterized in that a recording medium is also generated.
て、前記一部分の要素の選択は、前記要素を複数の方向
から見た際の色彩情報相互の類似性に基づいて行なうこ
とを特徴とする記録媒体。59. The recording medium according to claim 58, wherein the selection of the element of the part is performed based on the similarity of color information when the element is viewed from a plurality of directions. Medium.
て、前記類似性は、前記要素を複数の方向から見た際の
色彩情報を、一定の範囲内で並行移動させて評価するこ
とを特徴とする記録媒体。60. The recording medium according to claim 59, wherein the similarity is evaluated by moving color information when the element is viewed from a plurality of directions in parallel within a certain range. Recording medium.
て、前記類似性は、前記要素を複数の方向から見た際の
色彩情報の明るさを補正して評価することを特徴とする
記録媒体。61. A recording medium according to claim 60, wherein said similarity is evaluated by correcting brightness of color information when said element is viewed from a plurality of directions.
載の記録媒体において、前記複数の方向から見たデータ
として生成する色彩データは、見る方向、即ち視線情報
に関連づけられていることを特徴とする記録媒体。62. The recording medium according to claim 49, wherein the color data generated as the data viewed from the plurality of directions is associated with a viewing direction, that is, eye-gaze information. Characteristic recording medium.
載の記録媒体は、更に、前記複数の方向から見たデータ
として生成する色彩データのうち、相互に類似性の高い
ものを抽出し、これら類似色彩データから代表を決定
し、代表以外の色彩データには、代表色彩データを参照
するための参照関係情報を持たせることを特徴とする記
録媒体。63. The recording medium according to any one of claims 49 to 62, further extracts, from among the color data generated as the data viewed from the plurality of directions, color data having a high similarity to each other. A recording medium characterized in that a representative is determined from these similar color data, and color data other than the representative has reference relation information for referring to the representative color data.
て、前記視線情報に関連づけられて生成された色彩デー
タは、同一視線毎にグループ化して生成することを特徴
とする記録媒体。64. The recording medium according to claim 62, wherein the color data generated in association with said line-of-sight information is generated by grouping for each same line of sight.
録媒体において、前記同一視線毎にグループ化して生成
された色彩データは、グループ毎に圧縮されることを特
徴とする記録媒体。65. The recording medium according to claim 64, wherein the color data generated by grouping for the same line of sight is compressed for each group.
おいて、前記複数の方向から見たデータとして生成され
た色彩データは、前記単一の方向から見たデータとして
生成された色彩データに対する類似性に基づいて階層化
されて生成されることを特徴とする記録媒体。66. The recording medium according to claim 58, wherein the color data generated as the data viewed from the plurality of directions is similar to the color data generated as the data viewed from the single direction. A recording medium characterized in that the recording medium is generated by being hierarchized based on characteristics.
生成表示する三次元画像生成表示プログラムを記憶す
る、情報処理装置が読みとり可能な記録媒体であって、
前記プログラムは、前記情報処理装置に対して、指示さ
れた表示のための仮想視点位置に応じて、異なる色彩デ
ータを選択することを特徴とする記録媒体。67. A recording medium readable by an information processing device, storing a three-dimensional image generation and display program for generating and displaying three-dimensional image data on an object,
The recording medium according to claim 1, wherein the program selects different color data for the information processing apparatus according to a virtual viewpoint position instructed for display.
て、前記色彩データは、対象三次元モデルの表面を複数
の方向から見たデータとして生成されていることを特徴
とする記録媒体。68. The recording medium according to claim 67, wherein said color data is generated as data obtained by viewing the surface of a target three-dimensional model from a plurality of directions.
て、表示対象となる三次元モデルの表面は複数の要素に
分割され、これらの少なくともひとつに対して、前記色
彩データは、対象三次元モデルの表面を複数の方向から
見たデータとして生成されていることを特徴とする記録
媒体。69. The recording medium according to claim 68, wherein the surface of the three-dimensional model to be displayed is divided into a plurality of elements, and for at least one of the elements, the color data is A recording medium, wherein the recording medium is generated as data in which a surface is viewed from a plurality of directions.
て、前記分割された複数の要素は全て、単一の方向から
見たデータとして生成された色彩データを割り当てられ
ていると共に、一部の要素については、複数の方向から
見たデータとして生成された色彩データをも割り当てら
れており、前記色彩データの選択は、前記分割された複
数の要素毎に、前記表示のための仮想視点の移動量、或
いは、前記表示対象物の移動量が一定値以上の場合は、
全ての要素について単一の方向から見たデータとして生
成されている色彩データを選択し、前記移動量が一定値
以下の場合は、前記一部の要素については、複数の方向
から見たデータとして生成されている色彩データから適
宜選択することを特徴とする記録媒体。70. The recording medium according to claim 69, wherein all of the plurality of divided elements are assigned color data generated as data viewed from a single direction, and some of the elements are partially divided. Is also assigned color data generated as data viewed from a plurality of directions, and the selection of the color data is based on the movement amount of the virtual viewpoint for display for each of the plurality of divided elements. Or, when the moving amount of the display object is a certain value or more,
Select color data generated as data viewed from a single direction for all elements, and when the movement amount is equal to or less than a certain value, for some of the elements, as data viewed from multiple directions. A recording medium, which is appropriately selected from generated color data.
おいて、前記色彩データの選択は、各要素に対して複数
の色彩データを選択し、これらを統合処理して前記要素
に対する色彩データを生成することを特徴とする記録媒
体。71. The recording medium according to claim 67, wherein the selection of the color data includes selecting a plurality of color data for each element, and integrating them to generate color data for the element. A recording medium characterized by the following.
おいて、前記色彩データは、見る方向、即ち視線情報に
関連づけられて生成され、更に、同一視線毎にグループ
化され圧縮されており、前記表示のための仮想視点に応
じて、適切な視線情報に対応した少なくともひとつのグ
ループの色彩データを展開して表示することを特徴とす
る記録媒体。72. The recording medium according to claim 67, wherein the color data is generated in association with a viewing direction, that is, line-of-sight information, and is further grouped and compressed for each line of sight. A recording medium characterized by developing and displaying color data of at least one group corresponding to appropriate line-of-sight information according to a virtual viewpoint for display.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP11159884A JP2000348213A (en) | 1999-06-07 | 1999-06-07 | Three-dimensional image generating device, three- dimensional image generating and display device, and method thereof and recording medium |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP11159884A JP2000348213A (en) | 1999-06-07 | 1999-06-07 | Three-dimensional image generating device, three- dimensional image generating and display device, and method thereof and recording medium |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2000348213A true JP2000348213A (en) | 2000-12-15 |
Family
ID=15703301
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP11159884A Pending JP2000348213A (en) | 1999-06-07 | 1999-06-07 | Three-dimensional image generating device, three- dimensional image generating and display device, and method thereof and recording medium |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2000348213A (en) |
Cited By (20)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002352271A (en) * | 2001-05-28 | 2002-12-06 | Olympus Optical Co Ltd | Three-dimensional image acquisition device |
| JP2003006616A (en) * | 2001-06-18 | 2003-01-10 | Olympus Optical Co Ltd | Three-dimensional information acquisition device, three-dimensional information acquisition method, and three-dimensional information acquisition program |
| WO2004040521A1 (en) * | 2002-10-30 | 2004-05-13 | Digital Fashion Ltd. | Image processing device, image processing program, recording medium recording the program, image processing method, and shading information acquisition device |
| JP2004234476A (en) * | 2003-01-31 | 2004-08-19 | Toshiba Corp | Image data encoding method, image data decoding method, and image data decoding device |
| JP2005063041A (en) * | 2003-08-08 | 2005-03-10 | Olympus Corp | Three-dimensional modeling apparatus, method, and program |
| JP2005317000A (en) * | 2004-04-30 | 2005-11-10 | Mitsubishi Electric Research Laboratories Inc | Method for determining set of optimal viewpoint to construct 3d shape of face from 2d image acquired from set of optimal viewpoint |
| JP2007518162A (en) * | 2004-01-06 | 2007-07-05 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | How to draw graphic objects |
| US7565005B2 (en) | 2003-02-18 | 2009-07-21 | Canon Kabushiki Kaisha | Three-dimensional data processing method, three-dimensional data processing program, and three-dimensional data processing system |
| CN102298789A (en) * | 2011-08-19 | 2011-12-28 | 大连恒艺信息科技有限公司 | A realization method of realistic 3D digital portrait |
| JP2014056496A (en) * | 2012-09-13 | 2014-03-27 | Mitsubishi Heavy Ind Ltd | Virtual camera image generation device, virtual camera image generation system, virtual camera image generation method and program |
| CN103714566A (en) * | 2012-10-09 | 2014-04-09 | 深圳丝路数字视觉股份有限公司 | Naked-eye three-dimensional picture, animation and motion picture manufacturing method and picture synthesis apparatus |
| CN104318618A (en) * | 2014-10-20 | 2015-01-28 | 南京师范大学 | Three-dimensional sectioning method of generalized tri-prism spatial data model |
| WO2018179254A1 (en) * | 2017-03-30 | 2018-10-04 | 株式会社ソニー・インタラクティブエンタテインメント | Image generation device, image generation method, and program |
| KR20190034092A (en) * | 2017-09-22 | 2019-04-01 | 캐논 가부시끼가이샤 | Image processing apparatus, image processing method, image processing system, and storage medium |
| JP2019121158A (en) * | 2018-01-04 | 2019-07-22 | 凸版印刷株式会社 | Data display apparatus, method, and program |
| JP2019133276A (en) * | 2018-01-29 | 2019-08-08 | 株式会社ザグローバルゲームズ | Image processing system and terminal |
| JP2019536174A (en) * | 2016-12-06 | 2019-12-12 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Apparatus and method for generating light intensity images |
| JP2020042666A (en) * | 2018-09-12 | 2020-03-19 | キヤノン株式会社 | IMAGE GENERATION DEVICE, CONTROL METHOD OF IMAGE GENERATION DEVICE, AND PROGRAM |
| CN114820962A (en) * | 2022-04-22 | 2022-07-29 | 南京泛在地理信息产业研究院有限公司 | Three-dimensional geographic entity model data base building method |
| JP2023028148A (en) * | 2021-08-18 | 2023-03-03 | Tkk株式会社 | Hue information conversion program, hue information conversion method, and hue information conversion information processing apparatus |
-
1999
- 1999-06-07 JP JP11159884A patent/JP2000348213A/en active Pending
Cited By (30)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002352271A (en) * | 2001-05-28 | 2002-12-06 | Olympus Optical Co Ltd | Three-dimensional image acquisition device |
| JP2003006616A (en) * | 2001-06-18 | 2003-01-10 | Olympus Optical Co Ltd | Three-dimensional information acquisition device, three-dimensional information acquisition method, and three-dimensional information acquisition program |
| WO2004040521A1 (en) * | 2002-10-30 | 2004-05-13 | Digital Fashion Ltd. | Image processing device, image processing program, recording medium recording the program, image processing method, and shading information acquisition device |
| JP2004152015A (en) * | 2002-10-30 | 2004-05-27 | Digital Fashion Ltd | Image processing apparatus, image processing program, recording medium for recording the program, image processing method, shading information acquisition apparatus, and data structure |
| JP2004234476A (en) * | 2003-01-31 | 2004-08-19 | Toshiba Corp | Image data encoding method, image data decoding method, and image data decoding device |
| US7565005B2 (en) | 2003-02-18 | 2009-07-21 | Canon Kabushiki Kaisha | Three-dimensional data processing method, three-dimensional data processing program, and three-dimensional data processing system |
| JP2005063041A (en) * | 2003-08-08 | 2005-03-10 | Olympus Corp | Three-dimensional modeling apparatus, method, and program |
| JP2007518162A (en) * | 2004-01-06 | 2007-07-05 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | How to draw graphic objects |
| JP2005317000A (en) * | 2004-04-30 | 2005-11-10 | Mitsubishi Electric Research Laboratories Inc | Method for determining set of optimal viewpoint to construct 3d shape of face from 2d image acquired from set of optimal viewpoint |
| CN102298789A (en) * | 2011-08-19 | 2011-12-28 | 大连恒艺信息科技有限公司 | A realization method of realistic 3D digital portrait |
| JP2014056496A (en) * | 2012-09-13 | 2014-03-27 | Mitsubishi Heavy Ind Ltd | Virtual camera image generation device, virtual camera image generation system, virtual camera image generation method and program |
| CN103714566A (en) * | 2012-10-09 | 2014-04-09 | 深圳丝路数字视觉股份有限公司 | Naked-eye three-dimensional picture, animation and motion picture manufacturing method and picture synthesis apparatus |
| CN103714566B (en) * | 2012-10-09 | 2017-04-05 | 丝路视觉科技股份有限公司 | Naked eye three-dimensional picture, animation, bounce image production method and picture synthesizer |
| CN104318618A (en) * | 2014-10-20 | 2015-01-28 | 南京师范大学 | Three-dimensional sectioning method of generalized tri-prism spatial data model |
| JP2019536174A (en) * | 2016-12-06 | 2019-12-12 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Apparatus and method for generating light intensity images |
| US11107267B2 (en) | 2017-03-30 | 2021-08-31 | Sony Interactive Entertainment Inc. | Image generation apparatus, image generation method, and program |
| JPWO2018179254A1 (en) * | 2017-03-30 | 2019-11-07 | 株式会社ソニー・インタラクティブエンタテインメント | Image generating apparatus, image generating method, and program |
| WO2018179254A1 (en) * | 2017-03-30 | 2018-10-04 | 株式会社ソニー・インタラクティブエンタテインメント | Image generation device, image generation method, and program |
| US10701332B2 (en) | 2017-09-22 | 2020-06-30 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, image processing system, and storage medium |
| KR102049245B1 (en) | 2017-09-22 | 2019-11-28 | 캐논 가부시끼가이샤 | Image processing apparatus, image processing method, image processing system, and storage medium |
| JP2019057248A (en) * | 2017-09-22 | 2019-04-11 | キヤノン株式会社 | Image processing system, image processing device, image processing method and program |
| KR20190034092A (en) * | 2017-09-22 | 2019-04-01 | 캐논 가부시끼가이샤 | Image processing apparatus, image processing method, image processing system, and storage medium |
| JP2019121158A (en) * | 2018-01-04 | 2019-07-22 | 凸版印刷株式会社 | Data display apparatus, method, and program |
| JP7206591B2 (en) | 2018-01-04 | 2023-01-18 | 凸版印刷株式会社 | Data display device, method and program |
| JP2019133276A (en) * | 2018-01-29 | 2019-08-08 | 株式会社ザグローバルゲームズ | Image processing system and terminal |
| JP2020042666A (en) * | 2018-09-12 | 2020-03-19 | キヤノン株式会社 | IMAGE GENERATION DEVICE, CONTROL METHOD OF IMAGE GENERATION DEVICE, AND PROGRAM |
| JP7190849B2 (en) | 2018-09-12 | 2022-12-16 | キヤノン株式会社 | IMAGE GENERATION DEVICE, CONTROL METHOD AND PROGRAM OF IMAGE GENERATION DEVICE |
| JP2023028148A (en) * | 2021-08-18 | 2023-03-03 | Tkk株式会社 | Hue information conversion program, hue information conversion method, and hue information conversion information processing apparatus |
| JP7333096B2 (en) | 2021-08-18 | 2023-08-24 | Tkk株式会社 | Color information conversion program, color information conversion method, and color information conversion information processing apparatus |
| CN114820962A (en) * | 2022-04-22 | 2022-07-29 | 南京泛在地理信息产业研究院有限公司 | Three-dimensional geographic entity model data base building method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2000348213A (en) | Three-dimensional image generating device, three- dimensional image generating and display device, and method thereof and recording medium | |
| US11012679B2 (en) | Generating apparatus, generating method, and storage medium | |
| US7760932B2 (en) | Method for reconstructing three-dimensional structure using silhouette information in two-dimensional image | |
| JP3840150B2 (en) | Image-based representation and rendering method for 3D objects and animated 3D objects | |
| EP1800267B1 (en) | System and method for processing video images | |
| JP3052681B2 (en) | 3D video generation device | |
| US11893705B2 (en) | Reference image generation apparatus, display image generation apparatus, reference image generation method, and display image generation method | |
| US8725466B2 (en) | System and method for hybrid solid and surface modeling for computer-aided design environments | |
| JP5653541B2 (en) | Drawing data generation apparatus and image drawing apparatus | |
| KR102581134B1 (en) | Apparatus and method for generating light intensity images | |
| US20020113865A1 (en) | Image processing method and apparatus | |
| JP4199170B2 (en) | High-dimensional texture mapping apparatus, method and program | |
| US20090102834A1 (en) | Image processing apparatus and image processing method | |
| US6515658B1 (en) | 3D shape generation apparatus | |
| JP2006190308A (en) | Modeling method and apparatus based on depth image | |
| JP2019128641A (en) | Image processing device, image processing method and program | |
| CN102763139B (en) | Image display device | |
| JP4229398B2 (en) | Three-dimensional modeling program, three-dimensional modeling control program, three-dimensional modeling data transmission program, recording medium, and three-dimensional modeling method | |
| EP3876205B1 (en) | Image generation system and method | |
| Schirmacher et al. | Efficient Free Form Light Field Rendering. | |
| KR101163020B1 (en) | Method and scaling unit for scaling a three-dimensional model | |
| KR0166106B1 (en) | Apparatus and method for image processing | |
| JP3013593B2 (en) | Image display method | |
| JP2005092782A (en) | Method, apparatus and computer program for generating three-dimensional model, | |
| KR100392516B1 (en) | real-time rendering method for noninterpolated volume data |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20051227 |