JP6802129B2 - Information processing equipment, methods and programs - Google Patents
Information processing equipment, methods and programs Download PDFInfo
- Publication number
- JP6802129B2 JP6802129B2 JP2017167508A JP2017167508A JP6802129B2 JP 6802129 B2 JP6802129 B2 JP 6802129B2 JP 2017167508 A JP2017167508 A JP 2017167508A JP 2017167508 A JP2017167508 A JP 2017167508A JP 6802129 B2 JP6802129 B2 JP 6802129B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- objects
- overlap
- unit
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Generation (AREA)
Description
本発明は、並列処理に適しており且つ高速に処理可能なオクルージョン判定を行うことのできる情報処理装置、方法及びプログラムに関する。 The present invention relates to an information processing apparatus, method and program suitable for parallel processing and capable of performing occlusion determination capable of processing at high speed.
3Dモデルのオブジェクト間における可視領域の判定は、CG(コンピュータグラフィックス)分野一般において、また、特に、ボリュームレンダリングや自由視点映像生成における注目トピックである。その典型的手法として、レイキャスティング法は図1にその模式例(3次元空間の断面を構成する2次元での模式例)を示すように、光線と表面の交差テストを行うことで対象シーンの点が可視領域にあるか否かを決定する。レイキャスティング法は概略的には、各光線に関して以下の手順を行うというものである。 Determining the visible region between objects in a 3D model is a hot topic in the field of CG (computer graphics) in general, and especially in volume rendering and free-viewpoint video generation. As a typical method, the ray casting method shows a schematic example (a schematic example in two dimensions constituting a cross section of a three-dimensional space) in FIG. 1 by performing an intersection test between a light ray and a surface of a target scene. Determine if the point is in the visible region. The ray casting method is generally to perform the following procedure for each ray.
(手順1)ターゲット点とカメラの光学中心とを結ぶことで光線方向を決定する。図1では当該決定された光線方向の一例が示されている。
(手順2)当該光線と対象シーンのバウンディングボックス(bounding box)(空間内に設定する直方体の所定領域であって判定用のボクセル分割が施されているもの)に対する交差点として、入射点(光線の入る交差点)及び出射点(光線の出る交差点)を決定する。図1ではバウンディングボックスが模式的に碁盤目状に描かれると共に、一例の光線における入射点及び出射点が示されている。
(手順3)当該光線上でボクセル境界にある各点に関して、入射点から順次、出射点側の隣接点をスキャンしていくことで、最初に3Dモデル(すなわちオブジェクト)に交差する点を可視領域の点と判定し、当該点よりも先にある各点はオクルージョンが発生していると判定する。図1では一例の光線及びグレーで示すオブジェクトに対して、可視領域判定された点とその先のオクルージョン判定された点とが示されている。
(Procedure 1) The direction of light rays is determined by connecting the target point and the optical center of the camera. FIG. 1 shows an example of the determined ray direction.
(Procedure 2) As an intersection of the light ray and the bounding box of the target scene (a predetermined area of a rectangular parallelepiped set in space and voxel division for judgment), an incident point (light ray). Determine the entry point) and the exit point (the intersection where the light beam exits). In FIG. 1, the bounding box is schematically drawn in a grid pattern, and the incident point and the exit point of an example light ray are shown.
(Procedure 3) For each point on the voxel boundary on the light beam, by scanning the adjacent points on the exit point side sequentially from the incident point, the point that first intersects the 3D model (that is, the object) is visible. It is determined that occlusion has occurred at each point ahead of the point. In FIG. 1, for an example light ray and an object shown in gray, a point determined as a visible region and a point determined as an occlusion beyond the point are shown.
レイキャスティング法における基本的な問題として、(手順3)のスキャン幅(図1にもその一例を示すストライド)に関して、適切な値をどのように設定すればよいかという問題がある。すなわち、ストライドを小さくすれば精度は上がるものの計算量が増えてしまい、逆にストライドを大きくすれば計算量は減るものの精度が下がってしまう。 As a basic problem in the ray casting method, there is a problem of how to set an appropriate value for the scan width (stride shown in FIG. 1 as an example) in (Procedure 3). That is, if the stride is reduced, the accuracy is increased but the amount of calculation is increased, and conversely, if the stride is increased, the amount of calculation is reduced but the accuracy is reduced.
当該トレードオフ関係にある精度及び計算量の問題に関して、非特許文献1では、コーンステップマッピングと呼ばれる手法を提案し、予め処理された円錐(コーン)を用いてストライドの幅を調整している。また、非特許文献2では最大ミップマップ法を提案し、ミップマップ状のデータ構造の利用することで何もない空の空間をスキップしてスキャン速度を高速化している。
Regarding the problems of accuracy and computational complexity that are in a trade-off relationship, Non-Patent
また、可視領域決定のその他の手法として非特許文献3,4等に開示されるZバッファ法(深度バッファ法)がある。概略的には、対象シーンのレンダリング画像の各画素に関して、あるオブジェクトの表面に該当するものである場合にはその深度を保存しておき、このような画素が同時に別のオブジェクトの表面にも該当する場合は、深度の値をより小さい方(すなわちよりカメラに近いオブジェクトの深度)で上書きしていくようにするという手法である。
Further, as another method for determining the visible region, there is a Z-buffer method (depth buffer method) disclosed in
しかしながら、以上のような2手法(非特許文献1,2のような高速化を考慮したレイキャスティング法及び非特許文献3,4のようなZバッファ法)は、依然として課題を有するものであった。
However, the above two methods (the ray casting method considering speeding up as in
まず、高速化考慮のレイキャスティング法は、予め計算しておいた何らかの結果を記憶しておく必要があることで、記憶装置の容量及び帯域を大量消費してしまうという課題があった。また、交差判定を繰り返し行う計算負荷が大きくなるため、高解像度の3Dモデルを扱うことが困難であった。また、潜在的なリスクとして交差判定の繰り返し回数が対象とする光線によって変動しうることから、GPU等を用いた並列処理に不向きであるという課題もあった。 First, the ray casting method in consideration of high speed has a problem that a large amount of capacity and bandwidth of the storage device are consumed because it is necessary to store some result calculated in advance. In addition, it is difficult to handle a high-resolution 3D model because the calculation load for repeatedly performing the intersection determination becomes large. In addition, as a potential risk, the number of times the intersection determination is repeated may fluctuate depending on the target light beam, so that there is also a problem that it is not suitable for parallel processing using a GPU or the like.
また、Zバッファ法ではある頂点(オブジェクトの頂点)が可視領域にあるか否かの判定が、別の頂点の状態に依存することとなり、逐次処理に向いたCPU等では高速化が可能だが、並列処理に向いたGPU等では必ずしも容易に利用することはできないという課題があった。さらに、Zバッファ法においては各頂点からカメラへの距離を計算する際に、頂点のうち一部分のみにオクルージョンが発生しているという前提を置いていた。 Also, in the Z-buffer method, the judgment of whether or not one vertex (vertex of an object) is in the visible area depends on the state of another vertex, and it is possible to speed up with a CPU etc. suitable for sequential processing. There is a problem that it cannot always be easily used with GPUs and the like suitable for parallel processing. Furthermore, in the Z-buffer method, when calculating the distance from each vertex to the camera, it was assumed that occlusion occurred in only a part of the vertices.
以上のような従来技術の課題に鑑み、本発明は、並列処理に適しており且つ高速に処理可能なオクルージョン判定を行うことのできる情報処理装置(並びに方法及びプログラム)を提供することを目的とする。 In view of the above problems of the prior art, an object of the present invention is to provide an information processing device (as well as a method and a program) suitable for parallel processing and capable of performing occlusion determination capable of high-speed processing. To do.
上記目的を達成するため、本発明は情報処理装置であって、3Dオブジェクトのモデルデータを所定のカメラ配置における画像領域に逆投影し、画像領域の各点における3Dオブジェクトが投影されている数である重複度を与えた重複マップを得る投影部と、前記重複マップの重複度が2以上となる領域をそれぞれ重複領域として抽出する抽出部と、前記重複領域に対応する2以上の3Dオブジェクト毎の領域を特定し、当該領域の中からカメラ中心との位置関係に基づいて前記所定カメラ配置においてオクルージョンを発生させるものを判定する判定部と、を備えることを特徴とする。
In order to achieve the above object, the present invention is an information processing apparatus, in which model data of a 3D object is back-projected onto an image area in a predetermined camera arrangement, and the number of 3D objects projected at each point in the image area is used. A projection unit that obtains an overlap map with a certain degree of overlap, an extraction unit that extracts an area in which the overlap degree of the overlap map is 2 or more as an overlap area, and a 3D object of 2 or more corresponding to the overlap area. It is characterized by including a determination unit for specifying an area and determining what causes occlusion in the predetermined camera arrangement based on the positional relationship with the camera center from the area.
本発明によれば、並列処理に適した手法によって高速に処理可能なオクルージョン判定を行うことができる。 According to the present invention, occlusion determination capable of high-speed processing can be performed by a method suitable for parallel processing.
図2は、一実施形態に係る情報処理装置の機能ブロック図である。図示するように情報処理装置10は、投影部1、抽出部2及び判定部3を備え、判定部3はさらに特定部31、計算部32及び遮蔽判定部33を備える。図示される通り、各部の機能概要は次の通りである。
FIG. 2 is a functional block diagram of the information processing device according to the embodiment. As shown in the figure, the information processing device 10 includes a
投影部1では入力として予め用意されている複数の3Dオブジェクトのモデルデータを受け取り、当該複数の3Dオブジェクトを所定のカメラ配置でレンダリングする場合の画像領域に逆投影することで、当該画像領域の各画素位置において3Dオブジェクトの重複度をカウントして与えた重複マップを得て、当該重複マップを抽出部2へと出力する。
The
抽出部2では、投影部1から得られた重複マップにおいて重複度が2以上となっている領域をそれぞれ重複領域として抽出し、当該重複領域の情報を判定部3(特定部31)へと出力する。
The
判定部3では、抽出部2から得られた重複領域に基づいて、投影部1において重複マップを作成した際の所定のカメラ配置において、複数の3Dオブジェクトのうちオクルージョンを発生させているもの及びその3Dオブジェクト内での領域を判定する。当該判定するための要素処理として、各部31〜33は以下のような処理を行なう。
In the
特定部31は、抽出部2から得られる重複領域のそれぞれに対して、重複領域に対応している(すなわち、当該重複領域へと逆投影されている)3Dオブジェクト及びその領域(3Dオブジェクト内における部分領域)を特定し、当該特定結果を計算部32へと出力する。なお、当該対応する3Dオブジェクト及びその領域は、各重複領域に対して2個以上存在することとなる。
The
計算部32では、特定部31で各重複領域について得られた対応する3Dオブジェクト及びその領域に関して、逆投影の際のカメラ中心からの位置関係を計算し、当該位置関係を遮蔽判定部33へと出力する。
The
遮蔽判定部33は、特定部31で各重複領域について得られた2個以上の対応する3Dオブジェクト及びその領域の中から、計算部32で計算された位置関係に基づいて、オクルージョンを発生させているものがいずれであるかを判定し、判定部3の出力となす。なお、遮蔽判定部33では、当該出力と同等の情報(オクルージョンを発生させていないものがいずれであるかを特定する情報)として、投影部1で複数の3Dオブジェクトを所定のカメラ配置でレンダリングする場合の画像領域に逆投影する場合に、可視領域を構成することとなる3Dオブジェクト及びその領域を出力するようにしてもよい。
The
以下、当該概略説明した各部の処理内容の詳細を説明する。図3及び図4は当該詳細説明のための模式例を示す図であり、以下の説明において適宜参照する。なお、図3は主として投影部1及び抽出部2を説明するためのものであり、図4は主として判定部3を説明するためのものであり、当該図3及び4の間では用いる例(対象となる3Dオブジェクトの模式例)が共通している。
Hereinafter, the details of the processing contents of each part described in detail will be described. 3 and 4 are diagrams showing a schematic example for the detailed explanation, and will be referred to as appropriate in the following description. Note that FIG. 3 is mainly for explaining the
<投影部1について>
投影部1では、そのモデルデータが入力される複数の3Dオブジェクトに関して、所定カメラ配置での逆投影を行うことで、重複マップを求める。周知のように逆投影とは、与えられた3Dモデルが所定カメラ配置における画像においてどのように分布するかを明らかにする処理である。図3の[1]の例では4つの3DオブジェクトM1〜M4(それぞれIDとしてIdi=1〜4が付与されている)を所定配置にあるカメラCに逆投影することで、その画像領域に重複度マップOMを得ることが示されている。さらに図3の[2]に示すよ
うに、当該得られた重複度マップOMは画像領域内での3Dオブジェクトの重複度(重複している個数)の分布を与えるものとなっている。図3の[2]では当該重複度の具体例が説明のための吹き出しによって示されており、3Dオブジェクトが全く逆投影されない背景領域に関しては「重複度=0」であり、3DオブジェクトM3やM4等が1個だけ逆投影された領域に関して「重複度=1」となり、2個の3DオブジェクトのM3,M4のそれぞれ一部が互いに重複している領域に関して「重複度=2」となることが例として示されている。
<About
The
具体的な逆投影に関しては、以下の式(1)によって各3Dオブジェクトのモデルデータ(モデルの3D座標系においてM個のオブジェクトの頂点位置(M個のオブジェクト全体で合計N個の頂点)を与えたデータ){Pi x, Pi y, Pi z}(i=1, 2, ..., N)を画像領域の(正規化された)座標(u,v)へと逆投影することができる。T34は逆投影の行列である。 Regarding the specific back projection, the model data of each 3D object (the vertex positions of M objects in the 3D coordinate system of the model (total of N vertices in all M objects) is given by the following equation (1). Data) {P i x , P i y , P i z } (i = 1, 2, ..., N) is back-projected to the (normalized) coordinates (u, v) of the image area. be able to. T 34 is a back-projection matrix.
当該逆投影を、各頂点データ{Pi x, Pi y, Pi z}(i=1, 2, ..., N)に関して行い、各座標(u,v)においてM個の各3Dオブジェクトの頂点が少なくとも1点だけ逆投影された場合に、当該オブジェクトからの重複度の寄与分に「+1」の加算を行うことで、投影部1では重複度マップoverlapMap(u,v)を得ることができる。なお、ある1個の3Dオブジェクトの2個以上の頂点が座標(u,v)に逆投影される場合であっても、当該3Dオブジェクトからの重複度の寄与分は「+1」のみとする。従って、重複度マップoverlapMap(u,v)の各座標(u,v)における値の範囲は0以上M以下となる。
The back projection is performed on each vertex data {P i x , P i y , P i z } (i = 1, 2, ..., N), and M 3D each at each coordinate (u, v). When at least one vertex of an object is back-projected, the multiplicity map overlapMap (u, v) is created in the
なお、重複度マップの表現に関して、図面中で模式例として参照する場合は符号「OM」を用い、「overlapMap(u,v)」は数式等において参照するために用いる。 Regarding the representation of the multiplicity map, the code "OM" is used when referring to it as a schematic example in the drawing, and "overlapMap (u, v)" is used to refer to it in mathematical formulas and the like.
ここで、式(1)による逆投影等を実現するにあたっての本発明の一実施形態における前提事項を列挙すると以下の(1)〜(5)の通りである。
(1) 各頂点データ{Pi x, Pi y, Pi z}としての3Dオブジェクトのモデルデータは用意しておく。
(2) 当該モデルデータ内において個別の3Dオブジェクトの区別(セグメント結果)も予め与えておく。すなわち、各頂点データ{Pi x, Pi y, Pi z}に関して、M個のいずれのオブジェクトに属するものかの区別を予め与えておく。
(3) 当該頂点データへの区別を与えておくための個別のオブジェクトに関してもID(式Idiで表記することとする)を与えておく。
(4) 投影行列T34及び投影するカメラ位置{Cx, Cy, Cz}は既知のものとして定義しておく。
(5) モデルデータとしての3Dオブジェクトの各頂点データ{Pi x, Pi y, Pi z}はその密度が十分に高く、互いに隣接する2つの頂点v1,v2を式(1)で逆投影した場合には、同一の画像座標(u,v)に投影されるか、又は十分に近傍となる座標に投影される。例えば座標(u,v)と、その隣接座標である(u±1,v)又は(u, v±1)のいずれかとに投影される。
Here, the prerequisites in one embodiment of the present invention for realizing the back projection or the like according to the equation (1) are listed below (1) to (5).
(1) Prepare the model data of the 3D object as each vertex data {P i x , P i y , P i z }.
(2) The distinction between individual 3D objects (segment results) in the model data is also given in advance. That is, for each vertex data {P i x , P i y , P i z }, the distinction of which of the M objects belongs is given in advance.
(3) An ID (expressed by the expression Id i ) is also given to each individual object for giving a distinction to the vertex data.
(4) The projection matrix T 34 and the camera position {C x , C y , C z } to be projected are defined as known ones.
(5) The density of each vertex data {P i x , P i y , P i z } of the 3D object as model data is sufficiently high, and the two vertices v1 and v2 adjacent to each other are inverted by Eq. (1). When projected, it is projected at the same image coordinates (u, v) or at coordinates that are sufficiently close. For example, it is projected onto the coordinates (u, v) and their adjacent coordinates (u ± 1, v) or (u, v ± 1).
<抽出部2について>
抽出部2では、重複度マップから重複領域をそれぞれ識別して抽出する。具体的には、重複度マップのうち重複度が2以上となっている点を前景とみなし、それ以外の重複度が1以下となっている点を背景とみなすことで重複度マップを2値画像とみなしたものに対して、任意の領域分割手法を適用することにより、前景として重複度が2以上になっている領域をそれぞれ重複領域として識別して抽出する。例えば、以下の式で模式的に示すように連結領域ラベリングCCLの適用により、前景を構成している各座標(u,v)に関して属する連結領域のIDであるIdaA(u,v)を得るようにしてよい。ここで、CCL{}はプログラミング等の表現における関数等としてCCLを適用する処理を表現している。
IdA(u,v)=CCL{overlapMap(u,v)} (2)
<About
The
IdA (u, v) = CCL {overlapMap (u, v)} (2)
図3の例では[2]に示す重複度マップから[3]に示す領域抽出結果AMとして2つの重複領域A1,A2が識別されたうえで抽出される例が示されている。重複領域A1は[1]の3DオブジェクトM1,M2の重複箇所に該当し、重複領域A2は[1]の3DオブジェクトM3,M4の重複箇所に該当するものである。 In the example of FIG. 3, an example is shown in which two overlapping regions A1 and A2 are identified and then extracted as the region extraction result AM shown in [3] from the multiplicity map shown in [2]. The overlapping area A1 corresponds to the overlapping part of the 3D objects M1 and M2 of [1], and the overlapping area A2 corresponds to the overlapping part of the 3D objects M3 and M4 of [1].
<特定部31について>
特定部31は、各重複箇所に対して、いずれの3Dオブジェクトのいずれの部分領域が対応しているか、すなわち逆投影されるものであるかをオクルージョン発生原因の候補として特定する。ここで、一実施形態では当該特定を、投影部1で既に逆投影しておいた際の結果(いずれの3Dオブジェクトが(u,v)に逆投影されたかの結果)を各画素位置(u,v)において記憶しておいたものを参照することによって実現するようにしてもよい。
<About
The
しかしながら、一実施形態では特定部31は、逆投影部1で行ったのと同じ逆投影を再度実行することによって当該候補を特定してもよい。当該実施形態により上記記憶しておくメモリ領域を省略することが可能となる。当該メモリ領域はカメラ数が多い場合、膨大なものとなってしまうが、当該一実施形態ではそのようなメモリ消費を避けることができる。
However, in one embodiment, the
図4の例は、図3の[3]のものと同じ領域抽出結果AMのうちの重複領域A2に関して特定部31による処理が行われることで、3DオブジェクトM4の部分領域M4-O2と3DオブジェクトM3の部分領域M3-O2との2個の部分領域がオクルージョン発生候補となることが特定される例である。
In the example of FIG. 4, the overlapping area A2 of the same area extraction result AM as that of [3] of FIG. 3 is processed by the
<計算部32について>
計算部32では、特定部31において重複領域ごとに特定されたオクルージョン発生候補となる複数の3Dオブジェクトの部分領域に関して、特定部31(及び投影部1)での逆投影の際のカメラ中心との位置関係を計算する。一実施形態では、カメラ中心と各3Dオブジェクトの部分領域における各点との平均の距離(オイラー距離など)として、当該位置関係を計算してよい。(なお、当該平均距離はカメラ中心(1点)と各3Dオブジェクトの部分領域における各点i=1,2,..., M(Mは当該3Dオブジェクトの部分領域の点の総数)との距離をD(i)(i=1,2, ..., M)として、当該各距離D(i)をM個の点に関して総和したものを当該個数Mで割ったものとして求めればよい。)
<About
In the
<遮蔽判定部32について>
遮蔽判定部32では、計算部31で計算された位置関係に基づき、重複領域ごとに特定されたオクルージョン発生候補となる複数の3Dオブジェクトの部分領域のうち、実際にオクルージョンを発生されているものを特定する。具体的には、当該位置関係においてカメラ中心に最も近いと判定されるもの以外をオクルージョンを発生させているものとして特定する。計算部31で式(3),(4)の平均オイラー距離で位置関係を計算したのであれば、当該距離が最小となるもの以外を、オクルージョンを発生させているものとして特定する。
<About the shielding
In the
例えば図4の例であれば、重複領域A2に対応する候補としての3DオブジェクトM4の部分領域M4-O2と3DオブジェクトM3の部分領域M3-O2との2個の部分領域のうち、カメラCのカメラ中心に最も近い部分領域M4-O2はオクルージョンを発生させないものとして判定され、これよりも遠い部分領域M3-O2はオクルージョンを発生させるものとして判定される。なお、本発明の一実施形態ではこのようにオクルージョン判定はオブジェクトの部分領域を単位として判定する。(すなわち、当該部分領域内においてさらに区別してオクルージョン判定を行うこと、例えばカメラ中心から見て表(オクルージョンなし)や裏(オクルージョンあり)にあるものを区別するといったことは省略される。) For example, in the example of FIG. 4, of the two subregions of the 3D object M4 subregion M4-O2 and the 3D object M3 subregion M3-O2 as candidates corresponding to the overlapping region A2, the camera C The subregion M4-O2 closest to the center of the camera is determined not to generate occlusion, and the subregion M3-O2 farther than this is determined to generate occlusion. In one embodiment of the present invention, the occlusion determination is determined in units of subregions of the object. (That is, it is omitted to make an occlusion judgment by further distinguishing within the partial area, for example, distinguishing what is on the front side (without occlusion) or on the back side (with occlusion) when viewed from the center of the camera.)
以上、本発明によれば、GPU等を用いてリアルタイムに可視領域の判定を行う場合等に利用可能なオクルージョン判定を行うことが可能であり、各処理はGPU等の並列処理に適したものとして構成されており、人手による指定作業等が不要な自動処理として実現可能である。ここで特に、従来手法のような繰り返し処理も不要であることから、本発明は並列処理に適したものとして構成されている。 As described above, according to the present invention, it is possible to perform occlusion determination that can be used when determining the visible region in real time using a GPU or the like, and each process is suitable for parallel processing of the GPU or the like. It is configured and can be realized as an automatic process that does not require manual designation work. Here, in particular, the present invention is configured to be suitable for parallel processing because iterative processing as in the conventional method is not required.
本発明は、コンピュータを情報処理装置10として機能させるプログラムとしても提供可能である。当該コンピュータには、CPU(中央演算装置)、メモリ及び各種I/Fといった周知のハードウェア構成のものを採用することができ、CPUが情報処理装置10の各部の機能に対応する命令を実行することとなる。また、当該コンピュータはさらに、CPUよりも並列処理を高速実施可能なGPU(グラフィック処理装置)を備え、CPUに代えて情報処理装置10の全部又は任意の一部分の機能を当該GPUにおいてプログラムを読み込んで実行するようにしてもよい。 The present invention can also be provided as a program that causes a computer to function as an information processing device 10. A well-known hardware configuration such as a CPU (central processing unit), memory, and various I / Fs can be adopted for the computer, and the CPU executes instructions corresponding to the functions of each part of the information processing unit 10. It will be. In addition, the computer is further equipped with a GPU (graphic processing unit) capable of performing parallel processing at a higher speed than the CPU, and the GPU reads a program for all or any part of the functions of the information processing device 10 instead of the CPU. You may want to do it.
10…情報処理装置、1…投影部、2…抽出部、3…判定部 10 ... Information processing device, 1 ... Projection unit, 2 ... Extraction unit, 3 ... Judgment unit
Claims (6)
前記重複マップの重複度が2以上となる領域をそれぞれ重複領域として抽出する抽出部と、
前記重複領域に対応する2以上の3Dオブジェクト毎の領域を特定し、当該領域の中からカメラ中心との位置関係に基づいて前記所定カメラ配置においてオクルージョンを発生させるものを判定する判定部と、
を備えることを特徴とする情報処理装置。 A projection unit that back-projects the model data of a 3D object onto an image area in a predetermined camera arrangement to obtain an overlap map with a degree of overlap, which is the number of projected 3D objects at each point in the image area .
An extraction unit that extracts regions having a multiplicity of 2 or more in the overlap map as overlapping regions, and an extraction unit.
A determination unit that identifies an area for each of two or more 3D objects corresponding to the overlapping area, and determines which area causes occlusion in the predetermined camera arrangement based on the positional relationship with the camera center.
An information processing device characterized by being equipped with.
前記重複マップの重複度が2以上となる領域をそれぞれ重複領域として抽出する抽出段階と、
前記重複領域に対応する2以上の3Dオブジェクト毎の領域を特定し、当該領域の中からカメラ中心との位置関係に基づいて前記所定カメラ配置においてオクルージョンを発生させるものを判定する判定段階と、を備えることを特徴とする方法。 A projection step in which model data of a 3D object is back-projected onto an image area in a predetermined camera arrangement to obtain an overlap map with a degree of overlap, which is the number of projected 3D objects at each point in the image area .
An extraction step in which regions having a multiplicity of 2 or more in the overlap map are extracted as overlapping regions, and
A determination step in which an area for each of two or more 3D objects corresponding to the overlapping area is specified, and an occlusion is generated in the predetermined camera arrangement based on the positional relationship with the camera center from the area. A method characterized by being prepared.
3Dオブジェクトのモデルデータを所定のカメラ配置における画像領域に逆投影し、画像領域の各点における3Dオブジェクトが投影されている数である重複度を与えた重複マップを得る投影部と、
前記重複マップの重複度が2以上となる領域をそれぞれ重複領域として抽出する抽出部と、
前記重複領域に対応する2以上の3Dオブジェクト毎の領域を特定し、当該領域の中からカメラ中心との位置関係に基づいて前記所定カメラ配置においてオクルージョンを発生させるものを判定する判定部と、を備えることを特徴とする情報処理装置として機能させるプログラム。 Computer,
A projection unit that back-projects the model data of a 3D object onto an image area in a predetermined camera arrangement to obtain an overlap map with a degree of overlap, which is the number of projected 3D objects at each point in the image area .
An extraction unit that extracts regions having a multiplicity of 2 or more in the overlap map as overlapping regions, and an extraction unit.
A determination unit that specifies an area for each of two or more 3D objects corresponding to the overlapping area and determines an area that causes occlusion in the predetermined camera arrangement based on the positional relationship with the camera center. A program that functions as an information processing device, which is characterized by being provided.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017167508A JP6802129B2 (en) | 2017-08-31 | 2017-08-31 | Information processing equipment, methods and programs |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017167508A JP6802129B2 (en) | 2017-08-31 | 2017-08-31 | Information processing equipment, methods and programs |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2019046080A JP2019046080A (en) | 2019-03-22 |
| JP6802129B2 true JP6802129B2 (en) | 2020-12-16 |
Family
ID=65814413
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017167508A Active JP6802129B2 (en) | 2017-08-31 | 2017-08-31 | Information processing equipment, methods and programs |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6802129B2 (en) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7078564B2 (en) * | 2019-02-21 | 2022-05-31 | Kddi株式会社 | Image processing equipment and programs |
Family Cites Families (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH05120449A (en) * | 1991-01-28 | 1993-05-18 | Ricoh Co Ltd | Image processing device |
| JP3733493B2 (en) * | 1996-04-09 | 2006-01-11 | 株式会社ディジタルメディアプロフェッショナル | Image composition circuit |
| JP2882465B2 (en) * | 1995-12-25 | 1999-04-12 | 日本電気株式会社 | Image generation method and apparatus |
| JP6491517B2 (en) * | 2015-03-31 | 2019-03-27 | Kddi株式会社 | Image recognition AR device, posture estimation device, and posture tracking device |
| JP6516646B2 (en) * | 2015-09-30 | 2019-05-22 | Kddi株式会社 | Identification apparatus for identifying individual objects from images taken by a plurality of cameras, identification method and program |
| JP6579950B2 (en) * | 2015-12-24 | 2019-09-25 | Kddi株式会社 | Image analysis apparatus, program, and method for detecting person appearing in captured image of camera |
-
2017
- 2017-08-31 JP JP2017167508A patent/JP6802129B2/en active Active
Also Published As
| Publication number | Publication date |
|---|---|
| JP2019046080A (en) | 2019-03-22 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Paulin et al. | Review and analysis of synthetic dataset generation methods and techniques for application in computer vision | |
| US12198245B2 (en) | Three-dimensional (3D) rendering method and apparatus | |
| JP5476138B2 (en) | A method for updating acceleration data structures for ray tracing between frames based on changing field of view | |
| US9842424B2 (en) | Volume rendering using adaptive buckets | |
| CN111788608B (en) | A hybrid ray tracing approach for modeling light reflections | |
| Brabec et al. | Shadow volumes on programmable graphics hardware | |
| US12394140B2 (en) | Sub-pixel data simulation system | |
| US8884947B2 (en) | Image processing apparatus and image processing method | |
| US9208610B2 (en) | Alternate scene representations for optimizing rendering of computer graphics | |
| JP5055214B2 (en) | Image processing apparatus and image processing method | |
| JP2015228186A (en) | Image processor and image processing method | |
| KR20150114767A (en) | Method and Apparatus for rendering same region of multi frames | |
| JP5873672B2 (en) | Method for estimating the amount of light received at a point in a virtual environment | |
| CN117274542A (en) | Apparatus and method for generating dynamic virtual content in mixed reality | |
| KR20160068204A (en) | Data processing method for mesh geometry and computer readable storage medium of recording the same | |
| WO2023179091A1 (en) | Three-dimensional model rendering method and apparatus, and device, storage medium and program product | |
| CN119280805B (en) | Game scene switching method, device, equipment and medium | |
| WO2024037116A1 (en) | Three-dimensional model rendering method and apparatus, electronic device and storage medium | |
| KR102558739B1 (en) | 3d graphic rendering method and apparatus | |
| JP2014006901A (en) | Method for estimating quantity of light received by participating media, and corresponding device | |
| KR20130092055A (en) | Image processing apparatus and method | |
| Wiemann et al. | Automatic Map Creation For Environment Modelling In Robotic Simulators. | |
| JP6802129B2 (en) | Information processing equipment, methods and programs | |
| KR101467735B1 (en) | Method and Apparatus for 4D Real-time Rendering for Volume Data | |
| Camporesi et al. | Computing shortest path maps with GPU shaders |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190823 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200819 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200909 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201016 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201125 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201126 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6802129 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |