JP2023073003A - Rendering device and its program - Google Patents
Rendering device and its program Download PDFInfo
- Publication number
- JP2023073003A JP2023073003A JP2021185787A JP2021185787A JP2023073003A JP 2023073003 A JP2023073003 A JP 2023073003A JP 2021185787 A JP2021185787 A JP 2021185787A JP 2021185787 A JP2021185787 A JP 2021185787A JP 2023073003 A JP2023073003 A JP 2023073003A
- Authority
- JP
- Japan
- Prior art keywords
- image
- rendering
- physics
- pixel value
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Generation (AREA)
Abstract
【課題】高精度でないモデルからも自然なCG画像を生成できるレンダリング装置を提供する。【解決手段】レンダリング装置1は、第一仮想照明で物理ベースレンダリングを適用する第一物理ベースレンダリング部10と、第一仮想照明と異なる第二仮想照明で物理ベースレンダリングを適用する第二物理ベースレンダリング部11と、イメージベースモデルに対してイメージベースレンダリングを適用するイメージベースレンダリング部12と、第一物理ベースCGと第二物理ベースCGとイメージベースCGとの対応画素の画素値から、出力CGの対応画素の画素値を演算する画素値演算部13と、を備える。【選択図】図1A rendering device capable of generating a natural CG image even from an imprecise model is provided. A rendering device (1) includes a first physics-based rendering unit (10) that applies physics-based rendering with a first virtual illumination, and a second physics-based rendering unit (10) that applies physics-based rendering with a second virtual illumination different from the first virtual illumination. An output CG is obtained from a rendering unit 11, an image-based rendering unit 12 that applies image-based rendering to an image-based model, and pixel values of corresponding pixels of the first physical-based CG, the second physical-based CG, and the image-based CG. and a pixel value calculation unit 13 for calculating the pixel value of the corresponding pixel. [Selection drawing] Fig. 1
Description
本発明は、レンダリング装置及びそのプログラムに関する。 The present invention relates to a rendering device and its program.
物理ベースモデルは、被写体の形状に加えて、表面・界面における反射、屈折及び透過、並びに内部における光の散乱などの光学的な性質をモデル化したものである。この物理ベースモデルのレンダリング方法として、前記光学的な性質に基づく光線の挙動を計算機や装置によって模擬することにより、CG(Computer Graphics)画像を生成する物理ベースレンダリングが知られている(例えば、特許文献1)。特許文献1においては、顔の表面下散乱などを測定して、両指向性反射率関数、アルベドマップ及び透光性マップを結合した顔の皮膚反射モデルを形成する方法が開示されている。 A physics-based model is a model that models not only the shape of an object but also optical properties such as reflection, refraction, and transmission on surfaces and interfaces, and scattering of light inside. As a rendering method for this physics-based model, physics-based rendering that generates a CG (Computer Graphics) image by simulating the behavior of light rays based on the optical properties with a computer or device is known (for example, patent Reference 1). US Pat. No. 6,200,000 discloses a method of measuring subsurface scattering of the face, etc., to form a skin reflectance model of the face that combines bidirectional reflectance functions, albedo maps, and translucency maps.
また、実写画像に基づき、幾何変換や補完を施すことによって、仮想的な視点における画像を合成するイメージベースレンダリングが知られている。イメージベースレンダリングにおいては、実画像に加えて、被写体の形状モデルの表面における座標と前記実写画像上の座標とを対応付けたテクスチャマップを用いる手法が知られている。 Also known is image-based rendering, which synthesizes an image at a virtual viewpoint by performing geometric transformation or interpolation based on a photographed image. In image-based rendering, a technique is known in which, in addition to the actual image, a texture map is used in which the coordinates on the surface of the shape model of the subject are associated with the coordinates on the actual image.
物理ベースレンダリングは、被写体の形状及び光学的な性質が十分な精度でモデル化されている場合には、自然なCG画像を生成できる。しかし、現実に存在する物体や生物を高精度にモデル化しようとすると、各種物理量計測の為のセンサが必要となり、物理ベースレンダリングでは、センシングや解析に要する時間や演算コストも膨大なものとなる。 Physics-based rendering can produce natural CG images if the shape and optical properties of the subject are modeled with sufficient accuracy. However, when trying to model objects and living things that exist in reality with high precision, sensors are required to measure various physical quantities, and with physics-based rendering, the time and computational costs required for sensing and analysis are enormous. .
例えば、双方向反射率分布関数(BRDF:Bidirectional Reflectance Distribution Function)を計測する場合、点光源に近い光やコード化されたパターン光を様々な角度から物体表面に照射し、様々な角度からその反射像を撮影する必要がある。このため、カメラ位置、光源位置、又は物体姿勢の2以上を変化させる機構を用意するか、複数のカメラまたは光源が必要となり、装置が大規模化する。さらに、双方向反射率分布関数の計測は、1回の撮影だけでは情報取得が完了しない。 For example, when measuring the bidirectional reflectance distribution function (BRDF), light close to a point light source or coded pattern light is irradiated onto the object surface from various angles, and the reflection from various angles is obtained. I need to take a picture. Therefore, a mechanism for changing two or more of the camera position, the light source position, and the object orientation is required, or a plurality of cameras or light sources are required, which increases the scale of the apparatus. Furthermore, in the measurement of the bidirectional reflectance distribution function, acquisition of information is not completed with only one photographing.
また、物理ベースレンダリングでは、自然界の物体や生物の形状や光学特性の記述には限界があり、記述しきれなかった部分がCG上の誤差となって現れる。特に、物理ベースレンダリングでは、フォトリアル直前の最後の一歩のところでいわゆる「不気味の谷」と称せられる認知上の不自然さに陥ることがあり、障壁となっている。 In addition, in physics-based rendering, there is a limit to the description of the shapes and optical characteristics of objects and living things in the natural world, and the parts that cannot be described appear as errors in CG. Especially in physically-based rendering, the last step before photo-realistic rendering can lead to the so-called "uncanny valley" of cognitive unnaturalness, which is a barrier.
一方、イメージベースレンダリングでは、物理モデルで表現しきれない光の影響も画像に含まれるため、自然なCG生成が可能であり、「不気味の谷」に陥りにくい。しかし、イメージベースレンダリングは、光学特性を厳密にモデル化する手法ではないため、照明条件を変化させることが難しい。特に、鏡面反射を有する被写体の場合には見る角度によって映り込みや艶感が変化するが、イメージベースレンダリングでは、このような映り込みや艶感の表現に基本的に対応していない。 On the other hand, in image-based rendering, since the image includes the effects of light that cannot be fully represented by the physical model, natural CG generation is possible, and the "uncanny valley" is less likely to occur. However, since image-based rendering is not a technique that strictly models optical properties, it is difficult to change lighting conditions. In particular, in the case of an object with specular reflection, the reflection and gloss change depending on the viewing angle, but image-based rendering basically does not support the expression of such reflection and gloss.
以上のように、物理ベースレンダリング及びイメージベースレンダリングの何れも一長一短があり、高精度でないモデルから自然なCG画像を生成することが困難である。 As described above, both physical-based rendering and image-based rendering have advantages and disadvantages, and it is difficult to generate a natural CG image from an imprecise model.
そこで、本発明は、高精度でないモデルからも自然なCG画像を生成できるレンダリング装置及びそのプログラムを提供することを課題とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide a rendering device capable of generating a natural CG image even from an imprecise model, and a program therefor.
前記課題を解決するため、本発明に係るレンダリング装置は、物理ベースレンダリング及びイメージベースレンダリングを用いて、被写体のモデルから出力CG画像をレンダリングするレンダリング装置であって、第一物理ベースレンダリング部と、第二物理ベースレンダリング部と、イメージベースレンダリング部と、画素値演算部と、を備える構成とした。 In order to solve the above problems, a rendering device according to the present invention is a rendering device that renders an output CG image from a model of a subject using physically-based rendering and image-based rendering, comprising: a first physically-based rendering unit; The configuration includes a second physical-based rendering section, an image-based rendering section, and a pixel value calculation section.
かかる構成によれば、第一物理ベースレンダリング部は、物理ベースモデルに対して所定の第一仮想照明条件で物理ベースレンダリングを適用することにより、第一物理ベースCG画像を生成する。
第二物理ベースレンダリング部は、物理ベースモデルに対して第一仮想照明条件と異なる第二仮想照明条件で物理ベースレンダリングを適用することにより、第二物理ベースCG画像を生成する。
According to this configuration, the first physics-based rendering section generates the first physics-based CG image by applying physics-based rendering to the physics-based model under the predetermined first virtual lighting conditions.
The second physics-based rendering unit generates a second physics-based CG image by applying physics-based rendering to the physics-based model under a second virtual lighting condition different from the first virtual lighting condition.
イメージベースレンダリング部は、イメージベースモデルに対してイメージベースレンダリングを適用することで、イメージベースCG画像を生成する。
画素値演算部は、第一物理ベースCG画像と第二物理ベースCG画像とイメージベースCG画像との対応画素の画素値から、出力CG画像の対応画素の画素値を演算する。
The image-based rendering section generates an image-based CG image by applying image-based rendering to the image-based model.
The pixel value calculation unit calculates the pixel value of the corresponding pixel of the output CG image from the pixel value of the corresponding pixel of the first physical base CG image, the second physical base CG image and the image base CG image.
以上のように、レンダリング装置は、イメージベースCG画像と第二物理ベースCGとの間の演算によって第一物理レンダリングで再現しきれない画素値成分を演算し、第一物理ベースCG画像に補完する。これによって、レンダリング装置は、高精度でないモデルからも自然なCG画像を生成できる。 As described above, the rendering device calculates pixel value components that cannot be completely reproduced in the first physical rendering by performing calculations between the image-based CG image and the second physical-based CG image, and complements the first physical-based CG image. . This allows the rendering device to generate natural CG images even from models that are not highly accurate.
なお、本発明は、コンピュータを前記したレンダリング装置として機能させるためのプログラムで実現することもできる。 The present invention can also be realized by a program for causing a computer to function as the rendering device described above.
本発明によれば、高精度でないモデルからも自然なCG画像を生成することができる。 According to the present invention, it is possible to generate a natural CG image even from an imprecise model.
以下、本発明の実施形態について図面を参照して説明する。但し、以下に説明する実施形態は、本発明の技術思想を具体化するためのものであって、特定的な記載がない限り、本発明を以下のものに限定しない。また、同一の手段には同一の符号を付し、説明を省略する場合がある。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the embodiments described below are for embodying the technical idea of the present invention, and unless there is a specific description, the present invention is not limited to the following. Further, the same reference numerals may be given to the same means, and the description thereof may be omitted.
(実施形態)
[レンダリング装置の構成例]
図1を参照し、実施形態に係るレンダリング装置1の構成例について説明する。
レンダリング装置1は、物理ベースレンダリング及びイメージベースレンダリングを用いて、被写体のモデルから出力CG(出力CG画像)をレンダリングするものである。図1に示すように、レンダリング装置1は、第一物理ベースレンダリング部10と、第二物理ベースレンダリング部11と、イメージベースレンダリング部12と、画素値演算部13とを備える。
(embodiment)
[Configuration example of rendering device]
A configuration example of a rendering device 1 according to an embodiment will be described with reference to FIG.
The rendering device 1 renders output CG (output CG image) from a subject model using physical-based rendering and image-based rendering. As shown in FIG. 1, the rendering device 1 includes a first physically based
第一物理ベースレンダリング部10は、物理ベースモデルに対して所定の第一仮想照明(第一仮想照明条件)で物理ベースレンダリングを適用することにより、第一物理ベースCG(第一物理ベースCG画像)を生成するものである。本実施形態では、第一物理ベースレンダリング部10は、物理ベースモデル、第一仮想照明及び仮想カメラパラメータが入力され、入力された物理ベースモデル、第一仮想照明及び仮想カメラパラメータに基づいて物理ベースレンダリングを実行し、第一物理ベースCGを生成する。そして、第一物理ベースレンダリング部10は、生成した第一物理ベースCGを画素値演算部13に出力する。
The first physics-based
物理ベースモデルは、物体の形状に加えて、物体表面や内部における光の反射、屈折、減衰、散乱などをモデル化したものである。
仮想カメラパラメータは、物理ベースモデルに記述された物体を仮想的に撮影する仮想的なカメラの位置、姿勢、画角などの情報である。
A physics-based model models not only the shape of an object but also the reflection, refraction, attenuation, and scattering of light on the surface and inside of the object.
The virtual camera parameters are information such as the position, orientation, and angle of view of a virtual camera that virtually captures an object described in the physical base model.
第一仮想照明は、物理ベースモデルに記述された物体を照らす光に関する情報である。例えば、第一仮想照明は、光源の数、点光源、線光源、面光源など光源の発光部の形状、光源の色又はスペクトル特性、光源の配光特性、光源の光軸方向、光源の配置などを含む。また、第一仮想照明は、アンビエントライト、ディレクショナルライト、エリアライト、ポイントライト、スポットライトなどの具体的な照明機器に合わせて表記してもよい。さらに、第一仮想照明は、グローバルイルミネーションのように照明の大域的なレンダリングに合わせて表記してもよい。 The first virtual lighting is information about the light illuminating the object described in the physics-based model. For example, the first virtual lighting includes the number of light sources, the shape of the light emitting part of the light source such as a point light source, a linear light source, and a surface light source, the color or spectrum characteristics of the light source, the light distribution characteristics of the light source, the optical axis direction of the light source, and the arrangement of the light source. and so on. Also, the first virtual lighting may be described according to specific lighting equipment such as ambient light, directional light, area light, point light, and spotlight. Additionally, the first virtual lighting may be described in accordance with the global rendering of the lighting, such as global illumination.
ここで、第一物理ベースレンダリング部10は、既知の物理ベースレンダリングを用いることができる。例えば、物理ベースレンダリングとしては、アルベド、スペキュラー反射、ラフネス、マイクロファセットといったパラメータやマップで表現されるものがあげられる。この他、物理ベースレンダリングは、LambertシェーディングやPhongシェーディングのように、比較的少ないパラメータで物体表面における反射特性を近似するものであってもよい。
Here, the first physics-based
第二物理ベースレンダリング部11は、物理ベースモデルに対して第一仮想照明と異なる第二仮想照明(第二仮想照明条件)で物理ベースレンダリングを適用することにより、第二物理ベースCG(第二物理ベースCG画像)を生成するものである。本実施形態では、第二物理ベースレンダリング部11は、物理ベースモデル、第二仮想照明及び仮想カメラパラメータが入力され、入力された第二仮想照明及び仮想カメラパラメータに基づいて物理ベースモデルに物理ベースレンダリングを実行し、第二物理ベースCGを生成する。そして、第二物理ベースレンダリング部11は、生成した第二物理ベースCGを画素値演算部13に出力する。
The second physics-based
ここで、第一物理ベースレンダリング部10と第二物理ベースレンダリング部11との間では、物体を照らす光に関する情報(仮想照明)が異なる。すわわち、第一物理ベースレンダリング部10及び第二物理ベースレンダリング部11は、同一の物理ベースモデルに対して、同一の仮想カメラパラメータで同一の物理ベースレンダリングを適用する。
Here, the information (virtual lighting) regarding the light that illuminates the object differs between the first physical-based
本実施形態では、第一仮想照明は、最終的に生成したい出力CG(出力CG画像)における照明条件、すなわち、レンダリング装置1が最終的に出力する出力CGの照明条件である。
第二仮想照明は、後記するイメージベースモデルが生成されたときの照明条件を近似したものである。例えば、第二仮想照明は、イメージベースモデルを複数の照明機材によって、被写体に対して様々な方位・仰角から照射して生成した場合、アンビエントライトとして近似してもよい。また、例えば、第二仮想照明は、イメージベースモデルを比較的少数(例えば10個以下)の照明機材によって照明して生成した場合、その照明機材と同数・同配置のエリアライトやポイントライトによって近似してもよい。なお、第一仮想照明と第二仮想照明は、何れも手動で設定するものであり、両者が異なる理由については後記する。
In the present embodiment, the first virtual illumination is the illumination condition in the output CG (output CG image) to be generated finally, that is, the illumination condition of the output CG finally output by the rendering device 1 .
The second virtual illumination is an approximation of the illumination conditions under which the image-based model, which will be described later, was generated. For example, the second virtual lighting may be approximated as ambient light when the image-based model is generated by illuminating the subject from various azimuths and elevation angles using a plurality of lighting devices. Also, for example, if the image-based model is generated by illuminating the image-based model with a relatively small number of lighting devices (for example, 10 or less), the second virtual lighting can be approximated by the same number and arrangement of area lights and point lights as the lighting devices. You may Note that both the first virtual illumination and the second virtual illumination are manually set, and the reason for the difference between the two will be described later.
なお、第二仮想照明の「近似」とは、例えば、光源の数、点光源、線光源、面光源など光源の発光部の形状、光源の色又はスペクトル特性、光源の配光特性、光源の光軸方向、光源の配置などの全部又は一部を、イメージベースモデルが生成されたときの照明条件に近似させることを言う。当然、第二仮想照明の「近似」には、イメージベースモデルが生成されたときの照明条件と同一にすることが含まれる。 The “approximation” of the second virtual illumination includes, for example, the number of light sources, the shape of the light emitting part of the light source such as a point light source, a linear light source, and a surface light source, the color or spectral characteristics of the light source, the light distribution characteristics of the light source, the light source It refers to approximating all or part of the optical axis direction, light source arrangement, etc. to the lighting conditions when the image-based model was generated. Of course, "approximating" the second virtual lighting includes making it identical to the lighting conditions under which the image-based model was generated.
イメージベースレンダリング部12は、イメージベースモデルに対してイメージベースレンダリングを適用することで、イメージベースCG(イメージベースCG画像)を生成するものである。本実施形態では、イメージベースレンダリング部12は、イメージベースモデル及び仮想カメラパラメータが入力され、入力された仮想カメラパラメータに基づいてイメージベースモデルにイメージベースレンダリングを実行し、イメージベースCGを生成する。そして、イメージベースレンダリング部12は、生成したイメージベースCGを画素値演算部13に出力する。
The image-based
ここで、イメージベースレンダリング部12は、既知のイメージベースレンダリングを用いることができる。例えば、イメージベースレンダリング部12は、仮想カメラパラメータに基づいて、実写画像を変形する手法、複数の実写画像(変形したもの含む)をブレンディング、モザイキング、複数枚超解像などで合成する手法、実写画像に基づいて生成されたモデルを投影する手法などを適宜組み合わせて、イメージベースCGを生成する。
Here, the image-based
イメージベースモデルは、複数の照明光、無影灯または面状の照明光により撮影した実写画像に基づいたモデルである。
前記した実写画像の変形の手法、合成の手法、前記実写画像から生成されたイメージベースモデルを投影する手法、及び、前記実写画像から抽出された画素値情報又はテクスチャ情報をイメージベースCGと呼ぶ。
An image-based model is a model based on a photographed image taken with a plurality of illumination lights, shadowless lights, or planar illumination lights.
The method of transforming the photographed image, the method of synthesis, the method of projecting the image-based model generated from the photographed image, and the pixel value information or texture information extracted from the photographed image are called image-based CG.
例えば、イメージベースレンダリング部12は、ポリゴン等の形状モデル上の座標と、実写画像の画像座標とを対応付けたテクスチャマップと、前記形状モデルとを含むイメージベースモデルを用いてもよい。この場合、一つの視点で撮影した実写画像であってもよいし、複数の視点で撮影した画像列を用い、前記形状モデル上の場所に応じて用いる画像を変えてもよい。
For example, the image-based
また、イメージベースレンダリング部12は、例えば、ポイントクラウドを用い、このポイントクラウドを構成する各点に実写画像の画素値を付与することで、イメージベースCGを生成してもよい。この場合も、実写画像は一つの視点で撮影した画像であってもよいし、複数の視点で撮影した画像列を用い、ポイントクラウドを構成する点に応じて用いる画像を変えてもよい。
Further, the image-based
また、イメージベースレンダリング部12は、複数の視点で撮影した画像列を用いて、その補完により中間視点のイメージベースCGを生成してもよい。この場合、後記する画素値演算部13では、画像列を構成する画像間の局所的な対応付けを行い、この対応ベクトルに所定の倍数を掛けて中間視点の画素値を決定してもよい。
Also, the image-based
さらに、イメージベースレンダリング部12は、複数の視点で撮影した画像列を用いて、その2以上の画像において局所的な対応付けを行い、前記2以上の画像のそれぞれを撮影したカメラのカメラパラメータに基づいて三角測量をすることで、前記局所的な対応付けを行った点の3次元座標を特定してもよい。この場合、画素値演算部13では、特定した3次元座標を所望のカメラパラメータによって投影し、出力CGにおける対応画素座標を特定してもよい。また、前記特定された3次元座標を求める際に用いた2以上の画像のうち、1以上の画像の対応点上の画素値を用いて(例えば、その平均値により)、前記「出力CGにおける対応画素座標」における画素値を決定してもよい。
Furthermore, the image-based
画素値演算部13は、第一物理ベースレンダリング部10から入力された第一物理ベースCGと、第二物理ベースレンダリング部11から入力された第二物理ベースCGと、イメージベースレンダリング部12から入力されたイメージベースCG画像との対応画素の画素値から、出力CGの対応画素の画素値を演算するものである。
The pixel
<画素値演算部による演算>
以下、画素値演算部13による演算を詳細に説明する。
第一物理ベースCG、第二物理ベースCG、イメージベースCG及び出力CGで同一の画像座標(x,y)にある画素を対応画素とする。また、第一物理ベースCGの対応画素の画素値P(x,y)、第二物理ベースCGの対応画素の画素値Q(x,y)、イメージベースCGの対応画素の画素値R(x,y)、及び、出力CGの対応画素の画素値S(x,y)とする。なお、画素値は、スカラー(例えば、グレースケール画像)であってもよいし、ベクトル(例えば、赤、緑および青の各成分からなるカラー画像)であってもよい。
<Calculation by Pixel Value Calculator>
Calculations by the
Pixels at the same image coordinates (x, y) in the first physical base CG, the second physical base CG, the image base CG, and the output CG are defined as corresponding pixels. Further, the pixel value P(x, y) of the corresponding pixel of the first physical base CG, the pixel value Q(x, y) of the corresponding pixel of the second physical base CG, the pixel value R(x , y), and the pixel value S(x, y) of the corresponding pixel of the output CG. Note that the pixel values may be scalar (eg, grayscale image) or vector (eg, color image consisting of red, green, and blue components).
ここで、画素値演算部13は、第一物理ベースCGの対応画素の画素値P、第二物理ベースCGの対応画素の画素値Q、及び、イメージベースCGの対応画素の画素値Rから、以下の式(1)に示すように、二項演算μを用いて、出力CGの対応画素の画素値を演算する。 Here, from the pixel value P of the corresponding pixel of the first physical base CG, the pixel value Q of the corresponding pixel of the second physical base CG, and the pixel value R of the corresponding pixel of the image base CG, As shown in the following equation (1), the pixel value of the corresponding pixel of the output CG is calculated using the binary operation μ.
例えば、画素値演算部13は、二項演算子μ及び関数fに対し、以下の式(2)の変換を行い、出力CGの対応画素の画素値S(x,y)を算出する。
For example, the
なお、Q-1は、二項演算μにおけるQの逆元である。また、Q-1は、二項演算μがアダマール積、かつ、QがD次元ベクトルの場合(但し、Dは1以上の整数)、ベクトル成分ごとの逆数を意味する。すなわち、Q-1は、以下の式(3)で表される。特に、D=1の場合、すなわち、二項演算μが剰余算、かつ、Qがスカラーの場合、Q-1が1/Qを意味する。一方、二項演算μが加減算の場合、Q-1がQを意味する。 Note that Q −1 is the inverse of Q in the binary operation μ. Q −1 means the reciprocal of each vector component when the binary operation μ is the Hadamard product and Q is a D-dimensional vector (where D is an integer equal to or greater than 1). That is, Q −1 is represented by the following formula (3). In particular, if D=1, ie if the binary operation μ is a remainder calculation and Q is a scalar, then Q −1 means 1/Q. On the other hand, when the binary operation μ is addition and subtraction, Q −1 means Q.
関数f(v)は、以下の式(4)のように成分ごとに独立のものとし、かつ、関数fd(v)がvに関して広義単調増加とする(dは1以上、D以下の整数)。 The function f(v) is assumed to be independent for each component as shown in the following equation (4), and the function f d (v) is assumed to increase monotonically in a broad sense with respect to v (d is an integer equal to or greater than 1 and equal to or less than D ).
また、関数f(v)は、以下の式(5)としてもよい。この場合、式(1)は、以下の(6)で表される。
Also, the function f(v) may be the following equation (5). In this case, the formula (1) is represented by the following (6).
ここで、式(1)の二項演算μは、式(7)の加減算、又は、式(9)の剰余算で行うことができる。例えば、画素値演算部13は、以下の式(7)に示すように、加減算である二項演算μを用いて、出力CGの対応画素の画素値を演算する。つまり、画素値演算部13は、以下の式(8)で表される演算を行い、出力CGの対応画素の画素値S(x,y)を算出する。
Here, the binary operation μ of equation (1) can be performed by addition and subtraction of equation (7) or remainder calculation of equation (9). For example, the
また、画素値演算部13は、Qの成分がゼロでない画素及び色成分に対して、以下の式(9)に示すように、剰余算である二項演算μを用いて、出力CGの対応画素の画素値を演算してもよい。つまり、画素値演算部13は、以下の式(10)で表される演算を行い、出力CGの対応画素の画素値S(x,y)を算出する。
In addition, the pixel
ここで、P、Q、R及びSのd番目の成分をそれぞれ、Pd、Qd、Rd及びSdとしたとき、以下の式(11)で画素値Sdを演算する。 Here, when the d-th components of P, Q, R and S are respectively Pd , Qd , Rd and Sd , the pixel value Sd is calculated by the following equation (11).
例外的に、Qd(x,y)=0の成分に対しては、以下の式(12)~式(15)の何れかで画素値Sdを演算する(但し、m,nは正の整数)。 Exceptionally, for the component of Q d (x, y)=0, the pixel value S d is calculated by any of the following equations (12) to (15) (where m and n are positive integer).
<レンダリング装置の原理>
図2及び図3を参照して、レンダリング装置1の原理について説明する。
ここでは、模様のある球体(例えば、ビリヤードのボール)のCGをレンダリングする例で説明する。また、第一物理ベースレンダリング部10及び第二物理ベースレンダリング部11における物理ベースレンダリングの精度が、イメージベースレンダリング部12におけるイメージベースレンダリングの精度より劣っている。また、イメージベースモデルの生成時、被写体全周から一様な光線により照明を行っている。
<Principle of Rendering Device>
The principle of the rendering device 1 will be described with reference to FIGS. 2 and 3. FIG.
Here, an example of CG rendering of a sphere with a pattern (for example, a billiard ball) will be described. Also, the accuracy of physical-based rendering in the first physical-based
図2(a)には、第一物理ベースCGを図示した。この第一物理ベースCGでは、第一物理ベースレンダリングにより陰影や光沢感のある画像が得られるものの、物理ベースモデルの精度不足によりぼやけを生じている。 FIG. 2(a) shows the first physical base CG. In this first physics-based CG, although an image with shadows and glossiness is obtained by the first physics-based rendering, blurring occurs due to the lack of accuracy of the physics-based model.
図2(b)には、第二物理ベースCGを図示した。この第二物理ベースCGでは、イメージベースモデル取得時の照明を近似すべく、被写体全周から一様な光線を照射する仮想照明を用いた。その結果、第二物理ベースCGでは、陰影や光沢感がなく被写体の模様だけが現れた像が描画されている。また、第二物理ベースCGでは、物理ベースモデルの精度不足により、ぼやけが生じている。 FIG. 2(b) shows the second physical base CG. In this second physics-based CG, in order to approximate the lighting at the time of acquiring the image-based model, a virtual illumination that irradiates a uniform light beam from the entire periphery of the subject is used. As a result, the second physics-based CG renders an image in which only the pattern of the subject appears without shadows or glossiness. Also, in the second physics-based CG, blurring occurs due to insufficient accuracy of the physics-based model.
図2(c)には、イメージベースCGを図示した。このイメージベースCGは、被写体全周から一様な光線により照明を照射して撮影した実写画像から生成されたCGである。イメージベースCGでは、陰影や光沢感のない画像が描画される一方、前記のようにイメージベースモデルが物理ベースモデルより精度が高いことから、高い精細感が得られる。 FIG. 2(c) shows the image-based CG. This image-based CG is CG generated from a photographed image captured by illuminating the subject with uniform light rays from all around. In image-based CG, an image without shadows or glossiness is rendered, while the image-based model is more precise than the physical-based model, as described above, so that a high degree of detail can be obtained.
図2(d)には、図2(a)~図2(c)のGCに対し、式(6)で演算した出力CGを図示した。この出力CGは、陰影や光沢があり、かつぼやけのない高品質なものである。この出力CGは、図2(e)に示す、物理ベースモデルの精度が十分に高かったときに得られるCGを近似したものとなる。 FIG. 2(d) shows the output CG calculated by Equation (6) for the GCs of FIGS. 2(a) to 2(c). This output CG is of high quality with shading, luster, and no blurring. This output CG approximates the CG obtained when the accuracy of the physics-based model is sufficiently high, as shown in FIG. 2(e).
図3に示すように、第一物理ベースCGでは、所望照明下における出力CGの陰影が再現されている一方、形状誤差によるテクスチャ形状の劣化が大きくなる。イメージベースCGでは、形状誤差によるテクスチャ形状の劣化が小さくなる一方、イメージベースモデルの陰影が再現されている。第二物理ベースCGでは、イメージベースモデルの陰影が反映されており、形状誤差によるテクスチャ形状の劣化が大きくなる。 As shown in FIG. 3, in the first physically-based CG, while the shadows of the output CG under the desired illumination are reproduced, texture shape deterioration due to shape errors increases. Image-based CG reproduces the shadows of the image-based model while reducing texture shape deterioration due to shape errors. In the second physics-based CG, the shadows of the image-based model are reflected, and texture shape deterioration due to shape errors increases.
そこで、レンダリング装置1では、第一物理ベースCGとイメージベースCGとを加算し、第二物理ベースCGを減算することで、所望照明下の陰影が再現され、かつ、形状誤差によるテクスチャ形状の劣化が少ない出力CGが得られる。以上のように、レンダリング装置1によれば、物理ベースレンダリングの性能がイメージベースレンダリングの性能より劣る場合において、質感および精細感を両立するCGを生成することが可能となる。 Therefore, in the rendering device 1, by adding the first physical base CG and the image base CG and subtracting the second physical base CG, the shadow under the desired illumination is reproduced and the texture shape is deteriorated due to the shape error. An output CG with less is obtained. As described above, according to the rendering apparatus 1, even when the performance of physically-based rendering is inferior to the performance of image-based rendering, it is possible to generate CG that achieves both texture and detail.
[レンダリング装置の動作例]
図4を参照し、レンダリング装置1の動作例について説明する。
図4に示すように、ステップS1において、第一物理ベースレンダリング部10は、物理ベースモデルに対して第一仮想照明で物理ベースレンダリングを適用することにより、第一物理ベースCGを生成する。
ステップS2において、第二物理ベースレンダリング部11は、物理ベースモデルに対して第二仮想照明で物理ベースレンダリングを適用することにより、第二物理ベースCGを生成する。
ステップS3において、イメージベースレンダリング部12は、イメージベースモデルに対してイメージベースレンダリングを適用することで、イメージベースCGを生成する。
なお、ステップS1~S3の処理は、並列で実行できる。
[Example of operation of rendering device]
An operation example of the rendering device 1 will be described with reference to FIG.
As shown in FIG. 4, in step S1, the first physics-based
In step S2, the second physics-based
In step S3, the image-based
Note that the processing of steps S1 to S3 can be executed in parallel.
ステップS4において、画素値演算部13は、ステップS1における第一物理ベースCGと、ステップS2における第二物理ベースCGと、ステップS3におけるイメージベースCGとの対応画素の画素値から、出力CGの対応画素の画素値を演算する。
In step S4, the pixel
[作用・効果]
以上のように、レンダリング装置1は、イメージベースCGと第二物理ベースCGとの間の演算によって第一物理レンダリングで再現しきれない画素値成分を演算し、第一物理ベースCGに補完する。これによって、レンダリング装置1は、高精度でないモデルからも自然なCG画像を生成できる。
さらに、レンダリング装置1は、物理ベースモデルの精度を落としてもリアルな出力CGが得られるため、モデル化に要する機器や処理時間、モデルのデータ量を削減することができる。
[Action/effect]
As described above, the rendering apparatus 1 calculates pixel value components that cannot be completely reproduced by the first physical rendering through calculations between the image-based CG and the second physical-based CG, and complements the first physical-based CG. This allows the rendering device 1 to generate a natural CG image even from a model that is not highly accurate.
Furthermore, since the rendering device 1 can obtain a realistic output CG even if the accuracy of the physics-based model is reduced, it is possible to reduce equipment and processing time required for modeling and the amount of model data.
すなわち、レンダリング装置1は、第一物理ベースCGにおいて再現しきれない画素値成分をイメージベースCG及び第二物理ベースCGの相違成分によって補完する。これにより、レンダリング装置1では、イメージベースCGが第二物理ベースCGよりも細かなテクスチャ成分を有する場合、その相違成分を第一物理ベースCGに補完できるので精細感が向上する。 That is, the rendering device 1 complements the pixel value components that cannot be reproduced in the first physically based CG with the different components between the image based CG and the second physically based CG. Thus, in the rendering device 1, when the image-based CG has finer texture components than the second physics-based CG, the difference component can be complemented to the first physics-based CG, thereby improving the sense of detail.
さらに、レンダリング装置1は、前記した相違成分の演算に減算を用いると共に、補完に加算を用いる。この場合、レンダリング装置1は、差分演算の演算コストが小さいため、装置の規模や処理速度を向上させることができる。 Furthermore, the rendering device 1 uses subtraction for the calculation of the difference component and addition for complementation. In this case, the rendering device 1 can improve the scale and processing speed of the device because the computation cost of the difference computation is low.
さらに、レンダリング装置1は、前記した相違成分の演算に除算を用いると共に、補完に乗算を用いる。この場合、レンダリング装置1は、物体表面における反射や物体内部での散乱、反射、透過の過程においては乗法的にこれらの効果が適用されることが一般的であるため、前記画素値演算部に乗除算を行うことで物理的により厳密な補完が可能となる。 Furthermore, the rendering device 1 uses division for the calculation of the difference component and multiplication for complementation. In this case, the rendering device 1 generally applies these effects multiplicatively in the processes of reflection on the object surface and scattering, reflection, and transmission inside the object. By performing multiplication and division, it is possible to perform more physically strict complementation.
さらに、レンダリング装置1は、第二仮想照明をイメージベースモデル生成時の照明環境に近似させることで、第二物理ベースCGの陰影をイメージベースCGの陰影に近似させることができ、前記補完において陰影の影響を取り除くことができる。その結果、レンダリング装置1は、前記補完される情報を細部構造の有無といった精細感に関連する情報に特化させることができる。 Further, the rendering device 1 can approximate the shadow of the second physical base CG to the shadow of the image base CG by approximating the second virtual lighting to the lighting environment at the time of generating the image base model, and the shadow can remove the effects of As a result, the rendering device 1 can make the complemented information specialize in information related to fineness, such as the presence or absence of detailed structures.
さらに、レンダリング装置1は、複数の照明光、無影灯又は面状の照明光で撮影した実写画像に基づいたイメージベースモデルを用いるので、照明光の影響を軽減したイメージベースCGの生成が可能となる。この場合、画素値演算部13において、照明光の影響を軽減したイメージベースCGと、イメージベースCGの陰影と同様の陰影を有する第二物理ベースCGとの間で演算を行うことで、照明光に依存する悪影響を排除した高精度な補完が可能となり、出力CGの画質を向上させることができる。
Furthermore, since the rendering device 1 uses an image-based model based on a photographed image taken with a plurality of illumination lights, a shadowless lamp, or planar illumination light, it is possible to generate an image-based CG with reduced influence of the illumination light. becomes. In this case, in the pixel
(変形例)
以上、実施形態を詳述してきたが、本発明は前記した実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
(Modification)
Although the embodiments have been described in detail above, the present invention is not limited to the above-described embodiments, and includes design changes and the like within the scope of the present invention.
前記した実施形態では、第一仮想照明が、出力CGにおける照明条件であり、第二仮想照明が、イメージベースモデルが生成されたときの照明条件を近似したものと説明したが、これに限定されない。つまり、第二仮想照明が第一仮想照明と異なっていれば、両照明条件を任意に設定できる。例えば、第二仮想照明を意図的に変化させることで、エッジの強調や強い光沢などの特殊な映像効果が得られる In the above-described embodiment, the first virtual lighting is the lighting conditions in the output CG, and the second virtual lighting is the approximation of the lighting conditions when the image-based model is generated. However, the present invention is not limited to this. . That is, if the second virtual illumination is different from the first virtual illumination, both illumination conditions can be arbitrarily set. For example, by intentionally changing the second virtual lighting, special video effects such as edge enhancement and strong gloss can be obtained.
前記した実施形態では、第一物理ベースレンダリング部及び第二物理ベースレンダリング部が独立した構成であることとして説明したが、両者を共通ものとしてもよい。つまり、両者を共通の回路又はプログラムとして実装し、タイミングを違えて第一仮想照明と第二仮想照明を切り変えて物理ベースレンダリングを行い、その結果を第一物理ベースCG及び第二物理ベースCGとしてもよい。 In the above-described embodiment, the first physical-based rendering section and the second physical-based rendering section are configured independently, but they may be shared. In other words, both are implemented as a common circuit or program, the first virtual illumination and the second virtual illumination are switched at different timings, physical base rendering is performed, and the result is the first physical base CG and the second physical base CG. may be
前記した実施形態では、レンダリング装置が独立したハードウェアであることとして説明したが、本発明は、これに限定されない。例えば、本発明は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記したレンダリング装置として機能させるためのプログラムで実現することもできる。このプログラムは、通信回線を介して配布してもよく、CD-ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。 In the above-described embodiment, the rendering device is described as independent hardware, but the present invention is not limited to this. For example, the present invention can also be realized by a program for causing hardware resources such as a CPU, memory, and hard disk provided in a computer to function as the above-described rendering device. This program may be distributed via a communication line, or may be distributed by being written in a recording medium such as a CD-ROM or flash memory.
1 レンダリング装置
10 第一物理ベースレンダリング部
11 第二物理ベースレンダリング部
12 イメージベースレンダリング部
13 画素値演算部
1
Claims (7)
物理ベースモデルに対して所定の第一仮想照明条件で前記物理ベースレンダリングを適用することで、第一物理ベースCG画像を生成する第一物理ベースレンダリング部と、
前記物理ベースモデルに対して前記第一仮想照明条件と異なる第二仮想照明条件で前記物理ベースレンダリングを適用することにより、第二物理ベースCG画像を生成する第二物理ベースレンダリング部と、
イメージベースモデルに対して前記イメージベースレンダリングを適用することにより、イメージベースCG画像を生成するイメージベースレンダリング部と、
前記第一物理ベースCG画像と前記第二物理ベースCG画像と前記イメージベースCG画像との対応画素の画素値から、前記出力CG画像の対応画素の画素値を演算する画素値演算部と、
を備えることを特徴とするレンダリング装置。 A rendering device that renders an output CG image from a model of a subject using physically-based rendering and image-based rendering,
a first physics-based rendering unit that generates a first physics-based CG image by applying the physics-based rendering to the physics-based model under a predetermined first virtual lighting condition;
a second physics-based rendering unit that generates a second physics-based CG image by applying the physics-based rendering to the physics-based model under a second virtual lighting condition different from the first virtual lighting condition;
an image-based rendering unit that generates an image-based CG image by applying the image-based rendering to the image-based model;
a pixel value calculation unit for calculating the pixel value of the corresponding pixel of the output CG image from the pixel value of the corresponding pixel of the first physical base CG image, the second physical base CG image, and the image base CG image;
A rendering device comprising:
前記第二仮想照明条件は、前記イメージベースモデルが生成されたときの照明条件を近似したものであることを特徴とする請求項1に記載のレンダリング装置。 the first virtual lighting condition is a lighting condition in the output CG image;
3. The rendering apparatus of claim 1, wherein the second virtual lighting conditions approximate lighting conditions under which the image-based model was generated.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021185787A JP7727494B2 (en) | 2021-11-15 | 2021-11-15 | Rendering device and its program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021185787A JP7727494B2 (en) | 2021-11-15 | 2021-11-15 | Rendering device and its program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2023073003A true JP2023073003A (en) | 2023-05-25 |
| JP7727494B2 JP7727494B2 (en) | 2025-08-21 |
Family
ID=86425502
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021185787A Active JP7727494B2 (en) | 2021-11-15 | 2021-11-15 | Rendering device and its program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7727494B2 (en) |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004264907A (en) * | 2003-02-17 | 2004-09-24 | Sony Computer Entertainment Inc | Image generation system, image generation device, and image generation method |
| JP2018121289A (en) * | 2017-01-27 | 2018-08-02 | セコム株式会社 | Background image generation apparatus and object detection apparatus |
| JP2019087778A (en) * | 2017-11-01 | 2019-06-06 | 日本放送協会 | Image restoration filter and learning apparatus |
| JP2020042503A (en) * | 2018-09-10 | 2020-03-19 | 株式会社MinD in a Device | 3D representation generation system |
-
2021
- 2021-11-15 JP JP2021185787A patent/JP7727494B2/en active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004264907A (en) * | 2003-02-17 | 2004-09-24 | Sony Computer Entertainment Inc | Image generation system, image generation device, and image generation method |
| JP2018121289A (en) * | 2017-01-27 | 2018-08-02 | セコム株式会社 | Background image generation apparatus and object detection apparatus |
| JP2019087778A (en) * | 2017-11-01 | 2019-06-06 | 日本放送協会 | Image restoration filter and learning apparatus |
| JP2020042503A (en) * | 2018-09-10 | 2020-03-19 | 株式会社MinD in a Device | 3D representation generation system |
Also Published As
| Publication number | Publication date |
|---|---|
| JP7727494B2 (en) | 2025-08-21 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CA3074547C (en) | On-set facial performance capture and transfer to a three-dimensional computer-generated model | |
| Yu et al. | Inverse global illumination: Recovering reflectance models of real scenes from photographs | |
| Meilland et al. | 3d high dynamic range dense visual slam and its application to real-time object re-lighting | |
| JP3962588B2 (en) | 3D image processing method, 3D image processing apparatus, 3D image processing system, and 3D image processing program | |
| Gruber et al. | Real-time photometric registration from arbitrary geometry | |
| JP2022032937A (en) | Computer vision methods and systems | |
| JP4335588B2 (en) | How to model a 3D object | |
| US8223148B1 (en) | Method and apparatus for computing indirect lighting for global illumination rendering in 3-D computer graphics | |
| Dos Santos et al. | Real time ray tracing for augmented reality | |
| WO2019173556A1 (en) | Adaptive sampling for structured light scanning | |
| US20250014267A1 (en) | Appearance capture under multiple lighting conditions | |
| WO2018080533A1 (en) | Real-time generation of synthetic data from structured light sensors for 3d object pose estimation | |
| Alhakamy et al. | Real-time illumination and visual coherence for photorealistic augmented/mixed reality | |
| CN116758208A (en) | Global illumination rendering method and device, storage medium and electronic equipment | |
| CN117671125A (en) | Illumination rendering method, device, equipment and storage medium | |
| JP4335589B2 (en) | How to model a 3D object | |
| JP2004252603A (en) | 3D data processing method | |
| CN119251430A (en) | A method, medium and device for constructing a virtual scene based on point cloud data | |
| JP5441752B2 (en) | Method and apparatus for estimating a 3D pose of a 3D object in an environment | |
| KR100951121B1 (en) | Rendering method for indirect illumination effect | |
| JP7727494B2 (en) | Rendering device and its program | |
| CN113592995A (en) | Multiple reflected light separation method based on parallel single-pixel imaging | |
| Martos et al. | Realistic virtual reproductions. Image-based modelling of geometry and appearance | |
| Aliaga | Digital inspection: An interactive stage for viewing surface details | |
| Kunert et al. | Evaluating light probe estimation techniques for mobile augmented reality |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20241003 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20250709 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250715 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250808 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7727494 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |