[go: up one dir, main page]

JP2023073003A - Rendering device and its program - Google Patents

Rendering device and its program Download PDF

Info

Publication number
JP2023073003A
JP2023073003A JP2021185787A JP2021185787A JP2023073003A JP 2023073003 A JP2023073003 A JP 2023073003A JP 2021185787 A JP2021185787 A JP 2021185787A JP 2021185787 A JP2021185787 A JP 2021185787A JP 2023073003 A JP2023073003 A JP 2023073003A
Authority
JP
Japan
Prior art keywords
image
rendering
physics
pixel value
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021185787A
Other languages
Japanese (ja)
Other versions
JP7727494B2 (en
Inventor
俊枝 三須
Toshie Misu
秀樹 三ツ峰
Hideki Mitsumine
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2021185787A priority Critical patent/JP7727494B2/en
Publication of JP2023073003A publication Critical patent/JP2023073003A/en
Application granted granted Critical
Publication of JP7727494B2 publication Critical patent/JP7727494B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Generation (AREA)

Abstract

【課題】高精度でないモデルからも自然なCG画像を生成できるレンダリング装置を提供する。【解決手段】レンダリング装置1は、第一仮想照明で物理ベースレンダリングを適用する第一物理ベースレンダリング部10と、第一仮想照明と異なる第二仮想照明で物理ベースレンダリングを適用する第二物理ベースレンダリング部11と、イメージベースモデルに対してイメージベースレンダリングを適用するイメージベースレンダリング部12と、第一物理ベースCGと第二物理ベースCGとイメージベースCGとの対応画素の画素値から、出力CGの対応画素の画素値を演算する画素値演算部13と、を備える。【選択図】図1A rendering device capable of generating a natural CG image even from an imprecise model is provided. A rendering device (1) includes a first physics-based rendering unit (10) that applies physics-based rendering with a first virtual illumination, and a second physics-based rendering unit (10) that applies physics-based rendering with a second virtual illumination different from the first virtual illumination. An output CG is obtained from a rendering unit 11, an image-based rendering unit 12 that applies image-based rendering to an image-based model, and pixel values of corresponding pixels of the first physical-based CG, the second physical-based CG, and the image-based CG. and a pixel value calculation unit 13 for calculating the pixel value of the corresponding pixel. [Selection drawing] Fig. 1

Description

本発明は、レンダリング装置及びそのプログラムに関する。 The present invention relates to a rendering device and its program.

物理ベースモデルは、被写体の形状に加えて、表面・界面における反射、屈折及び透過、並びに内部における光の散乱などの光学的な性質をモデル化したものである。この物理ベースモデルのレンダリング方法として、前記光学的な性質に基づく光線の挙動を計算機や装置によって模擬することにより、CG(Computer Graphics)画像を生成する物理ベースレンダリングが知られている(例えば、特許文献1)。特許文献1においては、顔の表面下散乱などを測定して、両指向性反射率関数、アルベドマップ及び透光性マップを結合した顔の皮膚反射モデルを形成する方法が開示されている。 A physics-based model is a model that models not only the shape of an object but also optical properties such as reflection, refraction, and transmission on surfaces and interfaces, and scattering of light inside. As a rendering method for this physics-based model, physics-based rendering that generates a CG (Computer Graphics) image by simulating the behavior of light rays based on the optical properties with a computer or device is known (for example, patent Reference 1). US Pat. No. 6,200,000 discloses a method of measuring subsurface scattering of the face, etc., to form a skin reflectance model of the face that combines bidirectional reflectance functions, albedo maps, and translucency maps.

また、実写画像に基づき、幾何変換や補完を施すことによって、仮想的な視点における画像を合成するイメージベースレンダリングが知られている。イメージベースレンダリングにおいては、実画像に加えて、被写体の形状モデルの表面における座標と前記実写画像上の座標とを対応付けたテクスチャマップを用いる手法が知られている。 Also known is image-based rendering, which synthesizes an image at a virtual viewpoint by performing geometric transformation or interpolation based on a photographed image. In image-based rendering, a technique is known in which, in addition to the actual image, a texture map is used in which the coordinates on the surface of the shape model of the subject are associated with the coordinates on the actual image.

特開2006-277748号公報JP 2006-277748 A

物理ベースレンダリングは、被写体の形状及び光学的な性質が十分な精度でモデル化されている場合には、自然なCG画像を生成できる。しかし、現実に存在する物体や生物を高精度にモデル化しようとすると、各種物理量計測の為のセンサが必要となり、物理ベースレンダリングでは、センシングや解析に要する時間や演算コストも膨大なものとなる。 Physics-based rendering can produce natural CG images if the shape and optical properties of the subject are modeled with sufficient accuracy. However, when trying to model objects and living things that exist in reality with high precision, sensors are required to measure various physical quantities, and with physics-based rendering, the time and computational costs required for sensing and analysis are enormous. .

例えば、双方向反射率分布関数(BRDF:Bidirectional Reflectance Distribution Function)を計測する場合、点光源に近い光やコード化されたパターン光を様々な角度から物体表面に照射し、様々な角度からその反射像を撮影する必要がある。このため、カメラ位置、光源位置、又は物体姿勢の2以上を変化させる機構を用意するか、複数のカメラまたは光源が必要となり、装置が大規模化する。さらに、双方向反射率分布関数の計測は、1回の撮影だけでは情報取得が完了しない。 For example, when measuring the bidirectional reflectance distribution function (BRDF), light close to a point light source or coded pattern light is irradiated onto the object surface from various angles, and the reflection from various angles is obtained. I need to take a picture. Therefore, a mechanism for changing two or more of the camera position, the light source position, and the object orientation is required, or a plurality of cameras or light sources are required, which increases the scale of the apparatus. Furthermore, in the measurement of the bidirectional reflectance distribution function, acquisition of information is not completed with only one photographing.

また、物理ベースレンダリングでは、自然界の物体や生物の形状や光学特性の記述には限界があり、記述しきれなかった部分がCG上の誤差となって現れる。特に、物理ベースレンダリングでは、フォトリアル直前の最後の一歩のところでいわゆる「不気味の谷」と称せられる認知上の不自然さに陥ることがあり、障壁となっている。 In addition, in physics-based rendering, there is a limit to the description of the shapes and optical characteristics of objects and living things in the natural world, and the parts that cannot be described appear as errors in CG. Especially in physically-based rendering, the last step before photo-realistic rendering can lead to the so-called "uncanny valley" of cognitive unnaturalness, which is a barrier.

一方、イメージベースレンダリングでは、物理モデルで表現しきれない光の影響も画像に含まれるため、自然なCG生成が可能であり、「不気味の谷」に陥りにくい。しかし、イメージベースレンダリングは、光学特性を厳密にモデル化する手法ではないため、照明条件を変化させることが難しい。特に、鏡面反射を有する被写体の場合には見る角度によって映り込みや艶感が変化するが、イメージベースレンダリングでは、このような映り込みや艶感の表現に基本的に対応していない。 On the other hand, in image-based rendering, since the image includes the effects of light that cannot be fully represented by the physical model, natural CG generation is possible, and the "uncanny valley" is less likely to occur. However, since image-based rendering is not a technique that strictly models optical properties, it is difficult to change lighting conditions. In particular, in the case of an object with specular reflection, the reflection and gloss change depending on the viewing angle, but image-based rendering basically does not support the expression of such reflection and gloss.

以上のように、物理ベースレンダリング及びイメージベースレンダリングの何れも一長一短があり、高精度でないモデルから自然なCG画像を生成することが困難である。 As described above, both physical-based rendering and image-based rendering have advantages and disadvantages, and it is difficult to generate a natural CG image from an imprecise model.

そこで、本発明は、高精度でないモデルからも自然なCG画像を生成できるレンダリング装置及びそのプログラムを提供することを課題とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide a rendering device capable of generating a natural CG image even from an imprecise model, and a program therefor.

前記課題を解決するため、本発明に係るレンダリング装置は、物理ベースレンダリング及びイメージベースレンダリングを用いて、被写体のモデルから出力CG画像をレンダリングするレンダリング装置であって、第一物理ベースレンダリング部と、第二物理ベースレンダリング部と、イメージベースレンダリング部と、画素値演算部と、を備える構成とした。 In order to solve the above problems, a rendering device according to the present invention is a rendering device that renders an output CG image from a model of a subject using physically-based rendering and image-based rendering, comprising: a first physically-based rendering unit; The configuration includes a second physical-based rendering section, an image-based rendering section, and a pixel value calculation section.

かかる構成によれば、第一物理ベースレンダリング部は、物理ベースモデルに対して所定の第一仮想照明条件で物理ベースレンダリングを適用することにより、第一物理ベースCG画像を生成する。
第二物理ベースレンダリング部は、物理ベースモデルに対して第一仮想照明条件と異なる第二仮想照明条件で物理ベースレンダリングを適用することにより、第二物理ベースCG画像を生成する。
According to this configuration, the first physics-based rendering section generates the first physics-based CG image by applying physics-based rendering to the physics-based model under the predetermined first virtual lighting conditions.
The second physics-based rendering unit generates a second physics-based CG image by applying physics-based rendering to the physics-based model under a second virtual lighting condition different from the first virtual lighting condition.

イメージベースレンダリング部は、イメージベースモデルに対してイメージベースレンダリングを適用することで、イメージベースCG画像を生成する。
画素値演算部は、第一物理ベースCG画像と第二物理ベースCG画像とイメージベースCG画像との対応画素の画素値から、出力CG画像の対応画素の画素値を演算する。
The image-based rendering section generates an image-based CG image by applying image-based rendering to the image-based model.
The pixel value calculation unit calculates the pixel value of the corresponding pixel of the output CG image from the pixel value of the corresponding pixel of the first physical base CG image, the second physical base CG image and the image base CG image.

以上のように、レンダリング装置は、イメージベースCG画像と第二物理ベースCGとの間の演算によって第一物理レンダリングで再現しきれない画素値成分を演算し、第一物理ベースCG画像に補完する。これによって、レンダリング装置は、高精度でないモデルからも自然なCG画像を生成できる。 As described above, the rendering device calculates pixel value components that cannot be completely reproduced in the first physical rendering by performing calculations between the image-based CG image and the second physical-based CG image, and complements the first physical-based CG image. . This allows the rendering device to generate natural CG images even from models that are not highly accurate.

なお、本発明は、コンピュータを前記したレンダリング装置として機能させるためのプログラムで実現することもできる。 The present invention can also be realized by a program for causing a computer to function as the rendering device described above.

本発明によれば、高精度でないモデルからも自然なCG画像を生成することができる。 According to the present invention, it is possible to generate a natural CG image even from an imprecise model.

実施形態に係るレンダリング装置の構成例を示すブロック図である。1 is a block diagram showing a configuration example of a rendering device according to an embodiment; FIG. 実施形態において、(a)は第一物理ベースCG、(b)は第二物理ベースCG、(c)はイメージベースCG、(d)は出力CG、(e)は期待する出力を説明する説明図である。In the embodiment, (a) is the first physics-based CG, (b) is the second physics-based CG, (c) is the image-based CG, (d) is the output CG, and (e) is an explanation explaining the expected output. It is a diagram. 実施形態において、レンダリング装置の原理を説明する説明図である。1 is an explanatory diagram for explaining the principle of a rendering device in an embodiment; FIG. 図1のレンダリング装置の動作例を示すフローチャートである。2 is a flow chart showing an operation example of the rendering device of FIG. 1;

以下、本発明の実施形態について図面を参照して説明する。但し、以下に説明する実施形態は、本発明の技術思想を具体化するためのものであって、特定的な記載がない限り、本発明を以下のものに限定しない。また、同一の手段には同一の符号を付し、説明を省略する場合がある。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the embodiments described below are for embodying the technical idea of the present invention, and unless there is a specific description, the present invention is not limited to the following. Further, the same reference numerals may be given to the same means, and the description thereof may be omitted.

(実施形態)
[レンダリング装置の構成例]
図1を参照し、実施形態に係るレンダリング装置1の構成例について説明する。
レンダリング装置1は、物理ベースレンダリング及びイメージベースレンダリングを用いて、被写体のモデルから出力CG(出力CG画像)をレンダリングするものである。図1に示すように、レンダリング装置1は、第一物理ベースレンダリング部10と、第二物理ベースレンダリング部11と、イメージベースレンダリング部12と、画素値演算部13とを備える。
(embodiment)
[Configuration example of rendering device]
A configuration example of a rendering device 1 according to an embodiment will be described with reference to FIG.
The rendering device 1 renders output CG (output CG image) from a subject model using physical-based rendering and image-based rendering. As shown in FIG. 1, the rendering device 1 includes a first physically based rendering section 10, a second physically based rendering section 11, an image based rendering section 12, and a pixel value calculating section 13.

第一物理ベースレンダリング部10は、物理ベースモデルに対して所定の第一仮想照明(第一仮想照明条件)で物理ベースレンダリングを適用することにより、第一物理ベースCG(第一物理ベースCG画像)を生成するものである。本実施形態では、第一物理ベースレンダリング部10は、物理ベースモデル、第一仮想照明及び仮想カメラパラメータが入力され、入力された物理ベースモデル、第一仮想照明及び仮想カメラパラメータに基づいて物理ベースレンダリングを実行し、第一物理ベースCGを生成する。そして、第一物理ベースレンダリング部10は、生成した第一物理ベースCGを画素値演算部13に出力する。 The first physics-based rendering unit 10 applies physics-based rendering to the physics-based model under a predetermined first virtual lighting (first virtual lighting condition) to generate a first physics-based CG (first physics-based CG image ). In this embodiment, the first physics-based rendering unit 10 receives a physics-based model, first virtual lighting and virtual camera parameters, and performs a physics-based rendering based on the input physics-based model, first virtual lighting and virtual camera parameters. Rendering is performed to generate the first physics-based CG. The first physics-based rendering unit 10 then outputs the generated first physics-based CG to the pixel value calculation unit 13 .

物理ベースモデルは、物体の形状に加えて、物体表面や内部における光の反射、屈折、減衰、散乱などをモデル化したものである。
仮想カメラパラメータは、物理ベースモデルに記述された物体を仮想的に撮影する仮想的なカメラの位置、姿勢、画角などの情報である。
A physics-based model models not only the shape of an object but also the reflection, refraction, attenuation, and scattering of light on the surface and inside of the object.
The virtual camera parameters are information such as the position, orientation, and angle of view of a virtual camera that virtually captures an object described in the physical base model.

第一仮想照明は、物理ベースモデルに記述された物体を照らす光に関する情報である。例えば、第一仮想照明は、光源の数、点光源、線光源、面光源など光源の発光部の形状、光源の色又はスペクトル特性、光源の配光特性、光源の光軸方向、光源の配置などを含む。また、第一仮想照明は、アンビエントライト、ディレクショナルライト、エリアライト、ポイントライト、スポットライトなどの具体的な照明機器に合わせて表記してもよい。さらに、第一仮想照明は、グローバルイルミネーションのように照明の大域的なレンダリングに合わせて表記してもよい。 The first virtual lighting is information about the light illuminating the object described in the physics-based model. For example, the first virtual lighting includes the number of light sources, the shape of the light emitting part of the light source such as a point light source, a linear light source, and a surface light source, the color or spectrum characteristics of the light source, the light distribution characteristics of the light source, the optical axis direction of the light source, and the arrangement of the light source. and so on. Also, the first virtual lighting may be described according to specific lighting equipment such as ambient light, directional light, area light, point light, and spotlight. Additionally, the first virtual lighting may be described in accordance with the global rendering of the lighting, such as global illumination.

ここで、第一物理ベースレンダリング部10は、既知の物理ベースレンダリングを用いることができる。例えば、物理ベースレンダリングとしては、アルベド、スペキュラー反射、ラフネス、マイクロファセットといったパラメータやマップで表現されるものがあげられる。この他、物理ベースレンダリングは、LambertシェーディングやPhongシェーディングのように、比較的少ないパラメータで物体表面における反射特性を近似するものであってもよい。 Here, the first physics-based rendering unit 10 can use known physics-based rendering. For example, physically-based rendering includes parameters and maps such as albedo, specular reflection, roughness, and microfacets. In addition, physically-based rendering may approximate the reflection characteristics on the surface of an object with relatively few parameters, such as Lambert shading and Phong shading.

第二物理ベースレンダリング部11は、物理ベースモデルに対して第一仮想照明と異なる第二仮想照明(第二仮想照明条件)で物理ベースレンダリングを適用することにより、第二物理ベースCG(第二物理ベースCG画像)を生成するものである。本実施形態では、第二物理ベースレンダリング部11は、物理ベースモデル、第二仮想照明及び仮想カメラパラメータが入力され、入力された第二仮想照明及び仮想カメラパラメータに基づいて物理ベースモデルに物理ベースレンダリングを実行し、第二物理ベースCGを生成する。そして、第二物理ベースレンダリング部11は、生成した第二物理ベースCGを画素値演算部13に出力する。 The second physics-based rendering unit 11 applies physics-based rendering to the physics-based model with a second virtual lighting (second virtual lighting condition) different from the first virtual lighting, thereby rendering a second physics-based CG (second physics-based CG image). In this embodiment, the second physics-based rendering unit 11 receives the physics-based model, the second virtual lighting, and the virtual camera parameters, and converts the physics-based rendering unit 11 into the physics-based model based on the input second virtual lighting and virtual camera parameters. Rendering is performed to generate a second physics-based CG. The second physics-based rendering unit 11 then outputs the generated second physics-based CG to the pixel value calculation unit 13 .

ここで、第一物理ベースレンダリング部10と第二物理ベースレンダリング部11との間では、物体を照らす光に関する情報(仮想照明)が異なる。すわわち、第一物理ベースレンダリング部10及び第二物理ベースレンダリング部11は、同一の物理ベースモデルに対して、同一の仮想カメラパラメータで同一の物理ベースレンダリングを適用する。 Here, the information (virtual lighting) regarding the light that illuminates the object differs between the first physical-based rendering unit 10 and the second physical-based rendering unit 11 . That is, the first physics-based rendering unit 10 and the second physics-based rendering unit 11 apply the same physics-based rendering with the same virtual camera parameters to the same physics-based model.

本実施形態では、第一仮想照明は、最終的に生成したい出力CG(出力CG画像)における照明条件、すなわち、レンダリング装置1が最終的に出力する出力CGの照明条件である。
第二仮想照明は、後記するイメージベースモデルが生成されたときの照明条件を近似したものである。例えば、第二仮想照明は、イメージベースモデルを複数の照明機材によって、被写体に対して様々な方位・仰角から照射して生成した場合、アンビエントライトとして近似してもよい。また、例えば、第二仮想照明は、イメージベースモデルを比較的少数(例えば10個以下)の照明機材によって照明して生成した場合、その照明機材と同数・同配置のエリアライトやポイントライトによって近似してもよい。なお、第一仮想照明と第二仮想照明は、何れも手動で設定するものであり、両者が異なる理由については後記する。
In the present embodiment, the first virtual illumination is the illumination condition in the output CG (output CG image) to be generated finally, that is, the illumination condition of the output CG finally output by the rendering device 1 .
The second virtual illumination is an approximation of the illumination conditions under which the image-based model, which will be described later, was generated. For example, the second virtual lighting may be approximated as ambient light when the image-based model is generated by illuminating the subject from various azimuths and elevation angles using a plurality of lighting devices. Also, for example, if the image-based model is generated by illuminating the image-based model with a relatively small number of lighting devices (for example, 10 or less), the second virtual lighting can be approximated by the same number and arrangement of area lights and point lights as the lighting devices. You may Note that both the first virtual illumination and the second virtual illumination are manually set, and the reason for the difference between the two will be described later.

なお、第二仮想照明の「近似」とは、例えば、光源の数、点光源、線光源、面光源など光源の発光部の形状、光源の色又はスペクトル特性、光源の配光特性、光源の光軸方向、光源の配置などの全部又は一部を、イメージベースモデルが生成されたときの照明条件に近似させることを言う。当然、第二仮想照明の「近似」には、イメージベースモデルが生成されたときの照明条件と同一にすることが含まれる。 The “approximation” of the second virtual illumination includes, for example, the number of light sources, the shape of the light emitting part of the light source such as a point light source, a linear light source, and a surface light source, the color or spectral characteristics of the light source, the light distribution characteristics of the light source, the light source It refers to approximating all or part of the optical axis direction, light source arrangement, etc. to the lighting conditions when the image-based model was generated. Of course, "approximating" the second virtual lighting includes making it identical to the lighting conditions under which the image-based model was generated.

イメージベースレンダリング部12は、イメージベースモデルに対してイメージベースレンダリングを適用することで、イメージベースCG(イメージベースCG画像)を生成するものである。本実施形態では、イメージベースレンダリング部12は、イメージベースモデル及び仮想カメラパラメータが入力され、入力された仮想カメラパラメータに基づいてイメージベースモデルにイメージベースレンダリングを実行し、イメージベースCGを生成する。そして、イメージベースレンダリング部12は、生成したイメージベースCGを画素値演算部13に出力する。 The image-based rendering unit 12 applies image-based rendering to the image-based model to generate image-based CG (image-based CG image). In this embodiment, the image-based rendering unit 12 receives an image-based model and virtual camera parameters, performs image-based rendering on the image-based model based on the input virtual camera parameters, and generates image-based CG. The image-based rendering section 12 then outputs the generated image-based CG to the pixel value calculation section 13 .

ここで、イメージベースレンダリング部12は、既知のイメージベースレンダリングを用いることができる。例えば、イメージベースレンダリング部12は、仮想カメラパラメータに基づいて、実写画像を変形する手法、複数の実写画像(変形したもの含む)をブレンディング、モザイキング、複数枚超解像などで合成する手法、実写画像に基づいて生成されたモデルを投影する手法などを適宜組み合わせて、イメージベースCGを生成する。 Here, the image-based rendering unit 12 can use known image-based rendering. For example, based on the virtual camera parameters, the image-based rendering unit 12 performs a method of transforming a photographed image, a method of synthesizing a plurality of photographed images (including deformed images) by blending, mosaicing, multiple-frame super-resolution, or the like. An image-based CG is generated by appropriately combining methods such as projecting a model generated based on an image.

イメージベースモデルは、複数の照明光、無影灯または面状の照明光により撮影した実写画像に基づいたモデルである。
前記した実写画像の変形の手法、合成の手法、前記実写画像から生成されたイメージベースモデルを投影する手法、及び、前記実写画像から抽出された画素値情報又はテクスチャ情報をイメージベースCGと呼ぶ。
An image-based model is a model based on a photographed image taken with a plurality of illumination lights, shadowless lights, or planar illumination lights.
The method of transforming the photographed image, the method of synthesis, the method of projecting the image-based model generated from the photographed image, and the pixel value information or texture information extracted from the photographed image are called image-based CG.

例えば、イメージベースレンダリング部12は、ポリゴン等の形状モデル上の座標と、実写画像の画像座標とを対応付けたテクスチャマップと、前記形状モデルとを含むイメージベースモデルを用いてもよい。この場合、一つの視点で撮影した実写画像であってもよいし、複数の視点で撮影した画像列を用い、前記形状モデル上の場所に応じて用いる画像を変えてもよい。 For example, the image-based rendering unit 12 may use an image-based model including the shape model and a texture map that associates coordinates on a shape model such as polygons with image coordinates of a photographed image. In this case, a photographed image taken from one viewpoint may be used, or a series of images taken from a plurality of viewpoints may be used, and the image to be used may be changed according to the location on the shape model.

また、イメージベースレンダリング部12は、例えば、ポイントクラウドを用い、このポイントクラウドを構成する各点に実写画像の画素値を付与することで、イメージベースCGを生成してもよい。この場合も、実写画像は一つの視点で撮影した画像であってもよいし、複数の視点で撮影した画像列を用い、ポイントクラウドを構成する点に応じて用いる画像を変えてもよい。 Further, the image-based rendering unit 12 may generate image-based CG by, for example, using a point cloud and assigning pixel values of a photographed image to each point constituting the point cloud. Also in this case, the actual image may be an image shot from one viewpoint, or an image sequence shot from a plurality of viewpoints may be used and the image used may be changed according to the points forming the point cloud.

また、イメージベースレンダリング部12は、複数の視点で撮影した画像列を用いて、その補完により中間視点のイメージベースCGを生成してもよい。この場合、後記する画素値演算部13では、画像列を構成する画像間の局所的な対応付けを行い、この対応ベクトルに所定の倍数を掛けて中間視点の画素値を決定してもよい。 Also, the image-based rendering unit 12 may generate an intermediate-viewpoint image-based CG by interpolating a sequence of images taken at a plurality of viewpoints. In this case, the pixel value calculator 13, which will be described later, may perform local correspondence between the images forming the image sequence, and multiply this correspondence vector by a predetermined multiple to determine the pixel value of the intermediate viewpoint.

さらに、イメージベースレンダリング部12は、複数の視点で撮影した画像列を用いて、その2以上の画像において局所的な対応付けを行い、前記2以上の画像のそれぞれを撮影したカメラのカメラパラメータに基づいて三角測量をすることで、前記局所的な対応付けを行った点の3次元座標を特定してもよい。この場合、画素値演算部13では、特定した3次元座標を所望のカメラパラメータによって投影し、出力CGにおける対応画素座標を特定してもよい。また、前記特定された3次元座標を求める際に用いた2以上の画像のうち、1以上の画像の対応点上の画素値を用いて(例えば、その平均値により)、前記「出力CGにおける対応画素座標」における画素値を決定してもよい。 Furthermore, the image-based rendering unit 12 performs local correspondence between the two or more images using a series of images shot from a plurality of viewpoints, and sets the camera parameters of the camera that shot each of the two or more images. The three-dimensional coordinates of the locally associated points may be identified by triangulation based on the above. In this case, the pixel value calculator 13 may project the specified three-dimensional coordinates using desired camera parameters to specify the corresponding pixel coordinates in the output CG. Further, of the two or more images used when obtaining the specified three-dimensional coordinates, using the pixel values on the corresponding points of one or more images (for example, by the average value), the "output CG You may determine the pixel value in "corresponding pixel coordinates".

画素値演算部13は、第一物理ベースレンダリング部10から入力された第一物理ベースCGと、第二物理ベースレンダリング部11から入力された第二物理ベースCGと、イメージベースレンダリング部12から入力されたイメージベースCG画像との対応画素の画素値から、出力CGの対応画素の画素値を演算するものである。 The pixel value calculation unit 13 receives the first physics-based CG input from the first physics-based rendering unit 10, the second physics-based CG input from the second physics-based rendering unit 11, and the image-based rendering unit 12. The pixel value of the corresponding pixel of the output CG is calculated from the pixel value of the corresponding pixel of the image-based CG image.

<画素値演算部による演算>
以下、画素値演算部13による演算を詳細に説明する。
第一物理ベースCG、第二物理ベースCG、イメージベースCG及び出力CGで同一の画像座標(x,y)にある画素を対応画素とする。また、第一物理ベースCGの対応画素の画素値P(x,y)、第二物理ベースCGの対応画素の画素値Q(x,y)、イメージベースCGの対応画素の画素値R(x,y)、及び、出力CGの対応画素の画素値S(x,y)とする。なお、画素値は、スカラー(例えば、グレースケール画像)であってもよいし、ベクトル(例えば、赤、緑および青の各成分からなるカラー画像)であってもよい。
<Calculation by Pixel Value Calculator>
Calculations by the pixel value calculator 13 will be described in detail below.
Pixels at the same image coordinates (x, y) in the first physical base CG, the second physical base CG, the image base CG, and the output CG are defined as corresponding pixels. Further, the pixel value P(x, y) of the corresponding pixel of the first physical base CG, the pixel value Q(x, y) of the corresponding pixel of the second physical base CG, the pixel value R(x , y), and the pixel value S(x, y) of the corresponding pixel of the output CG. Note that the pixel values may be scalar (eg, grayscale image) or vector (eg, color image consisting of red, green, and blue components).

ここで、画素値演算部13は、第一物理ベースCGの対応画素の画素値P、第二物理ベースCGの対応画素の画素値Q、及び、イメージベースCGの対応画素の画素値Rから、以下の式(1)に示すように、二項演算μを用いて、出力CGの対応画素の画素値を演算する。 Here, from the pixel value P of the corresponding pixel of the first physical base CG, the pixel value Q of the corresponding pixel of the second physical base CG, and the pixel value R of the corresponding pixel of the image base CG, As shown in the following equation (1), the pixel value of the corresponding pixel of the output CG is calculated using the binary operation μ.

Figure 2023073003000002
Figure 2023073003000002

例えば、画素値演算部13は、二項演算子μ及び関数fに対し、以下の式(2)の変換を行い、出力CGの対応画素の画素値S(x,y)を算出する。 For example, the pixel value calculator 13 converts the binary operator μ and the function f according to the following equation (2) to calculate the pixel value S(x, y) of the corresponding pixel of the output CG.

Figure 2023073003000003
Figure 2023073003000003

なお、Q-1は、二項演算μにおけるQの逆元である。また、Q-1は、二項演算μがアダマール積、かつ、QがD次元ベクトルの場合(但し、Dは1以上の整数)、ベクトル成分ごとの逆数を意味する。すなわち、Q-1は、以下の式(3)で表される。特に、D=1の場合、すなわち、二項演算μが剰余算、かつ、Qがスカラーの場合、Q-1が1/Qを意味する。一方、二項演算μが加減算の場合、Q-1がQを意味する。 Note that Q −1 is the inverse of Q in the binary operation μ. Q −1 means the reciprocal of each vector component when the binary operation μ is the Hadamard product and Q is a D-dimensional vector (where D is an integer equal to or greater than 1). That is, Q −1 is represented by the following formula (3). In particular, if D=1, ie if the binary operation μ is a remainder calculation and Q is a scalar, then Q −1 means 1/Q. On the other hand, when the binary operation μ is addition and subtraction, Q −1 means Q.

Figure 2023073003000004
Figure 2023073003000004

関数f(v)は、以下の式(4)のように成分ごとに独立のものとし、かつ、関数f(v)がvに関して広義単調増加とする(dは1以上、D以下の整数)。 The function f(v) is assumed to be independent for each component as shown in the following equation (4), and the function f d (v) is assumed to increase monotonically in a broad sense with respect to v (d is an integer equal to or greater than 1 and equal to or less than D ).

Figure 2023073003000005
Figure 2023073003000005

また、関数f(v)は、以下の式(5)としてもよい。この場合、式(1)は、以下の(6)で表される。
Also, the function f(v) may be the following equation (5). In this case, the formula (1) is represented by the following (6).

Figure 2023073003000006
Figure 2023073003000006
Figure 2023073003000007
Figure 2023073003000007

ここで、式(1)の二項演算μは、式(7)の加減算、又は、式(9)の剰余算で行うことができる。例えば、画素値演算部13は、以下の式(7)に示すように、加減算である二項演算μを用いて、出力CGの対応画素の画素値を演算する。つまり、画素値演算部13は、以下の式(8)で表される演算を行い、出力CGの対応画素の画素値S(x,y)を算出する。 Here, the binary operation μ of equation (1) can be performed by addition and subtraction of equation (7) or remainder calculation of equation (9). For example, the pixel value calculator 13 calculates the pixel value of the corresponding pixel of the output CG using the binary operation μ, which is addition and subtraction, as shown in Equation (7) below. That is, the pixel value calculator 13 performs the calculation represented by the following equation (8) to calculate the pixel value S(x, y) of the corresponding pixel of the output CG.

Figure 2023073003000008
Figure 2023073003000008
Figure 2023073003000009
Figure 2023073003000009

また、画素値演算部13は、Qの成分がゼロでない画素及び色成分に対して、以下の式(9)に示すように、剰余算である二項演算μを用いて、出力CGの対応画素の画素値を演算してもよい。つまり、画素値演算部13は、以下の式(10)で表される演算を行い、出力CGの対応画素の画素値S(x,y)を算出する。 In addition, the pixel value calculation unit 13 uses the binary operation μ, which is a remainder calculation, as shown in the following equation (9) for pixels and color components in which the component of Q is not zero, and the correspondence of the output CG A pixel value of a pixel may be calculated. That is, the pixel value calculator 13 performs the calculation represented by the following equation (10) to calculate the pixel value S(x, y) of the corresponding pixel of the output CG.

Figure 2023073003000010
Figure 2023073003000010
Figure 2023073003000011
Figure 2023073003000011

ここで、P、Q、R及びSのd番目の成分をそれぞれ、P、Q、R及びSとしたとき、以下の式(11)で画素値Sを演算する。 Here, when the d-th components of P, Q, R and S are respectively Pd , Qd , Rd and Sd , the pixel value Sd is calculated by the following equation (11).

Figure 2023073003000012
Figure 2023073003000012

例外的に、Q(x,y)=0の成分に対しては、以下の式(12)~式(15)の何れかで画素値Sを演算する(但し、m,nは正の整数)。 Exceptionally, for the component of Q d (x, y)=0, the pixel value S d is calculated by any of the following equations (12) to (15) (where m and n are positive integer).

Figure 2023073003000013
Figure 2023073003000013

<レンダリング装置の原理>
図2及び図3を参照して、レンダリング装置1の原理について説明する。
ここでは、模様のある球体(例えば、ビリヤードのボール)のCGをレンダリングする例で説明する。また、第一物理ベースレンダリング部10及び第二物理ベースレンダリング部11における物理ベースレンダリングの精度が、イメージベースレンダリング部12におけるイメージベースレンダリングの精度より劣っている。また、イメージベースモデルの生成時、被写体全周から一様な光線により照明を行っている。
<Principle of Rendering Device>
The principle of the rendering device 1 will be described with reference to FIGS. 2 and 3. FIG.
Here, an example of CG rendering of a sphere with a pattern (for example, a billiard ball) will be described. Also, the accuracy of physical-based rendering in the first physical-based rendering unit 10 and the second physical-based rendering unit 11 is inferior to the accuracy of image-based rendering in the image-based rendering unit 12 . Also, when the image-based model is generated, the object is illuminated with a uniform light beam from the entire periphery.

図2(a)には、第一物理ベースCGを図示した。この第一物理ベースCGでは、第一物理ベースレンダリングにより陰影や光沢感のある画像が得られるものの、物理ベースモデルの精度不足によりぼやけを生じている。 FIG. 2(a) shows the first physical base CG. In this first physics-based CG, although an image with shadows and glossiness is obtained by the first physics-based rendering, blurring occurs due to the lack of accuracy of the physics-based model.

図2(b)には、第二物理ベースCGを図示した。この第二物理ベースCGでは、イメージベースモデル取得時の照明を近似すべく、被写体全周から一様な光線を照射する仮想照明を用いた。その結果、第二物理ベースCGでは、陰影や光沢感がなく被写体の模様だけが現れた像が描画されている。また、第二物理ベースCGでは、物理ベースモデルの精度不足により、ぼやけが生じている。 FIG. 2(b) shows the second physical base CG. In this second physics-based CG, in order to approximate the lighting at the time of acquiring the image-based model, a virtual illumination that irradiates a uniform light beam from the entire periphery of the subject is used. As a result, the second physics-based CG renders an image in which only the pattern of the subject appears without shadows or glossiness. Also, in the second physics-based CG, blurring occurs due to insufficient accuracy of the physics-based model.

図2(c)には、イメージベースCGを図示した。このイメージベースCGは、被写体全周から一様な光線により照明を照射して撮影した実写画像から生成されたCGである。イメージベースCGでは、陰影や光沢感のない画像が描画される一方、前記のようにイメージベースモデルが物理ベースモデルより精度が高いことから、高い精細感が得られる。 FIG. 2(c) shows the image-based CG. This image-based CG is CG generated from a photographed image captured by illuminating the subject with uniform light rays from all around. In image-based CG, an image without shadows or glossiness is rendered, while the image-based model is more precise than the physical-based model, as described above, so that a high degree of detail can be obtained.

図2(d)には、図2(a)~図2(c)のGCに対し、式(6)で演算した出力CGを図示した。この出力CGは、陰影や光沢があり、かつぼやけのない高品質なものである。この出力CGは、図2(e)に示す、物理ベースモデルの精度が十分に高かったときに得られるCGを近似したものとなる。 FIG. 2(d) shows the output CG calculated by Equation (6) for the GCs of FIGS. 2(a) to 2(c). This output CG is of high quality with shading, luster, and no blurring. This output CG approximates the CG obtained when the accuracy of the physics-based model is sufficiently high, as shown in FIG. 2(e).

図3に示すように、第一物理ベースCGでは、所望照明下における出力CGの陰影が再現されている一方、形状誤差によるテクスチャ形状の劣化が大きくなる。イメージベースCGでは、形状誤差によるテクスチャ形状の劣化が小さくなる一方、イメージベースモデルの陰影が再現されている。第二物理ベースCGでは、イメージベースモデルの陰影が反映されており、形状誤差によるテクスチャ形状の劣化が大きくなる。 As shown in FIG. 3, in the first physically-based CG, while the shadows of the output CG under the desired illumination are reproduced, texture shape deterioration due to shape errors increases. Image-based CG reproduces the shadows of the image-based model while reducing texture shape deterioration due to shape errors. In the second physics-based CG, the shadows of the image-based model are reflected, and texture shape deterioration due to shape errors increases.

そこで、レンダリング装置1では、第一物理ベースCGとイメージベースCGとを加算し、第二物理ベースCGを減算することで、所望照明下の陰影が再現され、かつ、形状誤差によるテクスチャ形状の劣化が少ない出力CGが得られる。以上のように、レンダリング装置1によれば、物理ベースレンダリングの性能がイメージベースレンダリングの性能より劣る場合において、質感および精細感を両立するCGを生成することが可能となる。 Therefore, in the rendering device 1, by adding the first physical base CG and the image base CG and subtracting the second physical base CG, the shadow under the desired illumination is reproduced and the texture shape is deteriorated due to the shape error. An output CG with less is obtained. As described above, according to the rendering apparatus 1, even when the performance of physically-based rendering is inferior to the performance of image-based rendering, it is possible to generate CG that achieves both texture and detail.

[レンダリング装置の動作例]
図4を参照し、レンダリング装置1の動作例について説明する。
図4に示すように、ステップS1において、第一物理ベースレンダリング部10は、物理ベースモデルに対して第一仮想照明で物理ベースレンダリングを適用することにより、第一物理ベースCGを生成する。
ステップS2において、第二物理ベースレンダリング部11は、物理ベースモデルに対して第二仮想照明で物理ベースレンダリングを適用することにより、第二物理ベースCGを生成する。
ステップS3において、イメージベースレンダリング部12は、イメージベースモデルに対してイメージベースレンダリングを適用することで、イメージベースCGを生成する。
なお、ステップS1~S3の処理は、並列で実行できる。
[Example of operation of rendering device]
An operation example of the rendering device 1 will be described with reference to FIG.
As shown in FIG. 4, in step S1, the first physics-based rendering unit 10 generates the first physics-based CG by applying physics-based rendering to the physics-based model with the first virtual lighting.
In step S2, the second physics-based rendering unit 11 generates a second physics-based CG by applying physics-based rendering with a second virtual illumination to the physics-based model.
In step S3, the image-based rendering unit 12 generates image-based CG by applying image-based rendering to the image-based model.
Note that the processing of steps S1 to S3 can be executed in parallel.

ステップS4において、画素値演算部13は、ステップS1における第一物理ベースCGと、ステップS2における第二物理ベースCGと、ステップS3におけるイメージベースCGとの対応画素の画素値から、出力CGの対応画素の画素値を演算する。 In step S4, the pixel value calculation unit 13 calculates the correspondence of the output CG from the pixel values of the corresponding pixels of the first physical base CG in step S1, the second physical base CG in step S2, and the image base CG in step S3. Calculate the pixel value of a pixel.

[作用・効果]
以上のように、レンダリング装置1は、イメージベースCGと第二物理ベースCGとの間の演算によって第一物理レンダリングで再現しきれない画素値成分を演算し、第一物理ベースCGに補完する。これによって、レンダリング装置1は、高精度でないモデルからも自然なCG画像を生成できる。
さらに、レンダリング装置1は、物理ベースモデルの精度を落としてもリアルな出力CGが得られるため、モデル化に要する機器や処理時間、モデルのデータ量を削減することができる。
[Action/effect]
As described above, the rendering apparatus 1 calculates pixel value components that cannot be completely reproduced by the first physical rendering through calculations between the image-based CG and the second physical-based CG, and complements the first physical-based CG. This allows the rendering device 1 to generate a natural CG image even from a model that is not highly accurate.
Furthermore, since the rendering device 1 can obtain a realistic output CG even if the accuracy of the physics-based model is reduced, it is possible to reduce equipment and processing time required for modeling and the amount of model data.

すなわち、レンダリング装置1は、第一物理ベースCGにおいて再現しきれない画素値成分をイメージベースCG及び第二物理ベースCGの相違成分によって補完する。これにより、レンダリング装置1では、イメージベースCGが第二物理ベースCGよりも細かなテクスチャ成分を有する場合、その相違成分を第一物理ベースCGに補完できるので精細感が向上する。 That is, the rendering device 1 complements the pixel value components that cannot be reproduced in the first physically based CG with the different components between the image based CG and the second physically based CG. Thus, in the rendering device 1, when the image-based CG has finer texture components than the second physics-based CG, the difference component can be complemented to the first physics-based CG, thereby improving the sense of detail.

さらに、レンダリング装置1は、前記した相違成分の演算に減算を用いると共に、補完に加算を用いる。この場合、レンダリング装置1は、差分演算の演算コストが小さいため、装置の規模や処理速度を向上させることができる。 Furthermore, the rendering device 1 uses subtraction for the calculation of the difference component and addition for complementation. In this case, the rendering device 1 can improve the scale and processing speed of the device because the computation cost of the difference computation is low.

さらに、レンダリング装置1は、前記した相違成分の演算に除算を用いると共に、補完に乗算を用いる。この場合、レンダリング装置1は、物体表面における反射や物体内部での散乱、反射、透過の過程においては乗法的にこれらの効果が適用されることが一般的であるため、前記画素値演算部に乗除算を行うことで物理的により厳密な補完が可能となる。 Furthermore, the rendering device 1 uses division for the calculation of the difference component and multiplication for complementation. In this case, the rendering device 1 generally applies these effects multiplicatively in the processes of reflection on the object surface and scattering, reflection, and transmission inside the object. By performing multiplication and division, it is possible to perform more physically strict complementation.

さらに、レンダリング装置1は、第二仮想照明をイメージベースモデル生成時の照明環境に近似させることで、第二物理ベースCGの陰影をイメージベースCGの陰影に近似させることができ、前記補完において陰影の影響を取り除くことができる。その結果、レンダリング装置1は、前記補完される情報を細部構造の有無といった精細感に関連する情報に特化させることができる。 Further, the rendering device 1 can approximate the shadow of the second physical base CG to the shadow of the image base CG by approximating the second virtual lighting to the lighting environment at the time of generating the image base model, and the shadow can remove the effects of As a result, the rendering device 1 can make the complemented information specialize in information related to fineness, such as the presence or absence of detailed structures.

さらに、レンダリング装置1は、複数の照明光、無影灯又は面状の照明光で撮影した実写画像に基づいたイメージベースモデルを用いるので、照明光の影響を軽減したイメージベースCGの生成が可能となる。この場合、画素値演算部13において、照明光の影響を軽減したイメージベースCGと、イメージベースCGの陰影と同様の陰影を有する第二物理ベースCGとの間で演算を行うことで、照明光に依存する悪影響を排除した高精度な補完が可能となり、出力CGの画質を向上させることができる。 Furthermore, since the rendering device 1 uses an image-based model based on a photographed image taken with a plurality of illumination lights, a shadowless lamp, or planar illumination light, it is possible to generate an image-based CG with reduced influence of the illumination light. becomes. In this case, in the pixel value calculation unit 13, by performing calculations between the image-based CG in which the influence of the illumination light is reduced and the second physical-based CG having the same shadow as the shadow of the image-based CG, the illumination light It is possible to perform highly accurate complementation that eliminates the adverse effects that depend on , and improve the image quality of the output CG.

(変形例)
以上、実施形態を詳述してきたが、本発明は前記した実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
(Modification)
Although the embodiments have been described in detail above, the present invention is not limited to the above-described embodiments, and includes design changes and the like within the scope of the present invention.

前記した実施形態では、第一仮想照明が、出力CGにおける照明条件であり、第二仮想照明が、イメージベースモデルが生成されたときの照明条件を近似したものと説明したが、これに限定されない。つまり、第二仮想照明が第一仮想照明と異なっていれば、両照明条件を任意に設定できる。例えば、第二仮想照明を意図的に変化させることで、エッジの強調や強い光沢などの特殊な映像効果が得られる In the above-described embodiment, the first virtual lighting is the lighting conditions in the output CG, and the second virtual lighting is the approximation of the lighting conditions when the image-based model is generated. However, the present invention is not limited to this. . That is, if the second virtual illumination is different from the first virtual illumination, both illumination conditions can be arbitrarily set. For example, by intentionally changing the second virtual lighting, special video effects such as edge enhancement and strong gloss can be obtained.

前記した実施形態では、第一物理ベースレンダリング部及び第二物理ベースレンダリング部が独立した構成であることとして説明したが、両者を共通ものとしてもよい。つまり、両者を共通の回路又はプログラムとして実装し、タイミングを違えて第一仮想照明と第二仮想照明を切り変えて物理ベースレンダリングを行い、その結果を第一物理ベースCG及び第二物理ベースCGとしてもよい。 In the above-described embodiment, the first physical-based rendering section and the second physical-based rendering section are configured independently, but they may be shared. In other words, both are implemented as a common circuit or program, the first virtual illumination and the second virtual illumination are switched at different timings, physical base rendering is performed, and the result is the first physical base CG and the second physical base CG. may be

前記した実施形態では、レンダリング装置が独立したハードウェアであることとして説明したが、本発明は、これに限定されない。例えば、本発明は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記したレンダリング装置として機能させるためのプログラムで実現することもできる。このプログラムは、通信回線を介して配布してもよく、CD-ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。 In the above-described embodiment, the rendering device is described as independent hardware, but the present invention is not limited to this. For example, the present invention can also be realized by a program for causing hardware resources such as a CPU, memory, and hard disk provided in a computer to function as the above-described rendering device. This program may be distributed via a communication line, or may be distributed by being written in a recording medium such as a CD-ROM or flash memory.

1 レンダリング装置
10 第一物理ベースレンダリング部
11 第二物理ベースレンダリング部
12 イメージベースレンダリング部
13 画素値演算部
1 Rendering Device 10 First Physically Based Rendering Unit 11 Second Physically Based Rendering Unit 12 Image Based Rendering Unit 13 Pixel Value Calculating Unit

Claims (7)

物理ベースレンダリング及びイメージベースレンダリングを用いて、被写体のモデルから出力CG画像をレンダリングするレンダリング装置であって、
物理ベースモデルに対して所定の第一仮想照明条件で前記物理ベースレンダリングを適用することで、第一物理ベースCG画像を生成する第一物理ベースレンダリング部と、
前記物理ベースモデルに対して前記第一仮想照明条件と異なる第二仮想照明条件で前記物理ベースレンダリングを適用することにより、第二物理ベースCG画像を生成する第二物理ベースレンダリング部と、
イメージベースモデルに対して前記イメージベースレンダリングを適用することにより、イメージベースCG画像を生成するイメージベースレンダリング部と、
前記第一物理ベースCG画像と前記第二物理ベースCG画像と前記イメージベースCG画像との対応画素の画素値から、前記出力CG画像の対応画素の画素値を演算する画素値演算部と、
を備えることを特徴とするレンダリング装置。
A rendering device that renders an output CG image from a model of a subject using physically-based rendering and image-based rendering,
a first physics-based rendering unit that generates a first physics-based CG image by applying the physics-based rendering to the physics-based model under a predetermined first virtual lighting condition;
a second physics-based rendering unit that generates a second physics-based CG image by applying the physics-based rendering to the physics-based model under a second virtual lighting condition different from the first virtual lighting condition;
an image-based rendering unit that generates an image-based CG image by applying the image-based rendering to the image-based model;
a pixel value calculation unit for calculating the pixel value of the corresponding pixel of the output CG image from the pixel value of the corresponding pixel of the first physical base CG image, the second physical base CG image, and the image base CG image;
A rendering device comprising:
前記第一仮想照明条件は、前記出力CG画像における照明条件であり、
前記第二仮想照明条件は、前記イメージベースモデルが生成されたときの照明条件を近似したものであることを特徴とする請求項1に記載のレンダリング装置。
the first virtual lighting condition is a lighting condition in the output CG image;
3. The rendering apparatus of claim 1, wherein the second virtual lighting conditions approximate lighting conditions under which the image-based model was generated.
前記画素値演算部は、前記第一物理ベースCG画像の対応画素の画素値P、前記第二物理ベースCG画像の対応画素の画素値Q、及び、前記イメージベースCG画像の対応画素の画素値Rから、以下の式(1)に示すように、二項演算μを用いて(但し、Q-1は前記二項演算μにおけるQの逆元)、
Figure 2023073003000014
前記出力CG画像の対応画素の画素値を演算することを特徴とする請求項1又は請求項2に記載のレンダリング装置。
The pixel value calculation unit calculates a pixel value P of the corresponding pixel of the first physically-based CG image, a pixel value Q of the corresponding pixel of the second physically-based CG image, and a pixel value of the corresponding pixel of the image-based CG image. From R, as shown in the following equation (1), using the binary operation μ (where Q −1 is the inverse of Q in the binary operation μ),
Figure 2023073003000014
3. The rendering device according to claim 1, wherein the pixel value of the corresponding pixel of the output CG image is calculated.
前記画素値演算部は、加減算である前記二項演算μを用いて、以下の式(2)に示すように、
Figure 2023073003000015
前記出力CG画像の対応画素の画素値を演算することを特徴とする請求項3に記載のレンダリング装置。
The pixel value calculator uses the binary operation μ, which is addition and subtraction, as shown in the following equation (2):
Figure 2023073003000015
4. The rendering device according to claim 3, wherein the pixel value of the corresponding pixel of said output CG image is calculated.
前記画素値演算部は、Qの成分がゼロでない画素及び色成分に対して、剰余算である前記二項演算μを用いて、以下の式(3)に示すように、
Figure 2023073003000016
前記出力CG画像の対応画素の画素値を演算することを特徴とする請求項3に記載のレンダリング装置。
The pixel value calculator uses the binomial operation μ, which is a remainder calculation, for pixels and color components in which the component of Q is not zero, as shown in the following equation (3):
Figure 2023073003000016
4. The rendering device according to claim 3, wherein the pixel value of the corresponding pixel of said output CG image is calculated.
前記イメージベースモデルは、複数の照明光、無影灯又は面状の照明光で撮影した実写画像に基づいたモデルであることを特徴とする請求項1から請求項5の何れか一項に記載のレンダリング装置。 6. The image-based model according to any one of claims 1 to 5, wherein the image-based model is a model based on a photographed image taken with a plurality of illumination lights, a shadowless lamp, or planar illumination light. rendering equipment. コンピュータを、請求項1から請求項6の何れか一項に記載のレンダリング装置として機能させるためのプログラム。 A program for causing a computer to function as the rendering device according to any one of claims 1 to 6.
JP2021185787A 2021-11-15 2021-11-15 Rendering device and its program Active JP7727494B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021185787A JP7727494B2 (en) 2021-11-15 2021-11-15 Rendering device and its program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021185787A JP7727494B2 (en) 2021-11-15 2021-11-15 Rendering device and its program

Publications (2)

Publication Number Publication Date
JP2023073003A true JP2023073003A (en) 2023-05-25
JP7727494B2 JP7727494B2 (en) 2025-08-21

Family

ID=86425502

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021185787A Active JP7727494B2 (en) 2021-11-15 2021-11-15 Rendering device and its program

Country Status (1)

Country Link
JP (1) JP7727494B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004264907A (en) * 2003-02-17 2004-09-24 Sony Computer Entertainment Inc Image generation system, image generation device, and image generation method
JP2018121289A (en) * 2017-01-27 2018-08-02 セコム株式会社 Background image generation apparatus and object detection apparatus
JP2019087778A (en) * 2017-11-01 2019-06-06 日本放送協会 Image restoration filter and learning apparatus
JP2020042503A (en) * 2018-09-10 2020-03-19 株式会社MinD in a Device 3D representation generation system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004264907A (en) * 2003-02-17 2004-09-24 Sony Computer Entertainment Inc Image generation system, image generation device, and image generation method
JP2018121289A (en) * 2017-01-27 2018-08-02 セコム株式会社 Background image generation apparatus and object detection apparatus
JP2019087778A (en) * 2017-11-01 2019-06-06 日本放送協会 Image restoration filter and learning apparatus
JP2020042503A (en) * 2018-09-10 2020-03-19 株式会社MinD in a Device 3D representation generation system

Also Published As

Publication number Publication date
JP7727494B2 (en) 2025-08-21

Similar Documents

Publication Publication Date Title
CA3074547C (en) On-set facial performance capture and transfer to a three-dimensional computer-generated model
Yu et al. Inverse global illumination: Recovering reflectance models of real scenes from photographs
Meilland et al. 3d high dynamic range dense visual slam and its application to real-time object re-lighting
JP3962588B2 (en) 3D image processing method, 3D image processing apparatus, 3D image processing system, and 3D image processing program
Gruber et al. Real-time photometric registration from arbitrary geometry
JP2022032937A (en) Computer vision methods and systems
JP4335588B2 (en) How to model a 3D object
US8223148B1 (en) Method and apparatus for computing indirect lighting for global illumination rendering in 3-D computer graphics
Dos Santos et al. Real time ray tracing for augmented reality
WO2019173556A1 (en) Adaptive sampling for structured light scanning
US20250014267A1 (en) Appearance capture under multiple lighting conditions
WO2018080533A1 (en) Real-time generation of synthetic data from structured light sensors for 3d object pose estimation
Alhakamy et al. Real-time illumination and visual coherence for photorealistic augmented/mixed reality
CN116758208A (en) Global illumination rendering method and device, storage medium and electronic equipment
CN117671125A (en) Illumination rendering method, device, equipment and storage medium
JP4335589B2 (en) How to model a 3D object
JP2004252603A (en) 3D data processing method
CN119251430A (en) A method, medium and device for constructing a virtual scene based on point cloud data
JP5441752B2 (en) Method and apparatus for estimating a 3D pose of a 3D object in an environment
KR100951121B1 (en) Rendering method for indirect illumination effect
JP7727494B2 (en) Rendering device and its program
CN113592995A (en) Multiple reflected light separation method based on parallel single-pixel imaging
Martos et al. Realistic virtual reproductions. Image-based modelling of geometry and appearance
Aliaga Digital inspection: An interactive stage for viewing surface details
Kunert et al. Evaluating light probe estimation techniques for mobile augmented reality

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20241003

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20250709

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250715

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250808

R150 Certificate of patent or registration of utility model

Ref document number: 7727494

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150