[go: up one dir, main page]

JP2008027050A - Image generating apparatus, image generating method, and program - Google Patents

Image generating apparatus, image generating method, and program Download PDF

Info

Publication number
JP2008027050A
JP2008027050A JP2006197010A JP2006197010A JP2008027050A JP 2008027050 A JP2008027050 A JP 2008027050A JP 2006197010 A JP2006197010 A JP 2006197010A JP 2006197010 A JP2006197010 A JP 2006197010A JP 2008027050 A JP2008027050 A JP 2008027050A
Authority
JP
Japan
Prior art keywords
image
viewpoint
plane
shadow
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006197010A
Other languages
Japanese (ja)
Other versions
JP4267646B2 (en
Inventor
Yuichi Asami
祐一 浅見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2006197010A priority Critical patent/JP4267646B2/en
Publication of JP2008027050A publication Critical patent/JP2008027050A/en
Application granted granted Critical
Publication of JP4267646B2 publication Critical patent/JP4267646B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

【課題】仮想空間内の全方位からオブジェクトを見た画像を生成する。
【解決手段】画像生成装置300において、記憶部301は仮想空間内の面オブジェクト、立体オブジェクト、光源、視点、視線方向の情報を記憶する。計算部301は光源からの光によって面オブジェクトに投影される立体オブジェクトの陰影の形状と位置を計算する。判断部303は視点が面オブジェクトに対して立体オブジェクトと同じ側にあるか異なる側にあるかを判断する。同じ側にある場合、生成部304は面オブジェクト、立体オブジェクト及びその陰影を含む画像を生成する。異なる側にある場合、生成部304は立体オブジェクト及びその陰影を含む画像を生成する。
【選択図】図3
An image in which an object is viewed from all directions in a virtual space is generated.
In an image generation apparatus, a storage unit stores information on a plane object, a three-dimensional object, a light source, a viewpoint, and a line-of-sight direction in a virtual space. The calculation unit 301 calculates the shape and position of the shadow of the three-dimensional object projected onto the plane object by the light from the light source. The determination unit 303 determines whether the viewpoint is on the same side or a different side from the plane object. If they are on the same side, the generation unit 304 generates an image including a plane object, a solid object, and its shadow. If they are on different sides, the generation unit 304 generates an image including the solid object and its shadow.
[Selection] Figure 3

Description

本発明は、仮想空間内の全方位から見える画像を生成するために好適な画像生成装置、画像生成方法、ならびに、プログラムに関する。   The present invention relates to an image generation apparatus, an image generation method, and a program suitable for generating an image that can be seen from all directions in a virtual space.

従来から、コンピュータグラフィックスの分野や各種のゲーム装置における処理においては、3次元グラフィックスの技術が利用されている。このような3次元グラフィックスの技術では、仮想的な3次元空間の中に描画対象となるオブジェクトを配置する。オブジェクトの表面は多面体で表現されており、多面体の角面は多角形(ポリゴン)となっている。このような3次元グラフィックスの技術については、以下の文献に開示がある。
特許第3490983号公報
Conventionally, three-dimensional graphics techniques have been used in the field of computer graphics and processing in various game devices. In such 3D graphics technology, an object to be drawn is arranged in a virtual 3D space. The surface of the object is represented by a polyhedron, and the angular surface of the polyhedron is a polygon. Such 3D graphics techniques are disclosed in the following documents.
Japanese Patent No. 3490983

特許文献1のような従来技術によれば、例えば、仮想空間内の地面の上に配置されたオブジェクトに、仮想空間内の光源から光を照射して、仮想空間内の視点から見た画像を生成できる。しかしながら、仮想空間内の視点の位置が地面より下に移動すると、本来見えないはずのポリゴンの裏側が見えてしまい不自然な画像になってしまう。そのため、視点の位置が地面より下に行かないように制御したり、不自然さをなくすために背景を写さない等の別な演出をしたりしなければならなかった。一方で、仮想空間内のあらゆる位置に視点を動かして画像を表示してゲームを演出できるようにすることが望まれているが、現実の世界で見えると予想される画像を表示するだけではゲームの世界観を十分に演出できなかった。   According to the conventional technology such as Patent Document 1, for example, an object placed on the ground in a virtual space is irradiated with light from a light source in the virtual space, and an image viewed from a viewpoint in the virtual space is obtained. Can be generated. However, if the position of the viewpoint in the virtual space moves below the ground, the back side of the polygon that should not be seen can be seen, resulting in an unnatural image. Therefore, it has been necessary to control the position of the viewpoint so as not to go below the ground, or to produce other effects such as not copying the background in order to eliminate unnaturalness. On the other hand, it is desirable to move the viewpoint to any position in the virtual space and display the image so that the game can be produced, but it is not necessary to display the image that is expected to be seen in the real world. Couldn't produce enough worldview.

本発明は、このような課題を解決するものであり、仮想空間内の全方位からオブジェクトを見た画像を生成するために好適な画像生成装置、画像生成方法、ならびに、プログラムを提供することを目的とする。   The present invention solves such problems, and provides an image generation apparatus, an image generation method, and a program suitable for generating an image in which an object is viewed from all directions in a virtual space. Objective.

以上の目的を達成するため、本発明の原理にしたがって、下記の発明を開示する。   In order to achieve the above object, the following invention is disclosed in accordance with the principle of the present invention.

本発明の第1の観点に係る画像生成装置は、記憶部、判断部、生成部を備える。
記憶部は、仮想空間内に配置される第1オブジェクトの位置、第2オブジェクトの位置、視点の位置、視線の方向の情報、を記憶する。
判断部は、当該第1オブジェクトの位置、当該第2オブジェクトの位置、当該視点の位置の情報から、当該視点が当該第1オブジェクトに対して当該第2オブジェクトと同じ側に配置されるか異なる側に配置されるかを判断する。
生成部は、当該第1オブジェクトの位置、当該第2オブジェクトの位置、当該視点の位置、当該視線の方向の情報、に基づいて、当該視点の位置から当該視線の方向へこの仮想空間を見た様子を表す画像を生成する。
さらに、生成部は、判断部により、当該視点が当該第1オブジェクトに対して当該第2オブジェクトと
(a)同じ側に配置されると判断された場合、当該第1オブジェクトと、当該第2オブジェクトと、を見た様子を表す画像を生成し、
(b)異なる側に配置されると判断された場合、当該第2オブジェクトを見た様子を表す画像を生成する。
この結果、画像生成装置は、仮想空間内のキャラクタオブジェクトを全方向から見た画像を生成することができる。また、全方向から画像を生成することにより、より臨場感のある演出を違和感なく行うことができる。
An image generation apparatus according to a first aspect of the present invention includes a storage unit, a determination unit, and a generation unit.
The storage unit stores information on the position of the first object, the position of the second object, the position of the viewpoint, and the direction of the line of sight arranged in the virtual space.
The determination unit determines whether the viewpoint is arranged on the same side as the second object with respect to the first object, based on the position of the first object, the position of the second object, and the position of the viewpoint. It is judged whether it is arranged in.
Based on the position of the first object, the position of the second object, the position of the viewpoint, and the information on the direction of the line of sight, the generation unit viewed the virtual space from the position of the viewpoint to the direction of the line of sight An image representing the state is generated.
Further, when the determination unit determines that the viewpoint is arranged on the same side as the second object with respect to the first object, (a) the first object and the second object And generate an image that shows how you saw it,
(B) When it is determined that the second object is arranged on a different side, an image representing a state in which the second object is viewed is generated.
As a result, the image generation apparatus can generate an image in which the character object in the virtual space is viewed from all directions. Further, by generating an image from all directions, it is possible to produce a more realistic effect without a sense of incongruity.

当該第1オブジェクトは面オブジェクトであり、当該第2オブジェクトは立体オブジェクトであり、
記憶部は、当該面オブジェクトの形状と、当該立体オブジェクトの形状とを更に記憶し、
判断部は、当該面オブジェクトの形状および位置、当該立体オブジェクトの形状および位置、当該視点の位置の情報から、当該視点が、当該面オブジェクトに対して、当該立体オブジェクトと同じ側に配置されるか異なる側に配置されるかを判断し、
生成部は、当該面オブジェクトの形状および位置、当該立体オブジェクトの形状および位置、当該視点の位置、当該視線の方向の情報、に基づいて、当該視点の位置から当該視線の方向へ当該仮想空間を見た様子を表す画像を生成してもよい。
The first object is a plane object, the second object is a solid object,
The storage unit further stores the shape of the plane object and the shape of the solid object,
The determination unit determines whether the viewpoint is arranged on the same side of the plane object with respect to the plane object based on the shape and position of the plane object, the shape and position of the stereoscopic object, and the position of the viewpoint. Determine whether they are placed on different sides,
Based on the shape and position of the plane object, the shape and position of the three-dimensional object, the position of the viewpoint, and information on the direction of the line of sight, the generation unit creates the virtual space from the position of the viewpoint to the direction of the line of sight. An image representing the appearance may be generated.

記憶部は、当該面オブジェクトに対して当該立体オブジェクトと同じ側に配置される光源の位置を更に記憶し、
当該面オブジェクトの形状および位置、当該立体オブジェクトの形状および位置、当該光源の情報から、当該仮想空間において当該光源により当該立体オブジェクトが当該面オブジェクトに投射する当該陰影の形状および位置を計算する計算部を更に備え、
生成部は、計算部により計算された当該陰影の形状及び位置に基づいて、判断部により、当該視点が当該面オブジェクトに対して当該立体オブジェクトと
(a)同じ側に配置されると判断された場合、当該面オブジェクトと、当該立体オブジェクトと、当該陰影と、を見た様子を表す画像を生成し、
(b)異なる側に配置されると判断された場合、当該立体オブジェクトと、当該陰影と、を見た様子を表す画像を生成してもよい。
この結果、画像生成装置は、全方向から陰影を含む画像を生成することにより、より臨場感のある演出を違和感なく行うことができる。また、面オブジェクトを表示しなくても、陰影を使って面オブジェクトの形状と位置を効果的にユーザに知らしめることができる。
The storage unit further stores the position of the light source arranged on the same side as the solid object with respect to the plane object,
A calculation unit that calculates the shape and position of the shadow projected by the light source on the surface object by the light source in the virtual space from the shape and position of the surface object, the shape and position of the solid object, and the information on the light source Further comprising
Based on the shape and position of the shadow calculated by the calculation unit, the generation unit determines that the viewpoint is arranged on the same side as the solid object with respect to the plane object (a). In this case, an image representing the appearance of the plane object, the solid object, and the shadow is generated.
(B) When it is determined that the objects are arranged on different sides, an image representing the appearance of the solid object and the shadow may be generated.
As a result, the image generating apparatus can perform a more realistic effect without a sense of incongruity by generating an image including a shadow from all directions. Even if the plane object is not displayed, it is possible to effectively inform the user of the shape and position of the plane object using the shadow.

生成部は、判断部により、当該視点が当該面オブジェクトに対して当該立体オブジェクトと
(a)同じ側に配置されると判断された場合、当該面オブジェクトを不透明とし、
(b)異なる側に配置されると判断された場合、当該面オブジェクトを透明として、
当該面オブジェクトと、当該立体オブジェクトと、当該陰影と、を見た様子を表す画像を生成してもよい。
この結果、画像生成装置は、仮想空間内のキャラクタオブジェクトを全方向から見た画像を生成することができる。また、全方向から画像を生成することにより、より臨場感のある演出を違和感なく行うことができる。
When the determination unit determines that the viewpoint is arranged on the same side as the solid object with respect to the plane object (a), the generation unit makes the plane object opaque,
(B) If it is determined that the plane object is arranged on a different side, the plane object is made transparent,
An image representing the appearance of the plane object, the solid object, and the shadow may be generated.
As a result, the image generation apparatus can generate an image in which the character object in the virtual space is viewed from all directions. Further, by generating an image from all directions, it is possible to produce a more realistic effect without a sense of incongruity.

生成部は、当該面オブジェクトのうち当該陰影の占める領域の画像の明度と彩度の両方又はどちらか片方を減衰させるか、あるいは、当該面オブジェクトのうち当該陰影の占める領域の画像を無彩色にして、画像を生成することができる。
この結果、画像生成装置は、陰影の形状と位置を強調した画像の生成が可能になる。例えば、陰影部分を暗くしたり、黒やグレーといった無彩色にしたりして、臨場感のある画像を生成することができる。
The generation unit attenuates the brightness and / or saturation of the image of the area occupied by the shadow of the plane object, or makes the image of the area occupied by the shadow of the plane object achromatic. Thus, an image can be generated.
As a result, the image generation apparatus can generate an image in which the shape and position of the shadow are emphasized. For example, it is possible to generate a realistic image by darkening the shaded portion or making it achromatic such as black or gray.

生成部は、判断部により、当該視点が当該面オブジェクトに対して当該立体オブジェクトと
(x)同じ側に配置されると判断された場合、当該面オブジェクトのうち当該陰影の占める領域の画像の明度と彩度の両方又はどちらか片方を減衰させて、
(y)異なる側に配置されると判断された場合、当該面オブジェクトのうち当該陰影の占める領域の画像を無彩色にして、
画像を生成することができる。
この結果、画像生成装置は、視点の位置によって陰影の演出を変えることができる。
When the determination unit determines that the viewpoint is arranged on the same side as the solid object (x) with respect to the plane object, the brightness of the image of the area occupied by the shadow in the plane object And / or saturation is attenuated,
(Y) If it is determined that they are arranged on different sides, the image of the area occupied by the shadow in the plane object is achromatic,
An image can be generated.
As a result, the image generating apparatus can change the effect of the shadow depending on the position of the viewpoint.

この画像生成装置は仮想空間内でゲームをプレイするためのゲーム装置であり、
当該視点と当該視線の方向の両方又はどちらか片方が移動可能な範囲を設定する設定部を更に備え、当該移動可能な範囲は、このゲーム装置のユーザのゲーム進行レベルに基づいて設定されてもよい。
この結果、画像生成装置は、ゲームの進行に合わせて視点や視線方向を移動して画像を生成することができる。例えば、ユーザの獲得ポイント、ユーザのクリアしたステージ数、ユーザのプレイ時間などによって、視点や視線方向を動かして、ゲームを演出することができる。
This image generation device is a game device for playing a game in a virtual space,
It further includes a setting unit that sets a range in which either or both of the viewpoint and the direction of the line of sight are movable, and the movable range may be set based on the game progress level of the user of the game device. Good.
As a result, the image generating apparatus can generate an image by moving the viewpoint or the line-of-sight direction as the game progresses. For example, it is possible to produce a game by moving the viewpoint and the line-of-sight direction according to the user's acquisition points, the number of stages cleared by the user, the user's play time, and the like.

計算部は、当該陰影の形状および位置の代わりに、もしくは、当該陰影の形状および位置に加えて、当該面オブジェクトと当該立体オブジェクトとが接触する領域の形状および位置を計算し、
生成部は、当該陰影の代わりに、もしくは、当該陰影に加えて、当該面オブジェクトと当該立体オブジェクトとが接触する領域を含む画像を生成してもよい。
この結果、画像生成装置は、キャラクタオブジェクト同士の接触する領域を示す画像を生成することができる。
The calculation unit calculates the shape and position of the area where the surface object and the three-dimensional object contact, instead of or in addition to the shape and position of the shadow,
The generation unit may generate an image including a region where the plane object and the solid object are in contact with each other instead of or in addition to the shadow.
As a result, the image generation apparatus can generate an image indicating a region where character objects are in contact with each other.

本発明のその他の観点に係る画像生成方法は、記憶部、判断部、生成部を有する画像生成装置にて実行される画像生成方法であって、判断ステップ、生成ステップを備える。
記憶部は、仮想空間内に配置される第1オブジェクトの位置、第2オブジェクトの位置、視点の位置、視線の方向の情報、を記憶する。
判断ステップは、判断部が、当該第1オブジェクトの位置、当該第2オブジェクトの位置、当該視点の位置の情報から、当該視点が、当該第1オブジェクトに対して、当該第2オブジェクトと同じ側に配置されるか異なる側に配置されるかを判断する。
生成ステップは、生成部が、当該第1オブジェクトの位置、当該第2オブジェクトの位置、当該視点の位置、当該視線の方向の情報、に基づいて、当該視点の位置から当該視線の方向へこの仮想空間を見た様子を表す画像を生成する。
さらに、生成ステップは、判断ステップにより、当該視点が当該第1オブジェクトに対して当該第2オブジェクトと
(a)同じ側に配置されると判断された場合、生成部が、当該第1オブジェクトと、当該第2オブジェクトと、を見た様子を表す画像を生成し、
(b)異なる側に配置されると判断された場合、生成部が、当該第2オブジェクトを見た様子を表す画像を生成する。
この結果、この画像生成方法を用いた画像生成装置は、仮想空間内のキャラクタオブジェクトを全方向から見た画像を生成することができる。また、全方向から画像を生成することにより、より臨場感のある演出を違和感なく行うことができる。
An image generation method according to another aspect of the present invention is an image generation method executed by an image generation apparatus having a storage unit, a determination unit, and a generation unit, and includes a determination step and a generation step.
The storage unit stores information on the position of the first object, the position of the second object, the position of the viewpoint, and the direction of the line of sight arranged in the virtual space.
In the determination step, the determination unit determines that the viewpoint is on the same side as the second object with respect to the first object, based on the position of the first object, the position of the second object, and the position of the viewpoint. Judge whether it is placed on a different side or not.
In the generation step, the generation unit moves the virtual object from the position of the viewpoint to the direction of the line of sight based on the position of the first object, the position of the second object, the position of the viewpoint, and the direction of the line of sight. An image representing the appearance of the space is generated.
Further, in the generation step, when it is determined by the determination step that the viewpoint is arranged on the same side as the second object with respect to the first object, the generation unit includes the first object, Generate an image representing the second object and how it was seen,
(B) When it is determined that the second object is arranged on a different side, the generation unit generates an image representing a state in which the second object is viewed.
As a result, the image generation apparatus using this image generation method can generate an image in which the character object in the virtual space is viewed from all directions. Further, by generating an image from all directions, it is possible to produce a more realistic effect without a sense of incongruity.

本発明のその他の観点に係るプログラムは、コンピュータを、記憶部、判断部、生成部として機能させる。
記憶部は、仮想空間内に配置される第1オブジェクトの位置、第2オブジェクトの位置、視点の位置、視線の方向の情報、を記憶する。
判断部は、当該第1オブジェクトの位置、当該第2オブジェクトの位置、当該視点の位置の情報から、当該視点が当該第1オブジェクトに対して当該第2オブジェクトと同じ側に配置されるか異なる側に配置されるかを判断する。
生成部は、当該第1オブジェクトの位置、当該第2オブジェクトの位置、当該視点の位置、当該視線の方向の情報、に基づいて、当該視点の位置から当該視線の方向へこの仮想空間を見た様子を表す画像を生成する。
さらに、生成部は、判断部により、当該視点が当該第1オブジェクトに対して当該第2オブジェクトと
(a)同じ側に配置されると判断された場合、当該第1オブジェクトと、当該第2オブジェクトと、を見た様子を表す画像を生成し、
(b)異なる側に配置されると判断された場合、当該第2オブジェクトを見た様子を表す画像を生成する。
この結果、プログラムは、コンピュータを、仮想空間内のキャラクタオブジェクトを全方向から見た画像を生成する画像生成装置として機能させることができる。また、全方向から画像を生成することにより、より臨場感のある演出を違和感なく行うことができる。
A program according to another aspect of the present invention causes a computer to function as a storage unit, a determination unit, and a generation unit.
The storage unit stores information on the position of the first object, the position of the second object, the position of the viewpoint, and the direction of the line of sight arranged in the virtual space.
The determination unit determines whether the viewpoint is arranged on the same side as the second object with respect to the first object, based on the position of the first object, the position of the second object, and the position of the viewpoint. It is judged whether it is arranged in.
Based on the position of the first object, the position of the second object, the position of the viewpoint, and the information on the direction of the line of sight, the generation unit viewed the virtual space from the position of the viewpoint to the direction of the line of sight An image representing the state is generated.
Further, when the determination unit determines that the viewpoint is arranged on the same side as the second object with respect to the first object, (a) the first object and the second object And generate an image that shows how you saw it,
(B) When it is determined that the second object is arranged on a different side, an image representing a state in which the second object is viewed is generated.
As a result, the program can cause the computer to function as an image generation device that generates an image of the character object in the virtual space viewed from all directions. Further, by generating an image from all directions, it is possible to produce a more realistic effect without a sense of incongruity.

また、本発明のプログラムは、コンパクトディスク、フレキシブルディスク、ハードディスク、光磁気ディスク、ディジタルビデオディスク、磁気テープ、半導体メモリ等のコンピュータ読取可能な情報記憶媒体に記録することができる。
上記プログラムは、プログラムが実行されるコンピュータとは独立して、コンピュータ通信網を介して配布・販売することができる。また、上記情報記憶媒体は、コンピュータとは独立して配布・販売することができる。
The program of the present invention can be recorded on a computer-readable information storage medium such as a compact disk, flexible disk, hard disk, magneto-optical disk, digital video disk, magnetic tape, and semiconductor memory.
The above program can be distributed and sold via a computer communication network independently of the computer on which the program is executed. The information storage medium can be distributed and sold independently from the computer.

本発明によれば、仮想空間内の全方位からオブジェクトを見た画像を生成するために好適な画像生成装置、画像生成方法、ならびに、プログラムを提供することができる。   According to the present invention, it is possible to provide an image generation apparatus, an image generation method, and a program suitable for generating an image in which an object is viewed from all directions in a virtual space.

(実施例1)
以下に本発明の実施例を説明する。本発明の理解を容易にするため、ゲーム用の情報処理装置を利用して本発明が実現される実施例を説明するが、以下に説明する実施例は説明のためのものであり、本発明の範囲を制限するものではない。したがって、当業者であればこれらの各要素もしくは全要素をこれと均等なものに置換した実施形態を採用することが可能であるが、これらの実施形態も本発明の範囲に含まれる。
(Example 1)
Examples of the present invention will be described below. In order to facilitate understanding of the present invention, an embodiment in which the present invention is realized using an information processing apparatus for games will be described. However, the embodiment described below is for explanation, and the present invention is described. It does not limit the range. Therefore, those skilled in the art can employ embodiments in which each or all of these elements are replaced with equivalent ones, and these embodiments are also included in the scope of the present invention.

図1は、プログラムを実行することにより、本発明の画像生成装置の機能を果たす典型的な情報処理装置100の概要構成を示す模式図である。以下、本図を参照して説明する。   FIG. 1 is a schematic diagram showing a schematic configuration of a typical information processing apparatus 100 that performs the function of the image generation apparatus of the present invention by executing a program. Hereinafter, a description will be given with reference to FIG.

情報処理装置100は、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、インターフェイス104と、コントローラ105と、外部メモリ106と、画像処理部107と、DVD−ROM(Digital Versatile Disk - Read Only Memory)ドライブ108と、NIC(Network Interface Card)109と、音声処理部110と、を備える。   The information processing apparatus 100 includes a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, an interface 104, a controller 105, an external memory 106, and an image processing unit 107. A DVD-ROM (Digital Versatile Disk-Read Only Memory) drive 108, a NIC (Network Interface Card) 109, and an audio processing unit 110.

ゲーム用のプログラムおよびデータを記憶したDVD−ROMをDVD−ROMドライブ108に装着して、情報処理装置100の電源を投入することにより、当該プログラムが実行され、本実施例の画像生成装置が実現される。   A DVD-ROM storing a game program and data is loaded into the DVD-ROM drive 108 and the information processing apparatus 100 is turned on to execute the program, thereby realizing the image generation apparatus of this embodiment. Is done.

CPU 101は、情報処理装置100全体の動作を制御し、各構成要素と接続され制御信号やデータをやりとりする。また、CPU 101は、レジスタ(図示せず)という高速アクセスが可能な記憶域に対してALU(Arithmetic Logic Unit)(図示せず)を用いて加減乗除等の算術演算や、論理和、論理積、論理否定等の論理演算、ビット和、ビット積、ビット反転、ビットシフト、ビット回転等のビット演算などを行うことができる。さらに、マルチメディア処理対応のための加減乗除等の飽和演算や、三角関数等、ベクトル演算などを高速に行えるように、CPU 101自身が構成されているものや、コプロセッサを備えて実現するものがある。   The CPU 101 controls the overall operation of the information processing apparatus 100 and is connected to each component to exchange control signals and data. Further, the CPU 101 uses arithmetic operations such as addition / subtraction / multiplication / division, logical sum, logical product, etc. using an ALU (Arithmetic Logic Unit) (not shown) for a storage area called a register (not shown) that can be accessed at high speed. , Logic operations such as logical negation, bit operations such as bit sum, bit product, bit inversion, bit shift, and bit rotation can be performed. In addition, the CPU 101 itself is configured so that saturation operations such as addition / subtraction / multiplication / division for multimedia processing, vector operations such as trigonometric functions, etc. can be performed at a high speed, and those provided with a coprocessor. There is.

ROM 102には、電源投入直後に実行されるIPL(Initial Program Loader)が記録され、これが実行されることにより、DVD−ROMに記録されたプログラムをRAM 103に読み出してCPU 101による実行が開始される。また、ROM 102には、情報処理装置100全体の動作制御に必要なオペレーティングシステムのプログラムや各種のデータが記録される。   The ROM 102 records an IPL (Initial Program Loader) that is executed immediately after the power is turned on, and when this is executed, the program recorded on the DVD-ROM is read out to the RAM 103 and execution by the CPU 101 is started. The The ROM 102 stores an operating system program and various data necessary for operation control of the entire information processing apparatus 100.

RAM 103は、データやプログラムを一時的に記憶するためのもので、DVD−ROMから読み出したプログラムやデータ、その他ゲームの進行やチャット通信に必要なデータが保持される。また、CPU 101は、RAM 103に変数領域を設け、当該変数に格納された値に対して直接ALUを作用させて演算を行ったり、RAM 103に格納された値を一旦レジスタに格納してからレジスタに対して演算を行い、演算結果をメモリに書き戻す、などの処理を行う。   The RAM 103 is for temporarily storing data and programs, and holds programs and data read from the DVD-ROM and other data necessary for game progress and chat communication. Further, the CPU 101 provides a variable area in the RAM 103 and performs an operation by directly operating the ALU on the value stored in the variable, or temporarily stores the value stored in the RAM 103 in the register. Perform operations such as performing operations on registers and writing back the operation results to memory.

インターフェイス104を介して接続されたコントローラ105は、ユーザが麻雀ゲームやトランプゲームなどのゲーム実行の際に行う操作入力を受け付ける。   The controller 105 connected via the interface 104 receives an operation input performed by a user when executing a game such as a mahjong game or a card game.

インターフェイス104を介して着脱自在に接続された外部メモリ106には、麻雀ゲーム等のプレイ状況(過去の成績等)を示すデータ、ゲームの進行状態を示すデータ、ネットワーク対戦の場合のチャット通信のログ(記録)のデータなどが書き換え可能に記憶される。ユーザは、コントローラ105を介して指示入力を行うことにより、これらのデータを適宜外部メモリ106に記録することができる。   The external memory 106 detachably connected via the interface 104 stores data indicating the play status (past results, etc.) of the mahjong game, data indicating the progress of the game, and chat communication log in the case of a network match. (Recorded) data and the like are stored in a rewritable manner. The user can record these data in the external memory 106 as appropriate by inputting an instruction via the controller 105.

DVD−ROMドライブ108に装着されるDVD−ROMには、ゲームを実現するためのプログラムとゲームに付随する画像データや音声データが記録される。CPU 101の制御によって、DVD−ROMドライブ108は、これに装着されたDVD−ROMに対する読み出し処理を行って、必要なプログラムやデータを読み出し、これらはRAM 103等に一時的に記憶される。   A DVD-ROM mounted on the DVD-ROM drive 108 stores a program for realizing the game and image data and audio data associated with the game. Under the control of the CPU 101, the DVD-ROM drive 108 performs a reading process on the DVD-ROM loaded therein, reads out necessary programs and data, and these are temporarily stored in the RAM 103 or the like.

画像処理部107は、DVD−ROMから読み出されたデータをCPU 101や画像処理部107が備える画像演算プロセッサ(図示せず)によって加工処理した後、これを画像処理部107が備えるフレームメモリ(図示せず)に記録する。フレームメモリに記録された画像情報は、所定の同期タイミングでビデオ信号に変換され画像処理部107に接続されるモニタ(図示せず)へ出力される。これにより、各種の画像表示が可能となる。   The image processing unit 107 processes the data read from the DVD-ROM by an image arithmetic processor (not shown) included in the CPU 101 or the image processing unit 107, and then processes the processed data on a frame memory ( (Not shown). The image information recorded in the frame memory is converted into a video signal at a predetermined synchronization timing and output to a monitor (not shown) connected to the image processing unit 107. Thereby, various image displays are possible.

画像演算プロセッサは、2次元の画像の重ね合わせ演算やアルファブレンディング等の透過演算、各種の飽和演算を高速に実行できる。   The image calculation processor can execute a two-dimensional image overlay calculation, a transparency calculation such as alpha blending, and various saturation calculations at high speed.

また、仮想3次元空間に配置され、各種のテクスチャ情報が付加されたポリゴン情報を、Zバッファ法によりレンダリングして、所定の視点位置から仮想3次元空間に配置されたポリゴンを所定の視線の方向へ俯瞰したレンダリング画像を得る演算の高速実行も可能である。   Also, polygon information arranged in the virtual three-dimensional space and added with various texture information is rendered by the Z buffer method, and the polygon arranged in the virtual three-dimensional space from the predetermined viewpoint position is determined in the direction of the predetermined line of sight It is also possible to perform high-speed execution of operations for obtaining rendered images.

さらに、CPU 101と画像演算プロセッサが協調動作することにより、文字の形状を定義するフォント情報にしたがって、文字列を2次元画像としてフレームメモリへ描画したり、各ポリゴン表面へ描画することが可能である。   Further, the CPU 101 and the image arithmetic processor operate in a coordinated manner, so that a character string can be drawn as a two-dimensional image in a frame memory or drawn on the surface of each polygon according to font information that defines the character shape. is there.

また、麻雀ゲームの牌の画像やトランプゲームのカードの画像などの情報をDVD−ROMに用意しておき、これをフレームメモリに展開することによって、現在の手牌や手札を画面に表示することができるようになる。   In addition, information such as mahjong game tile images and card game card images is prepared on a DVD-ROM, and this is expanded in the frame memory, so that the current hand and hand are displayed on the screen. Will be able to.

NIC 109は、情報処理装置100をインターネット等のコンピュータ通信網(図示せず)に接続するためのものであり、LAN(Local Area Network)を構成する際に用いられる10BASE−T/100BASE−T規格にしたがうものや、電話回線を用いてインターネットに接続するためのアナログモデム、ISDN(Integrated Services Digital Network)モデム、ADSL(Asymmetric Digital Subscriber Line)モデム、ケーブルテレビジョン回線を用いてインターネットに接続するためのケーブルモデム等と、これらとCPU 101との仲立ちを行うインターフェース(図示せず)により構成される。   The NIC 109 is used to connect the information processing apparatus 100 to a computer communication network (not shown) such as the Internet, and is based on the 10BASE-T / 100BASE-T standard used when configuring a LAN (Local Area Network). To connect to the Internet using an analog modem, ISDN (Integrated Services Digital Network) modem, ADSL (Asymmetric Digital Subscriber Line) modem, cable television line A cable modem or the like and an interface (not shown) that mediates between these and the CPU 101 are configured.

音声処理部110は、DVD−ROMから読み出した音声データをアナログ音声信号に変換し、これに接続されたスピーカ(図示せず)から出力させる。また、CPU 101の制御の下、ゲームの進行の中で発生させるべき効果音や楽曲データを生成し、これに対応した音声をスピーカから出力させる。   The audio processing unit 110 converts audio data read from the DVD-ROM into an analog audio signal and outputs the analog audio signal from a speaker (not shown) connected thereto. Further, under the control of the CPU 101, sound effects and music data to be generated during the progress of the game are generated, and sound corresponding to this is output from the speaker.

音声処理部110では、DVD−ROMに記録された音声データがMIDIデータである場合には、これが有する音源データを参照して、MIDIデータをPCMデータに変換する。また、ADPCM(Adaptive Differential Pulse Code Modulation)形式やOgg Vorbis形式等の圧縮済音声データである場合には、これを展開してPCMデータに変換する。PCMデータは、そのサンプリング周波数に応じたタイミングでD/A(Digital/Analog)変換を行って、スピーカに出力することにより、音声出力が可能となる。   When the audio data recorded on the DVD-ROM is MIDI data, the audio processing unit 110 refers to the sound source data included in the audio data and converts the MIDI data into PCM data. If the compressed audio data is in ADPCM (Adaptive Differential Pulse Code Modulation) format or Ogg Vorbis format, it is expanded and converted to PCM data. The PCM data can be output by performing D / A (Digital / Analog) conversion at a timing corresponding to the sampling frequency and outputting it to a speaker.

このほか、情報処理装置100は、ハードディスク等の大容量外部記憶装置を用いて、ROM 102、RAM 103、外部メモリ106、DVD−ROMドライブ108に装着されるDVD−ROM等と同じ機能を果たすように構成してもよい。   In addition, the information processing apparatus 100 uses a large-capacity external storage device such as a hard disk so as to perform the same function as the ROM 102, the RAM 103, the external memory 106, the DVD-ROM mounted on the DVD-ROM drive 108, and the like. You may comprise.

次に、本実施例で取り扱う仮想空間について図2を用いて説明する。
本図に示すように、仮想空間内には、第1のオブジェクトである面オブジェクト201と、第2のオブジェクトである立体オブジェクト202とを含むキャラクタオブジェクトが配置される。
面オブジェクト201とは、具体的には、仮想空間内の地面オブジェクトなどである。本実施例では、本発明を理解しやすいように面オブジェクト201の形状が平面であるとするが、面オブジェクト201の形状は平面に限られず曲面であってもよい。面オブジェクト201は仮想空間内に複数存在していてもよい。
立体オブジェクト202とは、具体的には、仮想空間内に存在する人物や物などを表すキャラクタオブジェクトである。立体オブジェクト202は仮想空間内に複数存在していてもよい。
さらに仮想空間内には光源203と視点204が配置される。光源203は、面オブジェクト201や立体オブジェクト202に仮想的な光を照射する。本実施例では、光源203の形状は点であるとする。光源203から照射される光の色は任意に設定できる。点光源である光源203は仮想空間内の全方向に同じ強さの光を出す。画像生成装置300は、仮想空間内に配置された視点204から視線ベクトル205で示す視線の方向に見える、面オブジェクト201や立体オブジェクト202などの様々なキャラクタオブジェクトを配置した画像を生成する。この画像には、光源203から照射された光によって面オブジェクト201の表面に投影される立体オブジェクト202の陰影206も含まれる。
なお、この仮想空間内に、光源203と、光源203から照射された光によって投影される陰影206とが含まれない構成を採用してもよい。
Next, the virtual space handled in this embodiment will be described with reference to FIG.
As shown in the figure, a character object including a plane object 201 as a first object and a solid object 202 as a second object is arranged in the virtual space.
The plane object 201 is specifically a ground object in the virtual space. In this embodiment, it is assumed that the shape of the plane object 201 is a plane so that the present invention can be easily understood. However, the shape of the plane object 201 is not limited to a plane and may be a curved surface. A plurality of plane objects 201 may exist in the virtual space.
Specifically, the three-dimensional object 202 is a character object representing a person or an object existing in the virtual space. A plurality of the three-dimensional objects 202 may exist in the virtual space.
Further, a light source 203 and a viewpoint 204 are arranged in the virtual space. The light source 203 irradiates the plane object 201 and the three-dimensional object 202 with virtual light. In this embodiment, it is assumed that the shape of the light source 203 is a point. The color of light emitted from the light source 203 can be arbitrarily set. A light source 203 that is a point light source emits light having the same intensity in all directions in the virtual space. The image generation apparatus 300 generates an image in which various character objects such as the plane object 201 and the three-dimensional object 202 that are visible in the direction of the line of sight indicated by the line-of-sight vector 205 from the viewpoint 204 arranged in the virtual space are arranged. This image also includes a shadow 206 of the three-dimensional object 202 projected onto the surface of the plane object 201 by the light emitted from the light source 203.
Note that a configuration in which the light source 203 and the shadow 206 projected by the light emitted from the light source 203 are not included in the virtual space may be employed.

次に、本実施例の画像生成装置300が行う処理について図面を用いて説明する。   Next, processing performed by the image generation apparatus 300 according to the present exemplary embodiment will be described with reference to the drawings.

図3は、本実施例の画像生成装置300の構成を示す図である。画像生成装置300は、記憶部301、計算部302、判断部303、及び、生成部304を備える。   FIG. 3 is a diagram illustrating a configuration of the image generation apparatus 300 according to the present embodiment. The image generation apparatus 300 includes a storage unit 301, a calculation unit 302, a determination unit 303, and a generation unit 304.

記憶部301は、(1)仮想空間内に配置される面オブジェクト201の形状および位置、(2)立体オブジェクト202の形状および位置、(3)面オブジェクト201に対して立体オブジェクト202と同じ側に配置される光源203の位置、(4)視点204の位置、(5)視線の方向、のそれぞれの情報を記憶する。   The storage unit 301 includes (1) the shape and position of the plane object 201 arranged in the virtual space, (2) the shape and position of the three-dimensional object 202, and (3) the same side as the three-dimensional object 202 with respect to the plane object 201. Information on the position of the light source 203 to be arranged, (4) the position of the viewpoint 204, and (5) the direction of the line of sight is stored.

面オブジェクト201及び立体オブジェクト202の形状は、表面を微小な多角形(典型的には三角形や四角形など)のポリゴンに分割して数値データ化されて表される。各キャラクタオブジェクトの位置は、互いに直交する3軸による直交座標系を用いて、各キャラクタオブジェクト内の代表点の座標(x,y,z)で表される。座標系の原点は任意に設定してよい。代表点の選び方は任意であるが、例えば、各キャラクタオブジェクトの重心点を用いることができる。座標系はこれに限られるものではなく、例えば1個の動径と2個の偏角を用いた球座標のような極座標系を用いてもよい。また、仮想空間の全体を表現するグローバル座標系(ワールド座標系)と、キャラクタオブジェクトごとのローカル座標系(ボディ座標系)とを別々に設定して座標計算等を行う構成を採用してもよい。   The shapes of the plane object 201 and the three-dimensional object 202 are represented by numerical data obtained by dividing the surface into polygons of minute polygons (typically triangles, quadrangles, etc.). The position of each character object is represented by the coordinates (x, y, z) of the representative point in each character object using an orthogonal coordinate system with three axes orthogonal to each other. The origin of the coordinate system may be set arbitrarily. The method of selecting the representative point is arbitrary, but for example, the center of gravity of each character object can be used. The coordinate system is not limited to this, and for example, a polar coordinate system such as a spherical coordinate system using one moving radius and two declination angles may be used. Further, a configuration may be adopted in which coordinate calculation or the like is performed by separately setting a global coordinate system (world coordinate system) representing the entire virtual space and a local coordinate system (body coordinate system) for each character object. .

光源203と視点204の位置は、各キャラクタオブジェクトの位置と同様に、直交座標系を用いた座標で表される。各キャラクタオブジェクトと同様に、用いる座標系はこれに限定されない。視線の方向は、視点204を基点とした方向ベクトルである視線ベクトル205で表される。視線ベクトル205の長さは任意であるが、典型的には単位ベクトルとする。   The positions of the light source 203 and the viewpoint 204 are represented by coordinates using an orthogonal coordinate system, like the positions of the character objects. As with each character object, the coordinate system used is not limited to this. The line-of-sight direction is represented by a line-of-sight vector 205 which is a direction vector with the viewpoint 204 as a base point. The length of the line-of-sight vector 205 is arbitrary, but is typically a unit vector.

これらの情報の初期値は、DVD−ROMドライブ108に装着されるDVD−ROMに予め記憶されており、CPU 101の制御により随時RAM 103の所定記憶領域に読み出される。面オブジェクト201と立体オブジェクト202の形状や、面オブジェクト201、立体オブジェクト202、光源203、視点204のそれぞれの位置は可変であり、ユーザがコントローラ105を使ってこれらの位置を変える指示入力を行ったり、ゲームの進行・演出に合わせてCPU 101が適宜計算したりすることができる。また、視線ベクトル205の向き、大きさも可変である。CPU 101は、指示入力により指示された位置の座標、あるいは、計算した形状と位置を示す情報で、RAM 103の所定記憶領域に記憶した、上述の(1)乃至(5)に示す各データを随時更新する。例えば、CPU 101は垂直同期のタイミングでこれらのデータを計算して更新する。これにより、記憶部301には最新のデータが記憶される。
なお、CPU 101、RAM 103、DVD−ROMドライブ108が協働して動作することにより、記憶部301として機能する。
Initial values of these pieces of information are stored in advance in a DVD-ROM mounted on the DVD-ROM drive 108, and are read into a predetermined storage area of the RAM 103 as needed under the control of the CPU 101. The shapes of the plane object 201 and the three-dimensional object 202 and the positions of the plane object 201, the three-dimensional object 202, the light source 203, and the viewpoint 204 are variable, and the user inputs instructions to change these positions using the controller 105. The CPU 101 can appropriately calculate in accordance with the progress / production of the game. The direction and size of the line-of-sight vector 205 are also variable. The CPU 101 stores the data shown in the above (1) to (5) stored in a predetermined storage area of the RAM 103 with the coordinates of the position instructed by the instruction input or information indicating the calculated shape and position. Update from time to time. For example, the CPU 101 calculates and updates these data at the timing of vertical synchronization. As a result, the latest data is stored in the storage unit 301.
Note that the CPU 101, the RAM 103, and the DVD-ROM drive 108 work together to function as the storage unit 301.

計算部302は、面オブジェクト201の形状と位置、立体オブジェクト202の形状と位置、及び、光源203の位置から、この仮想空間において光源203からの光により立体オブジェクト202が面オブジェクト201に投射する陰影206の形状と位置を計算する。すなわち、計算部302はレンダリングを行う。立体オブジェクト202の形状と位置が変わると、それに伴って陰影206の形状と位置も変わる。また、光源203と視点204の位置、あるいは、視線ベクトル205の向きが変わると、それに伴って陰影206の形状と位置も変わる。計算部302は、所定周期(典型的には垂直同期の周期)でこの陰影206の形状と位置を計算する。レンダリングを行う手法は、本発明によって限定されない。
なお、CPU 101が画像処理部107と協働して動作することにより、計算部302として機能する。また、この仮想空間内に光源203と陰影206とを含まない構成を採用した場合には、画像生成装置300は計算部302を備えなくてもよい。
The calculation unit 302 uses the shape and position of the plane object 201, the shape and position of the three-dimensional object 202, and the position of the light source 203 to shade the solid object 202 onto the plane object 201 by light from the light source 203 in this virtual space. The shape and position of 206 are calculated. That is, the calculation unit 302 performs rendering. When the shape and position of the three-dimensional object 202 change, the shape and position of the shadow 206 change accordingly. Further, when the position of the light source 203 and the viewpoint 204 or the direction of the line-of-sight vector 205 changes, the shape and position of the shadow 206 change accordingly. The calculation unit 302 calculates the shape and position of the shadow 206 at a predetermined cycle (typically, a vertical synchronization cycle). The method of rendering is not limited by the present invention.
The CPU 101 functions as the calculation unit 302 by operating in cooperation with the image processing unit 107. In addition, when a configuration that does not include the light source 203 and the shadow 206 is employed in the virtual space, the image generation device 300 may not include the calculation unit 302.

判断部303は、面オブジェクト201の形状と位置、立体オブジェクト202の形状と位置、及び、視点204の位置から、視点204が面オブジェクト201に対して立体オブジェクト202と同じ側に配置されるか異なる側に配置されるかを判断する。例えば図2の場合、判断部303は、視点204が面オブジェクト201(地面)に対して立体オブジェクト202と同じ側(すなわち地面の上側)に配置されると判断する。上述のように視点204の位置は可変であるので、視点204は面オブジェクト201に対して立体オブジェクト202と異なる側(すなわち地面の下側)に配置される場合もある。判断部303は、計算部302が計算する所定周期と同じ周期でこの判断を行い、判断結果を生成部304に入力する。
なお、CPU 101が画像処理部107と協働して動作することにより、判断部303として機能する。
The determination unit 303 determines whether the viewpoint 204 is arranged on the same side as the three-dimensional object 202 with respect to the plane object 201 based on the shape and position of the plane object 201, the shape and position of the three-dimensional object 202, and the position of the viewpoint 204. Determine whether it is placed on the side. For example, in the case of FIG. 2, the determination unit 303 determines that the viewpoint 204 is arranged on the same side as the solid object 202 with respect to the plane object 201 (ground) (that is, above the ground). As described above, since the position of the viewpoint 204 is variable, the viewpoint 204 may be arranged on a different side from the solid object 202 with respect to the plane object 201 (that is, below the ground). The determination unit 303 makes this determination at the same cycle as the predetermined cycle calculated by the calculation unit 302 and inputs the determination result to the generation unit 304.
Note that the CPU 101 operates in cooperation with the image processing unit 107 to function as the determination unit 303.

生成部304は、面オブジェクト201の形状と位置、立体オブジェクト202の形状と位置、視点204の位置、視線ベクトル205が示す視線の方向、計算部302により計算された陰影206の形状と位置、及び、判断部303による判断結果に基づいて、視点204の位置から視線ベクトル205の方向へこの仮想空間を見た様子を表す画像を生成する。   The generation unit 304 includes the shape and position of the plane object 201, the shape and position of the solid object 202, the position of the viewpoint 204, the direction of the line of sight indicated by the line-of-sight vector 205, the shape and position of the shadow 206 calculated by the calculation unit 302, and Based on the determination result by the determination unit 303, an image representing a state in which the virtual space is viewed from the position of the viewpoint 204 in the direction of the line-of-sight vector 205 is generated.

詳細には、生成部304は、(a)視点204が面オブジェクト201に対して立体オブジェクト202と同じ側に配置されると判断部303により判断されると、面オブジェクト201と、立体オブジェクト202と、光源203からの光による立体オブジェクト202の陰影206とを、視点204から視線ベクトル205の方向に見た様子を表す画像を生成する。   Specifically, when the determination unit 303 determines that (a) the viewpoint 204 is arranged on the same side as the solid object 202 with respect to the plane object 201, the generation unit 304 determines that the plane object 201, the solid object 202, Then, an image representing the appearance of the shadow 206 of the three-dimensional object 202 by the light from the light source 203 viewed from the viewpoint 204 in the direction of the line-of-sight vector 205 is generated.

一方、生成部304は、(b)視点204が面オブジェクト201に対して立体オブジェクト202と異なる側に配置されると判断部303により判断されると、立体オブジェクト202と、光源203からの光による立体オブジェクト202の陰影206とを、視点204から視線ベクトル205の方向に見た様子を表す画像を生成する。
なお、CPU 101が画像処理部107と協働して動作することにより、生成部304として機能する。
On the other hand, when the determining unit 303 determines that the viewpoint 204 is arranged on the side different from the three-dimensional object 202 with respect to the plane object 201, the generating unit 304 uses the three-dimensional object 202 and the light from the light source 203. An image representing the appearance of the shadow 206 of the three-dimensional object 202 viewed from the viewpoint 204 in the direction of the line-of-sight vector 205 is generated.
Note that the CPU 101 functions as the generation unit 304 by operating in cooperation with the image processing unit 107.

本実施例では、面オブジェクト201は地面であるので、視点204が面オブジェクト201に対して立体オブジェクト202と同じ側(地面の上側)に配置されると、生成部304は、面オブジェクト201に対して異なる側(地面の下側)に配置されるポリゴンを遮蔽した画像を生成する。すなわち、この場合、生成部304が生成する画像には地面より上側にある各キャラクタオブジェクト(あるいはその部分)が含まれ、地面の下は見えない。一方、視点204が面オブジェクト201に対して立体オブジェクト202と異なる側に配置された状態とは、視点204が地面の下に潜った状態であり、現実の世界ではこの位置から各キャラクタオブジェクトを見ることはできない。しかしながら、仮想空間内で現実と同じシミュレーションを行っただけでは、ゲームの演出として十分とは言えないことが多い。そこで、視点204が地面の下に潜ることを可能とし、すべての方向から見た仮想画像を生成することによって、より演出効果を高めることができる。本実施例では、生成部304は、視点204が面オブジェクト201に対して立体オブジェクト202と異なる側に配置される場合(すなわち、視点204が地面の下側にある場合)、面オブジェクト201の画像を表示しない。そして、生成部304は、立体オブジェクト202と、光源203からの光による立体オブジェクト202の陰影206とを、視点204から視線ベクトル205の方向に見た様子を表す画像を生成する。   In the present embodiment, since the plane object 201 is the ground, when the viewpoint 204 is arranged on the same side as the solid object 202 with respect to the plane object 201 (above the ground), the generation unit 304 In this way, an image in which polygons arranged on different sides (under the ground) are blocked is generated. That is, in this case, the image generated by the generation unit 304 includes each character object (or part thereof) above the ground and cannot be seen under the ground. On the other hand, the state in which the viewpoint 204 is arranged on the side different from the solid object 202 with respect to the plane object 201 is a state in which the viewpoint 204 is under the ground, and each character object is viewed from this position in the real world. It is not possible. However, simply performing the same simulation as reality in a virtual space is often not sufficient as a game effect. Therefore, the viewpoint 204 can be submerged under the ground, and the production effect can be further enhanced by generating a virtual image viewed from all directions. In the present embodiment, the generation unit 304 displays the image of the plane object 201 when the viewpoint 204 is arranged on a different side from the three-dimensional object 202 with respect to the plane object 201 (that is, when the viewpoint 204 is below the ground). Is not displayed. Then, the generation unit 304 generates an image representing a state in which the three-dimensional object 202 and the shadow 206 of the three-dimensional object 202 due to the light from the light source 203 are viewed from the viewpoint 204 in the direction of the line-of-sight vector 205.

図4は、仮想空間内に配置された面オブジェクト201、立体オブジェクト202、光源203、及び、視点204の位置関係を示した一例である。図4(a)と図4(c)は面オブジェクト201の真横(面に対して水平方向)から見た図であり、図4(b)と図4(d)は視点204から視線ベクトル205の方向に見た画像(すなわち生成部304が生成した画像)の一例である。   FIG. 4 is an example showing the positional relationship between the plane object 201, the three-dimensional object 202, the light source 203, and the viewpoint 204 arranged in the virtual space. FIGS. 4A and 4C are views seen from the side of the plane object 201 (horizontal direction with respect to the plane), and FIGS. 4B and 4D show the line-of-sight vector 205 from the viewpoint 204. This is an example of an image viewed in the direction (that is, an image generated by the generation unit 304).

図4(a)の場合、視点204が面オブジェクト201に対して立体オブジェクト202と同じ側に配置される。生成部304は、図4(b)に示すように、面オブジェクト201と、立体オブジェクト202と、光源203からの光による立体オブジェクト202の陰影206とを、視点204から視線ベクトル205の方向に見た様子を表す画像を生成する。   In the case of FIG. 4A, the viewpoint 204 is arranged on the same side as the solid object 202 with respect to the plane object 201. As illustrated in FIG. 4B, the generation unit 304 looks at the plane object 201, the three-dimensional object 202, and the shadow 206 of the three-dimensional object 202 due to the light from the light source 203 in the direction of the line-of-sight vector 205. An image representing the appearance is generated.

一方、図4(c)の場合、視点204が面オブジェクト201に対して立体オブジェクト202と異なる側に配置される。生成部304は、図4(d)に示すように、立体オブジェクト202と、光源203からの光による立体オブジェクト202の陰影206とを、視点204から視線ベクトル205の方向に見た様子を表す画像を生成する。この場合、面オブジェクト201の画像は含まれない。陰影206は、面オブジェクト201が存在する仮想的な面401上に映し出される。ただし、本図に示す面401は説明上記載しただけであり、生成部304が生成する画像には含まれない。本実施例では面オブジェクト201を平面としているため面401も平面であるが、面オブジェクト201が平面でなければ面401も平面ではない。生成部304は、面オブジェクト201の画像を非表示とすることにより、地面の下から立体オブジェクト202などを見た画像を生成することができる。   On the other hand, in the case of FIG. 4C, the viewpoint 204 is arranged on the side different from the solid object 202 with respect to the plane object 201. As illustrated in FIG. 4D, the generation unit 304 is an image representing a state in which the three-dimensional object 202 and the shadow 206 of the three-dimensional object 202 caused by the light from the light source 203 are viewed from the viewpoint 204 in the direction of the line-of-sight vector 205. Is generated. In this case, the image of the plane object 201 is not included. The shadow 206 is projected on a virtual surface 401 where the plane object 201 exists. However, the surface 401 shown in this figure is only described for explanation, and is not included in the image generated by the generation unit 304. In this embodiment, since the plane object 201 is a plane, the plane 401 is also a plane. However, if the plane object 201 is not a plane, the plane 401 is not a plane. The generation unit 304 can generate an image in which the three-dimensional object 202 is viewed from under the ground by hiding the image of the plane object 201.

このように、画像生成装置300は、視点204の位置によって面オブジェクト201の画像を表示する/表示しない制御を行うことにより、仮想空間内の全方位から見た画像を違和感なく生成することができる。そして、より臨場感のある演出をすることができる。また、本発明をゲーム装置に適用することにより、ゲームの世界観に合った効果的な演出をすることができる。   As described above, the image generating apparatus 300 can generate an image viewed from all directions in the virtual space without a sense of incongruity by performing control to display / not display the image of the plane object 201 according to the position of the viewpoint 204. . And it is possible to produce a more realistic feeling. Also, by applying the present invention to a game device, it is possible to produce an effective presentation that matches the world view of the game.

また、陰影206は、面オブジェクト201が存在する仮想的な面401上に投影されているので、ユーザは陰影206のある位置に面オブジェクト201が存在することを容易に知ることができる。さらには、陰影206の形状と位置から、ユーザは面オブジェクト201の形状と位置を容易に知ることができる。例えば、地面の画像を出力しなくても、陰影206の形状と位置から、地面の形状と位置を容易に把握することができる。このように、本発明は、面オブジェクト201の画像を表示しないで、面オブジェクト201の形状と位置を知らしめる手法としても用いることができる。   Since the shadow 206 is projected on the virtual surface 401 where the plane object 201 exists, the user can easily know that the plane object 201 exists at a position where the shadow 206 exists. Furthermore, the user can easily know the shape and position of the plane object 201 from the shape and position of the shadow 206. For example, the shape and position of the ground can be easily grasped from the shape and position of the shadow 206 without outputting the ground image. As described above, the present invention can also be used as a method for notifying the surface object 201 of the shape and position without displaying the image of the surface object 201.

なお、面オブジェクト201の画像を表示する/表示しない制御を行う代わりに、面オブジェクト201の画像を不透明、あるいは、透明にするように制御してもよい。
この場合、生成部304は、(a)視点204が面オブジェクト201に対して立体オブジェクト202と同じ側に配置されると判断部303により判断されると、不透明にした面オブジェクト201と、立体オブジェクト202と、光源203からの光による立体オブジェクト202の陰影206とを、視点204から視線ベクトル205の方向に見た様子を表す画像を生成する。
一方、生成部304は、(b)視点204が面オブジェクト201に対して立体オブジェクト202と異なる側に配置されると判断部303により判断されると、透明にした面オブジェクト201と、立体オブジェクト202と、光源203からの光による立体オブジェクト202の陰影206とを、視点204から視線ベクトル205の方向に見た様子を表す画像を生成する。これにより、面オブジェクト201と接触している立体オブジェクト202が、宙に浮いてみえるようなことはない。
Instead of displaying / not displaying the image of the plane object 201, the image of the plane object 201 may be controlled to be opaque or transparent.
In this case, when the determination unit 303 determines that (a) the viewpoint 204 is arranged on the same side as the solid object 202 with respect to the plane object 201, the generation unit 304 determines the opaque plane object 201 and the solid object. 202 and an image representing the appearance of the shadow 206 of the three-dimensional object 202 by the light from the light source 203 viewed from the viewpoint 204 in the direction of the line-of-sight vector 205 is generated.
On the other hand, when the determination unit 303 determines that the viewpoint 204 is arranged on the side different from the three-dimensional object 202 with respect to the plane object 201, the generation unit 304 determines that the plane object 201 and the three-dimensional object 202 are made transparent. Then, an image representing the appearance of the shadow 206 of the three-dimensional object 202 by the light from the light source 203 viewed from the viewpoint 204 in the direction of the line-of-sight vector 205 is generated. As a result, the solid object 202 that is in contact with the plane object 201 does not appear to float in the air.

陰影206の表現手法には様々なパターンが考えられる。典型的には、生成部304は、面オブジェクト201の画像のうち陰影206と重なる領域の明度(又は輝度)と彩度の両方又はどちらか片方を相対的に小さくして(暗くして)画像を生成する。あるいは、陰影206の占める領域を、黒あるいはグレーの無彩色にしてもよい。面オブジェクト201以外のキャラクタオブジェクトに陰影206がかかる(影が映る)場合も同様である。   Various patterns can be considered for the expression method of the shadow 206. Typically, the generation unit 304 relatively reduces (darkens) the brightness (or luminance) and / or saturation of the area overlapping the shadow 206 in the image of the plane object 201. Is generated. Alternatively, the area occupied by the shadow 206 may be an achromatic color of black or gray. The same applies when a shadow 206 is applied to a character object other than the plane object 201 (a shadow appears).

例えば、生成部304は、(a)視点204が面オブジェクト201に対して立体オブジェクト202と同じ側に配置されると判断部303により判断されると、面オブジェクト201の画像のうち陰影206と重なる領域の明度と彩度の両方又はどちらか片方を相対的に小さくして(暗くして)、画像を生成する。これにより陰影206を表現する。明度又は彩度を落とす程度は任意であるが、明度や彩度を大きく落とせば陰影206は強調される。もしくは、陰影206と重なる領域を、黒あるいはグレーの無彩色にしてもよい。
一方、生成部304は、(b)視点204が面オブジェクト201に対して立体オブジェクト202と異なる側に配置されると判断部303により判断されると、面オブジェクト201が存在する面401のうち陰影206と重なる領域を、黒あるいはグレーの無彩色にして、画像を生成する。これにより陰影206を表現する。もしくは、面オブジェクト201の画像のうち陰影206と重なる領域の明度又は彩度の両方又はどちらか片方を相対的に小さくして画像を生成してもよい。
このように陰影206の表示方法を視点204の位置によって変えることにより、異なる視点204から見た画像であることを強調して演出することができる。特に、陰影206を無彩色で表すことにより、陰影206の形状をはっきりさせることができる。
For example, when the determination unit 303 determines that (a) the viewpoint 204 is arranged on the same side as the three-dimensional object 202 with respect to the plane object 201, the generation unit 304 overlaps the shadow 206 in the image of the plane object 201. An image is generated by making the brightness and / or saturation of the region relatively small (darker). As a result, the shadow 206 is expressed. The degree to which the lightness or saturation is reduced is arbitrary, but the shadow 206 is enhanced if the lightness or saturation is greatly reduced. Alternatively, the area overlapping the shadow 206 may be black or gray achromatic.
On the other hand, when the determination unit 303 determines that the viewpoint 204 is arranged on the side different from the three-dimensional object 202 with respect to the plane object 201, the generation unit 304 is shaded in the plane 401 where the plane object 201 exists. An area overlapping with 206 is set to a black or gray achromatic color to generate an image. As a result, the shadow 206 is expressed. Alternatively, the image may be generated by relatively reducing either or both of the brightness and / or saturation of the area overlapping the shadow 206 in the image of the plane object 201.
In this way, by changing the display method of the shadow 206 according to the position of the viewpoint 204, it is possible to emphasize and produce an image viewed from a different viewpoint 204. In particular, the shape of the shadow 206 can be made clear by expressing the shadow 206 with an achromatic color.

生成部304は、立体オブジェクト202の表面のうち地面(面オブジェクト201)と接触した領域も陰影206に含まれるものとして画像を生成することができる。   The generation unit 304 can generate an image on the assumption that a region in contact with the ground (plane object 201) on the surface of the three-dimensional object 202 is also included in the shadow 206.

(画像生成処理)
次に、画像生成装置300の記憶部301、計算部302、判断部303、生成部304が行う画像生成処理について、図5のフローチャートを用いて説明する。以下の説明では、一例として次のような状況を想定する。すなわち、面オブジェクト201は仮想空間内でダンスをするための平面のステージオブジェクト、立体オブジェクト202はダンスをするダンサーオブジェクトとする。光源203は、ステージオブジェクトより上側にある仮想ライトであるが、本実施例では点光源とする。視点204は、このダンスシーンを撮る仮想カメラとし、仮想空間内の任意の位置に移動できる。仮想カメラは、仮想空間内のステージオブジェクトより下側にも移動できる。生成部304はこの仮想カメラで視線ベクトル205の示す視線の方向に撮影した画像を生成する。生成部304は、ゲーム進行に応じて面オブジェクト201を表示/非表示させてダンサーオブジェクトやその陰影オブジェクトなどの画像を生成する。本実施例では、画像生成装置300の各部は垂直同期のタイミングで定期的にこの画像生成処理を行う。ただし、この処理を行うタイミングはこれに限定されない。以下詳述する。
(Image generation processing)
Next, image generation processing performed by the storage unit 301, the calculation unit 302, the determination unit 303, and the generation unit 304 of the image generation apparatus 300 will be described with reference to the flowchart of FIG. In the following description, the following situation is assumed as an example. That is, the plane object 201 is a planar stage object for dancing in the virtual space, and the three-dimensional object 202 is a dancer object for dancing. The light source 203 is a virtual light above the stage object, but is a point light source in this embodiment. The viewpoint 204 is a virtual camera that takes this dance scene, and can be moved to an arbitrary position in the virtual space. The virtual camera can also move below the stage object in the virtual space. The generation unit 304 generates an image photographed in the line-of-sight direction indicated by the line-of-sight vector 205 with this virtual camera. The generation unit 304 displays / hides the plane object 201 in accordance with the progress of the game, and generates an image such as a dancer object and its shadow object. In this embodiment, each unit of the image generation apparatus 300 periodically performs this image generation process at the timing of vertical synchronization. However, the timing for performing this process is not limited to this. This will be described in detail below.

まず、計算部302は、面オブジェクト201(ステージオブジェクト)と立体オブジェクト202(ダンサーオブジェクト)の形状と位置、光源203(仮想ライト)の位置、視点204(仮想カメラ)の位置、視線ベクトル205の示す視線の方向(仮想カメラの向き)を、記憶部301から取得する(ステップS501)。取得されるデータは、垂直同期などの所定周期でCPU 101により計算され更新された最新のデータである。   First, the calculation unit 302 indicates the shape and position of the plane object 201 (stage object) and the three-dimensional object 202 (dancer object), the position of the light source 203 (virtual light), the position of the viewpoint 204 (virtual camera), and the line-of-sight vector 205. The direction of the line of sight (the direction of the virtual camera) is acquired from the storage unit 301 (step S501). The acquired data is the latest data calculated and updated by the CPU 101 at a predetermined cycle such as vertical synchronization.

次に、計算部302は、ステップS501で取得した情報に基づいて、面オブジェクト201に投影する立体オブジェクト202の陰影206(ダンサーオブジェクトの陰影オブジェクト)の形状と位置を計算する(ステップS502)。   Next, the calculation unit 302 calculates the shape and position of the shadow 206 (the shadow object of the dancer object) of the three-dimensional object 202 projected onto the plane object 201 based on the information acquired in step S501 (step S502).

判断部303は、ステップS501で取得した情報のうち、面オブジェクト201と立体オブジェクト202の形状と位置、及び、視点204の位置に基づいて、面オブジェクト201に対して視点204が立体オブジェクト202と同じ側にあるか異なる側にあるかを判断する(ステップS503)。すなわち、判断部303は、仮想カメラがダンサーオブジェクトが立つステージオブジェクトより上にあるか下にあるかを判断する。   Based on the shape and position of the plane object 201 and the three-dimensional object 202 and the position of the viewpoint 204 in the information acquired in step S <b> 501, the determination unit 303 has the same viewpoint 204 as the three-dimensional object 202 with respect to the plane object 201. Whether it is on the side or a different side is determined (step S503). That is, the determination unit 303 determines whether the virtual camera is above or below the stage object on which the dancer object stands.

視点204が立体オブジェクト202と同じ側にあると判断された場合(ステップS503;YES)、すなわち、仮想カメラがステージオブジェクトより上にある場合、生成部304は、ステップS501で取得した情報と、ステップS502で計算した陰影206の形状と位置に基づいて、面オブジェクト201と立体オブジェクト202と陰影206とを、視点204から視線ベクトル205の向きに見た画像を生成する(ステップS504)。すなわち、生成部304は、ステージオブジェクトと、ステージオブジェクトに立つダンサーオブジェクトと、このダンサーオブジェクトの陰影オブジェクトと、を仮想カメラで撮影した画像を生成する。   When it is determined that the viewpoint 204 is on the same side as the three-dimensional object 202 (step S503; YES), that is, when the virtual camera is above the stage object, the generation unit 304 includes the information acquired in step S501, Based on the shape and position of the shadow 206 calculated in S502, an image in which the plane object 201, the three-dimensional object 202, and the shadow 206 are viewed from the viewpoint 204 in the direction of the line-of-sight vector 205 is generated (step S504). That is, the generation unit 304 generates an image obtained by photographing a stage object, a dancer object standing on the stage object, and a shadow object of the dancer object with a virtual camera.

一方、視点204が立体オブジェクト202と異なる側にあると判断された場合(ステップS503;NO)、すなわち、仮想カメラがステージオブジェクトより下にある場合、生成部304は、ステップS501で取得した情報と、ステップS502で計算した陰影206の形状と位置に基づいて、立体オブジェクト202と陰影206とを、視点204から視線ベクトル205の向きに見た画像を生成する(ステップS505)。すなわち、生成部304は、ステージオブジェクトの上に立つダンサーオブジェクトと、このダンサーオブジェクトの陰影オブジェクトと、を仮想カメラで撮影した画像を生成する。この画像にはステージオブジェクトが含まれない。   On the other hand, when it is determined that the viewpoint 204 is on a different side from the three-dimensional object 202 (step S503; NO), that is, when the virtual camera is below the stage object, the generation unit 304 includes the information acquired in step S501. Based on the shape and position of the shadow 206 calculated in step S502, an image in which the three-dimensional object 202 and the shadow 206 are viewed from the viewpoint 204 in the direction of the line-of-sight vector 205 is generated (step S505). That is, the generation unit 304 generates an image obtained by photographing a dancer object standing on a stage object and a shadow object of the dancer object with a virtual camera. This image does not include a stage object.

このようにしてステップS504又はS505で生成部304が生成した画像は、画像処理部107に接続されるモニターに出力される。   The image generated by the generation unit 304 in step S504 or S505 in this way is output to a monitor connected to the image processing unit 107.

なお、視点204が面オブジェクト201の存在する平面上に存在する場合、生成部304は、ステップS504の処理を行って直線状に表示される面オブジェクト201を含む画像を生成するものとするが、ステップS505の処理を行って面オブジェクト201を含まない画像を生成してもよい。   Note that when the viewpoint 204 exists on the plane where the plane object 201 exists, the generation unit 304 performs the process of step S504 to generate an image including the plane object 201 displayed in a straight line. An image that does not include the plane object 201 may be generated by performing the process of step S505.

また、ステップS503で、生成部304は、視点204が立体オブジェクト202と同じ側にあると判断された場合(ステップS503;YES)には面オブジェクト201を不透明にして、一方、視点204が立体オブジェクト202と異なる側にあると判断された場合(ステップS503;NO)には面オブジェクト201を透明にしてもよい。そして、生成部304は、不透明あるいは透明にした面オブジェクト201と立体オブジェクト202と陰影206とを、視点204から視線ベクトル205の向きに見た画像を生成してもよい。   In step S503, if the generation unit 304 determines that the viewpoint 204 is on the same side as the three-dimensional object 202 (step S503; YES), the plane object 201 is made opaque, while the viewpoint 204 is the three-dimensional object. If it is determined that the object is on a different side from 202 (step S503; NO), the plane object 201 may be transparent. The generation unit 304 may generate an image in which the plane object 201, the three-dimensional object 202, and the shadow 206 that are opaque or transparent are viewed from the viewpoint 204 in the direction of the line-of-sight vector 205.

本実施例は、種々の変形及び応用が可能である。
上述した実施例では、光源203は点光源であるとしたがこれに限定されない。例えば、光源203が立体的あるいは平面的な広がりをもつキャラクタオブジェクト(面光源)であるとしてもよい。この場合、計算部302は、光源オブジェクト上のある1点から照射される光によってできる陰影206の形状と位置を求め、同様にして光源オブジェクト上のすべての点(あるいは近似的にすべてと見なせる量の点)において陰影206の形状と位置を求めて積分する。陰影206の領域の各点には陰影の濃さを示す積分量(光量)が対応づけられる。生成部304は、光量によって陰影206の色彩に濃淡をつけたり、明度と彩度の両方又はどちらか片方を変化させたりして、画像を生成することができる。
The present embodiment can be variously modified and applied.
In the above-described embodiment, the light source 203 is a point light source, but is not limited to this. For example, the light source 203 may be a character object (surface light source) having a three-dimensional or planar spread. In this case, the calculation unit 302 obtains the shape and position of the shadow 206 formed by light emitted from a certain point on the light source object, and similarly, all the points on the light source object (or an amount that can be approximately regarded as all). The shape and position of the shadow 206 are obtained at the point of () and integrated. Each point in the shadow 206 area is associated with an integral amount (light quantity) indicating the darkness of the shadow. The generation unit 304 can generate an image by adding shades to the color of the shadow 206 according to the amount of light, or by changing both or either one of brightness and saturation.

計算部302は、光源203が立体オブジェクト202から無限遠に存在し、光源203から立体オブジェクト202に照射される光線は平行であると近似して、陰影206の形状と位置を計算してもよい。例えば、太陽を光源203にした場合にこの近似を行うことが望ましい。   The calculation unit 302 may calculate the shape and position of the shadow 206 by approximating that the light source 203 exists at infinity from the three-dimensional object 202 and the light rays emitted from the light source 203 to the three-dimensional object 202 are parallel. . For example, it is desirable to perform this approximation when the sun is used as the light source 203.

光源203は仮想空間内に複数個存在していてもよい。この場合、例えば計算部302は、各々の光源203から照射される光によってできる各々の陰影206の形状と位置を求める。計算部302は、計算された各々の陰影206の形状の論理和を、最終的な陰影206の形状とする。そして、生成部304は、計算部302により計算された最終的な陰影206を用いて画像を生成する。あるいは、計算部302が各々の陰影206を求め、生成部304が各々の陰影206の重なる程度によって陰影206の色彩に濃淡を段階的につけたり、明度と彩度の両方又はどちらか片方を変えたりして、画像を生成してもよい。陰影206の形状と位置を求める手法はこれに限定されない。   A plurality of light sources 203 may exist in the virtual space. In this case, for example, the calculation unit 302 obtains the shape and position of each shadow 206 formed by the light emitted from each light source 203. The calculation unit 302 sets the calculated logical sum of the shapes of the shadows 206 as the final shape of the shadows 206. Then, the generation unit 304 generates an image using the final shadow 206 calculated by the calculation unit 302. Alternatively, the calculation unit 302 obtains the respective shadows 206, and the generation unit 304 adds the shades of the shades 206 in a stepwise manner according to the degree of overlap of the respective shadows 206, or changes either or both of the brightness and the saturation. Then, an image may be generated. The method for obtaining the shape and position of the shadow 206 is not limited to this.

光源203の形状は上述した点光源、面光源に限られない。例えば、光量が円錐形に収束するスポットライトでもよい。この場合、光はその円錐の中心付近で最も明るくなり、端にいくほど減衰して暗くなる。また、例えば、光量が円柱形に収束する円柱光でもよい。この場合、光はその円柱の中心付近で最も明るくなり、端にいくほど暗くなる。生成部304は、光量に基づいて、陰影206の色彩に濃淡をつけたり、明度と彩度の両方又はどちらか片方を変化させることができる。   The shape of the light source 203 is not limited to the point light source and the surface light source described above. For example, a spotlight whose light amount converges in a conical shape may be used. In this case, the light is brightest near the center of the cone and attenuates and darkens toward the end. Further, for example, cylindrical light whose light amount converges into a cylindrical shape may be used. In this case, the light is brightest near the center of the cylinder and becomes darker toward the end. Based on the amount of light, the generation unit 304 can add a shade to the color of the shadow 206, or can change both or either one of brightness and saturation.

上述した実施例では、面オブジェクト201を平面であるとしたがこれに限定されない。例えば、表面に凹凸や傾斜のある曲面、あるいは、ポリゴンの集合であってもよい。   In the embodiment described above, the plane object 201 is a plane, but the present invention is not limited to this. For example, it may be a curved surface with unevenness or an inclination on the surface, or a set of polygons.

上述した実施例では、面オブジェクト201が地面であるとしたがこれに限定されない。例えば、水面、海面、屈折率の異なる物質同士の接触面などでもよい。例えば、海中から空に向かって見たときの海面の表現手法に本発明を適用することにより、海面に投影される船などの影によって海面を表現することができる。また、例えば、透明なガラス越しにみた画像の生成手法に本発明を適用することにより、ガラス表面に投影される物の影によってガラス表面を表現することができる。   In the embodiment described above, the plane object 201 is the ground, but the present invention is not limited to this. For example, it may be a water surface, a sea surface, or a contact surface between substances having different refractive indexes. For example, by applying the present invention to a method for expressing the sea surface when viewed from the sea toward the sky, the sea surface can be expressed by a shadow of a ship or the like projected onto the sea surface. Further, for example, by applying the present invention to a method for generating an image seen through a transparent glass, the glass surface can be expressed by the shadow of an object projected on the glass surface.

上述した実施例では、立体オブジェクト202の陰影206を生成しているがこれに限定されない。例えば、立体オブジェクト202は、人物オブジェクトなどの幾つかの平面・曲面で囲まれた3次元キャラクタオブジェクトのほか、平面で表される2次元キャラクタオブジェクトなど任意の形状のキャラクタオブジェクトであってもよい。   In the embodiment described above, the shadow 206 of the three-dimensional object 202 is generated, but the present invention is not limited to this. For example, the three-dimensional object 202 may be a character object having an arbitrary shape such as a two-dimensional character object represented by a plane in addition to a three-dimensional character object surrounded by several planes / curved surfaces such as a person object.

応用例の1つとして、生成部304は、面オブジェクト201あるいは面オブジェクト201が存在する面401に投影された立体オブジェクト202の陰影206と、影でない部分との境目付近を、立体オブジェクト202の色と陰影206の色との中間色を用いて表現することによって、境界線(影の輪郭)をぼやかした画像を生成してもよい。これによって、滑らかな画像にすることができる。   As one application example, the generation unit 304 uses the color of the three-dimensional object 202 in the vicinity of the boundary between the shadow 206 of the three-dimensional object 202 projected on the plane object 201 or the plane 401 where the plane object 201 exists and a non-shadow portion. An image in which the boundary line (shadow outline) is blurred may be generated by using an intermediate color between the color of the shadow and the shadow 206. As a result, a smooth image can be obtained.

応用例の1つとして、生成部304は、視点204から視線ベクトル205の示す視線の方向にこの仮想空間を眺めた画像を、拡大あるいは縮小した画像を生成してもよい。この場合、例えば、視線ベクトル205が単位ベクトルのときを基準値(等倍)として、視線ベクトル205の長さを画像の拡大率とする。あるいは、画像の拡大率を示すパラメータを別に設けてもよい。拡大率は、コントローラ105を用いてユーザにより設定されてもよいし、CPU 101がゲームの進行に応じて設定してもよい。そして、生成部304は、設定された拡大率に基づいて、拡大あるいは縮小した画像を生成する。これによって、より臨場感のある演出をすることができる。   As one application example, the generation unit 304 may generate an image obtained by enlarging or reducing an image of the virtual space viewed from the viewpoint 204 in the direction of the line of sight indicated by the line-of-sight vector 205. In this case, for example, when the line-of-sight vector 205 is a unit vector, the length of the line-of-sight vector 205 is set as an image enlargement ratio. Or you may provide the parameter which shows the expansion ratio of an image separately. The enlargement ratio may be set by the user using the controller 105, or the CPU 101 may set it according to the progress of the game. Then, the generation unit 304 generates an enlarged or reduced image based on the set enlargement ratio. As a result, it is possible to produce a more realistic effect.

応用例の1つとして、視点204の移動できる範囲や、視線の方向を移動できる範囲を、ゲームの進行に応じて変化させてもよい。例えば、ユーザの獲得ポイント(ゲームスコアなど)が多ければ多いほど、視点204の移動できる範囲を広く設定する。例えば、ユーザがより多くのゲームステージをゲームクリアすればするほど、視点204の移動できる範囲を広く設定する。例えば、ユーザのプレイ時間が長ければ長いほど、視点204の移動できる範囲を広く設定する。CPU 101は、ユーザの獲得ポイント、ユーザのクリアしたステージ数、ユーザのプレイ時間など、ゲームの進行具合に基づくパラメータを計数してRAM 103に記憶し、このパラメータに基づいて、視点204の移動可能範囲及び/又は視線方向の移動可能範囲を設定すればよい。移動可能範囲は、仮想空間内の球体・半球体・立方体などの立体(又は立体の集合)、円・多角形などの平面(又は平面の集合)、線分(又は線分の集合)、点(又は点の集合)など、任意の図形で定義できる。これらの図形の形状は、ユーザのポイント数、ステージ数、プレイ時間などのゲーム進行レベルに対応づけて、予め記憶部301が記憶していてもよいし、ゲームの進行具合によってCPU 101がその都度計算して求めてもよい。これによって、画像生成装置300は、ゲームの進行に合わせてバラエティに富んだ画像を生成して凝った演出をすることができる。   As one application example, the range in which the viewpoint 204 can be moved and the range in which the direction of the line of sight can be moved may be changed according to the progress of the game. For example, the greater the number of user acquisition points (game score, etc.), the wider the range in which the viewpoint 204 can be moved. For example, as the user clears more game stages, the range in which the viewpoint 204 can be moved is set wider. For example, the longer the user play time, the wider the range in which the viewpoint 204 can be moved. The CPU 101 counts parameters based on the progress of the game, such as user acquisition points, the number of stages cleared by the user, and the user's play time, and stores them in the RAM 103. Based on these parameters, the viewpoint 204 can be moved. A range and / or a movable range in the line-of-sight direction may be set. The movable range is a solid (or a set of solids) such as a sphere, hemisphere, or cube in a virtual space, a plane (or a set of planes) such as a circle or a polygon, a line segment (or a set of line segments), or a point. (Or a set of points) or any other graphic. The shape of these figures may be stored in advance in the storage unit 301 in association with the game progress level such as the number of points, the number of stages, the play time, etc. of the user, or the CPU 101 may change each time depending on the progress of the game. It may be obtained by calculation. As a result, the image generating apparatus 300 can generate a variety of images in accordance with the progress of the game and give a sophisticated effect.

応用例の1つとして、視点204の移動する速度を、ゲームの進行に応じて変化させてもよい。CPU 101は、ユーザの獲得ポイント、ユーザのクリアしたステージ数、ユーザのプレイ時間など、ゲームの進行に基づくパラメータを係数してRAM 103に記憶し、このパラメータに基づいて、視点204の移動速度を設定すればよい。移動速度は、ポイント数、ステージ数、プレイ時間などのゲーム進行レベルに対応づけて、予め記憶部301が記憶していてもよいし、ゲームの進行具合によってCPU 101がその都度計算して求めてもよい。これによって、画像生成装置300は、ゲームの進行に合わせてバラエティに富んだ画像を生成して凝った演出をすることができる。   As one application example, the moving speed of the viewpoint 204 may be changed according to the progress of the game. The CPU 101 calculates and stores in the RAM 103 parameters based on the progress of the game, such as the user's acquisition points, the number of stages cleared by the user, and the user's play time, and the moving speed of the viewpoint 204 is determined based on these parameters. You only have to set it. The moving speed may be stored in advance in the storage unit 301 in association with the game progress level such as the number of points, the number of stages, and the play time, or calculated by the CPU 101 each time depending on the progress of the game. Also good. As a result, the image generating apparatus 300 can generate a variety of images in accordance with the progress of the game and give a sophisticated effect.

応用例の1つとして、計算部302は、光源203からの光によってできる陰影206のかわりに、面オブジェクト201と立体オブジェクト202とが接触した領域の形状と位置を求めてもよい。この場合、光源203は存在しても存在しなくてもよい。また、判断部303と生成部304は、面オブジェクト201と立体オブジェクト202とが接触した領域を、陰影206とみなして、上述した処理と同様の処理を行えばよい。
例えば、図6は、面オブジェクト201と立体オブジェクト202とが接触した領域601(図中では601aと601bと記載)を説明する図である。図6(a)は、視点204が面オブジェクト201に対して立体オブジェクト202と同じ側に配置された場合に、生成部304が生成した画像の例である。図6(b)は、視点204が面オブジェクト201に対して異なる側に配置された場合に、生成部304が生成した画像の例である。この例では、ダンサーオブジェクト(立体オブジェクト202)はステージオブジェクト(面オブジェクト201)の上に立っている。面オブジェクト201と立体オブジェクト202とが接触した領域601は、ダンサーオブジェクトの足裏に相当する。計算部302は、これらの領域601a及び601bを陰影206とみなして(あるいは陰影206に代替して)陰影206の形状と位置を計算する。そして、生成部304は、上述の処理と同様にして、計算された陰影206(接触した領域601)を含む画像を生成する。陰影206が、接触した領域601を含むとしてもよい。
これにより、複数のキャラクタオブジェクトが接触する領域を示す画像を生成する手法として、本発明を用いることができる。例えば、ダンサーオブジェクトの足裏の形状を更に細かく表現した画像を生成することもできる。
As one application example, the calculation unit 302 may obtain the shape and position of an area where the plane object 201 and the three-dimensional object 202 are in contact with each other instead of the shade 206 formed by the light from the light source 203. In this case, the light source 203 may or may not exist. Further, the determination unit 303 and the generation unit 304 may perform the same processing as described above, regarding the area where the plane object 201 and the three-dimensional object 202 are in contact with each other as the shadow 206.
For example, FIG. 6 is a diagram for explaining a region 601 where the plane object 201 and the three-dimensional object 202 are in contact (indicated as 601a and 601b in the drawing). FIG. 6A is an example of an image generated by the generation unit 304 when the viewpoint 204 is arranged on the same side as the three-dimensional object 202 with respect to the plane object 201. FIG. 6B is an example of an image generated by the generation unit 304 when the viewpoint 204 is arranged on a different side with respect to the plane object 201. In this example, the dancer object (solid object 202) stands on the stage object (plane object 201). A region 601 where the plane object 201 and the three-dimensional object 202 are in contact corresponds to the sole of the dancer object. The calculation unit 302 regards these regions 601a and 601b as the shadow 206 (or substitutes for the shadow 206) and calculates the shape and position of the shadow 206. Then, the generation unit 304 generates an image including the calculated shadow 206 (contacted region 601) in the same manner as the above-described processing. The shadow 206 may include a contact area 601.
Thus, the present invention can be used as a method for generating an image showing an area where a plurality of character objects are in contact. For example, it is possible to generate an image that more precisely represents the shape of the sole of the dancer object.

(実施例2)
次に、本発明の他の実施例について説明する。上述した実施例では、第1のオブジェクトを面、第2のオブジェクトを立体としたが、本実施例では第1と第2のオブジェクトはそれぞれ面でも立体でもよい点が異なる。すなわち、第1と第2のオブジェクト両方が立体でもよいし、両方が面でもよいし、第1のオブジェクトが立体で第2のオブジェクトが面でもよい。判断部303は、視点204と、第1と第2のオブジェクトとの距離などに基づいて、視点204が第1のオブジェクトに対して第2のオブジェクトと同じ側に配置されるか異なる側に配置されるかを判断する。なお、その他の構成は上述の実施例と同様であるので、重複する部分の説明は省略する。以下詳述する。
(Example 2)
Next, another embodiment of the present invention will be described. In the above-described embodiment, the first object is a plane and the second object is a solid. However, in the present embodiment, the first and second objects may be either a plane or a solid. That is, both the first and second objects may be three-dimensional, both may be planes, or the first object may be three-dimensional and the second object may be plane. The determination unit 303 arranges the viewpoint 204 on the same side as the second object or on a different side with respect to the first object based on the distance between the viewpoint 204 and the first and second objects. Judge what will be done. Since the other configuration is the same as that of the above-described embodiment, the description of the overlapping part is omitted. This will be described in detail below.

判断部303は、視点204と第1のオブジェクトとの距離D1と、視点204と第2のオブジェクトとの距離D2とを求める。言い換えれば、判断部303は、視点204と第1のオブジェクトの代表点(重心など)とを結ぶ第1ベクトルV1の長さ(すなわち距離D1)と、視点204と第2のオブジェクトの代表点とを結ぶ第2ベクトルV2の長さ(すなわち距離D2)とを求める。そして、D1<D2の場合、判断部303は、視点204が第1のオブジェクトに対して第2のオブジェクトと同じ側に配置されると判断する。一方、D1>D2の場合、判断部303は、視点204が第1のオブジェクトに対して第2のオブジェクトと異なる側に配置されると判断する。なお、D1=D2の場合、判断部303はどちらに判断してもよいが、本実施例では同じ側に配置されると判断することとする。記憶部301、計算部302、生成部304が行う処理は上述の実施例と同様なので説明を省略する。   The determination unit 303 obtains a distance D1 between the viewpoint 204 and the first object and a distance D2 between the viewpoint 204 and the second object. In other words, the determination unit 303 determines the length of the first vector V1 that connects the viewpoint 204 and the representative point (such as the center of gravity) of the first object (that is, the distance D1), the representative point of the viewpoint 204 and the second object, And the length of the second vector V2 (that is, the distance D2). When D1 <D2, the determination unit 303 determines that the viewpoint 204 is arranged on the same side as the second object with respect to the first object. On the other hand, when D1> D2, the determination unit 303 determines that the viewpoint 204 is arranged on a different side from the second object with respect to the first object. Note that, when D1 = D2, the determination unit 303 may determine either, but in this embodiment, it is determined that they are arranged on the same side. Since the processing performed by the storage unit 301, the calculation unit 302, and the generation unit 304 is the same as that in the above-described embodiment, the description thereof is omitted.

本実施例では、判断部303は、上記の判断手法と異なる他の手法で判断することもできる。例えば、第1ベクトルV1と、第2ベクトルから第1ベクトルを引いた第3ベクトル(V2−V1)とのなす角θが90°以下の場合、判断部303は、視点204が第1のオブジェクトに対して第2のオブジェクトと同じ側に配置されると判断してもよい。一方、角θが90°未満の場合、判断部303は、視点204が第1のオブジェクトに対して第2のオブジェクトと異なる側に配置されると判断してもよい。   In the present embodiment, the determination unit 303 can also determine by another method different from the above determination method. For example, when the angle θ formed by the first vector V1 and the third vector (V2−V1) obtained by subtracting the first vector from the second vector is 90 ° or less, the determination unit 303 determines that the viewpoint 204 is the first object. May be determined to be arranged on the same side as the second object. On the other hand, when the angle θ is less than 90 °, the determination unit 303 may determine that the viewpoint 204 is arranged on a different side from the second object with respect to the first object.

本実施例は、同じ仮想空間内に複数のオブジェクトが存在し、これらのオブジェクト同士の位置関係によらず、特定のオブジェクトを仮想空間内のどの位置からも表示するように制御したい場合に特に有効である。すなわち、仮想空間内のオブジェクトに、表示する優先順位を設定し、優先順位の高いオブジェクトは優先順位の低いオブジェクトより優先して表示することができる。視点204と第1・第2オブジェクトとの位置関係によって、視点204から、優先順位の高いオブジェクトが優先順位の低いオブジェクトに隠れてしまう可能性がある。そこで、(a)視点204が第1のオブジェクトに対して第2のオブジェクトと同じ側に配置される場合、すなわち、優先順位の高いオブジェクトが隠れることはない位置関係の場合、生成部304は、第1のオブジェクトと第2のオブジェクトとを見た様子を表す画像を生成する。一方、(b)視点204が第1のオブジェクトに対して第2のオブジェクトと異なる側に配置される場合、すなわち、優先順位の高いオブジェクトが優先順位の低いオブジェクトに隠れてしまう位置関係の場合、生成部304は、第2のオブジェクトを見た様子を表す画像を生成する。この場合、生成部304が生成する画像には、優先順位の低いオブジェクトが含まれない。
このように、本実施例によれば、画像生成装置300は、オブジェクトの形状に関わらず、全方位からオブジェクトを見た画像を生成することができる。
This embodiment is particularly effective when there are multiple objects in the same virtual space and it is desired to control a specific object from any position in the virtual space regardless of the positional relationship between these objects. It is. That is, a priority order to be displayed is set for an object in the virtual space, and an object with a higher priority order can be displayed with priority over an object with a lower priority order. Depending on the positional relationship between the viewpoint 204 and the first and second objects, an object with a higher priority may be hidden from an object with a lower priority from the viewpoint 204. Therefore, (a) when the viewpoint 204 is arranged on the same side as the second object with respect to the first object, that is, in a positional relationship in which an object with high priority is not hidden, the generation unit 304 An image representing the appearance of viewing the first object and the second object is generated. On the other hand, (b) when the viewpoint 204 is arranged on a different side from the second object with respect to the first object, that is, in a positional relationship where an object with a high priority is hidden behind an object with a low priority, The generation unit 304 generates an image representing a state where the second object is viewed. In this case, the image generated by the generation unit 304 does not include an object having a low priority.
Thus, according to the present embodiment, the image generation apparatus 300 can generate an image in which an object is viewed from all directions regardless of the shape of the object.

なお、本実施例においても、生成部は、判断部により視点204が第1のオブジェクトに対して第2のオブジェクトと(a)同じ側に配置されると判断された場合、第1のオブジェクトを不透明とし、(b)異なる側に配置されると判断された場合、第1のオブジェクトを透明として、第1のオブジェクトと第2のオブジェクトとを見た様子を表す画像を生成するように構成してもよい。また、計算部302が、光源203からの光により第2のオブジェクトが第1のオブジェクトの表面に投射する陰影206の形状と位置を求めて、生成部304が、陰影206を含む画像を生成するように構成してもよい。   Also in the present embodiment, when the determination unit determines that the viewpoint 204 is placed on the same side as the second object (a) with respect to the first object, the generation unit selects the first object. If it is determined to be opaque and (b) it is determined to be arranged on a different side, the first object is set to be transparent, and an image representing a state in which the first object and the second object are viewed is generated. May be. In addition, the calculation unit 302 obtains the shape and position of the shadow 206 projected by the second object onto the surface of the first object by the light from the light source 203, and the generation unit 304 generates an image including the shadow 206. You may comprise as follows.

本発明は、上述した実施例に限定されず、種々の変形及び応用が可能である。また、上述した実施例の各構成要素を自由に組み合わせることも可能である。   The present invention is not limited to the above-described embodiments, and various modifications and applications are possible. Moreover, it is also possible to freely combine the components of the above-described embodiments.

画像生成装置300を装置の全部又は一部として動作させるためのプログラムを、メモリカード、CD−ROM、DVD、MO(Magneto Optical disk)などのコンピュータ読み取り可能な記録媒体に格納して配布し、これを別のコンピュータにインストールし、上述の手段として動作させ、あるいは、上述の工程を実行させてもよい。   A program for operating the image generating apparatus 300 as all or part of the apparatus is stored and distributed in a computer-readable recording medium such as a memory card, CD-ROM, DVD, or MO (Magneto Optical disk). May be installed in another computer and operated as the above-described means, or the above-described steps may be executed.

さらに、インターネット上のサーバ装置が有するディスク装置等にプログラムを格納しておき、例えば、搬送波に重畳させて、コンピュータにダウンロード等するものとしてもよい。   Furthermore, the program may be stored in a disk device or the like included in a server device on the Internet, and may be downloaded onto a computer by being superimposed on a carrier wave, for example.

以上説明したように、本発明によれば、仮想空間内の全方位からオブジェクトを見た画像を生成するために好適な画像生成装置、画像生成方法、ならびに、プログラムを提供することができる。   As described above, according to the present invention, it is possible to provide an image generation device, an image generation method, and a program suitable for generating an image in which an object is viewed from all directions in a virtual space.

本発明の画像生成装置が実現される典型的な情報処理装置の概要構成を示す図である。It is a figure which shows schematic structure of the typical information processing apparatus with which the image generation apparatus of this invention is implement | achieved. 面オブジェクト、立体オブジェクト、光源、視点、視線ベクトル及び陰影を説明するための概念図である。It is a conceptual diagram for demonstrating a surface object, a solid object, a light source, a viewpoint, a gaze vector, and a shadow. 画像生成装置の構成を説明するための図である。It is a figure for demonstrating the structure of an image generation apparatus. (a)視点が面オブジェクトに対して立体オブジェクトと同じ側に配置された例の図である。(b)生成部が生成した画像の例である。(c)視点が面オブジェクトに対して立体オブジェクトと異なる側に配置された例の図である。(d)生成部が生成した画像の例である。(A) It is a figure of the example by which the viewpoint was arrange | positioned with respect to a plane object on the same side as a solid object. (B) It is an example of the image which the production | generation part produced | generated. (C) It is a figure of the example arrange | positioned on the side different from a solid object with respect to a plane object. (D) It is an example of the image which the production | generation part produced | generated. 画像生成処理を説明するためのフローチャートである。It is a flowchart for demonstrating an image generation process. (a)及び(b)は、面オブジェクトと立体オブジェクトとが接触した領域を示す例の図である。(A) And (b) is a figure of the example which shows the area | region where the plane object and the solid object contacted.

符号の説明Explanation of symbols

100 情報処理装置
101 CPU
102 ROM
103 RAM
104 インターフェイス
105 コントローラ
106 外部メモリ
107 画像処理部
108 DVD−ROMドライブ
109 NIC
110 音声処理部
201 面オブジェクト
202 立体オブジェクト
203 光源
204 視点
205 視線ベクトル
206 陰影
300 画像生成装置
301 記憶部
302 計算部
303 判断部
304 生成部
401 面オブジェクトの存在する面
601 面オブジェクトと立体オブジェクトとが接触した領域
100 Information processing apparatus 101 CPU
102 ROM
103 RAM
104 Interface 105 Controller 106 External Memory 107 Image Processing Unit 108 DVD-ROM Drive 109 NIC
DESCRIPTION OF SYMBOLS 110 Sound processing part 201 Plane object 202 Solid object 203 Light source 204 Viewpoint 205 Line-of-sight vector 206 Shading 300 Image generation device 301 Storage part 302 Calculation part 303 Judgment part 304 Generation part 401 Surface 601 where plane object exists Surface object and solid object Touched area

Claims (10)

仮想空間内に配置される第1オブジェクトの位置、第2オブジェクトの位置、視点の位置、視線の方向の情報、を記憶する記憶部、
当該第1オブジェクトの位置、当該第2オブジェクトの位置、当該視点の位置の情報から、当該視点が、当該第1オブジェクトに対して、当該第2オブジェクトと同じ側に配置されるか異なる側に配置されるかを判断する判断部、
当該第1オブジェクトの位置、当該第2オブジェクトの位置、当該視点の位置、当該視線の方向の情報、に基づいて、当該視点の位置から当該視線の方向へ当該仮想空間を見た様子を表す画像を生成する生成部であって、前記判断部により、当該視点が当該第1オブジェクトに対して当該第2オブジェクトと
(a)同じ側に配置されると判断された場合、当該第1オブジェクトと、当該第2オブジェクトと、を見た様子を表す画像を生成し、
(b)異なる側に配置されると判断された場合、当該第2オブジェクトを見た様子を表す画像を生成する
生成部
を備えることを特徴とする画像生成装置。
A storage unit for storing information on the position of the first object, the position of the second object, the position of the viewpoint, and the direction of the line of sight arranged in the virtual space;
From the information on the position of the first object, the position of the second object, and the position of the viewpoint, the viewpoint is arranged on the same side as the second object or on a different side with respect to the first object. A judgment unit that judges whether or not
An image representing a state in which the virtual space is viewed from the position of the viewpoint to the direction of the line of sight based on the position of the first object, the position of the second object, the position of the viewpoint, and the information on the direction of the line of sight When the determination unit determines that the viewpoint is arranged on the same side as the second object with respect to the first object, (a) the first object, Generate an image representing the second object and how it was seen,
(B) An image generation apparatus comprising: a generation unit that generates an image representing a state of viewing the second object when it is determined that the second object is arranged on a different side.
請求項1に記載の画像生成装置であって、
当該第1オブジェクトは面オブジェクトであり、
当該第2オブジェクトは立体オブジェクトであり、
前記記憶部は、当該面オブジェクトの形状と、当該立体オブジェクトの形状とを更に記憶し、
前記判断部は、当該面オブジェクトの形状および位置、当該立体オブジェクトの形状および位置、当該視点の位置の情報から、当該視点が、当該面オブジェクトに対して、当該立体オブジェクトと同じ側に配置されるか異なる側に配置されるかを判断し、
前記生成部は、当該面オブジェクトの形状および位置、当該立体オブジェクトの形状および位置、当該視点の位置、当該視線の方向の情報、に基づいて、当該視点の位置から当該視線の方向へ当該仮想空間を見た様子を表す画像を生成する
ことを特徴とする画像生成装置。
The image generation apparatus according to claim 1,
The first object is a plane object,
The second object is a three-dimensional object,
The storage unit further stores the shape of the plane object and the shape of the solid object,
The determination unit arranges the viewpoint on the same side as the solid object with respect to the plane object from information on the shape and position of the plane object, the shape and position of the solid object, and the position of the viewpoint. Or be placed on a different side,
Based on the shape and position of the plane object, the shape and position of the three-dimensional object, the position of the viewpoint, and information on the direction of the line of sight, the generation unit generates the virtual space from the position of the viewpoint to the direction of the line of sight. An image generation device that generates an image representing a state of viewing the screen.
請求項2に記載の画像生成装置であって、
前記記憶部は、当該面オブジェクトに対して当該立体オブジェクトと同じ側に配置される光源の位置を更に記憶し、
当該面オブジェクトの形状および位置、当該立体オブジェクトの形状および位置、当該光源の情報から、当該仮想空間において当該光源により当該立体オブジェクトが当該面オブジェクトに投射する陰影の形状および位置を計算する計算部を更に備え、
前記生成部は、前記計算部により計算された当該陰影の形状及び位置に基づいて、前記判断部により、当該視点が当該面オブジェクトに対して当該立体オブジェクトと
(a)同じ側に配置されると判断された場合、当該面オブジェクトと、当該立体オブジェクトと、当該陰影と、を見た様子を表す画像を生成し、
(b)異なる側に配置されると判断された場合、当該立体オブジェクトと、当該陰影と、を見た様子を表す画像を生成する
ことを特徴とする画像生成装置。
The image generation apparatus according to claim 2,
The storage unit further stores a position of a light source arranged on the same side as the solid object with respect to the plane object,
A calculation unit that calculates the shape and position of a shadow projected by the light source on the surface object by the light source in the virtual space from the shape and position of the surface object, the shape and position of the solid object, and the information on the light source. In addition,
When the viewpoint is arranged on the same side as the three-dimensional object with respect to the plane object by the determination unit based on the shape and position of the shadow calculated by the calculation unit, If determined, an image representing the appearance of the plane object, the solid object, and the shadow is generated,
(B) An image generation device that generates an image representing a state in which the solid object and the shadow are viewed when it is determined that they are arranged on different sides.
請求項2又は3に記載の画像生成装置であって、
前記生成部は、前記判断部により、当該視点が当該面オブジェクトに対して当該立体オブジェクトと
(a)同じ側に配置されると判断された場合、当該面オブジェクトを不透明とし、
(b)異なる側に配置されると判断された場合、当該面オブジェクトを透明として、
当該面オブジェクトと、当該立体オブジェクトと、当該陰影と、を見た様子を表す画像を生成する
ことを特徴とする画像生成装置。
The image generation device according to claim 2 or 3,
When the determination unit determines that the viewpoint is arranged on the same side as the solid object with respect to the plane object (a), the generation unit makes the plane object opaque,
(B) If it is determined that the plane object is arranged on a different side, the plane object is made transparent,
An image generation apparatus that generates an image representing a state in which the plane object, the solid object, and the shadow are viewed.
請求項3に記載の画像生成装置であって、
前記生成部は、当該面オブジェクトのうち当該陰影の占める領域の画像の明度と彩度の両方又はどちらか片方を減衰させるか、あるいは、当該面オブジェクトのうち当該陰影の占める領域の画像を無彩色にして、画像を生成する
ことを特徴とする画像生成装置。
The image generation device according to claim 3,
The generation unit attenuates the brightness and / or saturation of the image of the area occupied by the shadow of the plane object, or achromatic color of the image of the area occupied by the shadow of the plane object. An image generating apparatus characterized by generating an image.
請求項5に記載の画像生成装置であって、
前記生成部は、前記判断部により、当該視点が当該面オブジェクトに対して当該立体オブジェクトと
(x)同じ側に配置されると判断された場合、当該面オブジェクトのうち当該陰影の占める領域の画像の明度と彩度の両方又はどちらか片方を減衰させて、
(y)異なる側に配置されると判断された場合、当該面オブジェクトのうち当該陰影の占める領域の画像を無彩色にして、
画像を生成する
ことを特徴とする画像生成装置。
The image generation apparatus according to claim 5,
When the determination unit determines that the viewpoint is arranged on the same side as the solid object with respect to the plane object, (x) an image of an area occupied by the shadow in the plane object Attenuate the brightness and / or saturation of
(Y) If it is determined that they are arranged on different sides, the image of the area occupied by the shadow in the plane object is achromatic,
An image generation apparatus characterized by generating an image.
請求項1に記載の画像生成装置であって、
当該画像生成装置は仮想空間内でゲームをプレイするためのゲーム装置であり、
当該視点と当該視線の方向の両方又はどちらか片方が移動可能な範囲を設定する設定部を更に備え、
当該移動可能な範囲は、当該ゲーム装置によるユーザのゲーム進行レベルに基づいて設定される
ことを特徴とする画像生成装置。
The image generation apparatus according to claim 1,
The image generation device is a game device for playing a game in a virtual space,
It further comprises a setting unit for setting a range in which both or one of the viewpoint and the direction of the line of sight can move,
The movable range is set based on a user's game progress level by the game device.
請求項3に記載の画像生成装置であって、
前記計算部は、当該陰影の形状および位置の代わりに、もしくは、当該陰影の形状および位置に加えて、当該面オブジェクトと当該立体オブジェクトとが接触する領域の形状および位置を計算し、
前記生成部は、当該陰影の代わりに、もしくは、当該陰影に加えて、当該面オブジェクトと当該立体オブジェクトとが接触する領域を含む画像を生成する
ことを特徴とする画像生成装置。
The image generation device according to claim 3,
The calculation unit calculates the shape and position of the area where the plane object and the solid object contact, instead of or in addition to the shape and position of the shadow,
The image generation apparatus, wherein the generation unit generates an image including a region where the plane object and the solid object contact in place of or in addition to the shadow.
記憶部、判断部、生成部を有する画像生成装置にて実行される画像生成方法であって、
前記記憶部は、仮想空間内に配置される第1オブジェクトの位置、第2オブジェクトの位置、視点の位置、視線の方向の情報、を記憶し、
前記判断部が、当該第1オブジェクトの位置、当該第2オブジェクトの位置、当該視点の位置の情報から、当該視点が当該第1オブジェクトに対して当該第2オブジェクトと同じ側に配置されるか異なる側に配置されるかを判断する判断ステップ、
前記生成部が、当該第1オブジェクトの位置、当該第2オブジェクトの位置、当該視点の位置、当該視線の方向の情報、に基づいて、当該視点の位置から当該視線の方向へ当該仮想空間を見た様子を表す画像を生成する生成ステップであって、前記判断ステップにより、当該視点が当該第1オブジェクトに対して当該第2オブジェクトと
(a)同じ側に配置されると判断された場合、前記生成部が、当該第1オブジェクトと、当該第2オブジェクトと、を見た様子を表す画像を生成し、
(b)異なる側に配置されると判断された場合、前記生成部が、当該第2オブジェクトを見た様子を表す画像を生成する
生成ステップ、
を備えることを特徴とする画像生成方法。
An image generation method executed by an image generation apparatus having a storage unit, a determination unit, and a generation unit,
The storage unit stores information on the position of the first object, the position of the second object, the position of the viewpoint, and the direction of the line of sight arranged in the virtual space,
The determination unit determines whether the viewpoint is arranged on the same side as the second object with respect to the first object, based on the position information of the first object, the position of the second object, and the position of the viewpoint. A determination step for determining whether to be placed on the side,
Based on the position of the first object, the position of the second object, the position of the viewpoint, and the information on the direction of the line of sight, the generation unit views the virtual space from the position of the viewpoint to the direction of the line of sight. A generation step of generating an image representing the appearance of the image, wherein the determination step determines that the viewpoint is arranged on the same side as the second object with respect to the first object, (a) The generation unit generates an image representing the appearance of the first object and the second object,
(B) a generation step in which, when it is determined that the second unit is arranged on a different side, the generation unit generates an image representing a state in which the second object is viewed;
An image generation method comprising:
コンピュータを、
仮想空間内に配置される第1オブジェクトの位置、第2オブジェクトの位置、視点の位置、視線の方向の情報、を記憶する記憶部、
当該第1オブジェクトの位置、当該第2オブジェクトの位置、当該視点の位置の情報から、当該視点が、当該第1オブジェクトに対して、当該第2オブジェクトと同じ側に配置されるか異なる側に配置されるかを判断する判断部、
当該第1オブジェクトの位置、当該第2オブジェクトの位置、当該視点の位置、当該視線の方向の情報、に基づいて、当該視点の位置から当該視線の方向へ当該仮想空間を見た様子を表す画像を生成する生成部であって、前記判断部により、当該視点が当該第1オブジェクトに対して当該第2オブジェクトと
(a)同じ側に配置されると判断された場合、当該第1オブジェクトと、当該第2オブジェクトと、を見た様子を表す画像を生成し、
(b)異なる側に配置されると判断された場合、当該第2オブジェクトを見た様子を表す画像を生成する
生成部
として機能させることを特徴とするプログラム。
Computer
A storage unit for storing information on the position of the first object, the position of the second object, the position of the viewpoint, and the direction of the line of sight arranged in the virtual space;
From the information on the position of the first object, the position of the second object, and the position of the viewpoint, the viewpoint is arranged on the same side as the second object or on a different side with respect to the first object. A judgment unit that judges whether or not
An image representing a state in which the virtual space is viewed from the position of the viewpoint to the direction of the line of sight based on the position of the first object, the position of the second object, the position of the viewpoint, and the information on the direction of the line of sight When the determination unit determines that the viewpoint is arranged on the same side as the second object with respect to the first object, (a) the first object, Generate an image representing the second object and how it was seen,
(B) A program that functions as a generation unit that generates an image representing a state of viewing the second object when it is determined that the second object is arranged on a different side.
JP2006197010A 2006-07-19 2006-07-19 Image generating apparatus, image generating method, and program Active JP4267646B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006197010A JP4267646B2 (en) 2006-07-19 2006-07-19 Image generating apparatus, image generating method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006197010A JP4267646B2 (en) 2006-07-19 2006-07-19 Image generating apparatus, image generating method, and program

Publications (2)

Publication Number Publication Date
JP2008027050A true JP2008027050A (en) 2008-02-07
JP4267646B2 JP4267646B2 (en) 2009-05-27

Family

ID=39117633

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006197010A Active JP4267646B2 (en) 2006-07-19 2006-07-19 Image generating apparatus, image generating method, and program

Country Status (1)

Country Link
JP (1) JP4267646B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009271664A (en) * 2008-05-02 2009-11-19 Konami Digital Entertainment Co Ltd Display, display method, and program
JP2010264171A (en) * 2009-05-18 2010-11-25 Nintendo Co Ltd GAME PROGRAM AND GAME DEVICE
JP2017099750A (en) * 2015-12-03 2017-06-08 株式会社三洋物産 Game machine
JP2017194855A (en) * 2016-04-21 2017-10-26 株式会社リコー Image processing apparatus, image processing method, image processing program, and image processing system
CN113542543A (en) * 2020-04-15 2021-10-22 佳能株式会社 Image processing apparatus, image processing method, and storage medium
JP2022044702A (en) * 2020-02-12 2022-03-17 株式会社三洋物産 Game machine
JP7118217B1 (en) 2021-06-18 2022-08-15 ヤフー株式会社 Display control device, display control method and display control program
US12210789B2 (en) 2022-10-17 2025-01-28 Toyota Jidosha Kabushiki Kaisha Terminal apparatus, image display method, and non-transitory computer readable medium

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009271664A (en) * 2008-05-02 2009-11-19 Konami Digital Entertainment Co Ltd Display, display method, and program
JP2010264171A (en) * 2009-05-18 2010-11-25 Nintendo Co Ltd GAME PROGRAM AND GAME DEVICE
US9005035B2 (en) 2009-05-18 2015-04-14 Nintendo Co., Ltd. Storage medium storing game program, game apparatus, and game controlling method for changing game parameters based on game progress
JP2017099750A (en) * 2015-12-03 2017-06-08 株式会社三洋物産 Game machine
JP2017194855A (en) * 2016-04-21 2017-10-26 株式会社リコー Image processing apparatus, image processing method, image processing program, and image processing system
JP2022044702A (en) * 2020-02-12 2022-03-17 株式会社三洋物産 Game machine
JP7283588B2 (en) 2020-02-12 2023-05-30 株式会社三洋物産 game machine
CN113542543A (en) * 2020-04-15 2021-10-22 佳能株式会社 Image processing apparatus, image processing method, and storage medium
JP7118217B1 (en) 2021-06-18 2022-08-15 ヤフー株式会社 Display control device, display control method and display control program
JP2023000949A (en) * 2021-06-18 2023-01-04 ヤフー株式会社 Display control device, display control method and display control program
US12210789B2 (en) 2022-10-17 2025-01-28 Toyota Jidosha Kabushiki Kaisha Terminal apparatus, image display method, and non-transitory computer readable medium

Also Published As

Publication number Publication date
JP4267646B2 (en) 2009-05-27

Similar Documents

Publication Publication Date Title
JP4698893B2 (en) Method, graphics system, and program for providing improved fog effects
CN101911129B (en) Image processing device and image processing method
JP4267646B2 (en) Image generating apparatus, image generating method, and program
US8072458B2 (en) Storage medium having game program stored thereon and game apparatus
JP2010033296A (en) Program, information storage medium, and image generation system
JP2006068138A (en) Game device and image processing program
EP1126416B1 (en) Randomly animating a flame in an image
JP2008305241A (en) Image generation device and image generation program
US7479961B2 (en) Program, information storage medium, and image generation system
JP4161613B2 (en) Image processing method
JP5007633B2 (en) Image processing program, computer-readable recording medium storing the program, image processing apparatus, and image processing method
JP4575937B2 (en) Image generating apparatus, image generating method, and program
JP4804122B2 (en) Program, texture data structure, information storage medium, and image generation system
CN114332316B (en) A method, device, electronic device and storage medium for processing virtual characters
JP2010055131A (en) Program, information storage medium, and image generation system
JP2004341570A (en) Image generation system, program, and information storage medium
JP3586460B2 (en) 3D game device and image composition method
JP5146054B2 (en) Generation control program of sound generated from sound source in virtual space
JP4577968B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP4950410B2 (en) PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
JP4106917B2 (en) Animation generation program and image processing apparatus using the same
JP4632855B2 (en) Program, information storage medium, and image generation system
JP4688405B2 (en) PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
JP2006252426A (en) Program, information storage medium, and image generation system
JP2003275460A (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090217

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090218

R150 Certificate of patent or registration of utility model

Ref document number: 4267646

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130227

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140227

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250