JP4310909B2 - Image processing device - Google Patents
Image processing device Download PDFInfo
- Publication number
- JP4310909B2 JP4310909B2 JP2000269076A JP2000269076A JP4310909B2 JP 4310909 B2 JP4310909 B2 JP 4310909B2 JP 2000269076 A JP2000269076 A JP 2000269076A JP 2000269076 A JP2000269076 A JP 2000269076A JP 4310909 B2 JP4310909 B2 JP 4310909B2
- Authority
- JP
- Japan
- Prior art keywords
- processing unit
- display
- objects
- list
- dimensional model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 5
- 238000011960 computer-aided design Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Description
【0001】
【発明の属する技術分野】
この発明は、画像処理装置に関し、より詳細には、画像処理装置によって画面表示された三次元モデルから任意のオブジェクトを操作者に選択させる技術に関する。
【0002】
【従来の技術】
CAD(Computer Aided Design) やCAE(Computer Aided Engineering)等の画像処理装置では、複数のオブジェクトからなる複雑な三次元モデルを、二次元的に画面表示させる場合がある。また、これらの複数のオブジェクトの中から、任意の1個のオブジェクトを操作者に選択させたい場合がある。この指定方法の一つとして、選択したいオブジェクト上の任意の点を、操作者に画面上で指定させる方法がある。しかし、三次元モデルを画面に表示する場合には、画面上の1個の点が複数のオブジェクトに対応することが多い。
【0003】
指定された1個の点が複数のオブジェクトに対応する場合、従来は、例えば、指定された点に対応するオブジェクトを画面にリストアップし、そのリストの中から、改めて操作者にオブジェクトを指定させていた。この場合、表示画面には、三次元モデルとリストの両方が表示される。したがって、操作性を向上させるためには、三次元モデル内の各オブジェクトとリストアップされた各オブジェクトとの対応関係を操作者に認識しやすくするための工夫が望まれる。
【0004】
このため、従来の画像処理装置では、例えば、操作者によってリスト上で指定されたオブジェクトを、三次元モデル内で強調表示することにより、操作性の向上を図っていた。
【0005】
【発明が解決しようとする課題】
しかしながら、リスト上で指定されたオブジェクトを三次元モデル内で強調表示する方法では、操作者は、選択したいオブジェクトを特定できるまで、リスト上での指定を繰り返さなければならない。
【0006】
したがって、このような方法では、十分な操作性を得ることができなかった。特に、三次元モデルに含まれるオブジェクトの数が多い場合には、オブジェクトの指定に要する操作負担は、非常に大きかった。
【0007】
このため、三次元モデル内の各オブジェクトとリスト内の各オブジェクトとの対応関係をさらに認識しやすくする技術が望まれていた。
【0008】
【課題を解決するための手段】
この発明に係る画像処理装置は、複数のオブジェクトを有する三次元モデルを出力装置の画面に二次元的に表示させるモデル表示処理部と、外部から指定された画面上の位置に対応する1または複数のオブジェクトを、三次元モデルから選択するオブジェクト選択処理部と、このオブジェクト選択処理部によって選択されたオブジェクトのリストを、これらのオブジェクトの三次元モデル上の遠近に応じて文字サイズが相違するように、出力装置の画面に表示させるリスト表示処理部とを備える。
【0009】
かかる構成によれば、モデル表示処理部に表示された三次元モデルに含まれるオブジェクトのうち、オブジェクト選択部で選択されたオブジェクトを、三次元モデル上の遠近に応じて文字サイズが相違するように表示することができる。したがって、この発明によれば、三次元モデル内の各オブジェクトとリスト内の各オブジェクトとの対応関係を認識しやすくすることができる。
【0010】
【発明の実施の形態】
以下、この発明の実施の形態について、図面を用いて説明する。なお、図中、各構成成分の大きさ、形状および配置関係は、本発明が理解できる程度に概略的に示してあるにすぎず、また、以下に説明する数値的条件は単なる例示にすぎない。
【0011】
第1の実施の形態
以下、この発明の第1の実施の形態に係る画像処理装置について、図1〜図7を用いて説明する。
【0012】
図1は、この実施の形態に係る画像処理装置の構成を概略的に示すブロック図である。
【0013】
図1に示したように、この装置は、入力装置110、出力装置120、CPU(Central Processing Unit) 130、記憶部140および処理部150を備えている。
【0014】
入力装置110は、画像処理装置に対する操作やデータ入力等を行うための装置であり、例えばキーボードやマウスなどを有している。入力装置110は、CPU130に接続されている。
【0015】
出力装置120は、画像を表示するための装置である。出力装置120は、例えば、三次元モデルや、操作者によって選択されたオブジェクトのリスト等を、画面に表示する。この出力装置120も、CPU130に接続されている。
【0016】
CPU130は、入力装置110から入力された操作信号などに基づいて、出力装置120、記憶部140および処理部150等を制御する。
【0017】
記憶部140は、オブジェクト記憶部141を備える。このオブジェクト記憶部141は、三次元モデルに関するデータを記憶する。処理部150は、モデル表示処理部151と、オブジェクト選択処理部152と、リスト表示処理部153を備える。モデル表示処理部151は、出力装置120に三次元モデルを表示させるための画像処理等を行う。オブジェクト選択処理部152は、操作者によって指定された画面位置に対応するオブジェクトを三次元モデルから抽出する処理や、この画面位置に対応する座標をオブジェクト毎に算出する処理(後述)等を行う。また、リスト表示処理部153は、オブジェクト選択処理部152によって抽出されたオブジェクトのリストを出力装置120に表示するための処理等を行う。後述するように、このリスト表示処理部153は、オブジェクトのリストを、操作者の視点(実際には三次元空間内に仮想的に設定された視点)に近いオブジェクトから順に出力装置120に表示させ、且つ、視点座標に近いオブジェクトほど大きい文字サイズで表示させる。
【0018】
次に、図1に示した画像処理装置の動作について、図2〜図7を用いて説明する。
【0019】
図2は、この実施の形態に係る三次元モデルの表示例を示す概念図である。図2に示したように、出力装置120の表示画面には、三次元モデル201と、座標軸x,y,zを有する座標表示202とが表示される。図2の例では、三次元モデル201は、オブジェクトとして、4個の正三角形O1,I1,I2,A1を有している。これらのオブジェクトは、三次元空間的には、操作者に近い側からO1,I1,I2,A1の順で、配置されている。また、これらのオブジェクトO1,I1,I2,A1は、正三角形の中心点がそれぞれ直線x=y=z上に位置するように、配列されている。
【0020】
図3は、図2の三次元モデルに対応する座標データの一例を示している。図3の例では、それぞれのオブジェクトの頂点座標(x,y,z)は、オブジェクトO1 が(10,0,0),(0,10,0),(0,0,10)であり、オブジェクトI1 が(5,0,0),(0,5,0),(0,0,5)であり、オブジェクトI2 が(3,0,0),(0,3,0),(0,0,3)であり、オブジェクトA1 が(1,0,0),(0,1,0),(0,0,1)である。これらの座標データは、オブジェクト記憶部141内に記憶されている。図2に示したような画像を出力装置120に表示させる際には、まず、モデル表示処理部151が、オブジェクト記憶部141から読み出された座標データに基づいて表示画像情報を生成し、次に、CPU130が、この表示画像情報を用いて出力装置120に画像を表示させる。
【0021】
続いて、操作者にオブジェクトを選択させる手順を、図4を用いて説明する。
【0022】
まず、操作者が、入力装置110を用いて、出力装置120の表示画面上の任意の位置を指定すると、この指定情報がCPU130に受け付けられる(S401参照)。CPU130は、処理部150を制御して、後述の処理S402〜S404を行わせる。以下の説明では、図5に示したような位置P0 が、操作者によって指定された場合について説明する。この場合には、指定された位置には、すべてのオブジェクトO1,I1,I2,A1が対応していることになる。
【0023】
次に、オブジェクト選択処理部152が、操作者によって指定された画面位置に対応するオブジェクトを三次元モデルから抽出し、さらに、この画面位置に対応する座標をオブジェクト毎に算出する(S402参照)。座標の計算では、まず、仮想的な三次元空間における、表示画面上の指定点と座標原点(0,0,0)とを結ぶ直線を求め、そして、この直線と各オブジェクトO1,I1,I2,A1との交点の座標をそれぞれ求める。これらの交点座標が、求める座標である。図6に、座標の計算結果の一例を示す。
【0024】
続いて、オブジェクト選択処理部152は、抽出したオブジェクトO1,I1,I2,A1の並べ替えを行う(S403参照)。この実施の形態では、対応するオブジェクトO1,I1,I2,A1を、視点から近い順に並べる。なお、視点の座標は、三次元モデルの表示方向に応じてCPU130が算出する。
【0025】
次に、リスト表示処理部153が、オブジェクトのリストを出力装置120に表示させるための処理を行う(S404参照)。図7に、出力装置120に表示されるリストの一例を示す。図7に示したように、この実施の形態では、視点から近いオブジェクトから順に出力装置120に表示させ、且つ、視点から近いものほど大きい文字サイズで表示させる。
【0026】
その後、操作者が、出力装置120に表示されたリストから、いずれかのオブジェクトのいずれかを指定する(S405)。このとき、この実施の形態では、このリストを、操作者の視点から近いオブジェクトから順に表示し且つ視点から近いものほど大きい文字サイズで表示することにしたので、三次元モデル内の各オブジェクトとリストアップされた各オブジェクト名との対応関係が、操作者にとって認識しやすい。したがって、オブジェクトの選択が容易である。
【0027】
以上説明したように、この実施の形態によれば、三次元モデル内の各オブジェクトとリスト内の各オブジェクトとの対応関係を認識しやすくすることができ、したがって、三次元モデルに含まれるオブジェクトの数が多い場合でもオブジェクトの指定に要する操作負担が小さくなる。
【0028】
第2の実施の形態
以下、この発明の第1の実施の形態に係る画像処理装置について、図8〜図13を用いて説明する。
【0029】
図8は、この実施の形態に係る画像処理装置の構成を概略的に示すブロック図である。
【0030】
図8に示したように、この装置は、入力装置810、出力装置820、CPU830、記憶部840および処理部850を備えている。
【0031】
入力装置810は、画像処理装置に対する操作やデータ入力等を行うための装置であり、例えばキーボードやマウスなどを有している。入力装置810は、CPU830に接続されている。
【0032】
出力装置820は、表示画面に画像を表示するための装置である。出力装置820は、例えば、三次元モデルや、操作者によって選択されたオブジェクトのリスト等を、画面に表示する。この出力装置820も、CPU830に接続されている。
【0033】
CPU830は、入力装置810から入力された操作信号などに基づいて、出力装置820、記憶部840および処理部850等を制御する。
【0034】
記憶部840は、オブジェクト記憶部841と、視界記憶部842と、抽出オブジェクト記憶部843とを備える。オブジェクト記憶部841には、三次元モデルの構成に関するデータが格納される。視界記憶部842には、三次元モデルを出力装置820に表示する際の視界情報(後述)が格納される。リスト表示処理部853には、オブジェクト選択処理部852(後述)による座標の計算結果(第1の実施の形態の図6参照)が、格納される。
【0035】
処理部850は、モデル表示処理部851と、オブジェクト選択処理部852と、リスト表示処理部853とを備える。モデル表示処理部851は、出力装置820に三次元モデルを表示させるための画像処理等を行う。オブジェクト選択処理部852は、操作者によって指定された画面位置に対応するオブジェクトを三次元モデルから抽出する処理や、この画面位置に対応する座標をオブジェクト毎に算出する処理(後述)等を行う。また、リスト表示処理部853は、オブジェクト選択処理部852によって抽出されたオブジェクトのリストを出力装置820に表示するための処理等を行う。
【0036】
次に、図8に示した画像処理装置の動作について、図9〜図13を用いて説明する。
【0037】
図9(A)は、この実施の形態に係る三次元モデルの表示例を示す概念図である。図9(A)に示したように、出力装置820の表示画面には、三次元モデル901と、座標軸x,y,zを有する座標表示902とが表示される。図9(A)の三次元モデル901は、第1の実施の形態の場合(図2参照)と同様、オブジェクトとして、4個の正三角形O1,I1,I2,A1を有している。これらのオブジェクトは、三次元空間的には、操作者に近い側からO1,I1,I2,A1の順で、配置されている。また、これらのオブジェクトO1,I1,I2,A1は、正三角形の中心点がそれぞれ直線x=y=z上に位置するように、配列されている。
【0038】
それぞれのオブジェクトの頂点座標(x,y,z)は、第1の実施の形態の場合(図3参照)と同様である。これらの座標データは、オブジェクト記憶部841内に記憶されている。図9(A)に示したような画像を出力装置820に表示させる際には、まず、モデル表示処理部851が、オブジェクト記憶部841から読み出された座標データに基づいて表示画像情報を生成し、次に、CPU830が、この表示画像情報を用いて出力装置820に画像を表示させる。
【0039】
また、オブジェクト記憶部841には、図10(A)に示したような、視界情報が格納されている。視界情報とは、操作者の視点と視線とを表す座標情報であり、三次元空間内に仮想的に設定されたものである。
【0040】
ここで、操作者が、オブジェクトを選択するために、出力装置120の表示画面上の任意の位置を指定すると、第1の実施の形態と同様の手順により(図4のS401〜S404参照)、指定された画面位置に対応する座標がオブジェクト毎に算出されるとともに、リストが画面表示される。このときの、座標の演算結果の一例を図11(A)に示し、リストの一例を図12(A)に示す。
【0041】
続いて、オブジェクトの表示方向を回転させるときの手順を説明する。図13は、この手順を説明するためのフローチャートである。
【0042】
まず、操作者が、入力装置810を用いて、オブジェクト表示方向の回転を指定する(S1301参照)。この指定では、回転の方向や回転角なども入力される。この指定の内容は、CPU830に送られる。CPU830は、モデル表示処理部851に、出力装置820の画面表示を変更するための画像処理と視界情報を変更するための処理とを実行させる。変更後の画面表示の例および視界情報の例を、図9(B)および図10(B)に示す。
【0043】
続いて、オブジェクト選択処理部852が、操作者によって指定された画面位置に対応するオブジェクトを三次元モデルから再抽出し、さらに、この画面位置に対応する座標をオブジェクト毎に再算出する(S1302参照)。座標の計算方法は、第1の実施の形態の場合と同様である。
【0044】
続いて、オブジェクト選択処理部852は、抽出したオブジェクトO1,I1,I2,A1の並べ替えを行う。この並べ替えにより、対応するオブジェクトO1,I1,I2,A1が、視点座標から近い順に並べ替えられる。図11(B)に、並べ替え後の状態の一例を示す(S1303参照)。
【0045】
次に、リスト表示処理部853が、オブジェクトのリストを出力装置820に表示させるための処理を行う(S1304参照)。図12に、出力装置820に表示されるリストの一例を示す。図12に示したように、ここでも、視点座標に近いオブジェクトから順に出力装置120に表示させ、且つ、視点座標に近いものほど大きい文字サイズで表示させる。
【0046】
その後、操作者が、出力装置820に表示されたリストから、いずれかのオブジェクトのいずれかを指定する(S1305)。この実施の形態でも、第1の実施の形態と同様、このリストを、操作者の視点から近いオブジェクトから順に表示し且つ操作者の視点に近いものほど大きい文字サイズで表示することにしたので、三次元モデル内の各オブジェクトとリストアップされた各オブジェクト名との対応関係が、操作者にとって認識しやすい。したがって、オブジェクトの選択が容易である。
【0047】
以上説明したように、この実施の形態によれば、三次元モデルを画面上で回転させた場合に、これに併せてリストの表示順序および文字サイズを変更することとした。したがって、三次元モデルを画面上で回転させた場合の、オブジェクトの指定に要する操作負担が小さくなる。
【0048】
【発明の効果】
以上詳細に説明したように、本発明によれば、三次元モデル内の各オブジェクトとリスト内の各オブジェクトとの対応関係をさらに認識しやすくすることができるので、オブジェクトの指定に要する操作負担を低減することができる。
【図面の簡単な説明】
【図1】第1の実施の形態に係る画像処理装置の構成を概略的に示すブロック図である。
【図2】第1の実施の形態に係る画像処理装置の、三次元モデルの表示例を示す概念図である。
【図3】第1の実施の形態に係る画像処理装置の、座標データの一例を示す表である。
【図4】第1の実施の形態に係る画像処理装置の動作を説明するためのフローチャートである。
【図5】第1の実施の形態に係る画像処理装置の動作を説明するための概念図である。
【図6】第1の実施の形態に係る画像処理装置の、座標データの一例を示す表である。
【図7】第1の実施の形態に係る画像処理装置の、リスト表示の一例を示す表である。
【図8】第2の実施の形態に係る画像処理装置の構成を概略的に示すブロック図である。
【図9】第2の実施の形態に係る画像処理装置の、三次元モデルの表示例を示す概念図である。
【図10】第2の実施の形態に係る画像処理装置の、視界情報の一例を示す表である。
【図11】第2の実施の形態に係る画像処理装置の、座標データの一例を示す表である。
【図12】第2の実施の形態に係る画像処理装置の、リスト表示の一例を示す表である。
【図13】第2の実施の形態に係る画像処理装置の動作を説明するためのフローチャートである。
【符号の説明】
110,810 入力装置
120,820 出力装置
130,830 CPU
140,840 記憶部
141,841 オブジェクト記憶部
150,850 処理部
151,851 モデル表示処理部
152,852 オブジェクト選択処理部
153,853 リスト表示処理部
842 視界記憶部
843 抽出オブジェクト記憶部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus, and more particularly to a technique for allowing an operator to select an arbitrary object from a three-dimensional model displayed on the screen by the image processing apparatus.
[0002]
[Prior art]
In an image processing apparatus such as CAD (Computer Aided Design) or CAE (Computer Aided Engineering), a complicated three-dimensional model composed of a plurality of objects may be displayed on a two-dimensional screen. In some cases, the operator may want to select any one object from the plurality of objects. As one of the designation methods, there is a method in which an operator designates an arbitrary point on an object to be selected on the screen. However, when a three-dimensional model is displayed on the screen, one point on the screen often corresponds to a plurality of objects.
[0003]
When one specified point corresponds to a plurality of objects, conventionally, for example, an object corresponding to the specified point is listed on the screen, and the operator is made to specify the object again from the list. It was. In this case, both the three-dimensional model and the list are displayed on the display screen. Therefore, in order to improve the operability, it is desired to devise a technique for making the operator easily recognize the correspondence between each object in the three-dimensional model and each listed object.
[0004]
For this reason, in the conventional image processing apparatus, for example, an object designated on the list by the operator is highlighted in the three-dimensional model to improve operability.
[0005]
[Problems to be solved by the invention]
However, in the method of highlighting the object specified on the list in the three-dimensional model, the operator must repeat the specification on the list until the object to be selected can be identified.
[0006]
Therefore, with such a method, sufficient operability cannot be obtained. In particular, when the number of objects included in the three-dimensional model is large, the operation burden required for specifying the objects is very large.
[0007]
For this reason, a technique that makes it easier to recognize the correspondence between each object in the three-dimensional model and each object in the list has been desired.
[0008]
[Means for Solving the Problems]
The image processing apparatus according to the present invention includes a model display processing unit that two-dimensionally displays a three-dimensional model having a plurality of objects on the screen of the output device, and one or more corresponding to positions on the screen designated from the outside. Select an object from the 3D model, and select a list of objects selected by the object selection processor so that the text size differs depending on the perspective of these objects on the 3D model. And a list display processing unit to be displayed on the screen of the output device.
[0009]
According to this configuration, among the objects included in the three-dimensional model displayed in the model display processing unit, the object selected by the object selection unit is set so that the character size differs according to the perspective on the three-dimensional model. Can be displayed. Therefore, according to the present invention, it is possible to easily recognize the correspondence between each object in the three-dimensional model and each object in the list.
[0010]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings. In the drawings, the size, shape, and arrangement relationship of each component are only shown schematically to the extent that the present invention can be understood, and the numerical conditions described below are merely examples. .
[0011]
First Embodiment Hereinafter, an image processing apparatus according to a first embodiment of the present invention will be described with reference to FIGS.
[0012]
FIG. 1 is a block diagram schematically showing the configuration of the image processing apparatus according to this embodiment.
[0013]
As shown in FIG. 1, this apparatus includes an
[0014]
The
[0015]
The
[0016]
The
[0017]
The
[0018]
Next, the operation of the image processing apparatus shown in FIG. 1 will be described with reference to FIGS.
[0019]
FIG. 2 is a conceptual diagram showing a display example of the three-dimensional model according to this embodiment. As shown in FIG. 2, a three-
[0020]
FIG. 3 shows an example of coordinate data corresponding to the three-dimensional model of FIG. In the example of FIG. 3, the vertex coordinates (x, y, z) of the respective objects are such that the object O 1 is (10, 0, 0), (0, 10, 0), (0, 0, 10). , Object I 1 is (5, 0, 0), (0, 5, 0), (0, 0, 5), and object I 2 is (3, 0, 0), (0, 3, 0). , (0, 0, 3) and the object A 1 is (1, 0, 0), (0, 1, 0), (0, 0, 1). These coordinate data are stored in the
[0021]
Next, a procedure for causing the operator to select an object will be described with reference to FIG.
[0022]
First, when the operator designates an arbitrary position on the display screen of the
[0023]
Next, the object
[0024]
Subsequently, the object
[0025]
Next, the list
[0026]
Thereafter, the operator designates one of the objects from the list displayed on the output device 120 (S405). At this time, in this embodiment, the list is displayed in order from the object closer to the operator's viewpoint, and the object closer to the viewpoint is displayed with a larger character size. The correspondence between each uploaded object name is easy for the operator to recognize. Therefore, selection of an object is easy.
[0027]
As described above, according to this embodiment, it is possible to easily recognize the correspondence between each object in the 3D model and each object in the list, and accordingly, the objects included in the 3D model can be recognized. Even when the number is large, the operation burden required for specifying an object is reduced.
[0028]
Second Embodiment Hereinafter, an image processing apparatus according to a first embodiment of the present invention will be described with reference to FIGS. 8 to 13.
[0029]
FIG. 8 is a block diagram schematically showing the configuration of the image processing apparatus according to this embodiment.
[0030]
As illustrated in FIG. 8, this apparatus includes an
[0031]
The
[0032]
The
[0033]
The
[0034]
The
[0035]
The
[0036]
Next, the operation of the image processing apparatus shown in FIG. 8 will be described with reference to FIGS.
[0037]
FIG. 9A is a conceptual diagram showing a display example of the three-dimensional model according to this embodiment. As shown in FIG. 9A, a three-
[0038]
The vertex coordinates (x, y, z) of each object are the same as in the case of the first embodiment (see FIG. 3). These coordinate data are stored in the
[0039]
Further, the
[0040]
Here, when the operator designates an arbitrary position on the display screen of the
[0041]
Next, a procedure for rotating the display direction of the object will be described. FIG. 13 is a flowchart for explaining this procedure.
[0042]
First, the operator designates rotation in the object display direction using the input device 810 (see S1301). In this specification, the direction of rotation and the rotation angle are also input. The contents of this designation are sent to the
[0043]
Subsequently, the object
[0044]
Subsequently, the object
[0045]
Next, the list
[0046]
Thereafter, the operator designates one of the objects from the list displayed on the output device 820 (S1305). Even in this embodiment, as in the first embodiment, this list is displayed in order from an object closer to the operator's viewpoint, and the closer to the operator's viewpoint, the larger the character size is displayed. The correspondence between each object in the 3D model and each object name listed is easy for the operator to recognize. Therefore, selection of an object is easy.
[0047]
As described above, according to this embodiment, when the 3D model is rotated on the screen, the list display order and the character size are changed accordingly. Therefore, the operation burden required for specifying the object when the three-dimensional model is rotated on the screen is reduced.
[0048]
【The invention's effect】
As described above in detail, according to the present invention, the correspondence between each object in the three-dimensional model and each object in the list can be more easily recognized. Can be reduced.
[Brief description of the drawings]
FIG. 1 is a block diagram schematically showing a configuration of an image processing apparatus according to a first embodiment.
FIG. 2 is a conceptual diagram illustrating a display example of a three-dimensional model of the image processing apparatus according to the first embodiment.
FIG. 3 is a table showing an example of coordinate data of the image processing apparatus according to the first embodiment.
FIG. 4 is a flowchart for explaining the operation of the image processing apparatus according to the first embodiment;
FIG. 5 is a conceptual diagram for explaining the operation of the image processing apparatus according to the first embodiment;
FIG. 6 is a table showing an example of coordinate data of the image processing apparatus according to the first embodiment.
FIG. 7 is a table showing an example of a list display of the image processing apparatus according to the first embodiment.
FIG. 8 is a block diagram schematically showing a configuration of an image processing apparatus according to a second embodiment.
FIG. 9 is a conceptual diagram illustrating a display example of a three-dimensional model of the image processing apparatus according to the second embodiment.
FIG. 10 is a table showing an example of visual field information in the image processing apparatus according to the second embodiment.
FIG. 11 is a table showing an example of coordinate data of the image processing apparatus according to the second embodiment.
FIG. 12 is a table showing an example of a list display of the image processing apparatus according to the second embodiment.
FIG. 13 is a flowchart for explaining the operation of the image processing apparatus according to the second embodiment;
[Explanation of symbols]
110,810 Input device 120,820 Output device 130,830 CPU
140,840 Storage unit 141,841 Object storage unit 150,850 Processing unit 151,851 Model display processing unit 152,852 Object selection processing unit 153,853 List
Claims (4)
外部から指定された前記画面上の位置に対応する1または複数の前記オブジェクトを、前記三次元モデルから選択するオブジェクト選択処理部と、
このオブジェクト選択処理部によって選択された前記オブジェクトのリストを、これらのオブジェクトの三次元モデル上の遠近に応じて文字サイズが相違するように、前記出力装置の画面に表示させるリスト表示処理部と、
を備えることを特徴とする画像処理装置。A model display processing unit for two-dimensionally displaying a three-dimensional model having a plurality of objects on the screen of the output device;
An object selection processing unit that selects, from the three-dimensional model, one or more objects corresponding to positions on the screen designated from outside;
A list display processing unit that displays the list of the objects selected by the object selection processing unit on the screen of the output device so that the character size differs according to the perspective on the three-dimensional model of these objects;
An image processing apparatus comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000269076A JP4310909B2 (en) | 2000-09-05 | 2000-09-05 | Image processing device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000269076A JP4310909B2 (en) | 2000-09-05 | 2000-09-05 | Image processing device |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2002074398A JP2002074398A (en) | 2002-03-15 |
| JP4310909B2 true JP4310909B2 (en) | 2009-08-12 |
Family
ID=18755752
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2000269076A Expired - Fee Related JP4310909B2 (en) | 2000-09-05 | 2000-09-05 | Image processing device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4310909B2 (en) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2013050970A (en) * | 2012-10-22 | 2013-03-14 | Ricoh Co Ltd | Image processing device, image processing method, and program |
-
2000
- 2000-09-05 JP JP2000269076A patent/JP4310909B2/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| JP2002074398A (en) | 2002-03-15 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2892423B2 (en) | Image display device and image display method | |
| JPH10283158A (en) | Window stereoscopic display apparatus and method | |
| JPH07111721B2 (en) | Line element data three-dimensional conversion device and method | |
| JP4274377B2 (en) | 3D graphics data display device | |
| EP0649103B1 (en) | Method for blending edges of a geometric object in a computer-aided design system | |
| US5712965A (en) | Three-dimensional solid arranging/editing method in a computer graphic system and system | |
| JP3245336B2 (en) | Modeling method and modeling system | |
| JP3437223B2 (en) | Shape display device and shape display method | |
| JP2006039872A (en) | Information processing method and information processing apparatus | |
| JP4310909B2 (en) | Image processing device | |
| CN109542302B (en) | Computer-implemented method of displaying a subset of digitally modeled components of an object | |
| JP2001273515A (en) | Display device | |
| JP3672352B2 (en) | Three-dimensional configuration editing method and three-dimensional configuration editing apparatus | |
| JP3361652B2 (en) | 3D figure arrangement input method and graphic system | |
| JP2981516B2 (en) | 3D shape editing device | |
| JPH08249500A (en) | How to display 3D graphics | |
| JP3983707B2 (en) | 3D space graphic processing apparatus and 3D space graphic processing method | |
| JP2924750B2 (en) | Three-dimensional shape modeling method and apparatus | |
| US7046241B2 (en) | Oriented three-dimensional editing glyphs | |
| JP3732174B2 (en) | Three-dimensional configuration editing method and three-dimensional configuration editing apparatus | |
| JP2007213437A (en) | Information processing method and information processing apparatus | |
| JP3640790B2 (en) | 3D CAD system and computer readable storage medium storing 3D CAD program | |
| JPH08297750A (en) | Method for changing display state of three-dimensional figure and three-dimensional figure display device | |
| JP2006134251A (en) | 3D graphic layout input device | |
| JP2004094466A (en) | Simplified model creation support device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061226 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090416 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090421 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090504 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120522 Year of fee payment: 3 |
|
| R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120522 Year of fee payment: 3 |
|
| S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120522 Year of fee payment: 3 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130522 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140522 Year of fee payment: 5 |
|
| LAPS | Cancellation because of no payment of annual fees |